72 resultados para coeficiente de difusão
Resumo:
O objectivo da Realidade Virtual é simples de entender mas muito difícil de implementar: criar ambientes completamente indiferenciáveis do mundo real com os quais se possa interagir de um modo natural. Desde a criação do Sensorama por Morton Heiling em 1962, passando pela difusão do conceito pelo público geral na década de 90 até os dias de hoje, a evolução da Realidade Virtual tem sido constante. Este conjunto de tecnologias tem estado envolvido por uma certa descrença por parte da sociedade, motivada pelas grandes expectativas que lhe foram atribuídas e pelo estado de desenvolvimento do hardware aquando do seu auge. No entanto, actualmente assiste-se a um ressurgimento do seu interesse no público geral com a introdução de imagem estereoscópica no cinema ou o sucesso dos controladores da consola Nintendo Wii. Hoje em dia as suas aplicações são muito variadas: desde o treino de pilotos de avião ao tratamento de fobias, passando pela industria do entretenimento e a visita virtual de locais com interesse histórico ou turístico. O objectivo desta tese de mestrado é explorar uma área que ainda não tem sido muito abrangida pela Realidade Virtual e que cobre também aspectos educacionais e lúdicos de modo a ser um factor de atracção para os estudantes do ensino secundário: a simulação de instrumentos musicais. Para tal foi implementado um sistema capaz de simular instrumentos musicais de percussão (uma bateria) utilizando imagem estereoscópica, som posicional e interfaces com o utilizador realistas. Os resultados obtidos nas sessões de avaliação efectuadas por alunos recentemente ingressados no ensino superior demonstram que o sistema desenvolvido, bem como a inovação em interfaces do utilizador com os dispositivos electrónicos de uma forma geral, constituem um meio efectivo na sua motivação para a escolha de um curso na área da engenharia.
Resumo:
Foi realizado um estudo sobre o efeito do tipo de fluidos na transferência de calor. Pretende-se determinar a influência da concentração da solução de Goma de Xantano, do número de Reynolds, do número de Weissenberg, da temperatura e do tempo de escoamento no coeficiente de transferência de calor, jH. O estudo da transferência de calor foi feito num permutador de tubos duplos concêntricos. Já o estudo da reologia foi realizado num reómetro. Na caracterização reológica das soluções de XG, a viscosidade aumenta com a concentração das soluções, diminui para taxas de deformação crescentes e com o aumento da temperatura para ambas as soluções. Os dados mostram um aumento da intensidade da pseudoplasticidade com a concentração do polímero, sendo os valores representados pelo modelo de Sisco. A degradação da solução de 0,20% de goma de xantano a 25 ºC, com o escoamento, é muito acelerada. Os resultados dos ensaios apresentam uma diminuição da viscosidade de 9,4% a 22,9%, para tempos de escoamento de 12 a 47 horas, respectivamente. Num escoamento turbulento em conduta de secção circular constante os resultados mostram uma redução de arrasto total de 18 para 33%. Para a solução de 0,10 % de XG, verifica-se um aumento do calor transferido de 115% e de 130%, quando a temperatura aumenta de 25 ºC para 36 ºC, respectivamente. A água apresenta valores de calor transferido superiores, cerca de 170%, aos da solução de 0,1 %XG. O factor de correlação empírico de Colbourn (jH), utilizado neste trabalho apresenta valores de acordo com a relação de Cho and Hartnett (1985): jH<2/f. Quando o caudal do fluido quente aumenta verifica-se uma diminuição do factor jH. Em relação ao tempo de escoamento verifica-se uma diminuição de cerca de 70% do coeficiente de transferência de calor ao fim de 47 horas. Finalmente verificamos uma diminuição do factor de transferência de calor com o aumento da temperatura do fluido quente, para ambas as concentrações de goma de xantano. Para as soluções de 0,10 e 0,20% de XG essa diminuição variou entre 38 e 15% e entre 34 e 3%, respectivamente.
Resumo:
Foram utilizados como elemento principal de estudo, os efluentes líquidos dos processos industriais da ENDUTEX, Tinturaria e Acabamento de Malhas, S. A. localizada no município de Caldas de Vizela, distrito de Braga. O estudo foi realizado na empresa devido ao interesse da mesma em poder reaproveitar o calor libertado nos efluentes para aquecimento de parte da água captada no rio de Vizela. O objectivo do trabalho consiste no dimensionamento de um permutador de calor que permita satisfazer o interesse da empresa, assim como, um estudo económico relativo aos custos envolventes. Com o intuito de concretizar os objectivos propostos foram realizadas visitas semanais à empresa para se proceder ao levantamento de dados e para a realização de amostragens do efluente para posterior caracterização. Depois de efectuado o dimensionamento do permutador de placas para diferentes caudais e temperaturas dos fluidos, frio (água do rio) e quente (efluentes), concluiu-se que as condições mais rentáveis correspondiam a um caudal de fluido frio de 17 m3/h em que a temperatura de entrada e de saída no permutador seria de 14 ºC e 48 ºC, respectivamente. O caudal de fluido quente seria de 20 m3/h, sendo a temperatura de entrada e de saída no permutador de 62 ºC e 33,1 ºC, respectivamente. Como resultado do dimensionamento obteve-se um permutador de placas com 167 placas em que o coeficiente global de transferência de calor (U) é de 726,9 W/m2ºC, a área projectada de 55,7 m2 e a queda de pressão de 0,904 KPa. Foi consultada a empresa ARSOPI-THERMAL para verificação das características dos permutadores existentes no mercado. No entanto, para as mesmas condições foi sugerido um permutador com 31 placas em que o coeficiente global de transferência de calor (U) é de 6267 W/m2ºC, a área projectada de 7,39 m2 e a queda de pressão de 76 KPa. A diferença verificada nos resultados apresentados pode ter origem na utilização de diferentes expressões no cálculo do coeficiente pelicular de transferência de calor (h) e pelo facto da ARSOPI desprezar o factor de sujamento no seu dimensionamento Na análise económica do projecto é de referir que para o arranque do projecto foi feito o levantamento das necessidades de investimento, situando-se este num valor total de 9640€, sendo o investimento financiado apenas por capitais próprios. O prazo de recuperação do investimento (Pay Back Period) é de cerca de 2 meses.
Resumo:
Este trabalho de pesquisa e desenvolvimento tem como fundamento principal o Conceito de Controlo por Lógica Difusa. Utilizando as ferramentas do software Matlab, foi possível desenvolver um controlador com base na inferência difusa que permitisse controlar qualquer tipo de sistema físico real, independentemente das suas características. O Controlo Lógico Difuso, do inglês “Fuzzy Control”, é um tipo de controlo muito particular, pois permite o uso simultâneo de dados numéricos com variáveis linguísticas que tem por base o conhecimento heurístico dos sistemas a controlar. Desta forma, consegue-se quantificar, por exemplo, se um copo está “meio cheio” ou “meio vazio”, se uma pessoa é “alta” ou “baixa”, se está “frio” ou “muito frio”. O controlo PID é, sem dúvida alguma, o controlador mais amplamente utilizado no controlo de sistemas. Devido à sua simplicidade de construção, aos reduzidos custos de aplicação e manutenção e aos resultados que se obtêm, este controlador torna-se a primeira opção quando se pretende implementar uma malha de controlo num determinado sistema. Caracterizado por três parâmetros de ajuste, a saber componente proporcional, integral e derivativa, as três em conjunto permitem uma sintonia eficaz de qualquer tipo de sistema. De forma a automatizar o processo de sintonia de controladores e, aproveitando o que melhor oferece o Controlo Difuso e o Controlo PID, agrupou-se os dois controladores, onde em conjunto, como poderemos constatar mais adiante, foram obtidos resultados que vão de encontro com os objectivos traçados. Com o auxílio do simulink do Matlab, foi desenvolvido o diagrama de blocos do sistema de controlo, onde o controlador difuso tem a tarefa de supervisionar a resposta do controlador PID, corrigindo-a ao longo do tempo de simulação. O controlador desenvolvido é denominado por Controlador FuzzyPID. Durante o desenvolvimento prático do trabalho, foi simulada a resposta de diversos sistemas à entrada em degrau unitário. Os sistemas estudados são na sua maioria sistemas físicos reais, que representam sistemas mecânicos, térmicos, pneumáticos, eléctricos, etc., e que podem ser facilmente descritos por funções de transferência de primeira, segunda e de ordem superior, com e sem atraso.
Resumo:
O rio Febros é um pequeno curso de água, situado no concelho de Vila Nova de Gaia, com cerca de 15 km de extensão, cuja bacia hidrográfica ocupa uma área de aproximadamente 35,4 km2. Nasce em Seixezelo e desagua na margem esquerda do Rio Douro no Cais do Esteiro, em Avintes. Em Maio de 2008, um acidente de viação teve como consequência o derrame de cerca de quatro toneladas de ácido clorídrico que rapidamente convergiu às águas do rio. Apenas um dia depois, o pH desceu para três e muitos foram os peixes que morreram. A solução adoptada para evitar o desaire foi introduzir milhares de litros de água de modo a diluir o ácido presente, ao longo de todo o curso de água. Tal facto não evitou a destruição de parte de um ecossistema, que ainda nos dias de hoje se encontra em recuperação. De forma a avaliar-se o impacto destas possíveis perturbações sejam estas de origem antropogénica ou natural é necessário possuir conhecimentos dos processos químicos tais como a advecção, a mistura devida à dispersão e a transferência de massa ar/água. Estes processos irão determinar o movimento e destino das substâncias que poderão ser descarregadas no rio. Para tal, recorrer-se-á ao estudo hidrogeométrico do curso de água assim como ao estudo do comportamento de um marcador, simulando uma possível descarga. A rodamina WT será o marcador a ser utilizado devido à panóplia de características ambientalmente favoráveis. Os estudos de campo com este corante, realizados em sequência de descarga previamente estudada, fornecem uma das melhores fontes de informação para verificação e validação de modelos hidráulicos utilizados em estudos de qualidade de águas e protecção ambiental. Escolheram-se dois pontos de descarga no Febros, um em Casal Drijo e outro no Parque Biológico de Gaia, possuindo cada um deles, a jusante, duas estações de monitorização. Pelo modelo ADE os valores obtidos para o coeficiente de dispersão longitudinal para as estações Pontão d’ Alheira, Pinheiral, Menesas e Giestas foram, respectivamente, 0,3622; 0,5468; 1,6832 e 1,7504 m2/s. Para a mesma sequência de estações, os valores da velocidade de escoamento obtidos neste trabalho experimental foram de 0,0633; 0,0684; 0,1548 e 0,1645 m/s. Quanto ao modelo TS, os valores obtidos para o coeficiente de dispersão longitudinal para as estações Pontão d’ Alheira, Pinheiral, Menesas e Giestas foram, respectivamente, 0,2339; 0,1618; 0,5057e 1,1320 m2/s. Para a mesma sequência de estações, os valores da velocidade de escoamento obtidos neste trabalho experimental foram de 0,0652; 0,0775; 0,1891 e 0,1676 m/s. Os resultados foram ajustados por um método directo, o método dos momentos, e por dois métodos indirectos, os modelos ADE e TS. O melhor ajuste corresponde ao modelo TS onde os valores do coeficiente de dispersão longitudinal e da velocidade de escoamento são aqueles que melhor se aproximam da realidade. Quanto ao método dos momentos, o valor estimado para a velocidade é de 0,162 m/s e para o coeficiente de dispersão longitudinal de 9,769 m2/s. Não obstante, a compreensão da hidrodinâmica do rio e das suas características, bem como a adequação de modelos matemáticos no tratamento de resultados formam uma estratégia de protecção ambiental inerente a futuros impactos que possam suceder.
Resumo:
O crescimento do mercado electrónico e o aumento das comunicações além-fronteiras, resultante sobretudo da difusão da Internet, repercutiu-se, de modo intenso, na indústria de tradução, particularmente, na exigência crescente da tradução de websites, e, sobretudo, na localização de software. Para melhor perceber esta realidade e, de modo a contribuir para uma maior sistematização do conhecimento nesta área, o presente artigo inicia-se com uma breve análise sobre a evolução dos conceitos e dos mercados da tradução e da localização. Procura distinguir entre os diferentes prestadores de serviços de tradução, nomeadamente, empresas e agências e descreve o processo seguido na elaboração de projectos de localização, reconhecendo a tradução como elemento integrante do projecto de localização. Com base na interpretação dos conceitos de projecto e de gestão de projectos descreve-se o processo de gestão de projectos de tradução. Sendo o gestor de projectos o elemento essencial deste processo, analisam-se as funções e competências do mesmo e descrevem-se as tarefas e processos usados por este profissional, tendo em conta o ciclo de vida e os elementos que compõem o processo de gestão de projectos. A partir desta análise propõe-se um modelo de gestão de projectos de tradução/localização baseado na conjugação dos diferentes elementos afectos à gestão e ao gestor de projectos e que procura sintetizar todo o processo inerente à gestão de projectos de tradução/localização. O modelo resulta de dois pontos de vista que se interligam: o da análise e reflexão sobre o estado-da-arte e o da análise empírica dos dados recolhidos no dia-a-dia no universo de trabalho de uma empresa de tradução. Com este modelo, que retrata um processo cíclico e dinâmico, pretende-se, por um lado, ilustrar a complexidade do processo da gestão de projectos e demonstrar a importância das funções do gestor de projectos no vasto universo que é o da tradução e, por outro, desenvolver e propor um modelo de gestão de projectos aplicável a empresas de tradução e de localização.
Resumo:
A presente dissertação consiste em verificar a tendência do coeficiente de segurança quando se varia certos parâmetros (ângulo de atrito interno do terreno, inclinação do terrapleno no tardoz do muro e o ângulo que a massa de solo faz quando se comporta como parte integrante do muro numa situação limite) considerados no cálculo. Para atingir os objectivos anteriormente referidos, dividiu-se o trabalho em duas fases, a primeira fase teve como objectivo verificar qual a tendência do coeficiente de segurança quando sujeito à variação de dois parâmetros, o ângulo de atrito interno do terreno e a inclinação do terrapleno no tardoz do muro que varia de 5° até ao valr do ângulo de atrito interno do terreno. A segunda fase consiste em analisar qual a tendência do coeficiente de segurança quando sujeito à variação de três parâmetros, o ângulo de atrito interno do terreno, de 20° a 45°, a inclinação do terrapleno no tardoz do muro, de 10° até ao valor do ângulo de atrito interno do terreno, e o ângulo que a massa de solo faz quando se comporta como parte integrante do muro numa situação limite. Para ambas as situações efectuaram-se os respectivos cálculos quer pela Teoria de Rankine e quer pela Teoria de Mohr – Coulomb, havendo casos em que foi necessário conjugar estas duas Teorias.
Resumo:
Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Gestão das Organizações, Ramo de Gestão de Empresas. Orientada por Prof. Doutor Manuel Salvador Gomes de Araújo
Resumo:
Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.
Resumo:
Dissertação de Mestrado em História Contemporânea
Resumo:
Em termos profissionais, a satisfação no trabalho é sem dúvida um tema bastante debatido e atual. Neste sentido, este estudo teve como objetivo analisar a satisfação profissional dos enfermeiros especialistas em enfermagem de reabilitação e também averiguar se o local de trabalho ou o exercício de cuidados de especialidade influenciam a satisfação profissional deste grupo de enfermeiros. A satisfação profissional foi avaliada através da aplicação da “Escala de Avaliação da Satisfação no Trabalho dos Enfermeiros”, construída e validada por Frederico & Loureiro (2009) a 306 profissionais de Enfermagem, especialistas em enfermagem de reabilitação. O Alpha de Cronbach foi de 0,85, refletindo um bom nível de consistência interna. Foram analisadas seis dimensões da satisfação: satisfação com as chefias; satisfação com benefícios e recompensas; satisfação com a natureza do trabalho; satisfação com a comunicação; satisfação com a equipa e satisfação com os requisitos do trabalho. Foi realizado um estudo transversal analítico. Na análise estatística dos dados, recorreu-se à análise fatorial, ao coeficiente de correlação de Spearman, a testes paramétricos t-student para amostras independentes e One-Way ANOVA. Os resultados mostram que os enfermeiros especialistas em enfermagem de reabilitação encontram-se ligeiramente insatisfeitos. Os fatores de insatisfação estão relacionados com benefícios e recompensas, requisitos do trabalho e com a comunicação. A natureza do trabalho e o relacionamento com a equipa são fatores com os quais obtêm maior satisfação. Em relação às chefias existe uma aproximação à satisfação. Relativamente à avaliação do grau de satisfação profissional global, concluiu-se que os enfermeiros que exercem funções nos Cuidados de Saúde Primários encontram-se mais insatisfeitos profissionalmente, do que os que exercem a sua atividade profissional ao nível hospitalar. Os enfermeiros que exercem cuidados gerais apresentam-se mais insatisfeitos do que os que exercem cuidados de especialidade. Também a idade e a remuneração pelo cargo desempenhado são fatores determinantes. Os enfermeiros mais jovens são os que se apresentam mais insatisfeitos. Os enfermeiros que não são remunerados pelo cargo desempenhado demonstram maior insatisfação profissional.
Resumo:
Nos últimos anos começaram a ser vulgares os computadores dotados de multiprocessadores e multi-cores. De modo a aproveitar eficientemente as novas características desse hardware começaram a surgir ferramentas para facilitar o desenvolvimento de software paralelo, através de linguagens e frameworks, adaptadas a diferentes linguagens. Com a grande difusão de redes de alta velocidade, tal como Gigabit Ethernet e a última geração de redes Wi-Fi, abre-se a oportunidade de, além de paralelizar o processamento entre processadores e cores, poder em simultâneo paralelizá-lo entre máquinas diferentes. Ao modelo que permite paralelizar processamento localmente e em simultâneo distribuí-lo para máquinas que também têm capacidade de o paralelizar, chamou-se “modelo paralelo distribuído”. Nesta dissertação foram analisadas técnicas e ferramentas utilizadas para fazer programação paralela e o trabalho que está feito dentro da área de programação paralela e distribuída. Tendo estes dois factores em consideração foi proposta uma framework que tenta aplicar a simplicidade da programação paralela ao conceito paralelo distribuído. A proposta baseia-se na disponibilização de uma framework em Java com uma interface de programação simples, de fácil aprendizagem e legibilidade que, de forma transparente, é capaz de paralelizar e distribuir o processamento. Apesar de simples, existiu um esforço para a tornar configurável de forma a adaptar-se ao máximo de situações possível. Nesta dissertação serão exploradas especialmente as questões relativas à execução e distribuição de trabalho, e a forma como o código é enviado de forma automática pela rede, para outros nós cooperantes, evitando assim a instalação manual das aplicações em todos os nós da rede. Para confirmar a validade deste conceito e das ideias defendidas nesta dissertação foi implementada esta framework à qual se chamou DPF4j (Distributed Parallel Framework for JAVA) e foram feitos testes e retiradas métricas para verificar a existência de ganhos de performance em relação às soluções já existentes.
Resumo:
Introdução: A Esclerose Lateral Amiotrófica (ELA) é considerada uma das doenças neuromusculares (DNM) com características mais limitantes e fatais, sendo caracterizada por fraqueza muscular progressiva. Objectivo: Analisar a evolução da Capacidade Vital e da Máxima Capacidade Inspiratória em doentes com ELA e a sua relação causal com a função bulbar. Procedimentos: A partir de uma população alvo de 203 pacientes com ELA, foram incluídos no estudo aqueles que tinham entre 2 a 4 testes de função respiratória considerados válidos (CV <2000ml) perfazendo um total de 22 indivíduos. As medidas CV e MCI foram analisadas. Resultados: A CV diminuiu ao longo do tempo (media±desvio padrão no 1ºmomento de avaliação =1779,5±692,3; media±desvio padrão no 4ºmomento de avaliação =1108,6±475,7). O comportamento da MCI foi mais estável ao longo dos 4 momentos de avaliação. Avaliou-se a correlação entre as duas variáveis, destacando-se a relação existente entre as duas nos doentes bulbares (coeficiente = 1). Quando avaliada a diferença entre a CV e a MCI, verificamos que o nível de significância no grupo (n=22) aumentou ao longo do tempo. Ao comparamos esta diferença por subgrupos, registou-se uma diferença significativa apenas nos doentes bulbares (1ºmomento – p=0,008 e último momento de avaliação – p 0). Conclusão: Nos doentes com disfunção bulbar a CV diminui ao longo do tempo. A relação entre MCI e CV é um bom factor preditivo da evolução e prognóstico da doença e de diagnóstico do envolvimento da musculatura bulbar.
Resumo:
Neste trabalho pretende-se introduzir os conceitos associados às redes neuronais e a sua aplicação no controlo de sistemas, neste caso na área da robótica autónoma. Foi utilizado um AGV de modo a testar experimentalmente um controlo através de uma rede neuronal artificial. A grande vantagem das redes neuronais artificiais é estas poderem ser ensinadas a funcionarem como se pretende. A partir desta caraterística foram efetuadas duas abordagens na implementação do AGV disponibilizado. A primeira abordagem ensinava a rede neuronal a funcionar como o controlo por lógica difusa que foi implementado no AGV aquando do seu desenvolvimento. A segunda abordagem foi ensinar a rede neuronal artificial a funcionar a partir de dados retirados de um controlo remoto simples implementado no AGV. Ambas as abordagens foram inicialmente implementadas e simuladas no MATLAB, antes de se efetuar a sua implementação no AGV. O MATLAB é utilizado para efetuar o treino das redes neuronais multicamada proactivas através do algoritmo de treino por retropropagação de Levenberg-Marquardt. A implementação de uma rede neuronal artificial na primeira abordagem foi implementada em três fases, MATLAB, posteriormente linguagem de programação C no computador e por fim, microcontrolador PIC no AGV, permitindo assim diferenciar o desenvolvimento destas técnicas em várias plataformas. Durante o desenvolvimento da segunda abordagem foi desenvolvido uma aplicação Android que permite monitorizar e controlar o AGV remotamente. Os resultados obtidos pela implementação da rede neuronal a partir do controlo difuso e do controlo remoto foram satisfatórios, pois o AGV percorria os percursos testados corretamente, em ambos os casos. Por fim concluiu-se que é viável a aplicação das redes neuronais no controlo de um AGV. Mais ainda, é possível utilizar o sistema desenvolvido para implementar e testar novas RNA.
Resumo:
Fuzzy logic controllers (FLC) are intelligent systems, based on heuristic knowledge, that have been largely applied in numerous areas of everyday life. They can be used to describe a linear or nonlinear system and are suitable when a real system is not known or too difficult to find their model. FLC provide a formal methodology for representing, manipulating and implementing a human heuristic knowledge on how to control a system. These controllers can be seen as artificial decision makers that operate in a closed-loop system, in real time. The main aim of this work was to develop a single optimal fuzzy controller, easily adaptable to a wide range of systems – simple to complex, linear to nonlinear – and able to control all these systems. Due to their efficiency in searching and finding optimal solution for high complexity problems, GAs were used to perform the FLC tuning by finding the best parameters to obtain the best responses. The work was performed using the MATLAB/SIMULINK software. This is a very useful tool that provides an easy way to test and analyse the FLC, the PID and the GAs in the same environment. Therefore, it was proposed a Fuzzy PID controller (FL-PID) type namely, the Fuzzy PD+I. For that, the controller was compared with the classical PID controller tuned with, the heuristic Ziegler-Nichols tuning method, the optimal Zhuang-Atherton tuning method and the GA method itself. The IAE, ISE, ITAE and ITSE criteria, used as the GA fitness functions, were applied to compare the controllers performance used in this work. Overall, and for most systems, the FL-PID results tuned with GAs were very satisfactory. Moreover, in some cases the results were substantially better than for the other PID controllers. The best system responses were obtained with the IAE and ITAE criteria used to tune the FL-PID and PID controllers.