904 resultados para complessità computazionale primalità problemi polinomiali algoritmo aks


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cuando enseñamos a los alumnos a resolver problemas, solemos abusar de la utilización de algoritmos encaminados a encontrar la solución óptima, evitando las dificultades que puede suponer la introducción de reglas más o menos complejas en el diseño de dicho algoritmo. Pero resolver un problema es mucho más que aplicar un algoritmo de forma mecánica, supone encontrar una respuesta coherente a una serie de datos relacionados dentro de un contexto. Es por esto que presentamos esta práctica, donde la utilización de un algoritmo para resolver un problema nos lleva a encontrar soluciones que descartaremos como útiles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante millones de años los seres vivos se han encontrado con numerosas situaciones adversas, es decir, con una enorme cantidad de problemas que han tenido que ir solucionando poco a poco mediante sucesivas adaptaciones. El éxito de la vida en innumerables entornos no es sino el reflejo de que los seres vivos han encontrado soluciones para los distintos problemas con los que se han enfrentado. Son varias las cuestiones que podemos plantearnos en relación a esta cuestión: ¿cuál es el mecanismo que ha permitido la supervivencia de los seres vivos en ambientes tan distintos?, ¿existe algún algoritmo matemático que subyazca en el mismo?, en este caso, ¿podría ser aplicable a otras situaciones y problemas? Los algoritmos genéticos son una de las herramientas que han nacido para responder a estas cuestiones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hemos desarrollado el algoritmo usual de clasificación jerárquica ascendente en el sistema Mathematica. El usuario escoge la disimilitud según el tipo de datos que deba analizar: cuantitativos, cualitativos o binarios, así como el índice de agregación a utilizar. Se dispone de varias opciones para cada escogencia. Además, se ha implementado un gran número de manipulaciones sobre el árbol binario de clasificación, como el corte del árbol, la rotaciones, la dimensionalidad, el etiquetado, los colores, etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il D.Lgs. 150/09 ha inteso dar vita ad una “riforma organica” della PA italiana, improntandone il funzionamento a logiche di programmazione e controllo delle performance. Attorno a tale concetto la riforma ha costruito un Sistema teso a programmare, misurare, controllare, valutare e comunicare la performance degli enti. Il lavoro si focalizza sulla programmazione, e in particolare sullo strumento cardine introdotto dal D.Lgs. 150/09: il Piano della Performance (PdP). Il contributo, basato su una metodologia deduttivo-induttiva, si concentra sui comuni medi italiani, scelti in quanto statisticamente rappresentativi del livello medio di complessità degli enti locali. Sono stati oggetto di indagine i PdP pubblicati sui siti istituzionali degli enti considerati, al fine di verificarne sia il livello di aderenza alle Linee Guida (LG) emanate dalla Commissione Indipendente per la Valutazione, la Trasparenza e l’Integrità delle amministrazioni pubbliche (CIVIT) e dalla Associazione Nazionale Comuni Italiani (ANCI), sia il loro livello di adeguatezza economico-aziendale. Preliminarmente si indagherà il tema della programmazione, sotto il profilo normativo-dottrinale, concentrandosi su soggetti, processi e strumenti. Poi si sposterà il focus sul PdP: dopo aver definito obiettivi, quesiti e metodologia della ricerca, verranno esplicitate le configurazioni di PdP emergenti dalle LG CIVIT e ANCI. Verranno poi illustrati i risultati della ricerca empirica, mettendo in luce il livello di allineamento dei PdP dei comuni medi alle LG, nonché il livello di adeguatezza economico-aziendale degli stessi. Si tratteggeranno quindi alcune brevi conclusioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We report calculations of energy levels and oscillator strengths for transitions in W XL, undertaken with the general-purpose relativistic atomic structure package (GRASP) and flexible atomic code (FAC). Comparisons are made with existing results and the accuracy of the data is assessed. Discrepancies with the most recent results of S. Aggarwal et al. (Can. J. Phys. 91, 394 (2013)) are up to 0.4 Ryd and up to two orders of magnitude for energy levels and oscillator strengths, respectively. Discrepancies for lifetimes are even larger, up to four orders of magnitude for some levels. Our energy levels are estimated to be accurate to better than 0.5% (i.e., 0.2 Ryd), whereas results for oscillator strengths and lifetimes should be accurate to better than 20%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O sismo, ocorrido em 6 de Abril de 2009 (Mw 6,3) junto à cidade de Áquila (Itália), provocou uma grande destruição. Uma das consequências deste evento foi o impacto na opinião pública em torno da capacidade científica para a estimação da perigosidade sísmica e a necessidade de criação de sistemas de alerta sísmico. A determinação dos mecanismos de fonte sísmica de eventos sísmicos ocorridos e registados permite melhores caracterizações dos movimentos sísmicos para uma determinada área de estudo e consequentemente melhores cenários de risco. Se a região em estudo possuir propriedades físicas específicas e muito distintas de local para local, capazes de provocar alterações locais dos movimentos sísmicos (efeitos de sítio), torna-se imperativo uma caracterização bem definida do meio de propagação das ondas sísmicas de forma a poder sintetizar informação capaz de contribuir para a boa estimação da perigosidade sísmica. No âmbito deste trabalho pretende-se estudar a influência do mecanismo de fonte sísmica e da estrutura na modelação de movimentos sísmicos no caso de Áquila. A metodologia adoptada consiste na determinação da distribuição de deslizamentos sobre o plano de falha e utilização desta informação na modelação de sismogramas sintéticos (com recurso ao algoritmo E3D). Será igualmente estabelecida uma comparação de resultados considerando-se um meio com e sem bacia e considerando-se uma fonte pontual e uma fonte extensa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os problemas de visibilidade têm diversas aplicações a situações reais. Entre os mais conhecidos, e exaustivamente estudados, estão os que envolvem os conceitos de vigilância e ocultação em estruturas geométricas (problemas de vigilância e ocultação). Neste trabalho são estudados problemas de visibilidade em estruturas geométricas conhecidas como polígonos, uma vez que estes podem representar, de forma apropriada, muitos dos objectos reais e são de fácil manipulação computacional. O objectivo dos problemas de vigilância é a determinação do número mínimo de posições para a colocação de dispositivos num dado polígono, de modo a que estes dispositivos consigam “ver” a totalidade do polígono. Por outro lado, o objectivo dos problemas de ocultação é a determinação do número máximo de posições num dado polígono, de modo a que quaisquer duas posições não se consigam “ver”. Infelizmente, a maior parte dos problemas de visibilidade em polígonos são NP-difíceis, o que dá origem a duas linhas de investigação: o desenvolvimento de algoritmos que estabelecem soluções aproximadas e a determinação de soluções exactas para classes especiais de polígonos. Atendendo a estas duas linhas de investigação, o trabalho é dividido em duas partes. Na primeira parte são propostos algoritmos aproximados, baseados essencialmente em metaheurísticas e metaheurísticas híbridas, para resolver alguns problemas de visibilidade, tanto em polígonos arbitrários como ortogonais. Os problemas estudados são os seguintes: “Maximum Hidden Vertex Set problem”, “Minimum Vertex Guard Set problem”, “Minimum Vertex Floodlight Set problem” e “Minimum Vertex k-Modem Set problem”. São também desenvolvidos métodos que permitem determinar a razão de aproximação dos algoritmos propostos. Para cada problema são implementados os algoritmos apresentados e é realizado um estudo estatístico para estabelecer qual o algoritmo que obtém as melhores soluções num tempo razoável. Este estudo permite concluir que as metaheurísticas híbridas são, em geral, as melhores estratégias para resolver os problemas de visibilidade estudados. Na segunda parte desta dissertação são abordados os problemas “Minimum Vertex Guard Set”, “Maximum Hidden Set” e “Maximum Hidden Vertex Set”, onde são identificadas e estudadas algumas classes de polígonos para as quais são determinadas soluções exactas e/ou limites combinatórios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho focou-se no estudo de técnicas de sub-espaço tendo em vista as aplicações seguintes: eliminação de ruído em séries temporais e extracção de características para problemas de classificação supervisionada. Foram estudadas as vertentes lineares e não-lineares das referidas técnicas tendo como ponto de partida os algoritmos SSA e KPCA. No trabalho apresentam-se propostas para optimizar os algoritmos, bem como uma descrição dos mesmos numa abordagem diferente daquela que é feita na literatura. Em qualquer das vertentes, linear ou não-linear, os métodos são apresentados utilizando uma formulação algébrica consistente. O modelo de subespaço é obtido calculando a decomposição em valores e vectores próprios das matrizes de kernel ou de correlação/covariância calculadas com um conjunto de dados multidimensional. A complexidade das técnicas não lineares de subespaço é discutida, nomeadamente, o problema da pre-imagem e a decomposição em valores e vectores próprios de matrizes de dimensão elevada. Diferentes algoritmos de préimagem são apresentados bem como propostas alternativas para a sua optimização. A decomposição em vectores próprios da matriz de kernel baseada em aproximações low-rank da matriz conduz a um algoritmo mais eficiente- o Greedy KPCA. Os algoritmos são aplicados a sinais artificiais de modo a estudar a influência dos vários parâmetros na sua performance. Para além disso, a exploração destas técnicas é extendida à eliminação de artefactos em séries temporais biomédicas univariáveis, nomeadamente, sinais EEG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo sobre o dimensionamento de redes ópticas, com vistas a obter um modelo de dimensionamento para redes de transporte sobreviventes. No estudo utilizou-se uma abordagem estatística em detrimento à determinística. Inicialmente, apresentam-se as principais tecnologias e diferentes arquitecturas utilizadas nas redes ópticas de transporte. Bem como os principais esquemas de sobrevivência e modos de transporte. São identificadas variáveis necessárias e apresenta-se um modelo dimensionamento para redes de transporte, tendo-se dado ênfase às redes com topologia em malha e considerando os modos de transporte opaco, transparente e translúcido. É feita uma análise rigorosa das características das topologias de redes de transporte reais, e desenvolve-se um gerador de topologias de redes de transporte, para testar a validade dos modelos desenvolvidos. Também é implementado um algoritmo genético para a obtenção de uma topologia optimizada para um dado tráfego. São propostas expressões para o cálculo de variáveis não determinísticas, nomeadamente, para o número médio de saltos de um pedido, coeficiente de protecção e coeficiente de restauro. Para as duas últimas, também é analisado o impacto do modelo de tráfego. Verifica-se que os resultados obtidos pelas expressões propostas são similares às obtidas por cálculo numérico, e que o modelo de tráfego não influencia significativamente os valores obtidos para os coeficientes. Finalmente, é demonstrado que o modelo proposto é útil para o dimensionamento e cálculo dos custos de capital de redes com informação incompleta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Consideramos o problema de controlo óptimo de tempo mínimo para sistemas de controlo mono-entrada e controlo afim num espaço de dimensão finita com condições inicial e final fixas, onde o controlo escalar toma valores num intervalo fechado. Quando aplicamos o método de tiro a este problema, vários obstáculos podem surgir uma vez que a função de tiro não é diferenciável quando o controlo é bang-bang. No caso bang-bang os tempos conjugados são teoricamente bem definidos para este tipo de sistemas de controlo, contudo os algoritmos computacionais directos disponíveis são de difícil aplicação. Por outro lado, no caso suave o conceito teórico e prático de tempos conjugados é bem conhecido, e ferramentas computacionais eficazes estão disponíveis. Propomos um procedimento de regularização para o qual as soluções do problema de tempo mínimo correspondente dependem de um parâmetro real positivo suficientemente pequeno e são definidas por funções suaves em relação à variável tempo, facilitando a aplicação do método de tiro simples. Provamos, sob hipóteses convenientes, a convergência forte das soluções do problema regularizado para a solução do problema inicial, quando o parâmetro real tende para zero. A determinação de tempos conjugados das trajectórias localmente óptimas do problema regularizado enquadra-se na teoria suave conhecida. Provamos, sob hipóteses adequadas, a convergência do primeiro tempo conjugado do problema regularizado para o primeiro tempo conjugado do problema inicial bang-bang, quando o parâmetro real tende para zero. Consequentemente, obtemos um algoritmo eficiente para a computação de tempos conjugados no caso bang-bang.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho propõe-se a divulgar as mais significativas técnicas de esquemas cooperativos, de forma a ultrapassar alguns dos problemas dos sistemas móveis sem fios da próxima geração, estendendo a área de cobertura destes sistemas, assim como a sua capacidade e fiabilidade. O estudo de diversos esquemas cooperativos é efetuado em termos de capacidade e de taxa de erros, fazendo variar o número de relays e de antenas em cada elemento do sistema. Diversos algoritmos com aplicação em sistemas cooperativos são desenvolvidos e propostos ao longo desta tese, como códigos espaço-frequência aplicados de forma distribuída nos relays, para sistemas baseados na tecnologia OFDM e sob diversos cenários próximos da realidade. Os sistemas cooperativos são particularmente úteis em situações em que o caminho direto entre dois terminais não está acessível ou tem uma fraca qualidade de transmissão. Tendo este aspeto em consideração, e pretendendo ter a máxima eficiência espetral e máxima diversidade, um algoritmo com precodificação é também proposto para múltiplos relays, cada um equipado com uma ou duas antenas. A formulação matemática associada aos algoritmos propostos é apresentada, assim como a derivação da probabilidade de erro teórica. O desempenho dos sistemas assistidos por relays usando os algoritmos propostos é comparado em relação a outros esquemas cooperativos equivalentes e a esquemas não-cooperativos, considerando cenários com diferentes qualidades de canal, daí advindo importantes conclusões em relação a estes sistemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho centra-se no estudo dos amplificadores de Raman em fibra ótica e suas aplicações em sistemas modernos de comunicações óticas. Abordaram-se tópicos específicos como a simulação espacial do amplificador de Raman, a equalização e alargamento do ganho, o uso de abordagens híbridas de amplificação através da associação de amplificadores de Raman em fibra ótica com amplificadores de fibra dopada com Érbio (EDFA) e os efeitos transitórios no ganho dos amplificadores. As actividades realizadas basearam-se em modelos teóricos, sendo os resultados validados experimentalmente. De entre as contribuições mais importantes desta tese, destaca-se (i) o desenvolvimento de um simulador eficiente para amplificadores de Raman que suporta arquitecturas de bombeamento contraprogantes e bidirecionais num contexto com multiplexagem no comprimento de onda (WDM); (ii) a implementação de um algoritmo de alocação de sinais de bombeamento usando a combinação do algoritmo genético com o método de Nelder- Mead; (iii) a apreciação de soluções de amplificação híbridas por associação dos amplificadores de Raman com EDFA em cenários de redes óticas passivas, nomeadamente WDM/TDM-PON com extensão a região espectral C+L; e (iv) a avaliação e caracterização de fenómenos transitórios em amplificadores para tráfego em rajadas/pacotes óticos e consequente desenvolvimento de soluções de mitigação baseadas em técnicas de clamping ótico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Congestion control in wireless networks is an important and open issue. Previous research has proven the poor performance of the Transport Control Protocol (TCP) in such networks. The factors that contribute to the poor performance of TCP in wireless environments concern its unsuitability to identify/detect and react properly to network events, its TCP window based ow control algorithm that is not suitable for the wireless channel, and the congestion collapse due to mobility. New rate based mechanisms have been proposed to mitigate TCP performance in wired and wireless networks. However, these mechanisms also present poor performance, as they lack of suitable bandwidth estimation techniques for multi-hop wireless networks. It is thus important to improve congestion control performance in wireless networks, incorporating components that are suitable for wireless environments. A congestion control scheme which provides an e - cient and fair sharing of the underlying network capacity and available bandwidth among multiple competing applications is crucial to the definition of new e cient and fair congestion control schemes on wireless multi-hop networks. The Thesis is divided in three parts. First, we present a performance evaluation study of several congestion control protocols against TCP, in wireless mesh and ad-hoc networks. The obtained results show that rate based congestion control protocols need an eficient and accurate underlying available bandwidth estimation technique. The second part of the Thesis presents a new link capacity and available bandwidth estimation mechanism denoted as rt-Winf (real time wireless inference). The estimation is performed in real-time and without the need to intrusively inject packets in the network. Simulation results show that rt-Winf obtains the available bandwidth and capacity estimation with accuracy and without introducing overhead trafic in the network. The third part of the Thesis proposes the development of new congestion control mechanisms to address the congestion control problems of wireless networks. These congestion control mechanisms use cross layer information, obtained by rt-Winf, to accurately and eficiently estimate the available bandwidth and the path capacity over a wireless network path. Evaluation of these new proposed mechanisms, through ns-2 simulations, shows that the cooperation between rt-Winf and the congestion control algorithms is able to significantly increase congestion control eficiency and network performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O cancro da mama feminino pela sua magnitude merece uma especial atenção ao nível das políticas de saúde. Emerge, pois uma visão abrangente que, por um lado, deve atentar para o encargo que esta representa para qualquer sistema de saúde, pelos custos que acarreta, como também, para a qualidade de vida das mulheres portadoras da mesma. Desta forma, a Liga Portuguesa Contra o Cancro (LPCC) tem desenvolvido, em colaboração com as Administrações Regionais de Saúde (ARS), o Programa de Rastreio do Cancro da Mama (PRCM), o qual apresenta, no Concelho de Aveiro, taxas de adesão na ordem dos 50%, ainda distantes dos 70%, objetivo recomendado pelas guidelines da Comissão Europeia. A não adesão tem sido considerada como um dos principais problemas do sistema de saúde, tanto pelas repercussões ao nível de ganhos em saúde, como também na qualidade de vida e na satisfação dos pacientes com os cuidados de saúde, constituindo-se como um fenómeno multifatorial e multidimensional. É neste sentido que o presente trabalho se propõe identificar os fatores, de cariz individual e do meio envolvente, determinantes da adesão ao PRCM, numa amostra de mulheres residentes no Concelho de Aveiro, com idades compreendidas entre os 45 e os 69 anos e, a partir dos resultados emergentes, propor estratégias de educação em saúde. Como procedimentos metodológicos e, numa primeira fase, entre outubro 2009 e maio 2010 foi aplicado um survey, o qual foi complementado com notas de campo dos entrevistadores a uma amostra não aleatória de 805 mulheres, em dois contextos distintos: no centro de saúde às aderentes à mamografia e, no domicílio, às não aderentes. Numa segunda fase, realizamos duas sessões de Focus Group (FG), num total de 12 elementos, um grupo heterogéneo com enfermeiros, médicos e utentes, e um outro grupo homogéneo, apenas com profissionais de saúde. O tratamento dos dados do survey foi efetuado através de procedimentos estatísticos, com utilização do SPSS® versão 17 e realizadas análises bivariadas (qui-quadrado) e multivariadas (discriminação de função e árvore de decisão através do algoritmo Chi-squared Automatic Interaction Detector) com o intuito de determinar as diferenças entre os grupos e predizer as variáveis exógenas. No que diz respeito a indicadores sociodemográficos, os resultados mostram que aderem mais, as mulheres com idades <50 anos e ≥ 56 anos, as que vivem em localidades urbanas, as trabalhadoras não qualificadas e as reformadas. As que aderem menos ao PRCM têm idades compreendidas entre os 50-55 anos, vivem nas zonas periurbanas, são licenciadas, apresentam categoria profissional superior ou estão desempregadas. Em relação às restantes variáveis exógenas, aderem ao PRCM, as mulheres que apresentam um Bom Perfil de Conhecimentos (46.6%), enquanto as não aderentes apresentam um Fraco Perfil de Conhecimentos (50.6%), sendo esta relação estatisticamente significativa (X2= 10.260; p=0.006).Cerca de 59% das mulheres aderentes realiza o seu rastreio de forma concordante com as orientações programáticas presentes no PRCM, comparativamente com 41.1% das mulheres que não o faz, verificando-se uma relação de dependência bastante significativa entre as variáveis Perfil de Comportamentos e adesão(X2= 348.193; p=0.000). Apesar de não existir dependência estatisticamente significativa entre as Motivações e a adesão ao PRCM (X2= 0.199; p=0.656), se analisarmos particularmente, os motivos de adesão, algumas inquiridas demonstram preocupação, tanto na deteção precoce da doença, como na hereditariedade. Por outro lado, os motivos de não adesão, também denotam aspetos de nível pessoal como o desleixo com a saúde, o desconhecimento e o esquecimento da marcação. As mulheres que revelam Boa Acessibilidade aos Cuidados de Saúde Primários e um Bom Atendimento dos Prestadores de Cuidados aderem mais ao PRCM, comparativamente com as inquiridas que relatam Fraca Acessibilidade e Atendimento, não aderindo. A partir dos resultados da análise multivariada podemos inferir que as variáveis exógenas estudadas possuem um poder discriminante significativo, sendo que, o Perfil de Comportamentos é a variável que apresenta maior grau de diferenciação entre os grupos das aderentes e não aderentes. Como variáveis explicativas resultantes da árvore de decisão CHAID, permaneceram, o Perfil de Comportamentos (concordantes e não concordantes com as guidelines), os grupos etários (<50 anos, 50-55anos e ≥56anos) e o Atendimento dos prestadores de cuidados de saúde. As mulheres mais novas (<50 anos) com Perfil de comportamentos «concordantes» com as guidelines são as que aderem mais, comparativamente com os outros grupos etários. Por outro lado, as não aderentes necessitam de um «bom» atendimento dos prestadores de cuidados para se tornarem aderentes ao PRCM. Tanto as notas de campo, como a discussão dos FG foram sujeitas a análise de conteúdo segundo as categorias em estudo obtidas na primeira fase e os relatos mostram a importância de fatores de ordem individual e do meio envolvente. No que se refere a aspetos psicossociais, destaca-se a importância das crenças e como fatores ambientais menos facilitadores para a adesão apontam a falta de transportes, a falta de tempo das pessoas e a oferta de recursos, principalmente se existirem radiologistas privados como alternativa ao PRCM. Tal como na primeira fase do estudo, uma das motivações para a adesão é a recomendação dos profissionais de saúde para o PRCM, bem como a marcação de consultas pela enfermeira, que pode ser uma oportunidade de contacto para a sensibilização. Os hábitos de vigilância de saúde, a perceção positiva acerca dos programas de saúde no geral, o acesso à informação pertinente sobre o PRCM e a operacionalização deste no terreno parecem ser fatores determinantes segundo a opinião dos elementos dos FG. O tipo e a regularidade no atendimento por parte dos profissionais de saúde, a relação entre profissional de saúde/paciente, a personalização das intervenções educativas, a divulgação que estes fazem do PRCM junto das suas pacientes, bem como, a organização do modelos de cuidados de saúde das unidades de saúde e a forma como os profissionais se envolvem e tomam a responsabilização por um programa desta natureza são fatores condicionantes da adesão. Se atendermos aos resultados deste estudo, verificamos um envolvimento de fatores que integram múltiplos níveis de intervenção, sendo um desafio para as equipas de saúde que pretendam intervir no âmbito do programa de rastreio do cancro da mama. Com efeito, os resultados também apontam para a combinação de múltiplas estratégias que são transversais a vários programas de promoção da saúde, assumindo, desta forma, uma perspetiva multidimensional e dinâmica que visa, essencialmente, a construção social da saúde e do bem-estar (i.e. responsabilização do cidadão pela sua própria saúde e o seu empowerment).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo analisar a cinética de secagem do bacalhau salgado verde (Gadus morhua) em secador convectivo. É apresentada a análise da composição físico-química dos bacalhaus utilizados nos ensaios experimentais, bem como o estudo das isotermas de sorção do produto, através de experiências e modelação matemática. Dos modelos usados para o ajuste das isotermas de sorção do bacalhau salgado verde, o que melhor se adaptou aos resultados experimentais foi o modelo de GAB Modificado, com coeficientes de correlação variando entre 0,992 e 0,998. Para o controlo do processo de secagem (nomeadamente os parâmetros temperatura, humidade relativa e velocidade do ar) foi utilizada lógica difusa, através do desenvolvimento de controladores difusos para o humidificador, desumidificador, resistências de aquecimento e ventilador. A modelação do processo de secagem foi realizada através de redes neuronais artificiais (RNA), modelo semi-empírico de Page e modelo difusivo de Fick. A comparação entre dados experimentais e simulados, para cada modelo, apresentou os seguintes erros: entre 1,43 e 11,58 para o modelo de Page, 0,34 e 4,59 para o modelo de Fick e entre 1,13 e 6,99 para a RNA, com médias de 4,38, 1,67 e 2,93 respectivamente. O modelo obtido pelas redes neuronais artificiais foi submetido a um algoritmo de otimização, a fim de buscar os parâmetros ideais de secagem, de forma a minimizar o tempo do processo e maximizar a perda de água do bacalhau. Os parâmetros ótimos obtidos para o processo de secagem, após otimização realizada, para obter-se uma humidade adimensional final de 0,65 foram: tempo de 68,6h, temperatura de 21,45°C, humidade relativa de 51,6% e velocidade de 1,5m/s. Foram também determinados os custos de secagem para as diferentes condições operacionais na instalação experimental. Os consumos por hora de secagem variaram entre 1,15 kWh e 2,87kWh, com uma média de 1,94kWh.