32 resultados para Algoritmo de busca por retrocesso

em Universidade Federal do Pará


Relevância:

30.00% 30.00%

Publicador:

Resumo:

As Redes Ópticas Passivas (Passive Optical Networks - PONs) vêm experimentando um sólido crescimento nas últimas décadas por terem sido concebidas como uma excelente alternativa para a solução de um dos maiores problemas para as redes de telecomunicações: o gargalo nas redes de acesso. A próxima geração desta tecnologia, as chamadas Next Genaration PONs (NG-PON), surgem como consequência da evolução das tecnologias ópticas e oferecem suporte aos serviços de próxima geração, melhorando os parâmetros de desempenho das TDM-PONs e inclusive aumentando a área de cobertura destas redes. Esta expansão geográfica beneficia as empresas de telecomunicações que passam a focar seus esforços na simplificação de suas infra-estruturas através da unificação das redes metropolitanas, de acesso e de backhaul, reduzindo a quantidade de nós e, consequentemente, de custos operacionais e financeiros. Trata-se de uma significativa mudança no cenário das redes de acesso que passam a ter grandes distâncias entre as Optical Network Units (ONUs) e o Central Office (CO) e uma imensa variedade de serviços, tornando fundamental a presença de algoritmos de agendamento capazes de gerenciar todos os recursos compartilhados de forma eficiente, ao mesmo tempo que garantem controle e justeza na alocação dinâmica dos tráfegos upstream e downstream. É a partir deste contexto que esta dissertação tem como objetivo geral apresentar a proposta de um algoritmo híbrido de agendamento de grants baseado na priorização de filas (Hybrid Grant Scheduler based on Priority Queuing – HGSPQ), que além de gerenciar todos os recursos em WDM-PONs, busca oferecer eficiência e controle ao Optical Line Terminal (OLT) no agendamento dinâmico dos tráfegos. Os resultados apresentados foram extraídos de cenários desenvolvidos em ambiente de simulação computacional e se baseiam nas métricas de atraso e vazão para avaliação de seu desempenho. Também será avaliado como a quantidade de recursos no OLT interfere nestas métricas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um método para encontrar um conjunto de pontos de operação, os quais são ótimos de Pareto com diversidade, para linhas digitais de assinante (DSL - digital subscriber line). Em diversos trabalhos encontrados na literatura, têm sido propostos algoritmos para otimização da transmissão de dados em linhas DSL, que fornecem como resultado apenas um ponto de operação para os modems. Esses trabalhos utilizam, em geral, algoritmos de balanceamento de espectro para resolver um problema de alocação de potência, o que difere da abordagem apresentada neste trabalho. O método proposto, chamado de diverseSB , utiliza um processo híbrido composto de um algoritmo evolucionário multiobjetivo (MOEA - multi-objective evolutionary algorithm), mais precisamente, um algoritmo genético com ordenamento por não-dominância (NSGA-II - Non-Dominated Sorting Genetic Algorithm II), e usando ainda, um algoritmo de balanceamento de espectro. Os resultados obtidos por simulações mostram que, para uma dada diversidade, o custo computacional para determinar os pontos de operação com diversidade usando o algoritmo diverseSB proposto é muito menor que métodos de busca de “força bruta”. No método proposto, o NSGA-II executa chamadas ao algoritmo de balanceamento de espectro adotado, por isso, diversos testes envolvendo o mesmo número de chamadas ao algoritmo foram realizadas com o método diverseSB proposto e o método de busca por força bruta, onde os resultados obtidos pelo método diverseSB proposto foram bem superiores do que os resultados do método de busca por força bruta. Por exemplo, o método de força bruta realizando 1600 chamadas ao algoritmo de balanceamento de espectro, obtém um conjunto de pontos de operação com diversidade semelhante ao do método diverseSB proposto com 535 chamadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo foi realizado em 2 (duas) escolas do campo do município de Bujaru pertencente à microrregião de Castanhal na mesorregião do Nordeste Paraense. Seu objetivo foi identificar e analisar as condições de funcionamento de escolas do campo, visando propor indicadores de custo-aluno-qualidade para esse tipo de escola. A seleção das escolas se orientou pelos seguintes critérios: distância da sede do município; quanto ao tamanho; classificação em unidocente ou pluridocentes; número de professores, número de alunos; níveis de ensino oferecidos e da região em que as mesmas estão inseridas. Para a obtenção das informações foram realizadas entrevistas com: diretores; professores; pais/representantes da comunidade; e alunos. Além das entrevistas, foram utilizados formulários e observação em lócus. Os eixos de análise tomaram como questões norteadoras: as condições de funcionamento das e os seus principais problemas e necessidades e o que dizem os sujeitos que trabalham e estudam nas/as escolas do campo sobre os indicadores necessários para uma educação do campo de qualidade? Após análise dos dados, concluímos que os problemas enfrentados por professores, alunos, pais e gestores que atuam nas escolas do campo estão relacionados principalmente: a atuação em classes multisseriadas; falta de mobiliário, equipamento e materiais didáticos; falta de transporte escolar; condições precárias de infra-estrutura e falta de pessoal docente. Quanto à questão dos indicadores de qualidade, os sujeitos apontaram os seguintes fatores como fundamentais para melhorar a qualidade do ensino nessas escolas: infra-estrutura adequada, (com mobiliários, bibliotecas, laboratórios, equipamentos e material didático); contração de pessoal (professores, serventes, merendeiras, vigias e secretária); qualificação e valorização do professor; transporte e merenda escolar. O trabalho apresenta um leque de questões que podem explicitar e compor as possíveis dimensões e indicadores de qualidade, mas que não são generalizáveis para um conjunto maior de escolas. Evidentemente, que há regularidades, similitudes e aspectos que são comuns e que devem ser considerados para escolas localizadas no campo. De modo geral verificou-se que a definição de um custo-aluno-qualidade na educação, sobretudo, na educação do campo, continua a ser um desafio, especialmente porque tal discussão traz à tona a complexidade, as tensões e as contradições do fenômeno educativo em um país marcado pela desigualdade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Estudo denominado o CME do Município de Ananindeua na Construção da Política Educacional: a busca pela participação social. Teve como objetivos: analisar como a participação da sociedade civil organizada por meio de seus diferentes representantes vem sendo construída no interior do Conselho Municipal de Educação na tentativa de construir uma política educacional com base nos princípios de democracia participativa; analisar como a participação da sociedade civil organizada vem sendo oportunizada na construção da política educacional por meio do CME/Ananindeua; analisar a atuação do CME na promoção de uma política educacional na busca pela promoção da participação social e analisar como vem sendo desenvolvida à relação do CME com os demais elementos que compõe o Sistema Municipal de Ensino na construção da política educacional. Análise Documental e Entrevistas semi-estruturadas foram os instrumentos utilizados para responder os objetivos explicitados. O tratamento dos dados foi possível através de análise de conteúdo (investigação bibliográfica) e análise das fontes primárias (Atas; Leis Decretos; Pareceres; Regimento Interno). Os resultados alcançados com a investigação nos levam a inferir que a participação social como princípio educativo no interior do CME em Ananindeua vem sendo construída de forma gradual, uma vez que a democratização da gestão educacional por meio da participação direta, tanto no chão da escola como nos outros elementos que compõem o sistema educacional é um processo que precisa ser construído cotidianamente no coletivo. No caso da participação da sociedade no CME através das diversas categorias representadas vem se constituindo um desafio, pois os conflitos, as tensões, correlações de forças, disputa de poder estão sempre presentes. Esse fato em algumas circunstâncias é positivo uma vez que também é possível a construção de política educacional em meio à diversidade de opiniões. As categorias da sociedade civil organizada e representada no CME apresentam diferentes graus de participação, algumas participam mais ativamente enquanto outras têm uma menor atuação no momento de reuniões de Câmara e Plenárias onde são debatidas e feitas as proposições no que tange a construção da política educacional em Ananindeua. A falta de formação teórica, pedagógica e política em alguns casos servem como fator que limita a participação social nas ações do CME.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta a avaliação da qualidade da Base de Dados de Informações Jornalísticas sobre a Amazônia: Ciência,Tecnologia e Meio Ambiente – BDIJAm. O estudo integra o Projeto Temáticas Amazônicas: Dossiês Comentados e Qualidade da Informação sobre Ciência, Tecnologia e Meio Ambiente, do Museu Paraense Emílio Goeldi. Foram aplicados questionários aos usuários para identificação dos pontos positivos e possíveis lacunas do serviço. Como principais resultados foram apontadas a relevância dos temas da Base e a necessidade de se desenvolver ações que visem aperfeiçoar a estrutura de recuperação da informação. Conclui que toda base de dados deve ser continuamente aperfeiçoada e os usuários consideram a BDIJam um instrumento de suma importância para a sociedade como recurso de preservação da memória social da Amazônia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo apresentar o desenvolvimento de uma metaheurística híbrida baseada no ciclo de vida viral, mais especificamente dos Retrovírus, que fazem parte do grupo dos seres que evoluem mais rápido na natureza. Este algoritmo é denominado Algoritmo Genético Retroviral Iterativo (AGRI) e para embasamento computacional são utilizados conceitos de Algoritmo Genético (AG) e biológico características de replicação e evolução retroviral, o que proporciona uma grande diversidade genética o que aumenta a probabilidade para encontrar a solução, fato este confirmado através de melhores resultados obtidos pelo AGRI em relação ao AG.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Há muitos anos, técnicas de Computação Evolucionária vem sendo aplicadas com sucesso na solução dos mais variados tipos de problemas de otimização. Na constante procura pelo ótimo global e por uma melhor exploração da superfície de busca, as escolhas para ajustar estes métodos podem ser exponencialmente complexas e requerem uma grande quantidade de intervenção humana. Estes modelos tradicionais darwinianos apóiam-se fortemente em aleatoriedade e escolhas heurísticas que se mantém fixas durante toda a execução, sem que acompanhem a variabilidade dos indivíduos e as eventuais mudanças necessárias. Dadas estas questões, o trabalho introduz a combinação de aspectos da Teoria do Design Inteligente a uma abordagem hibrida de algoritmo evolucionário, através da implementação de um agente inteligente o qual, utilizando lógica fuzzy, monitora e controla dinamicamente a população e seis parâmetros definidos de uma dada execução, ajustando-os para cada situação encontrada durante a busca. Na avaliação das proposições foi construído um protótipo sobre a implementação de um algoritmo genético para o problema do caixeiro viajante simétrico aplicado ao cenário de distância por estradas entre as capitais brasileiras, o que permitiu realizar 580 testes, simulações e comparações entre diferentes configurações apresentadas e resultados de outras técnicas. A intervenção inteligente entrega resultados que, com sucesso em muitos aspectos, superam as implementações tradicionais e abrem um vasto espaço para novas pesquisas e estudos nos aqui chamados: “Algoritmos Evolucionários Híbridos Auto-Adaptáveis”, ou mesmo, “Algoritmos Evolucionários Não-Darwinianos”.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A capacidade de processamento das instituições de pesquisa vem crescendo significativamente à medida que processadores e estações de trabalho cada vez mais poderosos vão surgindo no mercado. Considerando a melhoria de desempenho na área de redes de computadores e visando suprir a demanda por processamento cada vez maior, surgiu a ideia de utilizar computadores independentes conectados em rede como plataforma para execução de aplicações paralelas, originando assim a área de computação em grade. Em uma rede que se encontra sob um mesmo domínio administrativo, é comum que exista o compartilhamento de recursos como discos, impressoras, etc. Mas quando a rede ultrapassa um domínio administrativo, este compartilhamento se torna muito limitado. A finalidade das grades de computação é permitir compartilhamento de recursos mesmo que estes estejam espalhados por diversos domínios administrativos. Esta dissertação propõe uma arquitetura para o estabelecimento dinâmico de conexões multidomínio que faz uso da comutação de rajadas ópticas (OBS – Optical Burst Switching) utilizando um plano de controle GMPLS (Generalized Multiprotocol Label Switching). A arquitetura baseia-se no armazenamento de informações sobre recursos de grade de sistemas autônomos (AS -Autonomous Systems) distintos em um componente chamado Servidor GOBS Raiz (Grid OBS) e na utilização do roteamento explícito para reservar os recursos ao longo de uma rota que satisfaça as restrições de desempenho de uma aplicação. A validação da proposta é feita através de simulações que mostram que a arquitetura é capaz de garantir níveis de desempenho diferenciados de acordo com a classe da aplicação e proporciona uma melhor utilização dos recursos de rede e de computação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A eficiência espectral em redes baseadas na tecnologia de Rádio Cognitivo (RC) pode ser comprometida caso o rádio seja utilizado por muito tempo para a detecção em vez da transmissão de dados. Por isso, tornam-se necessários esquemas de sensoriamento que tenham o objetivo de obter o máximo possível de utilização do espectro, evitando sensoriamento desnecessário, bem como, obtendo o mínimo de interferência na transmissão do usuário primário decorrente de detecção incorreta de sua transmissão. Neste trabalho, propomos a utilização de Algoritmos Genéticos para realizar a adaptação do período de sensoriamento. O objetivo é obter um período de sensoriamento ótimo para os canais com vistas a maximizar a descoberta de oportunidades no espectro e minimizar o overhead decorrente do sensoriamento. A maioria dos trabalhos relacionados a este assunto considera que o overhead de sensoriamento é fixo, não levando em conta que alguns canais podem ter menor tolerância à interferência que outros. A proposta apresentada neste trabalho pode adaptar-se aos requisitos de tolerância à interferência no canal licenciado por meio da determinação de um período de sensoriamento que otimize as oportunidades para qualquer valor de overhead definido. Nossa proposta consegue obter um ganho de até 90% em relação às técnicas não otimizadas no número de oportunidades encontradas, até 40,9% no ganho de transmissão útil e obteve uma redução no tempo de interferência de 66,83%, bem como resultados similares aos obtidos por uma proposta otimizada presente na literatura, com a vantagem de permitir a adaptação do overhead de sensoriamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O artigo analisa o processo de instalação, na Amazônia Oriental brasileira, de diversos produtores independentes de ferro-gusa, nas últimas duas décadas. Mesmo em número e velocidade menores do que indicava o planejamento estatal, foram implantadas no Corredor da Estrada de Ferro Carajás doze siderúrgicas. São empresas dedicadas somente à produção desta commoditie cuja produção requer elevada quantidade de energia suprida por carvão vegetal. Neste artigo, mostramos que houve deslocamento para a Amazônia de indústrias que até os anos 90 estavam concentradas exclusivamente no Sudeste brasileiro e que a demanda de carvão vegetal consolidou-se como principal elo de articulação da siderurgia com a socioeconomia da região de Carajás. A produção de carvão vegetal tem acarretado muitos impactos sociais e ambientais na região Amazônica. Impactos que se materializam pela ampliação da pressão exercida sobre a floresta amazônica, por práticas ambientalmente imprudentes e pela produção do carvão vegetal sustentada por trabalho precário, mal remunerado e insalubre. Exemplo de um cenário diante do qual se desenha como alternativa é a manutenção da fabricação de ferro-gusa nos moldes atuais e a incorporação de pequenos fornos elétricos a arco para a produção de aço. Contudo, a possível instalação de mini-aciarias na região, por si só, não resolve o principal problema socioambiental que envolve o beneficiamento do minério de ferro na região, vinculado aos efeitos deletérios da produção carvoeira, podendo inclusive agravá-los.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Várias das técnicas tradicionais de Mineração de Dados têm sido aplicadas com êxito e outras esbarram em limitações, tanto no desempenho como na qualidade do conhecimento gerado. Pesquisas recentes têm demonstrado que as técnicas na área de IA, tais como Algoritmo Genético (AG) e Lógica Difusa (LD), podem ser utilizadas com sucesso. Nesta pesquisa o interesse é revisar algumas abordagens que utilizam AG em combinação com LD de forma híbrida para realizar busca em espaços grandes e complexos. Este trabalho apresenta o Algoritmo Genético (AG), utilizando Lógica Difusa, para a codificação, avaliação e reprodução dos cromossomos, buscando classificar dados através de regras extraídas de maneira automática com a evolução dos cromossomos. A Lógica Difusa é utilizada para deixar as regras mais claras e próximas da linguagem humana, utilizando representações lingüísticas para identificar dados contínuos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em muitos problemas de otimização há dificuldades em alcançar um resultado ótimo ou mesmo um resultado próximo ao valor ótimo em um tempo viável, principalmente quando se trabalha em grande escala. Por isso muitos desses problemas são abordados por heurísticas ou metaheurísticas que executam buscas por melhores soluções dentro do espaço de busca definido. Dentro da computação natural estão os Algoritmos Culturais e os Algoritmos Genéticos, que são considerados metaheurísticas evolutivas que se complementam devido ao mecanismo dual de herança cultura/genética. A proposta do presente trabalho é estudar e utilizar tais mecanismos acrescentando tanto heurísticas de busca local como multipopulações aplicados em problemas de otimização combinatória (caixeiro viajante e mochila), funções multimodais e em problemas restritos. Serão executados alguns experimentos para efetuar uma avaliação em relação ao desempenho desses mecanismos híbridos e multipopulacionais com outros mecanismos dispostos na literatura de acordo com cada problema de otimização aqui abordado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudo da dimensão informacional do setor de saneamento básico, com o objetivo de analisar a qualidade da informação disponível em fontes de informação utilizadas no planejamento do setor. Para isso, foram analisadas as bases governamentais de informação, o Sistema Nacional de Informações sobre Saneamento 2009 (SNIS), a Pesquisa Nacional de Saneamento Básico 2008 (PNSB), a Pesquisa Nacional por Amostra de Domicílios 2009 (PNAD) e o Censo Demográfico 2010, no âmbito nacional, e o Serviço de Informação do Estado do Pará 2009 (SIE). A análise foi realizada por meio do Diagrama de Pareto, do Diagrama de causa e efeito de Ishikawa e dos atributos de informação de atualidade, abrangência, confiabilidade, precisão e pertinência, sendo, ainda, investigada a opinião de especialistas do setor. Nos 15 problemas evidenciados na redução da qualidade da informação em saneamento básico, cinco deles são considerados vitais e influenciam os demais problemas, sendo eles: a) falta de interação com outras áreas; b) periodicidade inadequada de disseminação das informações; c) falta de detalhamento da informação; d) forma de coleta inadequada; e) organização da informação inadequada. A partir da constatação das fragilidades na dimensão informacional em saneamento básico, foi analisada a informação utilizada em dois instrumentos de planejamento do setor, o Plano Nacional de Saneamento Básico (PLANSAB) e o Plano Plurianual 2008/2011, do estado do Pará (PPA 2008/2011). A conclusão desta tese é que, no momento, as informações disponibilizadas para o planejamento do setor são desatualizadas, incompletas, imprecisas, não pertinentes e não confiáveis. Com isso, foram recomendadas ações de inteligência estratégica para melhorar a qualidade da informação do setor, definindo-se o quê e onde coletar, como sistematizar, analisar, disseminar, avaliar e monitorar as informações, visando contribuir para o planejamento, definição de investimentos, prestação dos serviços, regulação, fiscalização e controle social, de acordo com as diretrizes da Política Nacional de Saneamento Básico, Lei 11.445/2007, que tem como um dos princípios fundamentais a universalização do acesso da população aos serviços de saneamento básico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde a incorporação da automação no processo produtivo, a busca por sistemas mais eficientes, objetivando o aumento da produtividade e da qualidade dos produtos e serviços, direcionou os estudos para o planejamento de estratégias que permitissem o monitoramento de sistemas com o intuito principal de torna-los mais autônomos e robustos. Por esse motivo, as pesquisas envolvendo o diagnóstico de faltas em sistemas industriais tornaram-se mais intensivas, visto a necessidade da incorporação de técnicas para monitoramente detalhado de sistemas. Tais técnicas permitem a verificação de perturbações, falta ou mesmo falhas. Em vista disso, essa trabalho investiga técnicas de detecção e diagnostico de faltas e sua aplicação em motores de indução trifásicos, delimitando o seu estudo em duas situações: sistemas livre de faltas, e sobre atuação da falta incipiente do tipo curto-circuitoparcial nas espiras do enrolamento do estator. Para a detecção de faltas, utilizou-se analise paramétrica dos parâmetros de um modelo de tempo discreto, de primeira ordem, na estrutura autoregressivo com entradas exógenas (ARX). Os parâmetros do modelo ARX, que trazem informação sobre a dinâmica dominante do sistema, são obtidos recursivamente pela técnica dos mínimos quadrados recursivos (MQR). Para avaliação da falta, foi desenvolvido um sistema de inferência fuzzy (SIF) intervala do tipo-2, cuja mancha de incerteza ou footprint of uncertainty (FOU), características de sistema fuzzy tipo-2, é ideal como forma de representar ruídos inerentes a sistemas reais e erros numéricos provenientes do processo de estimação paramétrica. Os parâmetros do modelo ARX são entradas para o SIF. Algoritmos genéricos (AG’s) foram utilizados para otimização dos SIF intervalares tipo-2, objetivando reduzir o erro de diagnóstico da falta identificada na saída desses sistemas. Os resultados obtidos em teste de simulação computacional demonstram a efetividade da metodologia proposta.