63 resultados para Algoritmos heurísticos

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta Dissertação propõe-se a aplicação de algoritmos genéticos para a síntese de filtros para modular sinais de controladores a estrutura variável e modo deslizante. A modulação do sinal de controle reduz a amplitude do sinal de saída e, consequentemente, pode reduzir o consumo de energia para realizar o controle e o chattering. Esses filtros também são aplicados em sistemas que possuem incertezas paramétricas nos quais nem todas as variáveis de estado são medidas. Nesses sistemas, as incertezas nos parâmetros podem impedir que seus estados sejam estimados com precisão por observadores. A síntese desses filtros necessita da obtenção da envoltória, que é o valor máximo da norma de cada resposta impulsiva admissível no sistema. Após este passo, é sintetizado um filtro que seja um majorante para a envoltória. Neste estudo, três métodos de busca da envoltória por algoritmos genéticos foram criados. Um dos métodos é o preferido, pois apresentou os melhores resultados e o menor tempo computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta contribuições para algoritmos de controle utilizados em filtros ativos e híbridos conectados em redes elétricas trifásicas a 3 ou a 4 fios. Em relação aos algoritmos de controle para filtros ativos, a contribuição consiste em estender o conceito da filtragem harmônica seletiva para compensação de correntes harmônicas e desequilibradas em uma rede trifásica a 4 fios. Esses algoritmos derivam dos conceitos utilizados na teoria da potência instantânea (teoria pq), em conjunto com um circuito de sincronismo PLL. É importante ressaltar que estes algoritmos não utilizam as correntes consumidas pelas cargas, ou seja, apenas as tensões no ponto da rede onde o filtro está conectado são utilizadas para determinação das correntes harmônicas de referência. Apenas as correntes na saída do conversor são utilizadas como realimentação do controle PWM. Estes algoritmos também foram utilizados no filtro híbrido para compensação de correntes harmônicas em uma rede trifásica a 3 fios. Por fim foi feito uma alteração nesses algoritmos de controle que permite eliminar as correntes utilizadas na realimentação do controle PWM. Resultados de simulação são apresentados com objetivo de observar o comportamento desses algoritmos tanto no filtro ativo quanto no híbrido nas condições mencionadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta a aplicação das fórmulas de Vincenty nos cálculos das correções do terreno e do efeito indireto, que desempenham papel relevante na construção de cartas geoidais. Implementa-se um programa de processamento que realiza a integração numérica sobre o modelo digital do terreno, discretizado em células triangulares de Delaunay. O sistema foi desenvolvido com a linguagem de programação FORTRAN, para a execução de intensos algoritmos numéricos usando compiladores livres e robustos. Para o cálculo do efeito indireto, considera-se a redução gravimétrica efetuada com base no segundo método de condensação de Helmert, face ao pequeno valor de efeito indireto no cálculo do geóide, em função da mudança que este produz no potencial da gravidade devido ao deslocamento da massa topográfica. Utiliza-se, o sistema geodésico SIRGAS 2000 como sistema de referência para o cômputo das correções. Simplificando o exame dos resultados alcançados, distingue-se o processamento e desenvolvimento do trabalho em etapas como a escolha de ferramentas geodésicas para máxima precisão dos resultados, elaboração de subrotinas e comparação de resultados com cálculos anteriores. Os resultados encontrados foram de geração sadia e satisfatória e podem ser perfeitamente empregados no cálculo do geóide em qualquer área do globo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho aborda um problema inverso associado a difus~ao de calor em uma barra unidimensional. Esse fen^omeno e modelado por meio da equac~ao diferencial par- cial parabolica ut = uxx, conhecida como equac~ao de difus~ao do calor. O problema classico (problema direto) envolve essa equac~ao e um conjunto de restric~oes { as condic~oes inicial e de contorno {, o que permite garantir a exist^encia de uma soluc~ao unica. No problema inverso que estudamos, o valor da temperatura em um dos extremos da barra n~ao esta disponvel. Entretanto, conhecemos o valor da temperatura em um ponto x0 xo no interior da barra. Para aproximar o valor da temperatura no intervalo a direita de x0, propomos e testamos tr^es algoritmos de diferencas nitas: diferencas regressivas, leap-frog e diferencas regressivas maquiadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.