848 resultados para otimização
Resumo:
A doença de Chagas é uma zoonose causada pelo protozoário flagelado Trypanosoma cruzi. Estima-se que 8 milhões de pessoas estão infectadas com o T. cruzi em todo o mundo, principalmente na América Latina. Testes tradicionais de diagnóstico estão sendo gradualmente substituídos por métodos inovadores. A utilização de antígenos recombinantes foi proposta nos anos 90, e várias combinações foram testadas com soros de pacientes com diferentes formas clínicas de diferentes regiões da América Latina. Apesar do ganho em especificidade, estes testes apresentaram menor sensibilidade, frustrando expectativas. Este estudo objetivou analisar a variabilidade genética dos genes KMP11 e 1F8 que codificam antígenos comumente utilizados em diagnóstico experimental. Cepas de T. cruzi pertencentes a diferentes sub-grupos taxonômicos e de diferentes regiões foram analisadas para avaliar o impacto da variação antigênica em testes de diagnóstico. Maximizando a sensibilidade, evitar reatividade cruzada com epítopos de outros agentes patogênicos deve permitir a concepção de melhores testes rápidos. Num primeiro passo, DNA genômico foi extraído das seguintes cepas: Dm28c, Colombiana, Y, 3663, 4167, LL014 e CL Brener e foi realizada a amplificação dos genes 1F8 e KMP11 que codificam antígenos a partir destas cepas. Em seguida foram realizadas a clonagem, sequenciamento, expressão e detecção dos antígenos recombinantes. Na etapa final, análises de estruturas secundárias e terciárias, a última apenas para o antígeno 1F8, visualizaram as diferenças nas sequências de aminoácidos obtidas a partir de sequenciamento de DNA. Os resultados apresentados neste estudo mostram que o antígeno KMP11 de T. cruzi possui uma similaridade na sequência de aminoácidos muito elevada com o T. rangeli, mostrando a necessidade de um mapeamento antigênico desta proteína em todos os tripanosomatídeos que apresentaram alta similaridade com o antígeno de T. cruzi, como o T. rangeli, para verificar a presença de epítopos específicos de T. cruzi. O antígeno 1F8 pode ser uma ferramenta útil no diagnóstico da doença de Chagas e que será necessário aprofundar os conhecimentos sobre os determinantes antigênicos para futuramente elaborar poli-epítopos sintéticos adaptados de um maior número possível de antígenos, obtendo a maior especificidade e sensibilidade nos testes de diagnóstico sorológico e de teste rápido da doença de Chagas. Este estudo representa um passo crucial para a otimização de antígenos recombinantes para o diagnóstico da doença de Chagas.
Resumo:
O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.
Resumo:
Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor
Resumo:
A identificação de danos estruturais é uma questão de fundamental importância na engenharia, visto que uma estrutura está sujeita a processos de deterioração e a ocorrência de danos durante a sua vida útil. A presença de danos compromete o desempenho e a integridade estrutural, podendo colocar vidas humanas em risco e resultam em perdas econômicas consideráveis. Técnicas de identificação de danos estruturais e monitoramento de estruturas fundamentadas no ajuste de um Modelo de Elementos Finitos (MEF) são constantes na literatura especializada. No entanto, a obtenção de um problema geralmente mal posto e o elevado custo computacional, inerente a essas técnicas, limitam ou até mesmo inviabilizam a sua aplicabilidade em estruturas que demandam um modelo de ordem elevada. Para contornar essas dificuldades, na formulação do problema de identificação de danos, pode-se utilizar o Modelo de Superfície de Reposta (MSR) em substituição a um MEF da estrutura. No presente trabalho, a identificação de danos estruturais considera o ajuste de um MSR da estrutura, objetivando-se a minimização de uma função de erro definida a partir das frequências naturais experimentais e das correspondentes frequências previstas pelo MSR. Estuda-se o problema de identificação de danos estruturais em uma viga de Euler-Bernoulli simplesmente apoiada, considerando as frequências naturais na formulação do problema inverso. O comportamento de uma viga de Euler-Bernoulli simplesmente apoiada na presença de danos é analisado, com intuito de se verificar as regiões onde a identificação dos mesmos pode apresentar maior dificuldade. No processo de identificação de danos, do presente trabalho, são avaliados os tipos de superfícies de resposta, após uma escolha apropriada do tipo de superfície de resposta a ser utilizado, determina-se a superfície de resposta considerando os dados experimentais selecionados a partir do projeto ótimo de experimentos. A utilização do método Evolução Diferencial (ED) no problema inverso de identificação de danos é considerado inerente aos resultados numéricos obtidos, a estratégia adotada mostrou-se capaz de localizar e quantificar os danos com elevada acurácia, mostrando a potencialidade do modelo de identificação de danos proposto.
Resumo:
Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.
Resumo:
Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.
Resumo:
O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.
Resumo:
Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.
Resumo:
Neste trabalho é apresentado um simulador MATLAB para sistemas ópticos WDM amplificados baseado na solução das equações não lineares de Schrödinger acopladas, pelo método de Fourier de passo alternado. Este simulador permite o estudo da propagação de pulsos em fibras ópticas, considerando dispersão cromática, efeitos não lineares como automodulação de fase e modulação de fase cruzada e atenuação, prevendo também o emprego de amplificadores ópticos a fibra dopada com Érbio (EDFAs). Através de simulações numéricas, foi explorada a técnica de otimização do posicionamento de um EDFA ao longo de um enlace óptico, sem repetidores, que objetiva a redução dos custos de implantação de sistemas ópticos, seja pela diminuição da potência do transmissor ou pela relaxação da exigência de sensibilidade do receptor. Além disto, pode favorecer um aumento na capacidade do sistema, através do aumento do alcance ou da taxa de transmissão. A concordância dos resultados obtidos com os disponíveis na literatura confirmam a validade da técnica, bem como a versatilidade e robustez do simulador desenvolvido.
Resumo:
Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.
Resumo:
Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.
Resumo:
A humanização tem sido um termo frequentemente utilizado em relação às práticas de saúde no SUS, tornado-se uma bandeira de luta levantada sempre que se pensa em políticas de saúde. A polissemia do termo chama a atenção para a possibilidade de sua utilização em diferentes contextos, direcionados a diferentes auditórios. Esse trabalho tem pode objetivo analisar os usos e sentidos da noção de humanização nas propostas de ações voltadas à saúde da mulher. A história das práticas e saberes construídos em torno da saúde da mulher, com ênfase no movimento feminista, no planejamento familiar e na constituição do Programa de Atenção Integral à Saúde da Mulher foi resgatada no sentido contextualizar a discussão proposta. Diversas propostas de ações de saúde foram analisadas, assim como os projetos selecionados pelo Prêmio David Capistrano da Política Nacional de Humanização, visando a identificação de núcleos de sentidos no discurso oficial sobre humanização, e a forma como esse discurso está sendo percebido pelos profissionais. Foram identificados e discutidos quatro núcleos de sentidos: humanização enquanto atributo das relações interpessoais; humanização e redução da mortalidade materna; humanização e otimização de recursos; e humanização e processos de organização de trabalho. Concluímos que a manutenção do processo de formulação e implantação de ações de forma verticalizada, fragmentada, sem que as modificação propostas sejam pactuadas com os profissionais que deveriam implantá-las e os usuários que deveriam se beneficiar delas, acaba por promover a perpetuação do modelo assistencial vigente.
Resumo:
Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.
Resumo:
Atualmente existem diferentes ferramentas computacionais para auxílio nos estudos de coordenação da proteção, que permitem traçar as curvas dos relés, de acordo com os parâmetros escolhidos pelos projetistas. Entretanto, o processo de escolha das curvas consideradas aceitáveis, com um elevado número de possibilidades e variáveis envolvidas, além de complexo, requer simplificações e iterações do tipo tentativa e erro. Neste processo, são fatores fundamentais tanto a experiência e o conhecimento do especialista, quanto um árduo trabalho, sendo que a coordenação da proteção é qualificada pela IEEE Std. 242 como sendo mais uma arte do que uma ciência. Este trabalho apresenta o desenvolvimento de um algoritmo genético e de um algoritmo inspirado em otimização por colônia de formigas, para automatizar e otimizar a coordenação da função de sobrecorrente de fase de relés digitais microprocessados (IEDs), em subestações industriais. Seis estudos de caso, obtidos a partir de um modelo de banco de dados, baseado em um sistema elétrico industrial real, são avaliados. Os algoritmos desenvolvidos geraram, em todos os estudos de caso, curvas coordenadas, atendendo a todas as restrições previamente estabelecidas e as diferenças temporais de atuação dos relés, no valor de corrente de curto circuito trifásica, apresentaram-se muito próximas do estabelecido como ótimo. As ferramentas desenvolvidas demonstraram potencialidade quando aplicadas nos estudos de coordenação da proteção, tendo resultados positivos na melhoria da segurança das instalações, das pessoas, da continuidade do processo e do impedimento de emissões prejudiciais ao meio ambiente.
Resumo:
Este trabalho apresenta a proposta de um middleware, chamado DistributedCL, que torna transparente o processamento paralelo em GPUs distribuídas. Com o suporte do middleware DistributedCL uma aplicação, preparada para utilizar a API OpenCL, pode executar de forma distribuída, utilizando GPUs remotas, de forma transparente e sem necessidade de alteração ou nova compilação do seu código. A arquitetura proposta para o middleware DistributedCL é modular, com camadas bem definidas e um protótipo foi construído de acordo com a arquitetura, onde foram empregados vários pontos de otimização, incluindo o envio de dados em lotes, comunicação assíncrona via rede e chamada assíncrona da API OpenCL. O protótipo do middleware DistributedCL foi avaliado com o uso de benchmarks disponíveis e também foi desenvolvido o benchmark CLBench, para avaliação de acordo com a quantidade dos dados. O desempenho do protótipo se mostrou bom, superior às propostas semelhantes, tendo alguns resultados próximos do ideal, sendo o tamanho dos dados para transmissão através da rede o maior fator limitante.