999 resultados para Algoritmo genético, Algoritmo memético e vocabulary Building
Resumo:
Este trabalho apresenta o desenvolvimento de um algoritmo computacional para análise do espalhamento eletromagnético de nanoestruturas plasmônicas isoladas. O Método dos Momentos tridimensional (MoM-3D) foi utilizado para resolver numericamente a equação integral do campo elétrico, e o modelo de Lorentz-Drude foi usado para representar a permissividade complexa das nanoestruturas metálicas. Baseado nesta modelagem matemática, um algoritmo computacional escrito em linguagem C foi desenvolvido. Como exemplo de aplicação e validação do código, dois problemas clássicos de espalhamento eletromagnético de nanopartículas metálicas foram analisados: nanoesfera e nanobarra, onde foram calculadas a resposta espectral e a distribuição do campo próximo. Os resultados obtidos foram comparados com resultados calculados por outros modelos e observou-se uma boa concordância e convergência entre eles.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
A identificação de fácies em um poço não testemunhado é um dos problemas clássicos da avaliação de formação. Neste trabalho este problema é tratado em dois passos, no primeiro produz-se a codificação da informação geológica ou da descrição das fácies atravessadas em um poço testemunhado em termos das suas propriedades físicas registradas nos perfis geofísicos e traduzidas pelos parâmetros L e K, que são obtidos a partir dos perfis de porosidade (densidade, sônico e porosidade neutrônica) e pela argilosidade (Vsh) calculada pelo perfil de raio gama natural. Estes três parâmetros são convenientemente representados na forma do Gráfico Vsh-L-K. No segundo passo é realizada a interpretação computacional do Gráfico Vsh-L-K por um algoritmo inteligente construído com base na rede neural competitiva angular generalizada, que é especializada na classificação de padrões angulares ou agrupamento de pontos no espaço n-dimensional que possuem uma envoltória aproximadamente elipsoidal. Os parâmetros operacionais do algoritmo inteligente, como a arquitetura da rede neural e pesos sinápticos são obtidos em um Gráfico Vsh-L-K, construído e interpretado com as informações de um poço testemunhado. Assim, a aplicação deste algoritmo inteligente é capaz de identificar e classificar as camadas presentes em um poço não testemunhado, em termos das fácies identificadas no poço testemunhado ou em termos do mineral principal, quando ausentes no poço testemunhado. Esta metodologia é apresentada com dados sintéticos e com perfis de poços testemunhados do Campo de Namorado, na Bacia de Campos, localizada na plataforma continental do Rio de Janeiro, Brasil.
Resumo:
Neste trabalho são apresentadas expressões exatas e aproximações quadráticas das conhecidas equações de Knott-Zöeppritz, que calculam as amplitudes dos coeficientes Rpp e Rsp em termos dos contrastes médios relativos, bem como é procedida a inversão dos parâmetros de dados de AVO a partir destas aproximações quadráticas. Nesta inversão é utilizado o algoritmo de Levenberg-Marquardt, e são considerados apenas os eventos refletidos Rpp e convertidos Rsp, não associados. Nos estudos dos parâmetros físicos dos meios contrastes de impedância (δz), módulo de cisalhamento (δμ) e velocidade da onda p (δα), verificou-se quais desses parâmetros podem ser invertidos. Os resultados obtidos mostram que o contraste de impedância (δz) é muito bem resolvido estando ele relacionado com o contraste de velocidade da onda p (δα) ou com o contraste de cisalhamento (δμ), no caso de eventos refletidos considerando modelos de alto, moderado e baixo contrastes. Por outro lado ao se fixar o contraste de impedância e relacionar os outros dois parâmetros em consideração, os resultados mostram que esses são mal resolvidos, ou seja, a região de ambiguidade torna-se muito grande e os parâmetros tornam-se ambíguos e instáveis. No caso do evento convertido e na combinação do evento refletido com o convertido, para os modelos de baixo e moderado contrastes, (δz) é muito bem resolvido, caso que não acontece para modelo de alto contraste. Diante desses resultados verifica-se que no procedimento de inversão quadrática de dados de AVO, fixado (δμ), a recuperação dos dois parâmetros variados é muito boa, no caso do evento refletido, e razoavelmente boa no caso do evento convertido, por esse motivo optou-se pela fixação do módulo de cisalhamento.
Resumo:
Apesar do aumento significativo do uso de redes locais sem fio (WLAN) nos últimos anos, aspectos de projeto e planejamento de capacidade da rede são ainda sistematicamente negligenciados durante a implementação da rede. Tipicamente um projeto de rede local sem fio é feito e instalado por profissionais de rede. Esses profissionais são extremamente experientes com redes cabeadas, mas são ainda geralmente pouco experientes com redes sem fio. Deste modo, as instalações de redes locais sem fio são desvantajosas pela falta de um modelo de avaliação de desempenho e para determinar a localização do ponto de acesso (PA), além disso, fatores importantes do ambiente não são considerados no projeto. Esses fatores se tornam mais importante quando muitos pontos de acesso (PAs) são instalados para cobrir um único edifício, algumas vezes sem planejamento de freqüência. Falhas como essa podem causar interferência entre células geradas pelo mesmo PA. Por essa razão, a rede não obterá os padrões de qualidade de serviço (QoS) exigidos por cada serviço. O presente trabalho apresenta uma proposta para planejamento de redes sem fio levando em consideração a influência da interferência com o auxílio de inteligência computacional tais como a utilização de redes Bayesianas. Uma extensiva campanha de medição foi feita para avaliar o desempenho de dois pontos de acesso (PAs) sobre um cenário multiusuário, com e sem interferência. Os dados dessa campanha de medição foram usados como entrada das redes Bayesianas e confirmaram a influência da interferência nos parâmetros de QoS. Uma implementação de algoritmo genético foi utilizado permitindo uma abordagem híbrida para planejamento de redes sem fio. Como efeito de comparação para otimizar os parâmetros de QoS, de modo a encontrar a melhor distância do PA ao receptor garantindo as recomendações do International Telecomunication Union (ITU-T), a técnica de otimização por enxame de partículas foi aplicada.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
In this work, a tabu search algorithm for solving uncapacitated location problems is presented. The uncapacitated location problem is a classic problem of localization and occurs in many practical situations. The problem consists in determining in a network, at the minimum possible cost, the better localization, in a network, for the installation of facilities in order to attend the customers' associated demands, at the minimum possible cost. One admits that there exists a cost associated with the opening of a facility and a cost of attendance of each customer by any open facilities. In the particular case of the uncapacitated location problem there is no capacity limitation to attend the customers’ demands. There are some parameters in the algorithm that influence the solution’s quality. These parameters were tested and optimal values for them were obtained. The results show that the proposed algorithm is able to find the optimal solution for all small tested problems keeping the compromise between solution’s quality and computational time. However, to solve bigger problems, the structure of the algorithm must be changed in its structure. The implemented algorithm is integrated to a computational platform for solution of logistic problems
Resumo:
This work presents a theoretical study of ordinary differential equations of first order directed so as to provide basis for the development of an educational software that helps students and researchers confronted with this issue. The algorithm was developed in HTML language in to that the results provide a website that allows the audience to access the software anywhere which has internet connection
Resumo:
Communities are present on physical, chemical and biological systems and their identification is fundamental for the comprehension of the behavior of these systems. Recently, available data related to complex networks have grown exponentially, demanding more computational power. The Graphical Processing Unit (GPU) is a cost effective alternative suitable for this purpose. We investigate the convenience of this for network science by proposing a GPU based implementation of Newman community detection algorithm. We showed that the processing time of matrix multiplications of GPUs grow slower than CPUs in relation to the matrix size. It was proven, thus, that GPU processing power is a viable solution for community dentification simulation that demand high computational power. Our implementation was tested on an integrated biological network for the bacterium Escherichia coli
Resumo:
This Project aims to develop methods for data classification in a Data Warehouse for decision-making purposes. We also have as another goal the reduction of an attribute set in a Data Warehouse, in which a given reduced set is capable of keeping the same properties of the original one. Once we achieve a reduced set, we have a smaller computational cost of processing, we are able to identify non-relevant attributes to certain kinds of situations, and finally we are also able to recognize patterns in the database that will help us to take decisions. In order to achieve these main objectives, it will be implemented the Rough Sets algorithm. We chose PostgreSQL as our data base management system due to its efficiency, consolidation and finally, it’s an open-source system (free distribution)
Resumo:
This work was developed starting the study of traditionals mathematical models that describe the epidemiology of infectious díseases by direct or indirect transmission. We did the classical approach of equilibrium solutions search, its analysis of stability analytically and by numerical solutions. After, we applied these techniques in a compartimental model of Dengue transmission that consider the mosquito population (susceptible vector Vs and 'infected vector VI), human population (suseeptíble humans S, infected humans I and recovered humans R) and just one sorotype floating in this population. We found the equilibrium solutions and from their analises, it was possible find the reprodution rate of dísease and which define if the disease will be endemic or not in the population.- ext, we used the method described a..~, [1] to study the infíuence of seasonalíty at vírus transmission, when it just acts on one of rates related with the vector. Lastly, we made de modeling considering the periodicity of alI rates, thereby building, a modeI with temporal dependence that permits to study periodicity of transmission through of the approach of parametrical ressonance and genetic algorithm