55 resultados para Hiker Dice. Algoritmo Exato. Algoritmos Heurísticos
Resumo:
Durante o processo de extração do conhecimento em bases de dados, alguns problemas podem ser encontrados como por exemplo, a ausência de determinada instância de um atributo. A ocorrência de tal problemática pode causar efeitos danosos nos resultados finais do processo, pois afeta diretamente a qualidade dos dados a ser submetido a um algoritmo de aprendizado de máquina. Na literatura, diversas propostas são apresentadas a fim de contornar tal dano, dentre eles está a de imputação de dados, a qual estima um valor plausível para substituir o ausente. Seguindo essa área de solução para o problema de valores ausentes, diversos trabalhos foram analisados e algumas observações foram realizadas como, a pouca utilização de bases sintéticas que simulem os principais mecanismos de ausência de dados e uma recente tendência a utilização de algoritmos bio-inspirados como tratamento do problema. Com base nesse cenário, esta dissertação apresenta um método de imputação de dados baseado em otimização por enxame de partículas, pouco explorado na área, e o aplica para o tratamento de bases sinteticamente geradas, as quais consideram os principais mecanismos de ausência de dados, MAR, MCAR e NMAR. Os resultados obtidos ao comprar diferentes configurações do método à outros dois conhecidos na área (KNNImpute e SVMImpute) são promissores para sua utilização na área de tratamento de valores ausentes uma vez que alcançou os melhores valores na maioria dos experimentos realizados.
Resumo:
Utilizou-se o método seqüencial Monte Carlo / Mecânica Quântica para obterem-se os desvios de solvatocromismo e os momentos de dipolo dos sistemas de moléculas orgânicas: Uracil em meio aquoso, -Caroteno em Ácido Oléico, Ácido Ricinoléico em metanol e em Etanol e Ácido Oléico em metanol e em Etanol. As otimizações das geometrias e as distribuições de cargas foram obtidas através da Teoria do Funcional Densidade com o funcional B3LYP e os conjuntos de funções de base 6-31G(d) para todas as moléculas exceto para a água e Uracil, as quais, foram utilizadas o conjunto de funções de base 6-311++G(d,p). No tratamento clássico, Monte Carlo, aplicou-se o algoritmo Metropólis através do programa DICE. A separação de configurações estatisticamente relevantes para os cálculos das propriedades médias foi implementada com a utilização da função de auto-correlação calculada para cada sistema. A função de distribuição radial dos líquidos moleculares foi utilizada para a separação da primeira camada de solvatação, a qual, estabelece a principal interação entre soluto-solvente. As configurações relevantes da primeira camada de solvatação de cada sistema foram submetidas a cálculos quânticos a nível semi-empírico com o método ZINDO/S-CI. Os espectros de absorção foram obtidos para os solutos em fase gasosa e para os sistemas de líquidos moleculares comentados. Os momentos de dipolo elétrico dos mesmos também foram obtidos. Todas as bandas dos espectros de absorção dos sistemas tiveram um desvio para o azul, exceto a segunda banda do sistema de Beta-Caroteno em Ácido Oléico que apresentou um desvio para o vermelho. Os resultados encontrados apresentam-se em excelente concordância com os valores experimentais encontrados na literatura. Todos os sistemas tiveram aumento no momento de dipolo elétrico devido às moléculas dos solventes serem moléculas polares. Os sistemas de ácidos graxos em álcoois apresentaram resultados muito semelhantes, ou seja, os ácidos graxos mencionados possuem comportamentos espectroscópicos semelhantes submetidos aos mesmos solventes. As simulações através do método seqüencial Monte Carlo / Mecânica Quântica estudadas demonstraram que a metodologia é eficaz para a obtenção das propriedades espectroscópicas dos líquidos moleculares analisados.
Resumo:
Apresentamos neste trabalho um estudo teórico sobre polímeros orgânicos conjugados. É conhecido que estes sistemas, em geral semicondutores ou isolantes, sob dopagem química podem vir a adquirir propriedades elétricas de material condutor. E ainda, sob ação de campo elétrico, pequenos oligômeros podem apresentar comportamento equivalente ao de dispositivos usuais, mas com inúmeras vantagens como, por exemplo, tamanho extremamente reduzido (alguns nanômetros). Dessa forma no primeiro capítulo faremos uma breve introdução sobre polímeros orgânicos conjugados mostrando alguns resultados experimentais obtidos para o polímero 4-dicianometileno-4,4-ciclopenta [2,1-b: 3,4b’] ditiofeno – CDM, que é o objeto central de estudo desta dissertação. O capítulo 2 trata dos métodos quânticos utilizados. Citaremos a Teoria de Hartre-Fock (HF) e suas derivações semi-empíricas. A técnica de Interação de configuração (CI) e a Teoria do Funcional da Densidade (DFT) também serão tratadas neste capítulo. O capítulo 3 é dedicado a descrever as características de alguns dispositivos usuais como diodos e transistores. Aqui o fundamental é entender a composição, o funcionamento e principalmente, como se comportam suas curvas características corrente versus voltagem (IxV). Citaremos ainda alguns dispositivos eletrônicos extremamente pequenos. No capítulo 4 começa nossos resultados e discussões referentes a análise da transição isolante-metal em CDM sob ação de dopagem. Primeiramente a nível semiempírico, obtivemos a caracterização ótica de oligômeros de CDM neutro e na presença de defeitos conformacionais do tipo bipólarons negativo e positivo. Partindo de geometrias otimizadas via métodos AM1 e PM3 obtivemos o espectro de absorção para sistemas com e sem carga. A nível Hartree-Fock calculamos a Estrutura de Bandas e a Densidade de Estados (DOS) para o PCDM no estado neutro e dopado. O cálculo da DOS e da Dispersão foram realizados através de programas computacionais desenvolvidos aqui no Grupo de Física de Materiais da Amazônia (GFMA). Apresentamos ainda neste capítulo o espectro de absorção teórico para oligômeros de CDM com diversas configurações com geometrias totalmente otimizadas pelo DFT. No capítulo 5 temos os resultados relativos à análise de nanodispositivos baseados em tetrâmeros de CDM com e sem carga. As curvas do deslocamento de carga versus voltagem apresentam características de curvas de dispositivos usuais. Analisamos também o espectro de absorção teórico dos nanodispositivos para valores de tensão nula e em pontos de saturação de corrente nas regiões direta e reversa.
Resumo:
Neste trabalho foi desenvolvido um método de solução ao problema inverso para modelos sísmicos compostos por camadas homogêneas e isotrópicas separadas por superfícies suaves, que determina as velocidades intervalares em profundidade e calcula a geometria das interfaces. O tempo de trânsito é expresso como uma função de parâmetros referidos a um sistema de coordenadas fixo no raio central, que é determinada numericamente na superfície superior do modelo. Essa função é posteriormente calculada na interface anterior que limita a camada não conhecida, através de um processo que determina a função característica em profundidade. A partir da função avaliada na interface anterior se calculam sua velocidade intervalar e a geometria da superfície posterior onde tem lugar a reflexão do raio. O procedimento se repete de uma forma recursiva nas camadas mais profundas obtendo assim a solução completa do modelo, não precisando em nenhum passo informação diferente à das camadas superiores. O método foi expresso num algoritmo e se desenvolveram programas de computador, os quais foram testados com dados sintéticos de modelos que representam feições estruturais comuns nas seções geológicas, fornecendo as velocidades em profundidade e permitindo a reconstrução das interfaces. Uma análise de sensibilidade sobre os programas mostrou que a determinação da função característica e a estimação das velocidades intervalares e geometria das interfaces são feitos por métodos considerados estáveis. O intervalo empírico de aplicabilidade das correções dinâmicas hiperbólicas foi tomado como uma estimativa da ordem de magnitude do intervalo válido para a aplicação do método.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Este trabalho discute dois aspectos da migração em profundidade através da continuação para baixo dos campos de onda: o tratamento de modos evanescentes e a correção da amplitude dos eventos migrados. Estes dois aspectos são discutidos em meios isotrópicos e para uma classe de meios anisotrópicos. Migrações por diferenças finitas (FD) e por diferenças finitas e Fourier (FFD) podem ser instáveis em meios com forte variação lateral de velocidade. Estes métodos utilizam aproximações de Padé reais para representar o operador que descreve a propagação de ondas descendentes. Estas abordagens não são capazes de tratar corretamente os modos evanescentes, o que pode levar à instabilidades numéricas em meios com forte variação lateral de velocidade. Uma solução possível para esse problema é utilizar aproximação de Padé complexa, que consegue melhor representar os modos evanescentes associados às reflexões pós-críticas, e neste trabalho esta aproximação é utilizada para obter algoritmos FD e híbrido FD/FFD estáveis para migração em meios transversalmente isotrópicos com eixo de simetria vertical (VTI), mesmo na presença de forte variação nas propriedades elásticas do meio. A estabilidade dos algoritmos propostos para meios VTI foi validada através da resposta ao impulso do operador de migração e pela sua aplicação na migração de dados sintéticos, em meios fortemente heterogêneos. Métodos de migração por equação de onda em meios heterogêneos não tratam corretamente a amplitude dos eventos durante a propagação. As equações de onda unidirecionais tradicionais descrevem corretamente apenas a parte cinemática da propagação do campo de onda. Assim, para uma descrição correta das amplitudes deve-se usar as equações de onda unidirecionais de amplitude verdadeira. Em meios verticalmente heterogêneos, as equações de onda unidirecionais de amplitude verdadeira podem ser resolvidas analiticamente. Em meios lateralmente heterogêneos, essas equações não possuem uma solução analítica. Mesmo soluções numéricas tendem a ser instáveis. Para melhorar a compensação de amplitude na migração, em meios com variação lateral de velocidade, é proposto uma aproximação estável para solução da equação de onda unidirecional de amplitude verdadeira. Esta nova aproximação é implementada nas migrações split-step e diferenças finitas e Fourier (FFD). O algoritmo split-step com correção de amplitude foi estendido para meios VTI. A migração pré e pós-empilhamento de dados sintéticos, em meios isotrópicos e anisotrópicos, confirmam o melhor tratamento das amplitudes e estabilidade dos algoritmos propostos.
Resumo:
A América do Sul apresenta várias peculiaridades geomagnéticas, uma delas, é a presença do Eletrojato Equatorial, o qual se estende de leste para oeste no Brasil ao longo de aproximadamente 3500 km. Considerando-se o fato de que a influência do Eletrojato Equatorial pode ser detectada a grandes distâncias do seu centro, isto suscita o interesse em se estudar os seus efeitos na exploração magnetotelúrica no Brasil. A influência do eletrojato equatorial na prospecção magnetotelúrica tem sido modelada para meios geológicos uni e bidimensionais valendo-se para isto de soluções analíticas fechadas e de técnicas numéricas tais como elementos finitos e diferenças finitas. Em relação aos meios geológicos tridimensionais, eles tem sido modelados na forma de "camadas finas", usando o algoritmo "thin sheet". As fontes indutoras utilizadas para simular o eletrojato equatorial nestes trabalhos, tem sido linhas de corrente, eletrojatos gaussianos e eletrojatos ondulantes. Por outro lado, o objetivo principal da nossa tese foi o modelamento dos efeitos que o eletrojato equatorial provoca em estruturas tridimensionais próprias da geofísica da prospecção. Com tal finalidade, utilizamos o esquema numérico da equação integral, com as fontes indutoras antes mencionadas. De maneira similar aos trabalhos anteriores, os nossos resultados mostram que a influência do eletrojato equatorial somente acontece em frequências menores que 10-1 Hz. Este efeito decresce com a distância, mantendo-se até uns 3000 km do centro do eletrojato. Assim sendo, a presença de grandes picos nos perfis da resistividade aparente de um semi-espaço homogêneo, indica que a influência do eletrojato é notável neste tipo de meio. Estes picos se mostram com diferente magnitude para cada eletrojato simulado, sendo que a sua localização também muda de um eletrojato para outro. Entretanto, quando se utilizam modelos geo-elétricos unidimensionais mais de acordo com a realidade, tais como os meios estratificados, percebe-se que a resposta dos eletrojatos se amortece significativamente e não mostra muitas diferenças entre os diferentes tipos de eletrojato. Isto acontece por causa da dissipação da energia eletromagnética devido à presença da estratificação e de camadas condutivas. Dentro do intervalo de 3000 km, a resposta eletromagnética tridimensional pode ser deslocada para cima ou para baixo da resposta da onda plana, dependendo da localização do corpo, da frequência, do tipo de eletrojato e do meio geológico. Quando a resposta aparece deslocada para cima, existe um afastamento entre as sondagens uni e tridimensionais devidas ao eletrojato, assim como um alargamento da anomalia dos perfis que registra a presença da heterogeneidade tridimensional. Quando a resposta aparece deslocada para baixo, no entanto, há uma aproximação entre estes dois tipos de sondagens e um estreitamento da anomalia dos perfis. Por outro lado, a fase se mostra geralmente, de uma forma invertida em relação à resistividade aparente. Isto significa que quando uma sobe a outra desce, e vice-versa. Da mesma forma, comumente nas altas frequências as respostas uni e tridimensionais aparecem deslocadas, enquanto que nas baixas frequências se mostram com os mesmos valores, com exceção dos eletrojatos ondulantes com parâmetros de ondulação α = —2 e —3. Nossos resultados também mostram que características geométricas próprias das estruturas tridimensionais, tais como sua orientação em relação à direção do eletrojato e a dimensão da sua direção principal, afetam a resposta devido ao eletrojato em comparação com os resultados da onda plana. Desta forma, quando a estrutura tridimensional é rotacionada de 90°, em relação à direção do eletrojato e em torno do eixo z, existe uma troca de polarizações nas resistividades dos resultados, mas não existem mudanças nos valores da resistividade aparente no centro da estrutura. Ao redor da mesma, porém, se percebe facilmente alterações nos contornos dos mapas de resistividade aparente, ao serem comparadas com os mapas da estrutura na sua posição original. Isto se deve à persistência dos efeitos galvânicos no centro da estrutura e à presença de efeitos indutivos ao redor do corpo tridimensional. Ao alongar a direção principal da estrutura tridimensional, as sondagens magnetotelúricas vão se aproximando das sondagens das estruturas bidimensionais, principalmente na polarização XY. Mesmo assim, as respostas dos modelos testados estão muito longe de se considerar próximas das respostas de estruturas quase-bidimensionais. Porém, os efeitos do eletrojato em estruturas com direção principal alongada, são muito parecidos com aqueles presentes nas estruturas menores, considerando-se as diferenças entre as sondagens de ambos tipos de estruturas. Por outro lado, os mapas de resistividade aparente deste tipo de estrutura alongada, revelam um grande aumento nos extremos da estrutura, tanto para a onda plana como para o eletrojato. Este efeito é causado pelo acanalamento das correntes ao longo da direção principal da estrutura. O modelamento de estruturas geológicas da Bacia de Marajó confirma que os efeitos do eletrojato podem ser detetados em estruturas pequenas do tipo "horst" ou "graben", a grandes distâncias do centro do mesmo. Assim, os efeitos do eletrojato podem ser percebidos tanto nos meios estratificados como tridimensionais, em duas faixas de freqüência (nas proximidades de 10-1 Hz e para freqüências menores que 10-3 Hz), possivelmente influenciados pela presença do embasamento cristalino e a crosta inferior, respectivamente. Desta maneira, os resultados utilizando o eletrojato como fonte indutora, mostram que nas baixas freqüências as sondagens magnetotelúricas podem ser fortemente distorcidas, tanto pelos efeitos galvânicos da estrutura tridimensional como pela presença da influência do eletrojato. Conseqüêntemente, interpretações errôneas dos dados de campo podem ser cometidas, se não se corrigirem os efeitos do eletrojato equatorial ou, da mesma forma, não se utilisarem algoritmos tridimensionais para interpretar os dados, no lugar do usual modelo unidimensional de Tikhonov - Cagniard.
Resumo:
A necessidade da adoção de modelos elásticos anisotrópicos, no contexto da sísmica de exploração, vem crescendo com o advento de novas técnicas de aquisição de dados como VSP, walkway VSP, tomografia poço a poço e levantamentos sísmicos com grande afastamento. Meios anisotrópicos, no contexto da sísmica de exploração, são modelos efetivos para explicar a propagação de ondas através de meios que apresentam padrões de heterogeneidade em escala muito menor que o comprimento de onda das ondas sísmicas. Particularmente, estes modelos são muito úteis para explicar o dado sísmico mais robusto que são as medidas de tempo de trânsito. Neste trabalho, são investigados aspectos da propagação de ondas, traçado de raios e inversão de tempos de trânsito em meios anisotrópicos. É estudada a propagação de ondas SH em meios anisotrópicos estratificados na situação mais geral onde estas ondas podem ocorrer, ou seja, em meios monoclínicos com um plano vertical de simetria especular. É mostrado que o campo de ondas SH refletido a partir de um semi-espaço estratificado, não apresenta qualquer informação sobre a possível presença de anisotropia em subsuperfície. São apresentados métodos simples e eficientes para o traçado de raios em 3D através de meios anisotrópicos estratificados, baseados no princípio de Fermat. Estes métodos constituem o primeiro passo para o desenvolvimento de algoritmos de inversão de tempos de trânsito para meios anisotrópicos em 3D, a partir de dados de VSP e walkaway VSP. Esta abordagem é promissora para determinação de modelos de velocidade, que são necessários para migração de dados sísmicos 3D na presença de anisotropia. É efetuada a análise da inversão tomográfica não linear, para meios estratificados transversalmente isotrópicos com um eixo de simetria vertical(TIV). As limitações dos dados de tempo de trânsito de eventos qP para determinação das constantes elásticas, são estabelecidas e caracterizados os efeitos da falta de cobertura angular completa na inversão tomográfica. Um algoritmo de inversão foi desenvolvido e avaliado em dados sintéticos. A aplicação do algoritmo a dados reais demonstra a consistência de meios TIV. Esta abordagem é útil para casos onde há informação a priori sobre a estratificação quase plana das formações e onde os próprios dados do levantamento poço a poço apresentam um alto grau de simetria especular em relação a um plano vertical. Também pode ser útil em interpretações preliminares, onde a estimativa de um meio estratificado, serve como modelo de fundo para se efetuar análises mais detalhadas, por exemplo, como um modelo de velocidades anisotrópico para migração, ou como um modelo de calibração para análises de AVO.
Resumo:
Na produção de petróleo é importante o monitoramento dos parâmetros do reservatório (permeabilidade, porosidade, saturação, pressão, etc) para o seu posterior gerenciamento. A variação dos parâmetros dinâmicos do reservatório induz variações na dinâmica do fluxo no reservatório, como por exemplo, perdas na pressão, dificultando o processo de extração do óleo. A injeção de fluidos aumenta a energia interna do reservatório e incrementa a pressão, estimulando o movimento do óleo em direção aos poços de extração. A tomografia eletromagnética poço-a-poço pode se tomar em uma técnica bastante eficaz no monitoramento dos processos de injeção, considerando-se o fato de ser altamente detectável a percolação de fluidos condutivos através das rochas. Esta tese apresenta o resultado de um algoritmo de tomografia eletromagnética bastante eficaz aplicado a dados sintéticos. O esquema de imageamento assume uma simetria cilíndrica em torno de uma fonte constituída por um dipolo magnético. Durante o processo de imageamento foram usados 21 transmissores e 21 receptores distribuídos em dois poços distanciados de 100 metros. O problema direto foi resolvido pelo método dos elementos finitos aplicado à equação de Helmhotz do campo elétrico secundário. O algoritmo resultante é válido para qualquer situação, não estando sujeito às restrições impostas aos algoritmos baseados nas aproximações de Born e Rytov. Por isso, pode ser aplicado eficientemente em qualquer situação, como em meios com contrastes de condutividade elétrica variando de 2 a 100, freqüências de 0.1 a 1000.0 kHz e heterogeneidades de qualquer dimensão. O problema inverso foi resolvido por intermédio do algoritmo de Marquardt estabilizado. A solução é obtida iterativamente. Os dados invertidos, com ruído Gaussiano aditivo, são as componentes em fase e em quadratura do campo magnético vertical. Sem o uso de vínculos o problema é totalmente instável, resultando em imagens completamente borradas. Duas categorias de vínculos foram usadas: vínculos relativos, do tipo suavidade, e vínculos absolutos. Os resultados obtidos mostram a eficiência desses dois tipos de vínculos através de imagens nítidas de alta resolução. Os tomogramas mostram que a resolução é melhor na direção vertical do que na horizontal e que é também função da freqüência. A posição e a atitude da heterogeneidade é bem recuperada. Ficou também demonstrado que a baixa resolução horizontal pode ser atenuada ou até mesmo eliminada por intermédio dos vínculos.
Resumo:
Os principais objetivos deste trabalho são propor um algoritmo eficiente e o mais automático possível para estimar o que está coberto por regiões de nuvens e sombras em imagens de satélite; e um índice de confiabilidade, que seja aplicado previamente à imagem, visando medir a viabilidade da estimação das regiões cobertas pelos componentes atmosféricos usando tal algoritmo. A motivação vem dos problemas causados por esses elementos, entre eles: dificultam a identificação de objetos de imagem, prejudicam o monitoramento urbano e ambiental, e desfavorecem etapas cruciais do processamento digital de imagens para extrair informações ao usuário, como segmentação e classificação. Através de uma abordagem híbrida, é proposto um método para decompor regiões usando um filtro passa-baixas não-linear de mediana, a fim de mapear as regiões de estrutura (homogêneas), como vegetação, e de textura (heterogêneas), como áreas urbanas, na imagem. Nessas áreas, foram aplicados os métodos de restauração Inpainting por suavização baseado em Transformada Cosseno Discreta (DCT), e Síntese de Textura baseada em modelos, respectivamente. É importante salientar que as técnicas foram modificadas para serem capazes de trabalhar com imagens de características peculiares que são obtidas por meio de sensores de satélite, como por exemplo, as grandes dimensões e a alta variação espectral. Já o índice de confiabilidade, tem como objetivo analisar a imagem que contém as interferências atmosféricas e daí estimar o quão confiável será a redefinição com base no percentual de cobertura de nuvens sobre as regiões de textura e estrutura. Tal índice é composto pela combinação do resultado de algoritmos supervisionados e não-supervisionados envolvendo 3 métricas: Exatidão Global Média (EGM), Medida De Similaridade Estrutural (SSIM) e Confiança Média Dos Pixels (CM). Finalmente, verificou-se a eficácia destas metodologias através de uma avaliação quantitativa (proporcionada pelo índice) e qualitativa (pelas imagens resultantes do processamento), mostrando ser possível a aplicação das técnicas para solucionar os problemas que motivaram a realização deste trabalho.
Resumo:
A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.
Resumo:
O presente trabalho demonstra a aplicação de um Algoritmo Genético com o intuito de projetar um controlador Fuzzy MISO, através da sintonia de seus parâmetros, em um processo experimental de nivelamento de líquido em um tanque, cuja dinâmica apresenta características não-lineares. Para o projeto e sintonia do controlador, foi utilizado o suporte do software Matlab, e seus pacotes Simulink e Global Optimization Toolbox. O Controlador Fuzzy ora projetado teve seu desempenho avaliado através de ensaios em tempo real em um Sistema de Nível de Liquido.
Resumo:
A identificação de fácies em um poço não testemunhado é um dos problemas clássicos da avaliação de formação. Neste trabalho este problema é tratado em dois passos, no primeiro produz-se a codificação da informação geológica ou da descrição das fácies atravessadas em um poço testemunhado em termos das suas propriedades físicas registradas nos perfis geofísicos e traduzidas pelos parâmetros L e K, que são obtidos a partir dos perfis de porosidade (densidade, sônico e porosidade neutrônica) e pela argilosidade (Vsh) calculada pelo perfil de raio gama natural. Estes três parâmetros são convenientemente representados na forma do Gráfico Vsh-L-K. No segundo passo é realizada a interpretação computacional do Gráfico Vsh-L-K por um algoritmo inteligente construído com base na rede neural competitiva angular generalizada, que é especializada na classificação de padrões angulares ou agrupamento de pontos no espaço n-dimensional que possuem uma envoltória aproximadamente elipsoidal. Os parâmetros operacionais do algoritmo inteligente, como a arquitetura da rede neural e pesos sinápticos são obtidos em um Gráfico Vsh-L-K, construído e interpretado com as informações de um poço testemunhado. Assim, a aplicação deste algoritmo inteligente é capaz de identificar e classificar as camadas presentes em um poço não testemunhado, em termos das fácies identificadas no poço testemunhado ou em termos do mineral principal, quando ausentes no poço testemunhado. Esta metodologia é apresentada com dados sintéticos e com perfis de poços testemunhados do Campo de Namorado, na Bacia de Campos, localizada na plataforma continental do Rio de Janeiro, Brasil.
Resumo:
Neste trabalho são apresentadas expressões exatas e aproximações quadráticas das conhecidas equações de Knott-Zöeppritz, que calculam as amplitudes dos coeficientes Rpp e Rsp em termos dos contrastes médios relativos, bem como é procedida a inversão dos parâmetros de dados de AVO a partir destas aproximações quadráticas. Nesta inversão é utilizado o algoritmo de Levenberg-Marquardt, e são considerados apenas os eventos refletidos Rpp e convertidos Rsp, não associados. Nos estudos dos parâmetros físicos dos meios contrastes de impedância (δz), módulo de cisalhamento (δμ) e velocidade da onda p (δα), verificou-se quais desses parâmetros podem ser invertidos. Os resultados obtidos mostram que o contraste de impedância (δz) é muito bem resolvido estando ele relacionado com o contraste de velocidade da onda p (δα) ou com o contraste de cisalhamento (δμ), no caso de eventos refletidos considerando modelos de alto, moderado e baixo contrastes. Por outro lado ao se fixar o contraste de impedância e relacionar os outros dois parâmetros em consideração, os resultados mostram que esses são mal resolvidos, ou seja, a região de ambiguidade torna-se muito grande e os parâmetros tornam-se ambíguos e instáveis. No caso do evento convertido e na combinação do evento refletido com o convertido, para os modelos de baixo e moderado contrastes, (δz) é muito bem resolvido, caso que não acontece para modelo de alto contraste. Diante desses resultados verifica-se que no procedimento de inversão quadrática de dados de AVO, fixado (δμ), a recuperação dos dois parâmetros variados é muito boa, no caso do evento refletido, e razoavelmente boa no caso do evento convertido, por esse motivo optou-se pela fixação do módulo de cisalhamento.