14 resultados para Semi-algoritmo
em Universidade Federal do Pará
Resumo:
A fitoterapia constitui uma forma de terapia medicinal que vem crescendo visivelmente ao longo dos anos, no entanto, apesar da extensa utilização dos fitoterápicos, a qualidade destes medicamentos muitas vezes é deficiente e questionável. Dentre as plantas medicinais mais empregadas como fitoterápicos, temos a Calendula officinalis L.(Asteraceae), utilizada pelos seus efeitos antiinflamatórios, antisépticos e cicatrizantes. Sendo assim, o presente estudo objetivou aprimorar e consolidar o emprego de metodologias de tecnologia farmacêutica na área de desenvolvimento de fitoterápicos, por meio da realização de estudos preliminares do planejamento/pré-formulação de uma formulação fitoterápica semi-sólida contendo tintura de C. officinalis L., visando o controle de qualidade das etapas do seu desenvolvimento. Na caracterização física e físico-química do pó e da tintura de calêndula foi possível obter especificações farmacognósticas condizentes com as da literatura, além de constatar a identidade do material vegetal através da detecção do marcador químico rutina por CCD. Por meio da validação do método, que apresentou parâmetros recomendados pela legislação vigente, foram determinados 463 μg/mL de rutina na tintura. Os espectros obtidos na região do infravermelho (IV) mostraram bandas características da rutina no extrato liofilizado, além de demonstrar a permanência dessas bandas após sua mistura com os excipientes da formulação. As técnicas termoanalíticas confirmaram a compatibilidade entre os excipientes e o extrato liofilizado de calêndula. Na avaliação da estabilidade preliminar do gel, a formulação permaneceu estável durante a realização dos ciclos em estufa (45 2 0C) e temperatura ambiente (25 2 0C). No estudo preliminar da permeação, o gel apresentou tendência para favorecer a permeação dos flavonóides totais expresso em rutina para a fase receptora. Estes resultados demonstram a importância do emprego de protocolos de controle de qualidade das matérias primas vegetais, além do estabelecimento de metodologias tecnológicas para a produção de fitoterápicos.
Resumo:
Este trabalho tem como objetivo apresentar o desenvolvimento de uma metaheurística híbrida baseada no ciclo de vida viral, mais especificamente dos Retrovírus, que fazem parte do grupo dos seres que evoluem mais rápido na natureza. Este algoritmo é denominado Algoritmo Genético Retroviral Iterativo (AGRI) e para embasamento computacional são utilizados conceitos de Algoritmo Genético (AG) e biológico características de replicação e evolução retroviral, o que proporciona uma grande diversidade genética o que aumenta a probabilidade para encontrar a solução, fato este confirmado através de melhores resultados obtidos pelo AGRI em relação ao AG.
Resumo:
As Redes Ópticas Passivas (Passive Optical Networks - PONs) vêm experimentando um sólido crescimento nas últimas décadas por terem sido concebidas como uma excelente alternativa para a solução de um dos maiores problemas para as redes de telecomunicações: o gargalo nas redes de acesso. A próxima geração desta tecnologia, as chamadas Next Genaration PONs (NG-PON), surgem como consequência da evolução das tecnologias ópticas e oferecem suporte aos serviços de próxima geração, melhorando os parâmetros de desempenho das TDM-PONs e inclusive aumentando a área de cobertura destas redes. Esta expansão geográfica beneficia as empresas de telecomunicações que passam a focar seus esforços na simplificação de suas infra-estruturas através da unificação das redes metropolitanas, de acesso e de backhaul, reduzindo a quantidade de nós e, consequentemente, de custos operacionais e financeiros. Trata-se de uma significativa mudança no cenário das redes de acesso que passam a ter grandes distâncias entre as Optical Network Units (ONUs) e o Central Office (CO) e uma imensa variedade de serviços, tornando fundamental a presença de algoritmos de agendamento capazes de gerenciar todos os recursos compartilhados de forma eficiente, ao mesmo tempo que garantem controle e justeza na alocação dinâmica dos tráfegos upstream e downstream. É a partir deste contexto que esta dissertação tem como objetivo geral apresentar a proposta de um algoritmo híbrido de agendamento de grants baseado na priorização de filas (Hybrid Grant Scheduler based on Priority Queuing – HGSPQ), que além de gerenciar todos os recursos em WDM-PONs, busca oferecer eficiência e controle ao Optical Line Terminal (OLT) no agendamento dinâmico dos tráfegos. Os resultados apresentados foram extraídos de cenários desenvolvidos em ambiente de simulação computacional e se baseiam nas métricas de atraso e vazão para avaliação de seu desempenho. Também será avaliado como a quantidade de recursos no OLT interfere nestas métricas.
Resumo:
Este trabalho apresenta um método para encontrar um conjunto de pontos de operação, os quais são ótimos de Pareto com diversidade, para linhas digitais de assinante (DSL - digital subscriber line). Em diversos trabalhos encontrados na literatura, têm sido propostos algoritmos para otimização da transmissão de dados em linhas DSL, que fornecem como resultado apenas um ponto de operação para os modems. Esses trabalhos utilizam, em geral, algoritmos de balanceamento de espectro para resolver um problema de alocação de potência, o que difere da abordagem apresentada neste trabalho. O método proposto, chamado de diverseSB , utiliza um processo híbrido composto de um algoritmo evolucionário multiobjetivo (MOEA - multi-objective evolutionary algorithm), mais precisamente, um algoritmo genético com ordenamento por não-dominância (NSGA-II - Non-Dominated Sorting Genetic Algorithm II), e usando ainda, um algoritmo de balanceamento de espectro. Os resultados obtidos por simulações mostram que, para uma dada diversidade, o custo computacional para determinar os pontos de operação com diversidade usando o algoritmo diverseSB proposto é muito menor que métodos de busca de “força bruta”. No método proposto, o NSGA-II executa chamadas ao algoritmo de balanceamento de espectro adotado, por isso, diversos testes envolvendo o mesmo número de chamadas ao algoritmo foram realizadas com o método diverseSB proposto e o método de busca por força bruta, onde os resultados obtidos pelo método diverseSB proposto foram bem superiores do que os resultados do método de busca por força bruta. Por exemplo, o método de força bruta realizando 1600 chamadas ao algoritmo de balanceamento de espectro, obtém um conjunto de pontos de operação com diversidade semelhante ao do método diverseSB proposto com 535 chamadas.
Resumo:
A eficiência espectral em redes baseadas na tecnologia de Rádio Cognitivo (RC) pode ser comprometida caso o rádio seja utilizado por muito tempo para a detecção em vez da transmissão de dados. Por isso, tornam-se necessários esquemas de sensoriamento que tenham o objetivo de obter o máximo possível de utilização do espectro, evitando sensoriamento desnecessário, bem como, obtendo o mínimo de interferência na transmissão do usuário primário decorrente de detecção incorreta de sua transmissão. Neste trabalho, propomos a utilização de Algoritmos Genéticos para realizar a adaptação do período de sensoriamento. O objetivo é obter um período de sensoriamento ótimo para os canais com vistas a maximizar a descoberta de oportunidades no espectro e minimizar o overhead decorrente do sensoriamento. A maioria dos trabalhos relacionados a este assunto considera que o overhead de sensoriamento é fixo, não levando em conta que alguns canais podem ter menor tolerância à interferência que outros. A proposta apresentada neste trabalho pode adaptar-se aos requisitos de tolerância à interferência no canal licenciado por meio da determinação de um período de sensoriamento que otimize as oportunidades para qualquer valor de overhead definido. Nossa proposta consegue obter um ganho de até 90% em relação às técnicas não otimizadas no número de oportunidades encontradas, até 40,9% no ganho de transmissão útil e obteve uma redução no tempo de interferência de 66,83%, bem como resultados similares aos obtidos por uma proposta otimizada presente na literatura, com a vantagem de permitir a adaptação do overhead de sensoriamento.
Resumo:
ABSTRACT: Antibodies to human T-cell lymphotropic virus-1 and 2 (HTLV-1 and 2) were tested in 259 inhabitants (98 males and 161 females) of four villages of the Marajó Island (Pará, Brazil) using enzyme immunoassays (ELISA and Western blot). Types and subtypes of HTLV were determined by nested polymerase chain reaction (PCR) targeting the pX, env and 5´LTR regions. HTLV-1 infection was detected in Santana do Arari (2.06%) and Ponta de Pedras (1%). HTLV-2 was detected only in Santana do Arari (1.06%). Sequencing of the 5´LTR region of HTLV-1 and the phylogenetic analysis identified the virus as a member of the Cosmopolitan Group, subgroup Transcontinental. Santana do Arari is an Afro-Brazilian community and the current results represent the first report of HTLV-1 infection in a mocambo located in the Brazilian Amazon region.
Resumo:
Este trabalho apresenta o desenvolvimento de um algoritmo computacional para análise do espalhamento eletromagnético de nanoestruturas plasmônicas isoladas. O Método dos Momentos tridimensional (MoM-3D) foi utilizado para resolver numericamente a equação integral do campo elétrico, e o modelo de Lorentz-Drude foi usado para representar a permissividade complexa das nanoestruturas metálicas. Baseado nesta modelagem matemática, um algoritmo computacional escrito em linguagem C foi desenvolvido. Como exemplo de aplicação e validação do código, dois problemas clássicos de espalhamento eletromagnético de nanopartículas metálicas foram analisados: nanoesfera e nanobarra, onde foram calculadas a resposta espectral e a distribuição do campo próximo. Os resultados obtidos foram comparados com resultados calculados por outros modelos e observou-se uma boa concordância e convergência entre eles.
Resumo:
Neste trabalho, são propostas metodologias para otimização do parâmetro de forma local c do método RPIM (Radial Point Interpolation Method). Com as técnicas apresentadas, é possível reduzir problemas com inversão de matrizes comuns em métodos sem malha e, também, garantir um maior grau de liberdade e precisão para a utilização da técnica, já que se torna possível uma definição semi-automática dos fatores de forma mais adequados para cada domínio de suporte. Além disso, é apresentado um algoritmo baseado no Line Sweep para a geração eficiente dos domínios de suporte.
Resumo:
Verificar a influência de fatores do meio ambiente sobre características de produção e reprodução em grupos genéticos de bovinos leiteiros explorados em algumas fazendas nos municípios de Irituia e Mãe do rio no Nordeste Paraense. Foi utilizada uma média de 454 animais em lactação mestiças de Holandês, Pardo-Suíça e Girolando pertencentes a duas fazendas com sistema de criação semi-intensivo na época menos chuvosa. As médias e desvio-padrão para produção de leite total foram iguais a 1097,36 ± 330,47 Kg, com coeficiente de variação igual a 25,64% sendo que o grupo genético Holandesa, a época de parto menos chuvosa e o ano de 2007 apresentaram maior produção. O período de lactação apresentou efeito linear e crescente sobre a produção de leite total. O período de lactação apresentou média e desvio-padrão iguais a 218,17 ± 43,17 dias, a maior média para o período de lactação foi observada na época mais chuvosa e a média do período de lactação diminuiu no decorrer dos anos 2007 e 2008. A média e desvio padrão de intervalo entre partos encontrado no rebanho foi igual a 398,975 ± 60,85 dias. A época menos chuvosa apresentou uma média de intervalo entre partos menor que época mais chuvosa e a média de intervalo entre partos foi reduzindo a partir de 2006. A média de idade ao primeiro parto encontrado foi de 38,57 ± 5,81 meses. Os coeficientes de determinação foram maiores que 0,85 (R2a > 0,85), sendo que para o grupo genético Holandesa, os ajustes foram melhores em relação aos ajustes dos outros dois grupos genéticos. Para o grupo genético Girolando, o formato da curva de lactação diferiu dos outros dois grupos genéticos dificultando o ajuste pelas funções Gama Incompleta, Linear Hiperbólica e Polinomial Inversa. Os ajustes promovidos pela função polinomial inversa apresentaram ligeiro desvio em relação às outras duas funções. O grupo genético Holandesa apresentou produção ao pico e persistência um pouco mais elevados em relação aos outros grupos genéticos.
Resumo:
Utilizou-se o método seqüencial Monte Carlo / Mecânica Quântica para obterem-se os desvios de solvatocromismo e os momentos de dipolo dos sistemas de moléculas orgânicas: Uracil em meio aquoso, -Caroteno em Ácido Oléico, Ácido Ricinoléico em metanol e em Etanol e Ácido Oléico em metanol e em Etanol. As otimizações das geometrias e as distribuições de cargas foram obtidas através da Teoria do Funcional Densidade com o funcional B3LYP e os conjuntos de funções de base 6-31G(d) para todas as moléculas exceto para a água e Uracil, as quais, foram utilizadas o conjunto de funções de base 6-311++G(d,p). No tratamento clássico, Monte Carlo, aplicou-se o algoritmo Metropólis através do programa DICE. A separação de configurações estatisticamente relevantes para os cálculos das propriedades médias foi implementada com a utilização da função de auto-correlação calculada para cada sistema. A função de distribuição radial dos líquidos moleculares foi utilizada para a separação da primeira camada de solvatação, a qual, estabelece a principal interação entre soluto-solvente. As configurações relevantes da primeira camada de solvatação de cada sistema foram submetidas a cálculos quânticos a nível semi-empírico com o método ZINDO/S-CI. Os espectros de absorção foram obtidos para os solutos em fase gasosa e para os sistemas de líquidos moleculares comentados. Os momentos de dipolo elétrico dos mesmos também foram obtidos. Todas as bandas dos espectros de absorção dos sistemas tiveram um desvio para o azul, exceto a segunda banda do sistema de Beta-Caroteno em Ácido Oléico que apresentou um desvio para o vermelho. Os resultados encontrados apresentam-se em excelente concordância com os valores experimentais encontrados na literatura. Todos os sistemas tiveram aumento no momento de dipolo elétrico devido às moléculas dos solventes serem moléculas polares. Os sistemas de ácidos graxos em álcoois apresentaram resultados muito semelhantes, ou seja, os ácidos graxos mencionados possuem comportamentos espectroscópicos semelhantes submetidos aos mesmos solventes. As simulações através do método seqüencial Monte Carlo / Mecânica Quântica estudadas demonstraram que a metodologia é eficaz para a obtenção das propriedades espectroscópicas dos líquidos moleculares analisados.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
A América do Sul apresenta várias peculiaridades geomagnéticas, uma delas, é a presença do Eletrojato Equatorial, o qual se estende de leste para oeste no Brasil ao longo de aproximadamente 3500 km. Considerando-se o fato de que a influência do Eletrojato Equatorial pode ser detectada a grandes distâncias do seu centro, isto suscita o interesse em se estudar os seus efeitos na exploração magnetotelúrica no Brasil. A influência do eletrojato equatorial na prospecção magnetotelúrica tem sido modelada para meios geológicos uni e bidimensionais valendo-se para isto de soluções analíticas fechadas e de técnicas numéricas tais como elementos finitos e diferenças finitas. Em relação aos meios geológicos tridimensionais, eles tem sido modelados na forma de "camadas finas", usando o algoritmo "thin sheet". As fontes indutoras utilizadas para simular o eletrojato equatorial nestes trabalhos, tem sido linhas de corrente, eletrojatos gaussianos e eletrojatos ondulantes. Por outro lado, o objetivo principal da nossa tese foi o modelamento dos efeitos que o eletrojato equatorial provoca em estruturas tridimensionais próprias da geofísica da prospecção. Com tal finalidade, utilizamos o esquema numérico da equação integral, com as fontes indutoras antes mencionadas. De maneira similar aos trabalhos anteriores, os nossos resultados mostram que a influência do eletrojato equatorial somente acontece em frequências menores que 10-1 Hz. Este efeito decresce com a distância, mantendo-se até uns 3000 km do centro do eletrojato. Assim sendo, a presença de grandes picos nos perfis da resistividade aparente de um semi-espaço homogêneo, indica que a influência do eletrojato é notável neste tipo de meio. Estes picos se mostram com diferente magnitude para cada eletrojato simulado, sendo que a sua localização também muda de um eletrojato para outro. Entretanto, quando se utilizam modelos geo-elétricos unidimensionais mais de acordo com a realidade, tais como os meios estratificados, percebe-se que a resposta dos eletrojatos se amortece significativamente e não mostra muitas diferenças entre os diferentes tipos de eletrojato. Isto acontece por causa da dissipação da energia eletromagnética devido à presença da estratificação e de camadas condutivas. Dentro do intervalo de 3000 km, a resposta eletromagnética tridimensional pode ser deslocada para cima ou para baixo da resposta da onda plana, dependendo da localização do corpo, da frequência, do tipo de eletrojato e do meio geológico. Quando a resposta aparece deslocada para cima, existe um afastamento entre as sondagens uni e tridimensionais devidas ao eletrojato, assim como um alargamento da anomalia dos perfis que registra a presença da heterogeneidade tridimensional. Quando a resposta aparece deslocada para baixo, no entanto, há uma aproximação entre estes dois tipos de sondagens e um estreitamento da anomalia dos perfis. Por outro lado, a fase se mostra geralmente, de uma forma invertida em relação à resistividade aparente. Isto significa que quando uma sobe a outra desce, e vice-versa. Da mesma forma, comumente nas altas frequências as respostas uni e tridimensionais aparecem deslocadas, enquanto que nas baixas frequências se mostram com os mesmos valores, com exceção dos eletrojatos ondulantes com parâmetros de ondulação α = —2 e —3. Nossos resultados também mostram que características geométricas próprias das estruturas tridimensionais, tais como sua orientação em relação à direção do eletrojato e a dimensão da sua direção principal, afetam a resposta devido ao eletrojato em comparação com os resultados da onda plana. Desta forma, quando a estrutura tridimensional é rotacionada de 90°, em relação à direção do eletrojato e em torno do eixo z, existe uma troca de polarizações nas resistividades dos resultados, mas não existem mudanças nos valores da resistividade aparente no centro da estrutura. Ao redor da mesma, porém, se percebe facilmente alterações nos contornos dos mapas de resistividade aparente, ao serem comparadas com os mapas da estrutura na sua posição original. Isto se deve à persistência dos efeitos galvânicos no centro da estrutura e à presença de efeitos indutivos ao redor do corpo tridimensional. Ao alongar a direção principal da estrutura tridimensional, as sondagens magnetotelúricas vão se aproximando das sondagens das estruturas bidimensionais, principalmente na polarização XY. Mesmo assim, as respostas dos modelos testados estão muito longe de se considerar próximas das respostas de estruturas quase-bidimensionais. Porém, os efeitos do eletrojato em estruturas com direção principal alongada, são muito parecidos com aqueles presentes nas estruturas menores, considerando-se as diferenças entre as sondagens de ambos tipos de estruturas. Por outro lado, os mapas de resistividade aparente deste tipo de estrutura alongada, revelam um grande aumento nos extremos da estrutura, tanto para a onda plana como para o eletrojato. Este efeito é causado pelo acanalamento das correntes ao longo da direção principal da estrutura. O modelamento de estruturas geológicas da Bacia de Marajó confirma que os efeitos do eletrojato podem ser detetados em estruturas pequenas do tipo "horst" ou "graben", a grandes distâncias do centro do mesmo. Assim, os efeitos do eletrojato podem ser percebidos tanto nos meios estratificados como tridimensionais, em duas faixas de freqüência (nas proximidades de 10-1 Hz e para freqüências menores que 10-3 Hz), possivelmente influenciados pela presença do embasamento cristalino e a crosta inferior, respectivamente. Desta maneira, os resultados utilizando o eletrojato como fonte indutora, mostram que nas baixas freqüências as sondagens magnetotelúricas podem ser fortemente distorcidas, tanto pelos efeitos galvânicos da estrutura tridimensional como pela presença da influência do eletrojato. Conseqüêntemente, interpretações errôneas dos dados de campo podem ser cometidas, se não se corrigirem os efeitos do eletrojato equatorial ou, da mesma forma, não se utilisarem algoritmos tridimensionais para interpretar os dados, no lugar do usual modelo unidimensional de Tikhonov - Cagniard.
Resumo:
A necessidade da adoção de modelos elásticos anisotrópicos, no contexto da sísmica de exploração, vem crescendo com o advento de novas técnicas de aquisição de dados como VSP, walkway VSP, tomografia poço a poço e levantamentos sísmicos com grande afastamento. Meios anisotrópicos, no contexto da sísmica de exploração, são modelos efetivos para explicar a propagação de ondas através de meios que apresentam padrões de heterogeneidade em escala muito menor que o comprimento de onda das ondas sísmicas. Particularmente, estes modelos são muito úteis para explicar o dado sísmico mais robusto que são as medidas de tempo de trânsito. Neste trabalho, são investigados aspectos da propagação de ondas, traçado de raios e inversão de tempos de trânsito em meios anisotrópicos. É estudada a propagação de ondas SH em meios anisotrópicos estratificados na situação mais geral onde estas ondas podem ocorrer, ou seja, em meios monoclínicos com um plano vertical de simetria especular. É mostrado que o campo de ondas SH refletido a partir de um semi-espaço estratificado, não apresenta qualquer informação sobre a possível presença de anisotropia em subsuperfície. São apresentados métodos simples e eficientes para o traçado de raios em 3D através de meios anisotrópicos estratificados, baseados no princípio de Fermat. Estes métodos constituem o primeiro passo para o desenvolvimento de algoritmos de inversão de tempos de trânsito para meios anisotrópicos em 3D, a partir de dados de VSP e walkaway VSP. Esta abordagem é promissora para determinação de modelos de velocidade, que são necessários para migração de dados sísmicos 3D na presença de anisotropia. É efetuada a análise da inversão tomográfica não linear, para meios estratificados transversalmente isotrópicos com um eixo de simetria vertical(TIV). As limitações dos dados de tempo de trânsito de eventos qP para determinação das constantes elásticas, são estabelecidas e caracterizados os efeitos da falta de cobertura angular completa na inversão tomográfica. Um algoritmo de inversão foi desenvolvido e avaliado em dados sintéticos. A aplicação do algoritmo a dados reais demonstra a consistência de meios TIV. Esta abordagem é útil para casos onde há informação a priori sobre a estratificação quase plana das formações e onde os próprios dados do levantamento poço a poço apresentam um alto grau de simetria especular em relação a um plano vertical. Também pode ser útil em interpretações preliminares, onde a estimativa de um meio estratificado, serve como modelo de fundo para se efetuar análises mais detalhadas, por exemplo, como um modelo de velocidades anisotrópico para migração, ou como um modelo de calibração para análises de AVO.
Resumo:
Localizar em subsuperfície a região que mais influencia nas medidas obtidas na superfície da Terra é um problema de grande relevância em qualquer área da Geofísica. Neste trabalho, é feito um estudo sobre a localização dessa região, denominada aqui zona principal, para métodos eletromagnéticos no domínio da freqüência, utilizando-se como fonte uma linha de corrente na superfície de um semi-espaço condutor. No modelo estudado, tem-se, no interior desse semi-espaço, uma heterogeneidade na forma de camada infinita, ou de prisma com seção reta quadrada e comprimento infinito, na direção da linha de corrente. A diferença entre a medida obtida sobre o semi-espaço contendo a heterogeneidade e aquela obtida sobre o semi-espaço homogêneo, depende, entre outros parâmetros, da localização da heterogeneidade em relação ao sistema transmissor-receptor. Portanto, mantidos constantes os demais parâmetros, existirá uma posição da heterogeneidade em que sua influência é máxima nas medidas obtidas. Como esta posição é dependente do contraste de condutividade, das dimensões da heterogeneidade e da freqüência da corrente no transmissor, fica caracterizada uma região e não apenas uma única posição em que a heterogeneidade produzirá a máxima influência nas medidas. Esta região foi denominada zona principal. Identificada a zona principal, torna-se possível localizar com precisão os corpos que, em subsuperfície, provocam as anomalias observadas. Trata-se geralmente de corpos condutores de interesse para algum fim determinado. A localização desses corpos na prospecção, além de facilitar a exploração, reduz os custos de produção. Para localizar a zona principal, foi definida uma função Detetabilidade (∆), capaz de medir a influência da heterogeneidade nas medidas. A função ∆ foi calculada para amplitude e fase das componentes tangencial (Hx) e normal (Hz) à superfície terrestre do campo magnético medido no receptor. Estudando os extremos da função ∆ sob variações de condutividade, tamanho e profundidade da heterogeneidade, em modelos unidimensionais e bidimensionais, foram obtidas as dimensões da zona principal, tanto lateralmente como em profundidade. Os campos eletromagnéticos em modelos unidimensionais foram obtidos de uma forma híbrida, resolvendo numericamente as integrais obtidas da formulação analítica. Para modelos bidimensionais, a solução foi obtida através da técnica de elementos finitos. Os valores máximos da função ∆, calculada para amplitude de Hx, mostraram-se os mais indicados para localizar a zona principal. A localização feita através desta grandeza apresentou-se mais estável do que através das demais, sob variação das propriedades físicas e dimensões geométricas, tanto dos modelos unidimensionais como dos bidimensionais. No caso da heterogeneidade condutora ser uma camada horizontal infinita (caso 1D), a profundidade do plano central dessa camada vem dada pela relação po = 0,17 δo, onde po é essa profundidade e δo o "skin depth" da onda plana (em um meio homogêneo de condutividade igual à do meio encaixante (σ1) e a freqüência dada pelo valor de w em que ocorre o máximo de ∆ calculada para a amplitude de Hx). No caso de uma heterogeneidade bidimensional (caso 2D), as coordenadas do eixo central da zona principal vem dadas por do = 0,77 r0 (sendo do a distância horizontal do eixo à fonte transmissora) e po = 0,36 δo (sendo po a profundidade do eixo central da zona principal), onde r0 é a distância transmissor-receptor e δo o "skin depth" da onda plana, nas mesmas condições já estipuladas no caso 1D. Conhecendo-se os valores de r0 e δo para os quais ocorre o máximo de ∆, calculado para a amplitude de Hx, pode-se determinar (do, po). Para localizar a zona principal (ou, equivalentemente, uma zona condutora anômala em subsuperfície), sugere-se um método que consiste em associar cada valor da função ∆ da amplitude de Hx a um ponto (d, p), gerado através das relações d = 0,77 r e p = 0,36 δ, para cada w, em todo o espectro de freqüências das medidas, em um dado conjunto de configurações transmissor-receptor. São, então, traçadas curvas de contorno com os isovalores de ∆ que vão convergir, na medida em que o valor de ∆ se aproxima do máximo, sobre a localização e as dimensões geométricas aproximadas da heterogeneidade (zona principal).