576 resultados para sintáticos
Resumo:
Para o registro de fitoterápicos e disponibilização deles para os usuários, a ANVISA estabelece parâmetros de eficácia, qualidade e segurança e, estipula requisitos de controle semelhantes àqueles aplicados aos medicamentos sintéticos. Este trabalho relata a investigação da casca de Himatanthus lancifolius e seus extratos, a fim de contribuir para a padronização dos derivados desta espécie vegetal; os ensaios foram desenvolvidos utilizando amostras comerciais Q e S e uma autêntica, E, fornecida pela EMBRAPA. A comparação microquímica, anatômica e cromatográfica de Q, S e E não permite que se caracterizem as amostras comerciais como H. lancifolius. A presença de uleína não pôde ser caracterizada em qualquer amostra, mesmo em E. Os dados de CCD e CLAE mostram que as três amostras têm perfil cromatográfico diferente. As características morfológicas e a caracterização microquímica das cascas de H. lancifolius mostram córtex com grupos de fibras do floema primário inclusos, com cristais e lactíferos na região do floema secundário, e positividade para alcalóides, flavonóides, açúcares redutores e amido. O método de quantificação desenvolvido mostra alta seletividade a 281nm, o que confere confiança para a detecção dos alcalóides. O método é robusto, de acordo com o regulamento em vigor e mostra linearidade, precisão e robustez, ao lado da acessibilidade, sendo ainda de fácil execução. A fração de alcalóides totais do extrato aquoso da amostra coletada (E) representa 0,219% do extrato seco. Espera-se com este trabalho ter contribuído para reduzir a insuficiência de métodos de controle da qualidade para fitoterápicos preparados a partir de Himatanthus lancifolius.
Resumo:
A construção ordenada de unidades linguísticas é objeto de estudo da sintaxe e de fundamental interesse nas pesquisas do estudo do comportamento. Desempenhos sintáticos freqüentemente envolvem mudanças que ocorrem na ordem das palavras entre diferentes contextos linguísticos. O objetivo do presente estudo foi investigar a emergência da composição de sentenças escritas a partir do ensino por sobreposição de palavras com controle condicional. Pretendeu-se ainda examinar a manutenção do desempenho a partir da reaplicação do teste com novas sentenças. Um software foi elaborado para apresentação das contingências programadas de ensino, testes e registro dos dados comportamentais. Participaram do estudo seis crianças na faixa etária de oito a dez anos de uma instituição social. Quatro sentenças, duas na voz ativa e duas na voz passiva foram ensinadas aos participantes com o procedimento de sobreposição de palavras. A tarefa do participante consistia em compor sentenças escritas por meio da escolha, na tela do computador, de palavras apresentadas em ordem imprevisível. Após o ensino por sobreposição das sentenças na voz ativa e passiva, estas eram relacionadas condicionalmente à cor verde e vermelha respectivamente. Testes de substituibilidade verificavam a produção de novas sentenças. Após aproximadamente quarenta e cinco dias sem contato com as contingências experimentais, o desempenho emergente era novamente avaliado. Todos os participantes alcançaram o critério de acerto nas fases de ensino. Nos testes de substituibilidade, um participante alcançou 87,5%, dois obtiveram 75% e para os demais, a porcentagem de acerto foi de 62,5%, 50% e 37,5%. Um segundo estudo foi conduzido ampliando o número de tentativas de ensino para três dos participantes que tiveram um desempenho com fraco controle condicional. Os resultados mostraram que dois dos participantes (LUC e DAN) obtiveram respectivamente 100% e 87,5% de acerto nos testes com novas sentenças. O participante POL alcançou apenas 62,5% de acerto nos testes. Os resultados sugerem que esse refinamento do procedimento, para dois dos participantes, produziu a emergência de sentenças com controle condicional, em relação ao desempenho desses participantes no primeiro estudo. O desempenho dos participantes no re-teste ainda é bastante discutível com manutenção para apenas um participante. O presente estudo mostra que o procedimento de ensino por sobreposição de palavras pode gerar a composição de sentenças com poucos erros. O controle condicional precisa ser bem estabelecido e variáveis como a ordem de treino precisa ser investigada.
Resumo:
A análise dos perfis petrofísicos de poço aberto possui um papel de fundamental importância para os estudos geológicos e geofísicos, no que se refere a obtenção de um maior conhecimento da subsuperfície, bem como para a identificação e exploração de depósitos minerais e petrolíferos. Alguns tópicos importantes da interpretação geológica dos perfis como a determinação de interfaces, a identificação mineralógica e a correlação poço-a-poço são extremamente tediosos e dispendem na sua execução uma grande carga horária. A automação destes procedimentos é em princípio bastante complicada, mas necessária, pois permitirá um melhor aproveitamento do tempo de trabalho do geólogo de produção e do intérprete de perfis. As redes neuronais artificiais apresentam uma boa performance para a solução destes tipos de problema, inclusive nos casos nos quais os algoritmos sequenciais apresentam dificuldades. Mostrar-se-á nesta tese que as redes neuronais artificiais podem ser utilizadas eficientemente para a automação desses procedimentos da interpretação geológica dos perfis. Apresentamos detalhadamente as novas arquiteturas e as aplicações sobre dados sintéticos e perfis reais.
Resumo:
O objetivo central deste trabalho é o estudo e a aplicação do método Kalman-Bucy no processo de deconvolução ao impulso e de deconvolução com predição, onde é considerado que os dados observados são classificados como não-estacionários. Os dados utilizados neste trabalho são sintéticos e, com isto, esta Tese tem características de um exercício numérico e investigativo. O operador de deconvolução ao impulso é obtido a partir da teoria de CRUMP (1974) fazendo uso das soluções das equações Wiener-Hopf apresentadas por KALMAN-BUCY (1961) nas formas contínuas e discretas considerando o processo como não estacionário. O operador de predição (KBCP) está baseado nas teorias de CRUMP (1974) e MENDEL ET AL (1979). Sua estrutura assemelha-se ao filtro Wiener-Hopf onde os coeficientes do operador (WHLP) são obtidos através da autocorrelação, e no caso (KBCP) são obtidos a partir da função bi(k). o problema é definido em duas etapas: a primeira consta da geração do sinal, e a segunda da sua avaliação. A deconvolução realizada aqui é classificada como estatística, e é um modelo fortemente baseado nas propriedades do sinal registrado e de sua representação. Os métodos foram aplicados apenas em dados sintéticos de seção fonte-comum obtida a partir dos modelos com interfaces contínuas e camadas homogêneas.
Resumo:
Neste trabalho foi desenvolvido um método de solução ao problema inverso para modelos sísmicos compostos por camadas homogêneas e isotrópicas separadas por superfícies suaves, que determina as velocidades intervalares em profundidade e calcula a geometria das interfaces. O tempo de trânsito é expresso como uma função de parâmetros referidos a um sistema de coordenadas fixo no raio central, que é determinada numericamente na superfície superior do modelo. Essa função é posteriormente calculada na interface anterior que limita a camada não conhecida, através de um processo que determina a função característica em profundidade. A partir da função avaliada na interface anterior se calculam sua velocidade intervalar e a geometria da superfície posterior onde tem lugar a reflexão do raio. O procedimento se repete de uma forma recursiva nas camadas mais profundas obtendo assim a solução completa do modelo, não precisando em nenhum passo informação diferente à das camadas superiores. O método foi expresso num algoritmo e se desenvolveram programas de computador, os quais foram testados com dados sintéticos de modelos que representam feições estruturais comuns nas seções geológicas, fornecendo as velocidades em profundidade e permitindo a reconstrução das interfaces. Uma análise de sensibilidade sobre os programas mostrou que a determinação da função característica e a estimação das velocidades intervalares e geometria das interfaces são feitos por métodos considerados estáveis. O intervalo empírico de aplicabilidade das correções dinâmicas hiperbólicas foi tomado como uma estimativa da ordem de magnitude do intervalo válido para a aplicação do método.
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
As medidas de amplitude, polarização e vagarosidade contem informações sobre o meio onde a propagação de onda ocorre. Esta tese investiga esses dados com objetivo de estimar as propriedades elásticas deste meio. Coeficientes de reflexão podem ser estimados das amplitudes dos dados e dependem de forma não linear dos contrastes dos parâmetros elásticos e do contraste de densidade entre os meios separados por uma interface. Quando o contraste de impedância é fraco, as aproximações lineares para a refletividade qP são mais convenientes para inversão da densidade e dos parâmetros elásticos usando as análises de amplitude versus ângulo de incidência (AVO) e amplitude versus a direção do plano de incidência (AVD). Escrevendo as equações de Zoepprittz de forma separada nos permite escrever uma solução destas equações em termos das matrizes de impedância e polarização. Usando esta solução são determinadas aproximações lineares para a refletividade da onda qP considerando fraco contraste de impedância, fraca anisotropia mas com classe de simetria de arbitrária. As linearizações são avaliadas para diferentes geometrias de aquisição e várias escolhas do meio de referência. Estas aproximações apresentam bom desempenho comparado com o valor exato do coeficiente de reflexão da onda qP e de suas ondas convertidas para incidências de até 30° e meios que obedecem à hipótese de fraca anisotropia. Um conjunto de fraturas orientado é representado efetivamente por um meio transversalmente isotrópico (TI), as aproximações lineares da refletividade da onda qP podem ser usadas para estimar a orientação de fratura. Partindo deste pressuposto este problema consiste em estimar a orientação do eixo de simetria a partir de dados de refletividade de onda qP. Este trabalho mostra que são necessários múltiplos azimutes e múltiplas incidências para se obter uma estimativa estável. Também é mostrado que apenas os coeficientes das ondas qS e qT são sensíveis ao mergulho da fratura. Foi investigada a estimativa da anisotropia local através de dados de VSP multiazimutal dos vetores de polarização e vagarosidade. Foram usadas medidas da componente vertical do vetor de vagarosidade e o vetor de polarização de ondas qP diretas e refletidas. O esquema de inversão é validado através de exemplos sintéticos considerando diferentes escolhas do vetor normal à frente de onda no meio de referência, meios de referências e geometria de aquisição. Esta análise mostra que somente um subgrupo dos parâmetros elástico pode ser estimado. Uma importante aplicação desta metodologia é o seu potencial para a determinação de classes de anisotropia. A aplicação desta metodologia aos dados do mar de Java mostra que os modelos isotrópicos e TIV são inadequados para o ajuste desses dados.
Resumo:
Neste trabalho é apresentada uma nova técnica para a realização do empilhamento sísmico, aplicada ao problema do imageamento de refletores fixos em um meio bidimensional, suavemente heterogêneo, isotrópico, a partir de dados de reflexão. Esta nova técnica chamada de imageamento homeomórfico tem como base a aproximação geométrica do raio e propriedades topológicas dos refletores. São utilizados, portanto, os conceitos de frente de onda, ângulo de incidência, raio de curvatura da frente de onda, cáustica e definição da trajetória do raio; de tal modo que a imagem obtida mantém relações de homeomorfismo com o objeto que se deseja imagear. O empilhamento sísmico é feito, nesta nova técnica de imageamento, aplicando-se uma correção local do tempo, ∆ t, ao tempo de trânsito, t, do raio que parte da fonte sísmica localizada em xo, reflete-se em um ponto de reflexão, Co, sendo registrado como uma reflexão primária em um geofone localizado em xg, em relação ao tempo de referência to no sismograma, correspondente ao tempo de trânsito de um raio central. A fórmula utilizada nesta correção temporal tem como parâmetros o raio de curvatura Ro, o ângulo de emergência βo da frente de onda, no instante em que a mesma atinge a superfície de observação, e a velocidade vo considerada constante nas proximidades da linha sísmica. Considerando-se uma aproximação geométrica seguido um círculo para a frente de onda, pode-se estabelecer diferentes métodos de imageamento homeomórfico dependendo da configuração de processamento. Sendo assim tem-se: 1) Método Elemento de Fonte (Receptor) Comum (EF(R)C). Utiliza-se uma configuração onde se tem um conjunto de sismogramas relacionado com uma única fonte (receptor), e considera-se uma frente de onda real (de reflexão); 2) Método Elemento de Reflexão Comum (ERC). Utiliza-se uma configuração onde um conjunto de sismogramas é relacionado com um único ponto de reflexão, e considera-se uma frente de onda hipoteticamente originada neste ponto; 3) Método Elemento de Evoluta Comum (EEC). Utiliza-se uma configuração onde cada sismograma está relacionado com um par de fonte e geofone coincidentemente posicionados na linha sísmica, e considera-se uma frente de onda hipoteticamente originada no centro de curvatura do refletor. Em cada um desses métodos tem-se como resultados uma seção sísmica empilhada, u(xo, to); e outras duas seções denominadas de radiusgrama, Ro (xo, to), e angulograma, βo(xo, to), onde estão os valores de raios de curvatura e ângulos de emergência da frente de onda considerada no instante em que a mesma atinge a superfície de observação, respectivamente. No caso do método denominado elemento refletor comum (ERC), a seção sísmica resultante do empilhamento corresponde a seção afastamento nulo. Pode-se mostrar que o sinal sísmico não sofre efeitos de alongamento como consequência da correção temporal, nem tão pouco apresenta problemas de dispersão de pontos de reflexão como consequência da inclinação do refletor, ao contrário do que acontece com as técnicas de empilhamento que tem por base a correção NMO. Além disto, por não necessitar de um macro modelo de velocidades a técnica de imageamento homeomórfico, de um modo geral, pode também ser aplicada a modelos heterogêneos, sem perder o rigor em sua formulação. Aqui também são apresentados exemplos de aplicação dos métodos elemento de fonte comum (EFC) (KEYDAR, 1993), e elemento refletor comum (ERC) (STEENTOFT, 1993), ambos os casos com dados sintéticos. No primeiro caso, (EFC), onde o empilhamento é feito tendo como referência um raio central arbitrário, pode-se observar um alto nível de exatidão no imageamento obtido, além do que é dada uma interpretação para as seções de radiusgrama e angulograma, de modo a se caracterizar aspectos geométricos do model geofísico em questão. No segundo caso, (ERC), o método é aplicado a série de dados Marmousi, gerados pelo método das diferenças finitas, e o resultado é comparado com aquele obtido por métodos convecionais (NMO/DMO) aplicados aos mesmos dados. Como consequência, observa-se que através do método ERC pode-se melhor detectar a continuidade de refletores, enquanto que através dos métodos convencionais caracterizam-se melhor a ocorrência de difrações. Por sua vez, as seções de radiusgrama e angulograma, no método (ERC), apresentam um baixo poder de resolução nas regiões do modelo onde se tem um alto grau de complexidade das estruturas. Finalmente, apresenta-se uma formulação unificada que abrange os diferentes métodos de imageamento homeomórfico citados anteriormente, e também situações mais gerais onde a frente de onda não se aproxima a um círculo, mas a uma curva quadrática qualquer.
Resumo:
Esta Tese apresenta dois estudos aplicados à inversão de dados magnetotelúricos. No primeiro deles, os parâmetros obtidos na inversão são as dimensões da malha de parametrização da subsuperfície, sendo conhecida, a priori, a resistividade de uma heterogeneidade e a do seu meio envolvente; no outro estudo, é abordado o uso de operadores de derivadas de ordem maior do que um com a finalidade de estabilizar o problema inverso. No primeiro estudo, os resultados podem ser considerados satisfatórios somente se a informação sobre as resistividades tem erro menor do que 20%. No segundo estudo, os resultados demonstram que o uso de operadores de ordem maior do que um podem ser mais eficazes do que o uso convencional do operador de primeira derivada, pois além de estabilizarem o problema inverso, esses operadores contribuem para melhorar a resolução das heterogeneidades de resistividade da subsuperfície. Ambos os estudos são inéditos, pois a prática de inversão de dados magnetotelúricos consiste de obter como resultado do problema inverso a resistividade dos prismas de uma malha de parametrização de dimensões fixas, usando como estabilizador o operador de primeira derivada. Os modelos usados nos estudos são bidimensionais e representam uma subsuperfície com uma e duas heterogeneidades de forma prismática envolvidas por ambiente homogêneo. O desempenho das técnicas foi testado com dados sintéticos com e sem ruído gaussiano, bem como dados reais do perfil COPROD2. Durante o trabalho, são, ainda, descritas as técnicas de inversão denominadas creeping e jumping e feita uma comparação e avaliação sobre elas. Mostra-se aqui que, ao contrário do que afirmam muitos pesquisadores, a inclusão de informação a priori sore os parâmetros pode ser feita na técnica do creeping com a mesma facilidade com que é feita na técnica do jumping.
Resumo:
O Feixe Gaussiano (FG) é uma solução assintótica da equação da elastodinâmica na vizinhança paraxial de um raio central, a qual se aproxima melhor do campo de ondas do que a aproximação de ordem zero da Teoria do Raio. A regularidade do FG na descrição do campo de ondas, assim como a sua elevada precisão em algumas regiões singulares do meio de propagação, proporciona uma forte alternativa na solução de problemas de modelagem e imageamento sísmicos. Nesta Tese, apresenta-se um novo procedimento de migração sísmica pré-empilhamento em profundidade com amplitudes verdadeiras, que combina a flexibilidade da migração tipo Kirchhoff e a robustez da migração baseada na utilização de Feixes Gaussianos para a representação do campo de ondas. O algoritmo de migração proposto é constituído por dois processos de empilhamento: o primeiro é o empilhamento de feixes (“beam stack”) aplicado a subconjuntos de dados sísmicos multiplicados por uma função peso definida de modo que o operador de empilhamento tenha a mesma forma da integral de superposição de Feixes Gaussianos; o segundo empilhamento corresponde à migração Kirchhoff tendo como entrada os dados resultantes do primeiro empilhamento. Pelo exposto justifica-se a denominação migração Kirchhoff-Gaussian-Beam (KGB). As principais características que diferenciam a migração KGB, durante a realização do primeiro empilhamento, de outros métodos de migração que também utilizam a teoria dos Feixes Gaussianos, são o uso da primeira zona de Fresnel projetada para limitar a largura do feixe e a utilização, no empilhamento do feixe, de uma aproximação de segunda ordem do tempo de trânsito de reflexão. Como exemplos são apresentadas aplicações a dados sintéticos para modelos bidimensionais (2-D) e tridimensionais (3-D), correspondentes aos modelos Marmousi e domo de sal da SEG/EAGE, respectivamente.
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Uma técnica para a inversão de dados magnetotelúricos é apresentada neste trabalho. Dois tipos de dados são tratados aqui, dados gerados por modelos unidimensionais com anisotropia na condutividade das camadas e dados bi-dimensionais de levantamentos do método EMAP (ElectroMagnetic Array Profiling). Em ambos os casos fazemos a inversão usando vínculos aproximados de igualdade para estabilizar as soluções. Mostramos as vantagens e as limitações do uso destes vínculos nos processos de inversão. Mesmo vinculada a inversão ainda pode se tornar instável. Para inverter os dados 2-D do EMAP, apresentamos um processo que consiste de três partes: 1 – A construção de um modelo interpretativo e da aproximação inicial para a inversão a partir dos dados de seções de resistividade aparente filtradas pelo processo de filtragem do EMAP; 2 – a inclusão de uma camada de corpos pequenos aflorantes, chamada de camada destatic shift, aos modelos interpretativos para resolver as fontes de distorções estáticas que contaminam os dados; 3 – o uso dos vínculos aproximados de igualdade absoluta para estabilizar as soluções. Os dois primeiros passos nos permitem extrair o máximo de informação possível dos dados, enquanto que o uso dos vínculos de igualdade nos permite incluir informação a priori que possua significado físico e geológico. Com estes passos, obtemos uma solução estável e significativa. Estudaremos o método em dados sintéticos de modelos bi-dimensionais e em dados reais de uma linha de EMAP feita na Bacia do Paraná.
Resumo:
Apresentamos três novos métodos estáveis de inversão gravimétrica para estimar o relevo de uma interface arbitrária separando dois meios. Para a garantia da estabilidade da solução, introduzimos informações a priori sobre a interface a ser mapeada, através da minimização de um (ou mais) funcional estabilizante. Portanto, estes três métodos se diferenciam pelos tipos de informação físico-geológica incorporados. No primeiro método, denominado suavidade global, as profundidades da interface são estimadas em pontos discretos, presumindo-se o conhecimento a priori sobre o contraste de densidade entre os meios. Para a estabilização do problema inverso introduzimos dois vínculos: (a) proximidade entre as profundidades estimadas e verdadeiras da interface em alguns pontos fornecidas por furos de sondagem; e (b) proximidade entre as profundidades estimadas em pontos adjacentes. A combinação destes dois vínculos impõe uma suavidade uniforme a toda interface estimada, minimizando, simultaneamente em alguns pontos, os desajustes entre as profundidades conhecidas pelas sondagens e as estimadas nos mesmos pontos. O segundo método, denominado suavidade ponderada, estima as profundidades da interface em pontos discretos, admitindo o conhecimento a priori do contraste de densidade. Neste método, incorpora-se a informação geológica que a interface é suave, exceto em regiões de descontinuidades produzidas por falhas, ou seja, a interface é predominantemente suave porém localmente descontínua. Para a incorporação desta informação, desenvolvemos um processo iterativo em que três tipos de vínculos são impostos aos parâmetros: (a) ponderação da proximidade entre as profundidades estimadas em pontos adjacentes; (b) limites inferior e superior para as profundidades; e (c) proximidade entre todas as profundidades estimadas e um valor numérico conhecido. Inicializando com a solução estimada pelo método da suavidade global, este segundo método, iterativamente, acentua as feições geométricas presentes na solução inicial; ou seja, regiões suaves da interface tendem a tornar-se mais suaves e regiões abruptas tendem a tornar-se mais abruptas. Para tanto, este método atribui diferentes pesos ao vínculo de proximidade entre as profundidades adjacentes. Estes pesos são automaticamente atualizados de modo a acentuar as descontinuidades sutilmente detectadas pela solução da suavidade global. Os vínculos (b) e (c) são usados para compensar a perda da estabilidade, devida à introdução de pesos próximos a zero em alguns dos vínculos de proximidade entre parâmetros adjacentes, e incorporar a informação a priori que a região mais profunda da interface apresenta-se plana e horizontal. O vínculo (b) impõe, de modo estrito, que qualquer profundidade estimada é não negativa e menor que o valor de máxima profundidade da interface conhecido a priori; o vínculo (c) impõe que todas as profundidades estimadas são próximas a um valor que deliberadamente viola a profundidade máxima da interface. O compromisso entre os vínculos conflitantes (b) e (c) resulta na tendenciosidade da solução final em acentuar descontinuidades verticais e apresentar uma estimativa suave e achatada da região mais profunda. O terceiro método, denominado mínimo momento de inércia, estima os contrastes de densidade de uma região da subsuperfície discretizada em volumes elementares prismáticos. Este método incorpora a informação geológica que a interface a ser mapeada delimita uma fonte anômala que apresenta dimensões horizontais maiores que sua maior dimensão vertical, com bordas mergulhando verticalmente ou em direção ao centro de massa e que toda a massa (ou deficiência de massa) anômala está concentrada, de modo compacto, em torno de um nível de referência. Conceitualmente, estas informações são introduzidas pela minimização do momento de inércia das fontes em relação ao nível de referência conhecido a priori. Esta minimização é efetuada em um subespaço de parâmetros consistindo de fontes compactas e apresentando bordas mergulhando verticalmente ou em direção ao centro de massa. Efetivamente, estas informações são introduzidas através de um processo iterativo inicializando com uma solução cujo momento de inércia é próximo a zero, acrescentando, em cada iteração, uma contribuição com mínimo momento de inércia em relação ao nível de referência, de modo que a nova estimativa obedeça a limites mínimo e máximo do contraste de densidade, e minimize, simultaneamente, os desajustes entre os dados gravimétricos observados e ajustados. Adicionalmente, o processo iterativo tende a "congelar" as estimativas em um dos limites (mínimo ou máximo). O resultado final é uma fonte anômala compactada em torno do nível de referência cuja distribuição de constraste de densidade tende ao limite superior (em valor absoluto) estabelecido a priori. Estes três métodos foram aplicados a dados sintéticos e reais produzidos pelo relevo do embasamento de bacias sedimentares. A suavidade global produziu uma boa reconstrução do arcabouço de bacias que violam a condição de suavidade, tanto em dados sintéticos como em dados da Bacia do Recôncavo. Este método, apresenta a menor resolução quando comparado com os outros dois métodos. A suavidade ponderada produziu uma melhoria na resolução de relevos de embasamentos que apresentam falhamentos com grandes rejeitos e altos ângulos de mergulho, indicando uma grande potencialidade na interpretação do arcabouço de bacias extensionais, como mostramos em testes com dados sintéticos e dados do Steptoe Valley, Nevada, EUA, e da Bacia do Recôncavo. No método do mínimo momento de inércia, tomou-se como nível de referência o nível médio do terreno. As aplicações a dados sintéticos e às anomalias Bouguer do Graben de San Jacinto, California, EUA, e da Bacia do Recôncavo mostraram que, em comparação com os métodos da suavidade global e ponderada, este método estima com excelente resolução falhamentos com pequenos rejeitos sem impor a restrição da interface apresentar poucas descontinuidades locais, como no método da suavidade ponderada.
Resumo:
Este trabalho discute dois aspectos da migração em profundidade através da continuação para baixo dos campos de onda: o tratamento de modos evanescentes e a correção da amplitude dos eventos migrados. Estes dois aspectos são discutidos em meios isotrópicos e para uma classe de meios anisotrópicos. Migrações por diferenças finitas (FD) e por diferenças finitas e Fourier (FFD) podem ser instáveis em meios com forte variação lateral de velocidade. Estes métodos utilizam aproximações de Padé reais para representar o operador que descreve a propagação de ondas descendentes. Estas abordagens não são capazes de tratar corretamente os modos evanescentes, o que pode levar à instabilidades numéricas em meios com forte variação lateral de velocidade. Uma solução possível para esse problema é utilizar aproximação de Padé complexa, que consegue melhor representar os modos evanescentes associados às reflexões pós-críticas, e neste trabalho esta aproximação é utilizada para obter algoritmos FD e híbrido FD/FFD estáveis para migração em meios transversalmente isotrópicos com eixo de simetria vertical (VTI), mesmo na presença de forte variação nas propriedades elásticas do meio. A estabilidade dos algoritmos propostos para meios VTI foi validada através da resposta ao impulso do operador de migração e pela sua aplicação na migração de dados sintéticos, em meios fortemente heterogêneos. Métodos de migração por equação de onda em meios heterogêneos não tratam corretamente a amplitude dos eventos durante a propagação. As equações de onda unidirecionais tradicionais descrevem corretamente apenas a parte cinemática da propagação do campo de onda. Assim, para uma descrição correta das amplitudes deve-se usar as equações de onda unidirecionais de amplitude verdadeira. Em meios verticalmente heterogêneos, as equações de onda unidirecionais de amplitude verdadeira podem ser resolvidas analiticamente. Em meios lateralmente heterogêneos, essas equações não possuem uma solução analítica. Mesmo soluções numéricas tendem a ser instáveis. Para melhorar a compensação de amplitude na migração, em meios com variação lateral de velocidade, é proposto uma aproximação estável para solução da equação de onda unidirecional de amplitude verdadeira. Esta nova aproximação é implementada nas migrações split-step e diferenças finitas e Fourier (FFD). O algoritmo split-step com correção de amplitude foi estendido para meios VTI. A migração pré e pós-empilhamento de dados sintéticos, em meios isotrópicos e anisotrópicos, confirmam o melhor tratamento das amplitudes e estabilidade dos algoritmos propostos.