40 resultados para Problema Inverso

em Universidade Federal do Pará


Relevância:

70.00% 70.00%

Publicador:

Resumo:

Esta Tese apresenta dois estudos aplicados à inversão de dados magnetotelúricos. No primeiro deles, os parâmetros obtidos na inversão são as dimensões da malha de parametrização da subsuperfície, sendo conhecida, a priori, a resistividade de uma heterogeneidade e a do seu meio envolvente; no outro estudo, é abordado o uso de operadores de derivadas de ordem maior do que um com a finalidade de estabilizar o problema inverso. No primeiro estudo, os resultados podem ser considerados satisfatórios somente se a informação sobre as resistividades tem erro menor do que 20%. No segundo estudo, os resultados demonstram que o uso de operadores de ordem maior do que um podem ser mais eficazes do que o uso convencional do operador de primeira derivada, pois além de estabilizarem o problema inverso, esses operadores contribuem para melhorar a resolução das heterogeneidades de resistividade da subsuperfície. Ambos os estudos são inéditos, pois a prática de inversão de dados magnetotelúricos consiste de obter como resultado do problema inverso a resistividade dos prismas de uma malha de parametrização de dimensões fixas, usando como estabilizador o operador de primeira derivada. Os modelos usados nos estudos são bidimensionais e representam uma subsuperfície com uma e duas heterogeneidades de forma prismática envolvidas por ambiente homogêneo. O desempenho das técnicas foi testado com dados sintéticos com e sem ruído gaussiano, bem como dados reais do perfil COPROD2. Durante o trabalho, são, ainda, descritas as técnicas de inversão denominadas creeping e jumping e feita uma comparação e avaliação sobre elas. Mostra-se aqui que, ao contrário do que afirmam muitos pesquisadores, a inclusão de informação a priori sore os parâmetros pode ser feita na técnica do creeping com a mesma facilidade com que é feita na técnica do jumping.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Apresentamos três novos métodos estáveis de inversão gravimétrica para estimar o relevo de uma interface arbitrária separando dois meios. Para a garantia da estabilidade da solução, introduzimos informações a priori sobre a interface a ser mapeada, através da minimização de um (ou mais) funcional estabilizante. Portanto, estes três métodos se diferenciam pelos tipos de informação físico-geológica incorporados. No primeiro método, denominado suavidade global, as profundidades da interface são estimadas em pontos discretos, presumindo-se o conhecimento a priori sobre o contraste de densidade entre os meios. Para a estabilização do problema inverso introduzimos dois vínculos: (a) proximidade entre as profundidades estimadas e verdadeiras da interface em alguns pontos fornecidas por furos de sondagem; e (b) proximidade entre as profundidades estimadas em pontos adjacentes. A combinação destes dois vínculos impõe uma suavidade uniforme a toda interface estimada, minimizando, simultaneamente em alguns pontos, os desajustes entre as profundidades conhecidas pelas sondagens e as estimadas nos mesmos pontos. O segundo método, denominado suavidade ponderada, estima as profundidades da interface em pontos discretos, admitindo o conhecimento a priori do contraste de densidade. Neste método, incorpora-se a informação geológica que a interface é suave, exceto em regiões de descontinuidades produzidas por falhas, ou seja, a interface é predominantemente suave porém localmente descontínua. Para a incorporação desta informação, desenvolvemos um processo iterativo em que três tipos de vínculos são impostos aos parâmetros: (a) ponderação da proximidade entre as profundidades estimadas em pontos adjacentes; (b) limites inferior e superior para as profundidades; e (c) proximidade entre todas as profundidades estimadas e um valor numérico conhecido. Inicializando com a solução estimada pelo método da suavidade global, este segundo método, iterativamente, acentua as feições geométricas presentes na solução inicial; ou seja, regiões suaves da interface tendem a tornar-se mais suaves e regiões abruptas tendem a tornar-se mais abruptas. Para tanto, este método atribui diferentes pesos ao vínculo de proximidade entre as profundidades adjacentes. Estes pesos são automaticamente atualizados de modo a acentuar as descontinuidades sutilmente detectadas pela solução da suavidade global. Os vínculos (b) e (c) são usados para compensar a perda da estabilidade, devida à introdução de pesos próximos a zero em alguns dos vínculos de proximidade entre parâmetros adjacentes, e incorporar a informação a priori que a região mais profunda da interface apresenta-se plana e horizontal. O vínculo (b) impõe, de modo estrito, que qualquer profundidade estimada é não negativa e menor que o valor de máxima profundidade da interface conhecido a priori; o vínculo (c) impõe que todas as profundidades estimadas são próximas a um valor que deliberadamente viola a profundidade máxima da interface. O compromisso entre os vínculos conflitantes (b) e (c) resulta na tendenciosidade da solução final em acentuar descontinuidades verticais e apresentar uma estimativa suave e achatada da região mais profunda. O terceiro método, denominado mínimo momento de inércia, estima os contrastes de densidade de uma região da subsuperfície discretizada em volumes elementares prismáticos. Este método incorpora a informação geológica que a interface a ser mapeada delimita uma fonte anômala que apresenta dimensões horizontais maiores que sua maior dimensão vertical, com bordas mergulhando verticalmente ou em direção ao centro de massa e que toda a massa (ou deficiência de massa) anômala está concentrada, de modo compacto, em torno de um nível de referência. Conceitualmente, estas informações são introduzidas pela minimização do momento de inércia das fontes em relação ao nível de referência conhecido a priori. Esta minimização é efetuada em um subespaço de parâmetros consistindo de fontes compactas e apresentando bordas mergulhando verticalmente ou em direção ao centro de massa. Efetivamente, estas informações são introduzidas através de um processo iterativo inicializando com uma solução cujo momento de inércia é próximo a zero, acrescentando, em cada iteração, uma contribuição com mínimo momento de inércia em relação ao nível de referência, de modo que a nova estimativa obedeça a limites mínimo e máximo do contraste de densidade, e minimize, simultaneamente, os desajustes entre os dados gravimétricos observados e ajustados. Adicionalmente, o processo iterativo tende a "congelar" as estimativas em um dos limites (mínimo ou máximo). O resultado final é uma fonte anômala compactada em torno do nível de referência cuja distribuição de constraste de densidade tende ao limite superior (em valor absoluto) estabelecido a priori. Estes três métodos foram aplicados a dados sintéticos e reais produzidos pelo relevo do embasamento de bacias sedimentares. A suavidade global produziu uma boa reconstrução do arcabouço de bacias que violam a condição de suavidade, tanto em dados sintéticos como em dados da Bacia do Recôncavo. Este método, apresenta a menor resolução quando comparado com os outros dois métodos. A suavidade ponderada produziu uma melhoria na resolução de relevos de embasamentos que apresentam falhamentos com grandes rejeitos e altos ângulos de mergulho, indicando uma grande potencialidade na interpretação do arcabouço de bacias extensionais, como mostramos em testes com dados sintéticos e dados do Steptoe Valley, Nevada, EUA, e da Bacia do Recôncavo. No método do mínimo momento de inércia, tomou-se como nível de referência o nível médio do terreno. As aplicações a dados sintéticos e às anomalias Bouguer do Graben de San Jacinto, California, EUA, e da Bacia do Recôncavo mostraram que, em comparação com os métodos da suavidade global e ponderada, este método estima com excelente resolução falhamentos com pequenos rejeitos sem impor a restrição da interface apresentar poucas descontinuidades locais, como no método da suavidade ponderada.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Neste trabalho foi desenvolvido um método de solução ao problema inverso para modelos sísmicos compostos por camadas homogêneas e isotrópicas separadas por superfícies suaves, que determina as velocidades intervalares em profundidade e calcula a geometria das interfaces. O tempo de trânsito é expresso como uma função de parâmetros referidos a um sistema de coordenadas fixo no raio central, que é determinada numericamente na superfície superior do modelo. Essa função é posteriormente calculada na interface anterior que limita a camada não conhecida, através de um processo que determina a função característica em profundidade. A partir da função avaliada na interface anterior se calculam sua velocidade intervalar e a geometria da superfície posterior onde tem lugar a reflexão do raio. O procedimento se repete de uma forma recursiva nas camadas mais profundas obtendo assim a solução completa do modelo, não precisando em nenhum passo informação diferente à das camadas superiores. O método foi expresso num algoritmo e se desenvolveram programas de computador, os quais foram testados com dados sintéticos de modelos que representam feições estruturais comuns nas seções geológicas, fornecendo as velocidades em profundidade e permitindo a reconstrução das interfaces. Uma análise de sensibilidade sobre os programas mostrou que a determinação da função característica e a estimação das velocidades intervalares e geometria das interfaces são feitos por métodos considerados estáveis. O intervalo empírico de aplicabilidade das correções dinâmicas hiperbólicas foi tomado como uma estimativa da ordem de magnitude do intervalo válido para a aplicação do método.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Na produção de petróleo é importante o monitoramento dos parâmetros do reservatório (permeabilidade, porosidade, saturação, pressão, etc) para o seu posterior gerenciamento. A variação dos parâmetros dinâmicos do reservatório induz variações na dinâmica do fluxo no reservatório, como por exemplo, perdas na pressão, dificultando o processo de extração do óleo. A injeção de fluidos aumenta a energia interna do reservatório e incrementa a pressão, estimulando o movimento do óleo em direção aos poços de extração. A tomografia eletromagnética poço-a-poço pode se tomar em uma técnica bastante eficaz no monitoramento dos processos de injeção, considerando-se o fato de ser altamente detectável a percolação de fluidos condutivos através das rochas. Esta tese apresenta o resultado de um algoritmo de tomografia eletromagnética bastante eficaz aplicado a dados sintéticos. O esquema de imageamento assume uma simetria cilíndrica em torno de uma fonte constituída por um dipolo magnético. Durante o processo de imageamento foram usados 21 transmissores e 21 receptores distribuídos em dois poços distanciados de 100 metros. O problema direto foi resolvido pelo método dos elementos finitos aplicado à equação de Helmhotz do campo elétrico secundário. O algoritmo resultante é válido para qualquer situação, não estando sujeito às restrições impostas aos algoritmos baseados nas aproximações de Born e Rytov. Por isso, pode ser aplicado eficientemente em qualquer situação, como em meios com contrastes de condutividade elétrica variando de 2 a 100, freqüências de 0.1 a 1000.0 kHz e heterogeneidades de qualquer dimensão. O problema inverso foi resolvido por intermédio do algoritmo de Marquardt estabilizado. A solução é obtida iterativamente. Os dados invertidos, com ruído Gaussiano aditivo, são as componentes em fase e em quadratura do campo magnético vertical. Sem o uso de vínculos o problema é totalmente instável, resultando em imagens completamente borradas. Duas categorias de vínculos foram usadas: vínculos relativos, do tipo suavidade, e vínculos absolutos. Os resultados obtidos mostram a eficiência desses dois tipos de vínculos através de imagens nítidas de alta resolução. Os tomogramas mostram que a resolução é melhor na direção vertical do que na horizontal e que é também função da freqüência. A posição e a atitude da heterogeneidade é bem recuperada. Ficou também demonstrado que a baixa resolução horizontal pode ser atenuada ou até mesmo eliminada por intermédio dos vínculos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho consiste na formulação de uma metodologia para interpretação automática de dados de campo magnético. Desta forma, a sua utilização tornará possível a determinação das fronteiras e magnetização de cada corpo. Na base desta metodologia foram utilizadas as características de variações abruptas de magnetização dos corpos. Estas variações laterais abruptas serão representadas por polinômios descontínuos conhecidos como polinômios de Walsh. Neste trabalho, muitos conceitos novos foram desenvolvidos na aplicação dos polinômios de Walsh para resolver problemas de inversão de dados aeromagnéticos. Dentre os novos aspectos considerados, podemos citar. (i) - O desenvolvimento de um algoritmo ótimo para gerar um jôgo dos polinômios "quase-ortogonais" baseados na distribuição de magnetização de Walsh. (ii) - O uso da metodologia damped least squares para estabilizar a solução inversa. (iii) - Uma investigação dos problemas da não-invariância, inerentes quando se usa os polinômios de Walsh. (iv) - Uma investigação da escolha da ordem dos polinômios, tomando-se em conta as limitações de resolução e o comportamento dos autovalores. Utilizando estas características dos corpos magnetizados é possível formular o problema direto, ou seja, a magnetização dos corpos obedece a distribuição de Walsh. É também possível formular o problema inverso, na qual a magnetização geradora do campo observado obedece a série de Walsh. Antes da utilização do método é necessária uma primeira estimativa da localização das fontes magnéticas. Foi escolhida uma metodologia desenvolvida por LOURES (1991), que tem como base a equação homogênea de Euler e cujas exigências necessárias à sua utilização é o conhecimento do campo magnético e suas derivadas. Para testar a metodologia com dados reais foi escolhida uma região localizada na bacia sedimentar do Alto Amazonas. Os dados foram obtidos a partir do levantamento aeromagnético realizado pela PETROBRÁS.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente estudo analisou a influência de um simples aparelho que simulou o forrageamento ativo por insetos, funcionando como um alimentador enigmático denominado puzzle, sobre o comportamento de duas espécies de calitriquíneos (Callitrichinae, Primates) mantidos em cativeiro no Centro Nacional de Primatas (CENP). Buscou-se comparar a reação das duas espécies frente ao aparelho proposto, e verificar a viabilidade deste artifício no enriquecimento ambiental das condições de cativeiro para estes primatas. Foram utilizados três casais de Saguinus imperator, conhecido por sagui imperador e três casais de Callithrix penicillata, conhecido por mico estrela, as comparações foram feitas entre as espécies e entre os sexos. Foram gravadas através de vídeo cassete seções de observação com duração de três horas, divididas em dois períodos, um controle (ausência do puzzle) e outro experimental (presença do puzzle), com um total de 36 horas de observação para cada casal. As sessões de controle foram usadas para calcular a linha base do orçamento de atividade para comparações com padrões de comportamento durante as sessões experimentais. As fitas foram transcritas, e todos os eventos de comportamento foram cronometrados, e registrados as medidas da freqüência e duração de eventos. Nas duas espécies a manipulação do puzzle não alcançou uma proporção de tempo muito elevada, porém demonstrou uma diferença clara entre as duas espécies, ocupando 3,96% do tempo total dos micos e 1,99% do tempo dos saguis. Os micos gastaram com repouso, durante as seções experimentais, 17% menos tempo em comparação com a situação controle. Considerando que a ociosidade reduziu em menos de 7% nos saguis, com a atividade geral aumentada em 10%. Entre os sexos, notou-se uma inversão, onde as fêmeas de sagui tiveram um aumento de 18% na ociosidade e queda de 14% na atividade, enquanto as fêmeas de mico tiveram uma diminuição nas duas categorias de pouco menos de 10%. Os machos responderam mais ao puzzle, os saguis aumentaram em 58% a atividade e diminuíram em 23% a ociosidade, os micos aumentaram a atividade em 4% e diminuíram a ociosidade em menos de 10%. Todos os animais aprenderam a manipular o equipamento e capturar os insetos, sendo que os micos tiveram um maior êxito no número de larvas capturadas, superando aos saguis em cerca de 54% de seu índice. As fêmeas tiveram mais êxitos em ambas as espécies, porém superficialmente nos micos. Em contraste, nos saguis as fêmeas foram 16% mais prósperas que os machos. O puzzle foi eficiente em enriquecer o ambiente cativo dos animais e estimular o comportamento manipulativo, sendo um instrumento importante na busca do bem estar para as duas espécies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho apresentamos um estudo da aplicação do regularizador “Variação Total” (VT) na inversão de dados geofísicos eletromagnéticos. O regularizador VT reforça a proximidade entre os parâmetros adjacentes, mas, quando a influência de uma descontinuidade é sentida nos dados, este permite mudanças abruptas sobre os parâmetros. Isso faz com que o método seja uma alternativa válida, quando os dados observados usados na inversão provém de um ambiente geológico com uma distribuição suave de condutividade, mas que pode apresentar descontinuidades em lugares como as interfaces entre as camadas geoelétricas, como na margem de uma zona de óleo ou de um corpo de sal, que podem ser zonas muito resistivas no interior de sedimentos condutivos. Quando, devido a baixa resolução nos dados, o método não tem informações o suficiente para identificar a interface, o regularizador variação total reforça a proximidade entre os parâmetros adjacentes fazendo um transição suave entre as condutividades camadas, da mesma forma que é apresentado pela suavidade global. O método de Variação Total permite que modelos menos suaves sejam alcançados porque na norma L1 a medida de desajuste entre os pares de parâmetros adjacentes, dará o mesmo valor se a variação dos parâmetros é suave ou se a variação é abrupta, o que não é o caso se o mesmo desajuste é medido na norma L2, pois em uma distribuição suave a medida do desajuste é menor, sendo assim favorecida pela minimização desta norma. O uso deste regularizador permite uma melhor estimativa do tamanho de um corpo, seja ele resistivo ou condutivo. O trabalho está apresentado na forma de três artigos, cada um descrevendo uma etapa no desenvolvimento do problema da inversão, seguindo uma sequência de complexidade crescente no problema direto. O primeiro artigo neste trabalho é intitulado “Inversão de dados do CSEM marinho 1D de meio estratificado anisotrópico com o regularizador Variação Total”. Este descreve o passo inicial no desenvolvimento do problema: a inversão de dados do CSEM marinho de modelos estratificados 1D com anisotropia na condutividade das camadas. Este problema se presta bem para este desenvolvimento, porque tem solução computacional muito mais rápida do que o 2D, e nele já estão presentes as características principais dos dados do método CSEM marinho, como a largura muito grande da faixa de amplitudes medidas em um levantamento, e a baixa resolução, inerente às baixas frequências empregadas. A anisotropia acrescenta uma dificuldade a mais no problema, por aumentar o nível de ambiguidade nos dados e demandar ainda mais informação do que no caso puramente isotrópico. Os resultados mostram que a aplicação dos vínculos de igualdade do método VT permite a melhor identificação de uma camada alvo resistiva do que a simples aplicação dos vínculos tradicionais de suavidade. Até onde podemos aferir, esta solução se mostra superior a qualquer outra já publicada para este problema. Além de ter sido muito importante para o desenvolvimento de códigos em paralelo. O segundo artigo apresentado aqui, “Inversão de dados Magnetotelúricos com o regularizador Variação Total e o uso da matriz de sensibilidade aproximada”, trata da inversão de dados do método Magnetotelúrico em ambientes 2D. Este problema demanda um esforço computacional muito maior do que o primeiro. Nele, estudamos a aplicação do método dos estados adjuntos para gerar uma boa aproximação para as derivadas necessárias para a construção da matriz de sensibilidade usada na inversão. A construção da matriz de sensibilidade é a etapa que demanda mais tempo no processo de inversão, e o uso do método de estados adjuntos foi capaz de reduzir muito este tempo, gerando derivadas com um bom nível de aproximação. Esta etapa da pesquisa foi fundamental pelo problema direto ser matematicamente e computacionalmente muito mais simples do que o do CSEM marinho 2D. Novamente em comparação com a aplicação do regularizador de suavidade global, o regularizador de Variação Total permitiu, neste problema, uma melhor delimitação das bordas de heterogeneidades bidimensionais. A terceira parte deste trabalho, apresentada no artigo “Inversão de dados do CSEM marinho 2.5D com o regularizador Variação Total e o uso da matriz de sensibilidade aproximada”, apresenta a apliação do método de Variação Total ao problema da inversão de dados CSEM marinho 2.5D. Usamos o método dos estados adjuntos para gerar uma boa aproximação para as derivadas necessárias para a construção da matriz de sensibilidade usada na inversão, acelerando assim o processo de inversão. Para deixar o processo de inversão ainda mais rápido, lançamos mão da programação em paralelo com o uso de topologia. A comparação entre a aplicação do regularizador de suavidade global, e o regularizador de Variação Total permitiu, assim como nos casos anteriores, uma melhor delimitação das bordas de heterogeneidades bidimensionais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho em pauta tem como objetivo o modelamento da crosta, através da inversão de dados de refração sísmica profunda, segundo camadas planas horizontais lateralmente homogêneas, sobre um semi-espaço. O modelo direto é dado pela expressão analítica da curva tempo-distância como uma função que depende da distância fonte-estação e do vetor de parâmetros velocidades e espessuras de cada camada, calculado segundo as trajetórias do raio sísmico, regidas pela Lei de Snell. O cálculo dos tempos de chegada por este procedimento, exige a utilização de um modelo cujas velocidades sejam crescentes com a profundidade, de modo que a ocorrência das camadas de baixa velocidade (CBV) é contornada pela reparametrização do modelo, levando-se em conta o fato de que o topo da CBV funciona apenas como um refletor do raio sísmico, e não como refrator. A metodologia de inversão utilizada tem em vista não só a determinação das soluções possíveis, mas também a realização de uma análise sobre as causas responsáveis pela ambiguidade do problema. A região de pesquisa das prováveis soluções é vinculada segundo limites superiores e inferiores para cada parâmetro procurado, e pelo estabelecimento de limites superiores para os valores de distâncias críticas, calculadas a partir do vetor de parâmetros. O processo de inversão é feito utilizando-se uma técnica de otimização do ajuste de curvas através da busca direta no espaço dos parâmetros, denominado COMPLEX. Esta técnica apresenta a vantagem de poder ser utilizada com qualquer função objeto, e ser bastante prática na obtenção de múltiplas soluções do problema. Devido a curva tempo-distância corresponder ao caso de uma multi-função, o algoritmo foi adaptado de modo a minimizar simultaneamente várias funções objetos, com vínculos nos parâmetros. A inversão é feita de modo a se obter um conjunto de soluções representativas do universo existente. Por sua vez, a análise da ambiguidade é realizada pela análise fatorial modo-Q, através da qual é possível se caracterizar as propriedades comuns existentes no elenco das soluções analisadas. Os testes com dados sintéticos e reais foram feitos tendo como aproximação inicial ao processo de inversão, os valores de velocidades e espessuras calculados diretamente da interpretação visual do sismograma. Para a realização dos primeiros, utilizou-se sismogramas calculados pelo método da refletividade, segundo diferentes modelos. Por sua vez, os testes com dados reais foram realizados utilizando-se dados extraídos de um dos sismogramas coletados pelo projeto Lithospheric Seismic Profile in Britain (LISPB), na região norte da Grã-Bretanha. Em todos os testes foi verificado que a geometria do modelo possui um maior peso na ambiguidade do problema, enquanto os parâmetros físicos apresentam apenas suaves variações, no conjunto das soluções obtidas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente Dissertação de Mestrado tem como objetivo o estudo do problema de inversão sísmica baseada em refletores planos para arranjo fonte-comum (FC) e ponto-médiocomum (PMC). O modelo direto é descrito por camadas homogêneas, isotrópicas com interfaces plano-horizontais. O problema é relacionado ao empilhamento NMO baseado na otimização da função semblance, para seções PMC corrigidas de sobretempo normal (NMO). O estudo foi baseado em dois princípios. O primeiro princípio adotado foi de combinar dois grupos de métodos de inversão: um Método Global e um Método Local. O segundo princípio adotado foi o de cascata, segundo a teoria Wichert-Herglotz-Bateman, que estabelece que para conhecer uma camada inferior tem-se que conhecer primeiro a camada superior (dissecação). A aplicação do estudo é voltada à simulação sísmica de Bacia Sedimentar do Solimões e de Bacia Marinha para se obter uma distribuição local 1D de velocidades e espessuras para a subsuperfície em horizontes alvo. Sendo assim, limitamos a inversão entre 4 e 11 refletores, uma vez que na prática a indústria limita uma interpretação realizada apenas em número equivalente de 3 a 4 refletores principais. Ressalta-se que este modelo é aplicável como condição inicial ao imageamento de seções sísmicas em regiões geologicamente complexas com variação horizontal suave de velocidades. Os dados sintéticos foram gerados a partir dos modelos relacionados a informações geológicas, o que corresponde a uma forte informação a priori no modelo de inversão. Para a construção dos modelos relacionados aos projetos da Rede Risco Exploratório (FINEP) e de formação de recursos humanos da ANP em andamento, analisamos os seguintes assuntos relevantes: (1) Geologia de bacias sedimentares terrestre dos Solimões e ma rinha (estratigráfica, estrutural, tectônica e petrolífera); (2) Física da resolução vertical e horizontal; e (3) Discretização temporal-espacial no cubo de multi-cobertura. O processo de inversão é dependente do efeito da discretização tempo-espacial do campo de ondas, dos parâmetros físicos do levantamento sísmico, e da posterior reamostragem no cubo de cobertura múltipla. O modelo direto empregado corresponde ao caso do operador do empilhamento NMO (1D), considerando uma topografia de observação plana. O critério básico tomado como referência para a inversão e o ajuste de curvas é a norma 2 (quadrática). A inversão usando o presente modelo simples é computacionalmente atrativa por ser rápida, e conveniente por permitir que vários outros recursos possam ser incluídos com interpretação física lógica; por exemplo, a Zona de Fresnel Projetada (ZFP), cálculo direto da divergência esférica, inversão Dix, inversão linear por reparametrização, informações a priori, regularização. A ZFP mostra ser um conceito út il para estabelecer a abertura da janela espacial da inversão na seção tempo-distância, e representa a influência dos dados na resolução horizontal. A estimativa da ZFP indica uma abertura mínima com base num modelo adotado, e atualizável. A divergência esférica é uma função suave, e tem base física para ser usada na definição da matriz ponderação dos dados em métodos de inversão tomográfica. A necessidade de robustez na inversão pode ser analisada em seções sísmicas (FC, PMC) submetida a filtragens (freqüências de cantos: 5;15;75;85; banda-passante trapezoidal), onde se pode identificar, comparar e interpretar as informações contidas. A partir das seções, concluímos que os dados são contaminados com pontos isolados, o que propõe métodos na classe dos considerados robustos, tendo-se como referência a norma 2 (quadrados- mínimos) de ajuste de curvas. Os algoritmos foram desenvolvidos na linguagem de programação FORTRAN 90/95, usando o programa MATLAB para apresentação de resultados, e o sistema CWP/SU para modelagem sísmica sintética, marcação de eventos e apresentação de resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese apresenta duas contribuições para a interpretação geofísica, voltadas ao Método Magnetotelúrico. A primeira trata de uma nova abordagem para a interpretação MT, denominada MÉTODO DESCRITIVO-GEOLÓGICO (DesG), em alusão à incorporação explícita de informação a priori de correlação fácil com a descrição geológica tradicional. O intérprete define por meio de elementos geométricos (pontos e linhas) o arcabouço de feições geológicas bem como fornece valores de resistividade aos corpos geológicos presumidos. O método estima a distribuição de resistividade subsuperficial em termos de fontes anômalas próximas aos elementos geométricos, ajustando as respostas produzidas por estes corpos às medidas de campo. A solução obtida fornece então informações que podem auxiliar na modificação de algumas informações a priori imprecisas, permitindo que sucessivas inversões sejam realizadas até que a solução ajuste os dados e faça sentido geológico. Entre as características relevantes do método destacam-se: (i) os corpos podem apresentar resistividade maior ou menor do que a resistividade do meio encaixante, (ii) vários meios encaixantes contendo ou não corpos anômalos podem ser cortados pelo perfil e (iii) o contraste de resistividade entre corpo e encaixante pode ser abrupto ou gradativo. A aplicação do método a dados sintéticos evidencia, entre outras vantagens, a sua potencialidade para estimar o mergulho de falhas com inclinação variável, que merece especial interesse em Tectônica, e delinear soleiras de diabásio em bacias sedimentares, um sério problema para a prospecção de petróleo. O método permite ainda a interpretação conjunta das causas do efeito estático e das fontes de interesse. A aplicação a dados reais é ilustrada tomando-se como exemplo dados do COPROD2, cuja inversão produziu soluções compatíveis com o conhecimento geológico sobre a área. A segunda contribuição refere-se a desenho de experimento geofísico. Por meio de indicadores diversos, em especial a matriz densidade de informação, é mostrado que a resolução teórica dos dados pode ser estudada, que guia o planejamento da prospecção. A otimização do levantamento permite determinar os períodos e as posições das estações de medida mais adequados ao delineamento mais preciso de corpos cujas localizações são conhecidas aproximadamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A área de pesquisa em patologia das construções vem crescendo muito ultimamente, devido à degradação natural observada nos mais diversos tipos de edificações. Neste sentido, grande atenção vem sendo dispendida às estruturas de concreto de obras especiais como usinas hidrelétricas (UHEs) em virtude de sua complexidade e importância, tanto social quanto econômica. Uma das patologias que mais ocorrem nestas estruturas é a abrasão hidráulica do concreto, a qual pode levar a construção à ruína, em casos extremos. Este trabalho visa obter e analisar dados de vários materiais de reparo quanto à resistência à abrasão hidráulica e quanto aos seus respectivos sistemas de aderência. Dividiu-se a pesquisa em três grandes etapas: na primeira verificaria as características físicas e mecânicas dos materiais de reparo, a segunda analisaria a compatibilidade entre reparo e substrato através da aderência obtida no ensaio de compressão na junta diagonal e a terceira forneceria dados sobre a resistência à abrasão dos reparos através do ensaio ASTM C1138. Na primeira etapa foram realizados os ensaios de resistência à compressão axial e consistência dos concretos e argamassas utilizados como reparos profundos e superficiais para as idades de 3, 7 e 28 dias; Na segunda, aos 3 e 28 dias de idade, foram realizados os ensaios de aderência dos sistemas adesivos, abrangendo materiais cimentícios e à base de polímeros; Na última etapa foram utilizados os mesmos materiais de reparo da primeira: argamassas e concretos à base de cimento com e sem adição de pozolanas sílica ativa e metacaulim e argamassa à base de resina epóxi aos 3 e 28 dias. Como resultados, foram obtidas resistências à compressão axial entre 40 e 65 MPa para os materiais cimentícios aos 3 dias de idade e entre 60 e 80 MPa aos 28 dias, enquanto que para a argamassa epóxi a resistência foi de 20 MPa para ambas as idades. A consistência das argamassas foi tixotrópica, enquanto que a dos concretos foi bastante fluida. Quanto à aderência, realizou-se a aplicação dos adesivos em superfícies escarificadas, limpas e encharcadas, o que possibilitou uma expressiva vantagem dos adesivos à base de cimento e relação aos poliméricos, mesmo estes sendo indicados para colagem em substratos úmidos. Na etapa de abrasão dos reparos, utilizou-se uma nova metodologia de preparo dos substratos de concreto e posterior aplicação dos reparos, classificados em profundos ou superficiais. O reparo que apresentou maior resistência à abrasão foi o de argamassa epóxi. Não houve diferença estatística significativa entre os concretos sem adição e com adição de sílica ativa e metacaulim de alta reatividade. Em geral, o desgaste das argamassas, especialmente aos 3 dias, foi maior que o dos concretos, onde se verificou claramente a presença de dois estágios de taxa de desgaste em função da resistência à abrasão dos agregados graúdos. Assim, foi possível identificar diferentes estágios de desgaste para os concretos utilizados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A discussão que iremos apresentar neste trabalho faz parte de nosso projeto de pesquisa que desenvolvemos em parceria com entidades de base e organizações nãogovernamentais (ONGs)1, com o intuito de apresentar uma proposta de regularização fundiária dos apossamentos das populações tradicionais da Amazônia. As áreas com as quais desenvolveremos nosso trabalho são: Parque Nacional do Jaú – AM; comunidade de ribeirinhos da ilha de Ituqui, no município de Santarém – PA; comunidade de remanescentes do Quilombo de Pacoval, no município de Alenquer – PA. São diferentes áreas de pesquisa, uma está em uma unidade de conservação, outra, em uma ilha no rio Amazonas e a última é um quilombo em terras da União. Contudo, neste momento, pretendemos discutir somente um dos casos analisados, que é o das populações tradicionais em Unidades de Conservação (UC) de uso indireto2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O raio conectando dois pontos em um meio anisotrópico, homogêneo por partes e com variação lateral, é calculado utilizando-se técnicas de continuação em 3D. Se combinado com algoritmos para solução do problema de valor inicial, o método pode ser estendido para o cálculo de eventos qS1 e qS2. O algoritmo apresenta a mesma eficiência e robustez que implementações de técnicas de continuação em meios isotrópicos. Rotinas baseadas neste algoritmo têm várias aplicações de interesse. Primeiramente, na modelagem e inversão de parâmetros elásticos na presença de anisotropia. Em segundo lugar, as iterações de Newton-Raphson produzem atributos da frente de onda como vetor vagarosidade e a matrix hessiana do tempo de trânsito, quantidades que permitem determinar o espalhamento geométrico e aproximações de segunda ordem para o tempo de trânsito. Estes atributos permitem calcular as amplitudes ao longo do raio e investigar os efeitos da anisotropia no empilhamento CRS em modelos de velocidade simples.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diversas atividades de planejamento e operação em sistemas de energia elétrica dependem do conhecimento antecipado e preciso da demanda de carga elétrica. Por este motivo, concessionárias de geração e distribuição de energia elétrica cada vez mais fazem uso de tecnologias de previsão de carga. Essas previsões podem ter um horizonte de curtíssimo, curto, médio ou longo prazo. Inúmeros métodos estatísticos vêm sendo utilizados para o problema de previsão. Todos estes métodos trabalham bem em condições normais, entretanto deixam a desejar em situações onde ocorrem mudanças inesperadas nos parâmetros do ambiente. Atualmente, técnicas baseadas em Inteligência Computacional vêm sendo apresentadas na literatura com resultados satisfatórios para o problema de previsão de carga. Considerando então a importância da previsão da carga elétrica para os sistemas de energia elétrica, neste trabalho, uma nova abordagem para o problema de previsão de carga via redes neurais Auto-Associativas e algoritmos genéticos é avaliada. Três modelos de previsão baseados em Inteligência Computacional são também apresentados tendo seus desempenhos avaliados e comparados com o sistema proposto. Com os resultados alcançados, pôde-se verificar que o modelo proposto se mostrou satisfatório para o problema de previsão, reforçando assim a aplicabilidade de metodologias de inteligência computacional para o problema de previsão de cargas.