23 resultados para nonorthogonal contrasts

em Universidade Federal do Pará


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, é implementada uma interface gráfica de usuários (GUI) usando a ferramenta Qt da Nokia (versão 3.0). A interface visa simplificar a criação de cenários para a realização de simulações paralelas usando a técnica numérica Local Nonorthogonal Finite Difference Time-Domain (LN-FDTD), aplicada para solucionar as equações de Maxwell. O simulador foi desenvolvido usando a linguagem de programação C e paralelizado utilizando threads. Para isto, a biblioteca pthread foi empregada. A visualização 3D do cenário a ser simulado (e da malha) é realizada por um programa especialmente desenvolvido que utiliza a biblioteca OpenGL. Para melhorar o desenvolvimento e alcançar os objetivos do projeto computacional, foram utilizados conceitos da Engenharia de Software, tais como o modelo de processo de software por prototipagem. Ao privar o usuário de interagir diretamente com o código-fonte da simulação, a probabilidade de ocorrência de erros humanos durante o processo de construção de cenários é minimizada. Para demonstrar o funcionamento da ferramenta desenvolvida, foi realizado um estudo relativo ao efeito de flechas em linhas de baixa tensão nas tensões transitórias induzidas nas mesmas por descargas atmosféricas. As tensões induzidas nas tomadas da edificação também são estudadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Guarani, de José de Alencar, publicado em 1857 nas folhas do Diário do Rio de Janeiro, foi um grande sucesso sob a forma do folhetim. Nesse período, de grandes modificações e contrastes no Brasil do Segundo Reinado, o público leitor do brasileiro estava em formação, embora já apreciasse o gênero do romance e também do romance-folhetim. Nesse contexto, O Guarani foi amplamente aclamado pelo público, o qual pareceu encontrar na obra uma correspondência para suas expectativas de conhecer uma literatura nacional. Nessa pesquisa, se pretende mostrar O Guarani como um grande sucesso no século XIX e ainda demonstrar que a obra permanece atemporal, atraindo o interesse do público.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sistemática da espécie politípica Dendrocolaptes certhia (Aves: Dendrocolaptidae) foi estudada até hoje apenas com base em caracteres morfológicos e até então não se conseguiu delimitar as relações e propor diagnoses consistentes para todos os táxons / populações agrupados na espécie. Caracteres moleculares se tornam assim uma ferramenta potencial para fornecer um grau maior de resolução acerca da história evolutiva desta espécie politípica. Para tal, foi utilizado um banco de dados multilocus composto de dois genes mitocondriais e três loci diferentes de genes nucleares, e a partir de análises com diferentes abordagens (bayesianas, coalescentes e genético populacionais) foi então proposta a primeira filogeografia para esta espécie. Os dados moleculares sugerem alterações na taxonomia de Dendrocolaptes certhia em relação a arranjos propostos onde propomos um novo tratamento taxonômico que reconhece sete espécies diagnosticáveis ao invés de uma única espécie politípica reunindo todos os táxons de D. certhia. Estas sete espécies estão distribuídas de maneira a corroborar com as principais áreas de endemismo na Amazônia, e sua diversificação parece estar fortemente correlacionada com a formação da drenagem moderna da Amazônia durante os períodos do Plio-Pleistoceno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oscilações intrassazonais são fatores controladores da variabilidade pluviométrica interanual de áreas tropicais. O conhecimento de como os modelos numéricos reproduzem suas variabilidades é importante para entender melhor suas atuações e subsidiar operações de previsão de tempo e clima. Neste artigo investiga-se a sensibilidade de um modelo de downscaling dinâmico de precipitação na reprodução das oscilações intrassazonais observadas no setor norte do Nordeste do Brasil (SNNEB - 45ºW-37ºW e 2ºS-12ºS) no período de 1974 a 2000. Os resultados mostraram que a precipitação simulada sobre o SNNEB explicou aproximadamente 70% da variabilidade da precipitação observada no trimestre fevereiro a abril nesta região. Estatísticas de médias, desvios normalizados e percentuais neste trimestre, nessa região, em anos de contrastes climáticos nos Oceanos Pacífico e Atlântico Tropicais, também foram bem capturadas pela precipitação simulada através do downscaling. Análises espectrais com uso de ondeletas mostraram que o downscaling dinâmico tem potencial para reproduzir picos espectrais de precipitação observada no SNNEB nas escalas acima de 8 dias, e nas escalas entre 64 e 128 dias para o período de 01 de janeiro a 30 de junho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As contribuições dos mecanismos de detecção de contraste ao potencial cortical provocado visual (VECP) têm sido investigadas com o estudo das funções de resposta ao contraste e de resposta à frequência espacial. Anteriormente, o uso de sequências-m para o controle da estimulação era restrito à estimulação eletrofisiológica multifocal que, em alguns aspectos, se diferencia substancialmente do VECP convencional. Estimulações únicas com contraste espacial controlado por sequências-m não foram extensivamente estudadas ou comparadas às respostas obtidas com as técnicas multifocais. O objetivo deste trabalho foi avaliar a influência da frequência espacial e do contraste de redes senoidais no VECP gerado por estimulação pseudoaleatória. Nove sujeitos normais foram estimulados por redes senoidais acromáticas controladas por uma sequência-m binária pseudoaleatória em 7 frequências espaciais (0,4 a 10 cpg) em 3 tamanhos diferentes (4º, 8º e 16º de ângulo visual). Em 8º, foram testados adicionalmente seis níveis de contraste (3,12% a 99%). O kernel de primeira ordem não forneceu respostas consistentes com sinais mensuráveis através das frequências espaciais e dos contrastes testados – o sinal foi muito pequeno ou ausente – enquanto o primeiro e o segundo slice do kernel de segunda ordem exibiram respostas bastante confiáveis para as faixas de estímulo testadas. As principais diferenças entre os resultados obtidos com o primeiro e o segundo slice do kernel de segunda ordem foram o perfil das funções de amplitude versus contraste e de amplitude versus frequência espacial. Os resultados indicaram que o primeiro slice do kernel de segunda ordem foi dominado pela via M, porém para algumas condições de estímulo, pôde ser percebida a contribuição da via P. Já o segundo slice do kernel de segunda ordem refletiu contribuição apenas da via P. O presente trabalho estende achados anteriores sobre a contribuição das vias visuais ao VECP gerado por estimulação pseudoaleatória para uma grande faixa de frequências espaciais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As medidas de amplitude, polarização e vagarosidade contem informações sobre o meio onde a propagação de onda ocorre. Esta tese investiga esses dados com objetivo de estimar as propriedades elásticas deste meio. Coeficientes de reflexão podem ser estimados das amplitudes dos dados e dependem de forma não linear dos contrastes dos parâmetros elásticos e do contraste de densidade entre os meios separados por uma interface. Quando o contraste de impedância é fraco, as aproximações lineares para a refletividade qP são mais convenientes para inversão da densidade e dos parâmetros elásticos usando as análises de amplitude versus ângulo de incidência (AVO) e amplitude versus a direção do plano de incidência (AVD). Escrevendo as equações de Zoepprittz de forma separada nos permite escrever uma solução destas equações em termos das matrizes de impedância e polarização. Usando esta solução são determinadas aproximações lineares para a refletividade da onda qP considerando fraco contraste de impedância, fraca anisotropia mas com classe de simetria de arbitrária. As linearizações são avaliadas para diferentes geometrias de aquisição e várias escolhas do meio de referência. Estas aproximações apresentam bom desempenho comparado com o valor exato do coeficiente de reflexão da onda qP e de suas ondas convertidas para incidências de até 30° e meios que obedecem à hipótese de fraca anisotropia. Um conjunto de fraturas orientado é representado efetivamente por um meio transversalmente isotrópico (TI), as aproximações lineares da refletividade da onda qP podem ser usadas para estimar a orientação de fratura. Partindo deste pressuposto este problema consiste em estimar a orientação do eixo de simetria a partir de dados de refletividade de onda qP. Este trabalho mostra que são necessários múltiplos azimutes e múltiplas incidências para se obter uma estimativa estável. Também é mostrado que apenas os coeficientes das ondas qS e qT são sensíveis ao mergulho da fratura. Foi investigada a estimativa da anisotropia local através de dados de VSP multiazimutal dos vetores de polarização e vagarosidade. Foram usadas medidas da componente vertical do vetor de vagarosidade e o vetor de polarização de ondas qP diretas e refletidas. O esquema de inversão é validado através de exemplos sintéticos considerando diferentes escolhas do vetor normal à frente de onda no meio de referência, meios de referências e geometria de aquisição. Esta análise mostra que somente um subgrupo dos parâmetros elástico pode ser estimado. Uma importante aplicação desta metodologia é o seu potencial para a determinação de classes de anisotropia. A aplicação desta metodologia aos dados do mar de Java mostra que os modelos isotrópicos e TIV são inadequados para o ajuste desses dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos três novos métodos estáveis de inversão gravimétrica para estimar o relevo de uma interface arbitrária separando dois meios. Para a garantia da estabilidade da solução, introduzimos informações a priori sobre a interface a ser mapeada, através da minimização de um (ou mais) funcional estabilizante. Portanto, estes três métodos se diferenciam pelos tipos de informação físico-geológica incorporados. No primeiro método, denominado suavidade global, as profundidades da interface são estimadas em pontos discretos, presumindo-se o conhecimento a priori sobre o contraste de densidade entre os meios. Para a estabilização do problema inverso introduzimos dois vínculos: (a) proximidade entre as profundidades estimadas e verdadeiras da interface em alguns pontos fornecidas por furos de sondagem; e (b) proximidade entre as profundidades estimadas em pontos adjacentes. A combinação destes dois vínculos impõe uma suavidade uniforme a toda interface estimada, minimizando, simultaneamente em alguns pontos, os desajustes entre as profundidades conhecidas pelas sondagens e as estimadas nos mesmos pontos. O segundo método, denominado suavidade ponderada, estima as profundidades da interface em pontos discretos, admitindo o conhecimento a priori do contraste de densidade. Neste método, incorpora-se a informação geológica que a interface é suave, exceto em regiões de descontinuidades produzidas por falhas, ou seja, a interface é predominantemente suave porém localmente descontínua. Para a incorporação desta informação, desenvolvemos um processo iterativo em que três tipos de vínculos são impostos aos parâmetros: (a) ponderação da proximidade entre as profundidades estimadas em pontos adjacentes; (b) limites inferior e superior para as profundidades; e (c) proximidade entre todas as profundidades estimadas e um valor numérico conhecido. Inicializando com a solução estimada pelo método da suavidade global, este segundo método, iterativamente, acentua as feições geométricas presentes na solução inicial; ou seja, regiões suaves da interface tendem a tornar-se mais suaves e regiões abruptas tendem a tornar-se mais abruptas. Para tanto, este método atribui diferentes pesos ao vínculo de proximidade entre as profundidades adjacentes. Estes pesos são automaticamente atualizados de modo a acentuar as descontinuidades sutilmente detectadas pela solução da suavidade global. Os vínculos (b) e (c) são usados para compensar a perda da estabilidade, devida à introdução de pesos próximos a zero em alguns dos vínculos de proximidade entre parâmetros adjacentes, e incorporar a informação a priori que a região mais profunda da interface apresenta-se plana e horizontal. O vínculo (b) impõe, de modo estrito, que qualquer profundidade estimada é não negativa e menor que o valor de máxima profundidade da interface conhecido a priori; o vínculo (c) impõe que todas as profundidades estimadas são próximas a um valor que deliberadamente viola a profundidade máxima da interface. O compromisso entre os vínculos conflitantes (b) e (c) resulta na tendenciosidade da solução final em acentuar descontinuidades verticais e apresentar uma estimativa suave e achatada da região mais profunda. O terceiro método, denominado mínimo momento de inércia, estima os contrastes de densidade de uma região da subsuperfície discretizada em volumes elementares prismáticos. Este método incorpora a informação geológica que a interface a ser mapeada delimita uma fonte anômala que apresenta dimensões horizontais maiores que sua maior dimensão vertical, com bordas mergulhando verticalmente ou em direção ao centro de massa e que toda a massa (ou deficiência de massa) anômala está concentrada, de modo compacto, em torno de um nível de referência. Conceitualmente, estas informações são introduzidas pela minimização do momento de inércia das fontes em relação ao nível de referência conhecido a priori. Esta minimização é efetuada em um subespaço de parâmetros consistindo de fontes compactas e apresentando bordas mergulhando verticalmente ou em direção ao centro de massa. Efetivamente, estas informações são introduzidas através de um processo iterativo inicializando com uma solução cujo momento de inércia é próximo a zero, acrescentando, em cada iteração, uma contribuição com mínimo momento de inércia em relação ao nível de referência, de modo que a nova estimativa obedeça a limites mínimo e máximo do contraste de densidade, e minimize, simultaneamente, os desajustes entre os dados gravimétricos observados e ajustados. Adicionalmente, o processo iterativo tende a "congelar" as estimativas em um dos limites (mínimo ou máximo). O resultado final é uma fonte anômala compactada em torno do nível de referência cuja distribuição de constraste de densidade tende ao limite superior (em valor absoluto) estabelecido a priori. Estes três métodos foram aplicados a dados sintéticos e reais produzidos pelo relevo do embasamento de bacias sedimentares. A suavidade global produziu uma boa reconstrução do arcabouço de bacias que violam a condição de suavidade, tanto em dados sintéticos como em dados da Bacia do Recôncavo. Este método, apresenta a menor resolução quando comparado com os outros dois métodos. A suavidade ponderada produziu uma melhoria na resolução de relevos de embasamentos que apresentam falhamentos com grandes rejeitos e altos ângulos de mergulho, indicando uma grande potencialidade na interpretação do arcabouço de bacias extensionais, como mostramos em testes com dados sintéticos e dados do Steptoe Valley, Nevada, EUA, e da Bacia do Recôncavo. No método do mínimo momento de inércia, tomou-se como nível de referência o nível médio do terreno. As aplicações a dados sintéticos e às anomalias Bouguer do Graben de San Jacinto, California, EUA, e da Bacia do Recôncavo mostraram que, em comparação com os métodos da suavidade global e ponderada, este método estima com excelente resolução falhamentos com pequenos rejeitos sem impor a restrição da interface apresentar poucas descontinuidades locais, como no método da suavidade ponderada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A interpretação de anomalias gravimétricas é de grande importância no estudo de feições geológicas que ocorrem na crosta terrestre. Esta interpretação é, no entanto, dificultada pelo fato das anomalias gravimétricas serem resultantes da soma total dos efeitos produzidos por todos os contrastes de densidades de subsuperfície. Desse modo, com o intuito de separar efeitos de feições mais profundas de efeitos de feições mais rasas, bem como a caracterização da geometria desses dois conjuntos de feições, apresentamos um método de separação das componentes regional e residual do campo e a subsequente interpretação de cada componente. A separação regional-residual de dados gravimétricos é efetuada através da aproximação do campo regional por um polinômio ajustado ao campo observado por um método robusto. Este método é iterativo e usa como aproximação inicial a solução obtida através do ajuste polinomial pelo método dos mínimos quadrados. O método empregado minimiza a influência de observações contendo forte contribuição do campo residual no ajuste do campo regional. A componente regional obtida a partir da separação regional-residual é transformada em um mapa de distâncias verticais em relação a um nível de referência. Esta transformação compreende duas etapas. A primeira consiste na obtenção da continuação para baixo da componente regional, que é pressuposta ser causada por uma interface suave separando dois meios homogêneos, representando a interface crosta-manto, cujo contraste de densidade é supostamente conhecido. A segunda consiste na transformação do mapa de continuação para baixo em um mapa de distâncias verticais entre o nível de continuação (tomado como nível de referência) e a interface. Este método apresenta duas dificuldades. A primeira está ligada à instabilidade, havendo portanto a necessidade do emprego de um estabilizador o que acarreta a perda de resolução das feições que se desejam mapear. A segunda, inerente ao método gravimétrico, consiste na impossibilidade da determinação das profundidades absolutas da interface em cada ponto, bastando entretanto o conhecimento da profundidade absoluta em um ponto, através de informação independente, para que todas as outras profundidades absolutas sejam conhecidas. A componente residual obtida a partir da separação regional-residual é transformada em um mapa de contrastes de densidade aparente. Esta transformação consiste no cálculo do contraste de densidade de várias fontes prismáticas através de uma inversão linear pressupondo que as fontes reais estejam das a uma placa horizontal, com contrastes de densidade variando apenas nas direções horizontais. O desempenho do método de separação regional-residual apresentado foi avaliado, através de testes empregando dados sintéticos, fornecendo resultados superiores em relação aos métodos dos mínimos quadrados e da análise espectral. O método de interpretação da componente regional teve seu desempenho avaliado em testes com dados sintéticos onde foram produzidos mapeamentos de interfaces bem próximas das estruturas reais. O limite de resolução das feições que se desejam mapear depende não só do grau do polinômio ajustante, como também da própria limitação inerente ao método gravimétrico. Na interpretação da componente residual é necessário que se postule ou tenha informação a priori sobre a profundidade do topo e espessura da placa onde as fontes estão supostamente confinadas. No entanto, a aplicação do método em dados sintéticos, produziu estimativas razoáveis para os limites laterais das fontes, mesmo na presença de fontes interferentes, e pressupondo-se valores para profundidade do topo e espessura da placa, diferentes dos valores verdadeiros. A ambiguidade envolvendo profundidade do topo, espessura e densidade pode ser visualizada através de gráficos de valores de densidade aparente contra profundidade do topo presumida para a placa para vários valores postulados para a espessura da placa. Estes mesmos gráficos permitem, pelo aspecto das curvas, a elaboração de uma interpretação semi-quantitativa das profundidades das fontes reais. A seqüência dos três métodos desenvolvidos neste trabalho foi aplicada a dados gravimétricos da região norte do Piauí e noroeste do Ceará levando a um modelo de organização crustal que compreende espessamentos e adelgaçamentos crustais associados a um evento compressivo que possibilitou a colocação de rochas densas da base da crosta a profundidades rasas. Este modelo ê compatível com os dados geológicos de superfície. É ainda sugerida a continuidade, por mais 200 km em direção a sudoeste, do Cinturão de Cisalhamento Noroeste do Ceará por sob os sedimentos da Bacia do Parnaíba, com base nas evidências fornecidas pela interpretação da anomalia residual. Embora esta seqüência de métodos tenha sido desenvolvida com vistas ao estudo de feições crustais de porte continental, ela também pode ser aplicada ao estudo de feições mais localizadas como por exemplo no mapeamento do relevo do embasamento de/bacias sedimentares onde os sedimentos são cortados por rochas intrusivas mais densas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na produção de petróleo é importante o monitoramento dos parâmetros do reservatório (permeabilidade, porosidade, saturação, pressão, etc) para o seu posterior gerenciamento. A variação dos parâmetros dinâmicos do reservatório induz variações na dinâmica do fluxo no reservatório, como por exemplo, perdas na pressão, dificultando o processo de extração do óleo. A injeção de fluidos aumenta a energia interna do reservatório e incrementa a pressão, estimulando o movimento do óleo em direção aos poços de extração. A tomografia eletromagnética poço-a-poço pode se tomar em uma técnica bastante eficaz no monitoramento dos processos de injeção, considerando-se o fato de ser altamente detectável a percolação de fluidos condutivos através das rochas. Esta tese apresenta o resultado de um algoritmo de tomografia eletromagnética bastante eficaz aplicado a dados sintéticos. O esquema de imageamento assume uma simetria cilíndrica em torno de uma fonte constituída por um dipolo magnético. Durante o processo de imageamento foram usados 21 transmissores e 21 receptores distribuídos em dois poços distanciados de 100 metros. O problema direto foi resolvido pelo método dos elementos finitos aplicado à equação de Helmhotz do campo elétrico secundário. O algoritmo resultante é válido para qualquer situação, não estando sujeito às restrições impostas aos algoritmos baseados nas aproximações de Born e Rytov. Por isso, pode ser aplicado eficientemente em qualquer situação, como em meios com contrastes de condutividade elétrica variando de 2 a 100, freqüências de 0.1 a 1000.0 kHz e heterogeneidades de qualquer dimensão. O problema inverso foi resolvido por intermédio do algoritmo de Marquardt estabilizado. A solução é obtida iterativamente. Os dados invertidos, com ruído Gaussiano aditivo, são as componentes em fase e em quadratura do campo magnético vertical. Sem o uso de vínculos o problema é totalmente instável, resultando em imagens completamente borradas. Duas categorias de vínculos foram usadas: vínculos relativos, do tipo suavidade, e vínculos absolutos. Os resultados obtidos mostram a eficiência desses dois tipos de vínculos através de imagens nítidas de alta resolução. Os tomogramas mostram que a resolução é melhor na direção vertical do que na horizontal e que é também função da freqüência. A posição e a atitude da heterogeneidade é bem recuperada. Ficou também demonstrado que a baixa resolução horizontal pode ser atenuada ou até mesmo eliminada por intermédio dos vínculos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho são apresentadas aproximações lineares e quadráticas das equações de Zoeppritz para a obtenção dos coeficientes de reflexão e transmissão de eventos P-P e P-S em função dos ângulos de incidência e da média angular, bem como a análise de inversão linear de AVO, considerando os eventos de reflexão P-P e P-S dissociados e combinados. O uso das chamadas aproximações pseudo-quadráticas foi aplicado para obtenção de aproximações quadráticas apenas para eventos-PP, em torno dos contrastes médios das velocidades de ondas compressionais e cisalhantes e da razão Vs/Vp. Os resultados das aproximações desenvolvidas neste trabalho mostram que as aproximações quadráticas são mais precisas que as lineares, nas duas versões angulares. As comparações entre as aproximações em termos do ângulo de incidência e da média angular mostram que as aproximações quadráticas são equivalentes dentro do limite angular de [0º, 30º]. Por outro lado, as aproximações lineares em função do ângulo de incidência mostram-se mais precisas que as aproximações lineares em função da média angular. Na inversão linear, fez-se análises de sensibilidade e de ambigüidade e observou-se que, nos caso de eventos de reflexão P-P e P-S dissociados, apenas um parâmetro pode ser estimado e que a combinação destes eventos consegue estabilizar a inversão, permitindo a estimativa de dois dentre os parâmetros físicos dos meios (contrastes de impedância, de velocidade de onda P e de módulo de cisalhamento).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The purpose of this study was to compare contrast sensitivity estimated from transient visual evoked potentials (VEPs) elicited by achromatic pattern-reversal and pattern-onset/offset modes. The stimuli were 2-cpd, achromatic horizontal gratings presented either as a 1 Hz pattern reversal or a 300 ms onset/700 ms offset stimulus. Contrast thresholds were estimated by linear regression to amplitudes of VEP components vs. the logarithm of the stimulus contrasts, and these regressions were extrapolated to the zero amplitude level. Contrast sensitivity was defined as the inverse of contrast threshold. For pattern reversal, the relation between the P100 amplitude and log of the stimulus contrast was best described by two separate linear regressions. For the N135 component, a single straight line was sufficient. In the case of pattern onset/offset for both the C1 and C2 components, single straight lines described their amplitude vs. log contrast relations in the medium-to-low contrast range. Some saturation was observed for C2 components. The contrast sensitivity estimated from the low-contrast limb of the P100, from the N135, and from the C2 were all similar but higher than those obtained from the high-contrast limb of the P100 and C1 data, which were also similar to each other. With 2 cpd stimuli, a mechanism possibly driven by the M pathway appeared to contribute to the P100 component at medium-to-low contrasts and to the N135 and C2 components at all contrast levels, whereas another mechanism, possibly driven by the P and M pathways, appeared to contribute to the P100 component at high contrast and C1 component at all contrast levels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We used psychophysical tests to evaluate spatial vision in 15 subjects with a clinical history of chronic alcoholism by measuring luminance contrast sensitivity and color discrimination. The subjects were initially subjected to clinical inquiry and ophthalmological exam. Subjects then performed psychophysical tests to measure spatial contrast thresholds using sine wave gratings of different spatial frequencies and contrasts and chromatic discrimination thresholds using the Mollon-Reffin test. For the analysis, subjects were divided into three groups according to age and compared with age-matched controls. Ten subjects had some degree of color vision loss, which was quite severe in seven cases. All subjects had normal luminance contrast sensitivity. The results suggest that color vision changes related to chronic alcoholism can occur in the absence of impairment of spatial luminance contrast sensitivity and thus is an important aspect to be considered in the clinical evaluation of this condition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente método postula uma variação hiperbólica para o contraste de densidade de uma bacia sedimentar em função da profundidade, e tem dois objetivos: (1) delinear o relevo do embasamento de uma bacia, conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície da bacia e o fator de decaimento do contraste de densidade com a profundidade; (2) estimar, além do relevo, o valor do contraste de densidade na superfície de uma bacia sedimentar e o fator de decaimento do contraste de densidade com a profundidade, sendo fornecida a anomalia gravimétrica e a profundidade do embasamento em alguns pontos da bacia. Nos dois casos o modelo interpretativo é um conjunto de prismas retangulares verticais justapostos, cujas espessuras, que são parâmetros a serem estimados, representam a profundidade da interface de separação entre os sedimentos e o embasamento. As soluções obtidas nos dois problemas acima formulados são estáveis devido à incorporação de informações adicionais sobre a suavidade do relevo estimado, e o conhecimento da profundidade do relevo do embasamento em alguns pontos, fornecido por furos de sondagem. O método foi testado em anomalias gravimétricas sintéticas produzidas pela simulação de bacias sedimentares com relevos suaves. Os resultados mostraram relevos com boa resolução e valores estimados do contraste de densidade na superfície da bacia e do fator de decaimento do contraste de densidade com a profundidade, próximos aos verdadeiros, indicando dessa maneira o potencial do método em interpretações gravimétricas de bacias sedimentares. O método foi aplicado à anomalia Bouguer da Bacia do Recôncavo, Brasil, delineando um relevo com um valor para a profundidade máxima de cerca de 6 km, semelhante ao estimado em interpretações sísmicas. As estimativas para o contraste de densidade na superfície da Bacia e o fator de decaimento com a profundidade foram -0,30 g/cm3 e 30 km, respectivamente, produzindo uma estimativa para a compactação máxima dos sedimentos da ordem de 4%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos um novo método para inversão gravimétrica da distribuição espacial do contraste de densidade no plano horizontal, baseado na combinação da maximização da entropia de ordem zero com a minimização da entropia de ordem um. O topo e a base das fontes gravimétricas são presumidos ser planos e horizontais e o modelo interpretativo consiste de uma malha de prismas justapostos em ambas às direções horizontais, sendo os contrastes de densidade de cada prisma os parâmetros a serem estimados. A maximização da entropia de ordem zero é similar ao vínculo de suavidade global, enquanto a minimização da entropia de ordem um favorece descontinuidades na distribuição do contraste de densidade. Conseqüentemente a combinação judiciosa de ambas pode levar a soluções apresentando regiões com contrastes de densidade virtualmente constantes (no caso de corpos homogêneos), separadas por descontinuidades abruptas. O método foi aplicado a dados sintéticos simulando a presença de corpos intrusivos em sedimentos. A comparação dos resultados com aqueles obtidos através do método da suavidade global mostra que ambos os métodos localizam as fontes igualmente bem, mas o delineamento de seus contornos é efetuado com maior resolução pela regularização entrópica, mesmo no caso de fontes com 100 m de largura separadas entre si por uma distância de 50 m. No caso em que o topo da fonte causadora não é plano nem horizontal, tanto a regularização entrópica como a suavidade global produzem resultados semelhantes. A metodologia apresentada, bem como a suavidade global foram aplicadas a dois conjuntos de dados reais produzidos por intrusões em rochas metamórficas. O primeiro é proveniente da região de Matsitama, no nordeste de Botswana, centro sul da África. A aplicação das duas metodologias a estes dados produziu resultados similares, indicando que o topo das fontes não é plano nem horizontal. O segundo conjunto provém da região da Cornuália, Inglaterra e produziu uma distribuição estimada de contraste de densidade virtualmente constante para a regularização entrópica e oscilante para a suavidade global, indicando que a fonte gravimétrica apresenta topo aproximadamente plano e horizontal, o que é confirmado pela informação geológica disponível.