13 resultados para Contraste de bondad de ajuste

em Universidade Federal do Pará


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese apresenta duas contribuições para a interpretação geofísica, voltadas ao Método Magnetotelúrico. A primeira trata de uma nova abordagem para a interpretação MT, denominada MÉTODO DESCRITIVO-GEOLÓGICO (DesG), em alusão à incorporação explícita de informação a priori de correlação fácil com a descrição geológica tradicional. O intérprete define por meio de elementos geométricos (pontos e linhas) o arcabouço de feições geológicas bem como fornece valores de resistividade aos corpos geológicos presumidos. O método estima a distribuição de resistividade subsuperficial em termos de fontes anômalas próximas aos elementos geométricos, ajustando as respostas produzidas por estes corpos às medidas de campo. A solução obtida fornece então informações que podem auxiliar na modificação de algumas informações a priori imprecisas, permitindo que sucessivas inversões sejam realizadas até que a solução ajuste os dados e faça sentido geológico. Entre as características relevantes do método destacam-se: (i) os corpos podem apresentar resistividade maior ou menor do que a resistividade do meio encaixante, (ii) vários meios encaixantes contendo ou não corpos anômalos podem ser cortados pelo perfil e (iii) o contraste de resistividade entre corpo e encaixante pode ser abrupto ou gradativo. A aplicação do método a dados sintéticos evidencia, entre outras vantagens, a sua potencialidade para estimar o mergulho de falhas com inclinação variável, que merece especial interesse em Tectônica, e delinear soleiras de diabásio em bacias sedimentares, um sério problema para a prospecção de petróleo. O método permite ainda a interpretação conjunta das causas do efeito estático e das fontes de interesse. A aplicação a dados reais é ilustrada tomando-se como exemplo dados do COPROD2, cuja inversão produziu soluções compatíveis com o conhecimento geológico sobre a área. A segunda contribuição refere-se a desenho de experimento geofísico. Por meio de indicadores diversos, em especial a matriz densidade de informação, é mostrado que a resolução teórica dos dados pode ser estudada, que guia o planejamento da prospecção. A otimização do levantamento permite determinar os períodos e as posições das estações de medida mais adequados ao delineamento mais preciso de corpos cujas localizações são conhecidas aproximadamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Há muitos anos, técnicas de Computação Evolucionária vem sendo aplicadas com sucesso na solução dos mais variados tipos de problemas de otimização. Na constante procura pelo ótimo global e por uma melhor exploração da superfície de busca, as escolhas para ajustar estes métodos podem ser exponencialmente complexas e requerem uma grande quantidade de intervenção humana. Estes modelos tradicionais darwinianos apóiam-se fortemente em aleatoriedade e escolhas heurísticas que se mantém fixas durante toda a execução, sem que acompanhem a variabilidade dos indivíduos e as eventuais mudanças necessárias. Dadas estas questões, o trabalho introduz a combinação de aspectos da Teoria do Design Inteligente a uma abordagem hibrida de algoritmo evolucionário, através da implementação de um agente inteligente o qual, utilizando lógica fuzzy, monitora e controla dinamicamente a população e seis parâmetros definidos de uma dada execução, ajustando-os para cada situação encontrada durante a busca. Na avaliação das proposições foi construído um protótipo sobre a implementação de um algoritmo genético para o problema do caixeiro viajante simétrico aplicado ao cenário de distância por estradas entre as capitais brasileiras, o que permitiu realizar 580 testes, simulações e comparações entre diferentes configurações apresentadas e resultados de outras técnicas. A intervenção inteligente entrega resultados que, com sucesso em muitos aspectos, superam as implementações tradicionais e abrem um vasto espaço para novas pesquisas e estudos nos aqui chamados: “Algoritmos Evolucionários Híbridos Auto-Adaptáveis”, ou mesmo, “Algoritmos Evolucionários Não-Darwinianos”.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As variações da temperatura e do fluxo de calor em solos sob a floresta nativa de Caxiuanã e uma pastagem natural da Ilha do Marajó, foram monitoradas continuamente no período de dezembro de 2001 a fevereiro de 2005. O objetivo foi comparar as respostas térmicas ao aquecimento diário, dos solos desses dois tipos de ecossistemas existentes no leste da Amazônia, para subsidiar modelos regionais de clima e avaliação dos efeitos de desmatamento. Além das medidas de campo das variáveis acima citadas, em três níveis até a profundidade de 0,5 m, esse trabalho apresenta estimativas de fluxo de calor e propriedades dos solos, tais como: difusividade e condutividade térmicas, profundidade de amortecimento e velocidade de propagação do pulso de aquecimento diário, determinados por métodos analíticos. Os resultados mostraram o contraste sazonal e outras diferenças significativas de respostas entre os dois sítios estudados, destacando o papel do conteúdo de água nos perfis térmicos verticais em cada tipo de solo. O ajuste obtido entre as medidas e os valores calculados das variáveis, indica a possibilidade de generalização dos resultados para outros sítios de ecossistemas similares na Amazônia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As medidas de amplitude, polarização e vagarosidade contem informações sobre o meio onde a propagação de onda ocorre. Esta tese investiga esses dados com objetivo de estimar as propriedades elásticas deste meio. Coeficientes de reflexão podem ser estimados das amplitudes dos dados e dependem de forma não linear dos contrastes dos parâmetros elásticos e do contraste de densidade entre os meios separados por uma interface. Quando o contraste de impedância é fraco, as aproximações lineares para a refletividade qP são mais convenientes para inversão da densidade e dos parâmetros elásticos usando as análises de amplitude versus ângulo de incidência (AVO) e amplitude versus a direção do plano de incidência (AVD). Escrevendo as equações de Zoepprittz de forma separada nos permite escrever uma solução destas equações em termos das matrizes de impedância e polarização. Usando esta solução são determinadas aproximações lineares para a refletividade da onda qP considerando fraco contraste de impedância, fraca anisotropia mas com classe de simetria de arbitrária. As linearizações são avaliadas para diferentes geometrias de aquisição e várias escolhas do meio de referência. Estas aproximações apresentam bom desempenho comparado com o valor exato do coeficiente de reflexão da onda qP e de suas ondas convertidas para incidências de até 30° e meios que obedecem à hipótese de fraca anisotropia. Um conjunto de fraturas orientado é representado efetivamente por um meio transversalmente isotrópico (TI), as aproximações lineares da refletividade da onda qP podem ser usadas para estimar a orientação de fratura. Partindo deste pressuposto este problema consiste em estimar a orientação do eixo de simetria a partir de dados de refletividade de onda qP. Este trabalho mostra que são necessários múltiplos azimutes e múltiplas incidências para se obter uma estimativa estável. Também é mostrado que apenas os coeficientes das ondas qS e qT são sensíveis ao mergulho da fratura. Foi investigada a estimativa da anisotropia local através de dados de VSP multiazimutal dos vetores de polarização e vagarosidade. Foram usadas medidas da componente vertical do vetor de vagarosidade e o vetor de polarização de ondas qP diretas e refletidas. O esquema de inversão é validado através de exemplos sintéticos considerando diferentes escolhas do vetor normal à frente de onda no meio de referência, meios de referências e geometria de aquisição. Esta análise mostra que somente um subgrupo dos parâmetros elástico pode ser estimado. Uma importante aplicação desta metodologia é o seu potencial para a determinação de classes de anisotropia. A aplicação desta metodologia aos dados do mar de Java mostra que os modelos isotrópicos e TIV são inadequados para o ajuste desses dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A inversão de momentos de fonte gravimétrica tridimensional é analisada em duas situações. Na primeira se admite conhecer apenas a anomalia. Na segunda se admite conhecer, além da anomalia, informação a priori sobre o corpo anômalo. Sem usar informação a priori, mostramos que é possível determinar univocamente todo momento, ou combinação linear de momentos, cujo núcleo polinomial seja função apenas das coordenadas Cartesianas que definem o plano de medida e que tenha Laplaciano nulo. Além disso, mostramos que nenhum momento cujo núcleo polinomial tenha Laplaciano não nulo pode ser determinado. Por outro lado, informação a priori é implicitamente introduzida se o método de inversão de momentos se baseia na aproximação da anomalia pela série truncada obtida de sua expansão em multipolos. Dado um centro de expansão qualquer, o truncamento da série impõe uma condição de regularização sobre as superfícies equipotenciais do corpo anômalo, que permite estimar univocamente os momentos e combinações lineares de momentos que são os coeficientes das funções-bases da expansão em multipolos. Assim, uma distribuição de massa equivalente à real é postulada, sendo o critério de equivalência especificado pela condição de ajuste entre os campos observado e calculado com a série truncada em momentos de uma ordem máxima pré-estabelecida. Os momentos da distribuição equivalente de massa foram identificados como a solução estacionária de um sistema de equações diferenciais lineares de 1a. ordem, para a qual se asseguram unicidade e estabilidade assintótica. Para a série retendo momentos até 2a. ordem, é implicitamente admitido que o corpo anômalo seja convexo e tenha volume finito, que ele esteja suficientemente distante do plano de medida e que a sua distribuição espacial de massa apresente três planos ortogonais de simetria. O método de inversão de momentos baseado na série truncada (IMT) é adaptado para o caso magnético. Para este caso, mostramos que, para assegurar unicidade e estabilidade assintótica, é suficiente pressupor, além da condição de regularização, a condição de que a magnetização total tenha direção e sentido constantes, embora desconhecidos. O método IMT baseado na série de 2a. ordem (IMT2) é aplicado a anomalias gravimétricas e magnéticas tridimensionais sintéticas. Mostramos que se a fonte satisfaz as condições exigidas, boas estimativas da sua massa ou vetor momento de dipolo anômalo total, da posição de seu centro de massa ou de momento de dipolo e das direções de seus três eixos principais são obtidas de maneira estável. O método IMT2 pode falhar parcialmente quando a fonte está próxima do plano de medida ou quando a anomalia tem efeitos localizados e fortes de um corpo pequeno e raso e se tenta estimar os parâmetros de um corpo grande e profundo. Definimos por falha parcial a situação em que algumas das estimativas obtidas podem não ser boas aproximações dos valores verdadeiros. Nas duas situações acima descritas, a profundidade do centro da fonte (maior) e as direções de seus eixos principais podem ser erroneamente estimadas, embora que a massa ou vetor momento de dipolo anômalo total e a projeção do centro desta fonte no plano de medida ainda sejam bem estimados. Se a direção de magnetização total não for constante, o método IMT2 pode fornecer estimativas erradas das direções dos eixos principais (mesmo se a fonte estiver distante do plano de medida), embora que os demais parâmetros sejam bem estimados. O método IMT2 pode falhar completamente se a fonte não tiver volume finito. Definimos por falha completa a situação em que qualquer estimativa obtida pode não ser boa aproximação do valor verdadeiro. O método IMT2 é aplicado a dados reais gravimétricos e magnéticos. No caso gravimétrico, utilizamos uma anomalia situada no estado da Bahia, que se supõe ser causada por um batólito de granito. Com base nos resultados, sugerimos que as massas graníticas geradoras desta anomalia tenham sido estiradas na direção NNW e adelgaçadas na direção vertical durante o evento compressivo que causou a orogênese do Sistema de Dobramentos do Espinhaço. Além disso, estimamos que a profundidade do centro de massa da fonte geradora é cerca de 20 km. No caso magnético, utilizamos a anomalia de um monte submarino situado no Golfo da Guiné. Com base nos resultados, estimamos que o paleopolo magnético do monte submarino tem latitude 50°48'S e longitude 74°54'E e sugerimos que não exista contraste de magnetização expressivo abaixo da base do monte submarino.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A interpretação de anomalias gravimétricas é de grande importância no estudo de feições geológicas que ocorrem na crosta terrestre. Esta interpretação é, no entanto, dificultada pelo fato das anomalias gravimétricas serem resultantes da soma total dos efeitos produzidos por todos os contrastes de densidades de subsuperfície. Desse modo, com o intuito de separar efeitos de feições mais profundas de efeitos de feições mais rasas, bem como a caracterização da geometria desses dois conjuntos de feições, apresentamos um método de separação das componentes regional e residual do campo e a subsequente interpretação de cada componente. A separação regional-residual de dados gravimétricos é efetuada através da aproximação do campo regional por um polinômio ajustado ao campo observado por um método robusto. Este método é iterativo e usa como aproximação inicial a solução obtida através do ajuste polinomial pelo método dos mínimos quadrados. O método empregado minimiza a influência de observações contendo forte contribuição do campo residual no ajuste do campo regional. A componente regional obtida a partir da separação regional-residual é transformada em um mapa de distâncias verticais em relação a um nível de referência. Esta transformação compreende duas etapas. A primeira consiste na obtenção da continuação para baixo da componente regional, que é pressuposta ser causada por uma interface suave separando dois meios homogêneos, representando a interface crosta-manto, cujo contraste de densidade é supostamente conhecido. A segunda consiste na transformação do mapa de continuação para baixo em um mapa de distâncias verticais entre o nível de continuação (tomado como nível de referência) e a interface. Este método apresenta duas dificuldades. A primeira está ligada à instabilidade, havendo portanto a necessidade do emprego de um estabilizador o que acarreta a perda de resolução das feições que se desejam mapear. A segunda, inerente ao método gravimétrico, consiste na impossibilidade da determinação das profundidades absolutas da interface em cada ponto, bastando entretanto o conhecimento da profundidade absoluta em um ponto, através de informação independente, para que todas as outras profundidades absolutas sejam conhecidas. A componente residual obtida a partir da separação regional-residual é transformada em um mapa de contrastes de densidade aparente. Esta transformação consiste no cálculo do contraste de densidade de várias fontes prismáticas através de uma inversão linear pressupondo que as fontes reais estejam das a uma placa horizontal, com contrastes de densidade variando apenas nas direções horizontais. O desempenho do método de separação regional-residual apresentado foi avaliado, através de testes empregando dados sintéticos, fornecendo resultados superiores em relação aos métodos dos mínimos quadrados e da análise espectral. O método de interpretação da componente regional teve seu desempenho avaliado em testes com dados sintéticos onde foram produzidos mapeamentos de interfaces bem próximas das estruturas reais. O limite de resolução das feições que se desejam mapear depende não só do grau do polinômio ajustante, como também da própria limitação inerente ao método gravimétrico. Na interpretação da componente residual é necessário que se postule ou tenha informação a priori sobre a profundidade do topo e espessura da placa onde as fontes estão supostamente confinadas. No entanto, a aplicação do método em dados sintéticos, produziu estimativas razoáveis para os limites laterais das fontes, mesmo na presença de fontes interferentes, e pressupondo-se valores para profundidade do topo e espessura da placa, diferentes dos valores verdadeiros. A ambiguidade envolvendo profundidade do topo, espessura e densidade pode ser visualizada através de gráficos de valores de densidade aparente contra profundidade do topo presumida para a placa para vários valores postulados para a espessura da placa. Estes mesmos gráficos permitem, pelo aspecto das curvas, a elaboração de uma interpretação semi-quantitativa das profundidades das fontes reais. A seqüência dos três métodos desenvolvidos neste trabalho foi aplicada a dados gravimétricos da região norte do Piauí e noroeste do Ceará levando a um modelo de organização crustal que compreende espessamentos e adelgaçamentos crustais associados a um evento compressivo que possibilitou a colocação de rochas densas da base da crosta a profundidades rasas. Este modelo ê compatível com os dados geológicos de superfície. É ainda sugerida a continuidade, por mais 200 km em direção a sudoeste, do Cinturão de Cisalhamento Noroeste do Ceará por sob os sedimentos da Bacia do Parnaíba, com base nas evidências fornecidas pela interpretação da anomalia residual. Embora esta seqüência de métodos tenha sido desenvolvida com vistas ao estudo de feições crustais de porte continental, ela também pode ser aplicada ao estudo de feições mais localizadas como por exemplo no mapeamento do relevo do embasamento de/bacias sedimentares onde os sedimentos são cortados por rochas intrusivas mais densas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresentamos um novo método para estimar o relevo do embasamento de bacias sedimentares através da extensão analítica da expressão da placa Bouguer para contraste de densidade entre o pacote sedimentar e o embasamento decrescendo monotonicamente com a profundidade de acordo com uma lei hiperbólica. O método requer ruído contido nos dados gravimétricos tenha desvio padrão inferior a 0,01 mGal. As estimativas do relevo do embasamento são obtidas nas posições espaciais localizadas diretamente abaixo de cada observação. A metodologia foi aplicada a dados sintéticos de bacias sedimentares simuladas apresentando relevo do embasamento suave. O método produziu relevo do embasamento estimado próximo do relevo simulado. O método foi também aplicado a três conjuntos de dados reais: Bacia do Recôncavo (Brasil), Graben do Büyük Menderes (Turquia) e Graben de San Jacinto (Estados Unidos). As soluções produzidas pelo método proposto apresentaram estimativas de profundidades máximas em acordo com as informações geológicas disponíveis: 6 km para Bacia do Recôncavo, 1,6 km para Vale do Büyük Menderes e 2,2 km para Graben de San Jacinto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As medidas de resistividade são de fundamental importância para o cálculo da saturação de óleo em reservatórios potencialmente produtores. A combinação das medidas de resistividade rasa e profunda permite a obtenção dos parâmetros Rt, Rxo e di. Mas, em reservatórios complexos existem dificuldades em se obter leituras confiáveis de Rt, devido à baixa resolução vertical das ferramentas de investigação profunda. Em reservatórios laminados, por exemplo, as leituras obtidas pela ferramenta de indução profunda (ILD) podem levar a uma interpretação errônea das mesmas, levando a acreditar que as medidas obtidas do perfil referem-se a uma única camada. Este problema pode ser em parte resolvido através de uma metodologia que melhore a resolução vertical dos perfis de investigação profunda, valendo-se do uso de informações obtidas de um perfil de alta resolução vertical, i.e; a curva de resistividade rasa. Uma abordagem neste sentido seria usar um perfil de alta resolução que apresente uma boa correlação com o perfil de investigação profunda. Esta correlação pode ser melhor avaliada se aplicarmos um filtro no perfil de alta resolução, de tal forma que o perfil resultante tenha teoricamente a mesma resolução vertical do perfil de baixa resolução. A obtenção deste filtro, porém, recai na premissa de que as funções respostas verticais para as ferramentas de alta e baixa resolução são disponíveis, o que não ocorre na prática. Este trabalho se propõe mostrar uma nova abordagem onde o filtro pode ser obtido a partir de um tratamento no domínio da freqüência. Tal tratamento visa igualar a energia espectral do perfil de alta resolução à energia espectral do perfil de baixa resolução tendo como base o Teorema de Parseval. Será mostrado que a resolução vertical depende fundamentalmente da energia espectral do perfil em questão. A seguir, uma regressão linear é aplicada sobre os perfis de alta resolução filtrado e de baixa resolução. Para cada ponto amostrado dos perfis, uma rotina de minimização é aplicada visando escolher o melhor intervalo de correlação entre os perfis. Finalmente, um fator de correção é aplicado sobre cada ponto do perfil de baixa resolução. Os resultados obtidos com os perfis de indução são promissores, demonstrando a eficácia da abordagem e mesmo quando aplicada em perfis com diferentes propriedades petrofísicas, a metodologia funcionou satisfatoriamente, sem danificar os perfis originais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A metodologia de interpretação integrada dos dados geológicos e geofísicos observados em um perfil da margem continental do Ceará possibilita a identificação e a integração de características peculiares a cada tipo de dado. Dessa forma, é possível se definir a localização mais provável de feições estruturais importantes, tais como a fronteira entre as crostas continental e oceânica e o pé do talude, objeto do presente estudo. Segundo o Artigo 76 (parágrafo 4, item b) da Convenção das Nações Unidas para o Direito do Mar, o pé do talude é definido como o ponto de variação máxima do gradiente do talude na sua base. Entretanto, essa definição, apesar de simples no contexto fisiográfico, não é suficiente para propiciar a localização do pé do talude como preconiza a Convenção, razão pela qual se aplicam os métodos geofísicos. Dentro do contexto geofísico-geológico está implícita a interpretação quantitativa das anomalias gravimétricas ar-livre, que possibilita o delineamento do modelo geofísico representando a subsuperfície, cuja finalidade é subsidiar geologicamente a interpretação integrada dos dados aludidos. Um procedimento automático de ajuste de curvas combinando as técnicas de inversão de busca sistemática e a que utiliza derivadas foi usado com o propósito de gerar o modelo geofísico. A aplicação rigorosa de vínculos preliminarmente e a constante reavaliação desses vínculos através de um processo interativo entre a sísmica e a gravimetria, gerado durante a interpretação quantitativa das anomalias ar-livre, possibilitaram que o modelo geofísico final estivesse dentro dos padrões geológicos para área, notadamente quanto ao equilíbrio isostático (Teoria de Airy). O objetivo do presente trabalho é se estudar as características geológicas e geofísicas observadas ao longo de um perfil da margem continental do Ceará (LEPLAC III), notadamente quanto ao pé do talude, buscando estabelecer a aplicabilidade de uma metodologia de interpretação integrada desses dados, cuja finalidade é se definir de forma sistemática a localização mais provável para esta feição fisiográfica. A metodologia de interpretação integrada dos dados geológicos e geofísicos empregada mostrou-se eficiente para este objetivo. Foi possível se integrar: (i) a localização fisiográfica (distância da costa e profundidade) do pé do talude; (ii) a zona de instabilidade tectônica evidenciada pelos falhamentos, comuns nesta região; (iii) ao fim de uma zona magnética perturbada, associado a um ponto de mínimo na curva de anomalia magnética, e que possivelmente delimita o início de uma zona magnética quieta, denominada de anomalia E e (iv) um ponto de inflexão na curva de anomalia ar-livre, associado ao efeito gravimétrico do contraste de densidades entre as crostas continental, os sedimentos e a água do mar, evidenciado pela geometria do talude. Foi possível ainda se definir a localização mais provável para a fronteira entre as crostas continental e oceânica. Dada a rigorosidade na aplicação das técnicas de inversão e dos vínculos é provável que as correlações das características intrínsecas a cada tipo de dado efetuadas na conclusão desse trabalho tenham fundamento e possam ser confirmadas. A condição para isto é a aplicação da metodologia aqui estabelecida em um número maior de perfis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O potencial provocado visual (VEP) é uma resposta cortical registrável na superfície do couro cabeludo, que reflete a atividade dos neurônios de V1. É classificado, a partir da freqüência temporal de estimulação, em transiente ou de estado estacionário. Outras propriedades do estímulo parecem provocar uma atividade seletiva dos diversos grupos de neurônios existentes em V1. Desse modo, o VEP vem sendo usado para estudar a visão humana acromática e cromática. Diversos trabalhos usaram o VEP para estimar a sensibilidade ao contraste de luminância no domínio das freqüências espaciais. Mais recentemente, há estudos que empregaram o VEP para medir os limiares de discriminação de cores. O VEP transiente pode complementar as medidas psicofísicas de sensibilidade ao contraste espacial de luminância e de discriminação cromática, e constitui um método não invasivo para estudar a visão de indivíduos com dificuldades de realizar testes psicofísicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta um método que utiliza uma função hiperbólica para descrever o decaimento do contraste de densidade com a profundidade em aterros sanitários e lixões, e consiste de duas abordagens: (1) o mapeamento da base de um lixão ou de um aterro sanitário conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade; (2) estimação do contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade a partir do conhecimento da anomalia gravimétrica e do relevo da base do lixão ou do aterro sanitário; uma variante desta última abordagem utiliza os valores conhecidos de profundidade desses ambientes para gerar a anomalia ajustada e estimar o valor do contraste de densidade na superfície e o fator de decaimento do contraste com a profundidade através da minimização da norma Euclidiana do vetor de resíduos entre as observações e o ajuste. Em ambas abordagens o modelo interpretativo é representado por um conjunto de prismas retangulares justapostos, cujas espessuras são os parâmetros a serem determinados. As soluções encontradas através das duas abordagens são estáveis devido à incorporação de informação sobre a suavidade do relevo estimado. O método foi aplicado a dados sintéticos produzidos pela simulação de aterros sanitários e lixões com até 15 m de profundidades e de relevos suaves. Os resultados das interpretações gravimétricas foram consistentes e revelaram a eficácia do método tanto na abordagem (1) como na abordagem (2). O método também foi aplicado à anomalia Bouguer residual do aterro sanitário da Fazenda Thomas, Indiana, USA, indicando que o contraste de densidade do aterro pode ou ser constante ou apresentar variação máxima de 0,09 g/cm3.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essa dissertação de mestrado apresenta um estudo comparativo entre três metodologias baseadas em algoritmos genéticos para ajuste coordenado de estabilizadores de sistemas de potência (ESP). Os procedimentos de ajuste do ESP são formulados como um problema de otimização, a fim de: 1) maximizar o coeficiente de amortecimento mínimo do sistema em malha fechada; 2) maximizar o somatório de todos os coeficientes de amortecimento do sistema em malha fechada; e 3) deslocar os modos eletromecânicos poucos amortecidos ou mal amortecidos para uma zona pré-escrita no plano s. As três metodologias consideram um conjunto de condições de operacionais pré-especificadas. O sistema elétrico foi representado por equações no espaço de estado e as matrizes associadas com a modelagem foram obtidas por meio da versão acadêmica do programa PacDyn. As simulações foram realizadas usando o MATLAB. As metodologias foram aplicadas no conhecido sistema teste New England.