21 resultados para Métodos de medição tempo
em Universidade Federal do Pará
Resumo:
A metodologia tradicional de identificação de parâmetros na análise modal de estruturas é realizada a partir de sinais medidos de força de entrada e de movimento de resposta da estrutura em condições laboratoriais controladas. Entretanto, quando é necessária a obtenção dos parâmetros modais de estruturas de máquinas em operação, as condições para controlar e medir a excitação nestas situações impossibilita a realização da análise modal tradicional. Neste caso, o teste modal é realizado utilizando somente dados de resposta do sistema. A Análise Modal Operacional (AMO) é um método de extração modal em que nenhuma excitação artificial necessita ser aplicada ao sistema, utilizando-se a própria excitação operacional como entrada para medição da resposta do sistema. A técnica clássica de Análise Modal Operacional NExT considera, para isso, que a excitação operacional do sistema seja um ruído branco. Esta técnica faz a consideração de que as funções de correlação obtidas de estruturas podem ser consideradas como funções de resposta ao impulso e então métodos tradicionais de identificação modal no domínio do tempo podem ser empregados. Entretanto, caso a excitação operacional contenha componentes harmônicos que se sobressaiam, estes podem ser confundidos como modos naturais do sistema. Neste trabalho é demonstrada que através da função densidade de probabilidade da banda estreita contendo o pico de um modo, é possível identifica-lo como natural ou operacional (proveniente da excitação operacional da estrutura). É apresentada também uma modificação no método de identificação modal Exponencial Complexa Mínimos Quadrados (LSCE), passando a considerar sinais harmônicos de freqüências conhecidas presentes na excitação operacional, em um ensaio utilizando a técnica NExT. Para validação desses métodos, utiliza-se um modelo teórico de parâmetros modais conhecidos analiticamente e como estudo de caso experimental, um sistema formado por uma viga bi-apoiada suportando um motor elétrico com desbalanceamento de massa.
Resumo:
Este trabalho tem por objetivo apresentar os resultados da modelagem sísmica em meios com fortes descontinuidades de propriedades físicas, com ênfase na existência de difrações e múltiplas reflexões, tendo a Bacia do Amazonas como referência à modelagem. As condições de estabilidade e de fronteiras utilizadas no cálculo do campo de ondas sísmicas foram analisadas numericamente pelo método das diferenças finitas, visando melhor compreensão e controle da interpretação de dados sísmicos. A geologia da Bacia do Amazonas é constituída por rochas sedimentares depositadas desde o Ordoviciano até o Recente que atingem espessuras da ordem de 5 km. Os corpos de diabásio, presentes entre os sedimentos paleozóicos, estão dispostos na forma de soleiras, alcançam espessuras de centenas de metros e perfazem um volume total de aproximadamente 90000 Km³. A ocorrência de tais estruturas é responsável pela existência de reflexões múltiplas durante a propagação da onda sísmica o que impossibilita melhor interpretação dos horizontes refletores que se encontram abaixo destas soleiras. Para representar situações geológicas desse tipo foram usados um modelo (sintético) acústico de velocidades e um código computacional elaborado via método das diferenças finitas com aproximação de quarta ordem no espaço e no tempo da equação da onda. A aplicação dos métodos de diferenças finitas para o estudo de propagação de ondas sísmicas melhorou a compreensão sobre a propagação em meios onde existem heterogeneidades significativas, tendo como resultado boa resolução na interpretação dos eventos de reflexão sísmica em áreas de interesse. Como resultado dos experimentos numéricos realizados em meio de geologia complexa, foi observada a influência significativa das reflexões múltiplas devido à camada de alta velocidade, isto provocou maior perda de energia e dificultou a interpretação dos alvos. Por esta razão recomenda-se a integração de dados de superfície com os de poço, com o objetivo de obter melhor imagem dos alvos abaixo das soleiras de diabásio.
Resumo:
Vários métodos de captura de mosquitos foram desenvolvidos, demonstrando que houve uma evolução dos tipos de armadilhas ao longo do tempo, porém nenhum se comparou à coleta direta por Atração Humana (AH). Este trabalho teve por objetivo, testar métodos alternativos, desenvolvidos para coletar mosquitos, incluindo o desenvolvimento de novas técnicas, que podem substituir o método tradicional de captura direta em humanos. O estudo foi desenvolvido próximo ao Parque Ambiental de Belém, Pará, Brasil. Os métodos utilizados foram: armadilhas CDC, CDC UV, Shannon, armadilha desenvolvida por J. A. Rocha, armadilha desenvolvida por I. S. Gorayeb e coleta por AH. As armadilhas foram instaladas em seis pontos, por seis noites consecutivas. Foram capturados 13.099 espécimes de Culicidae distribuídas em sete gêneros e 27 espécies, sendo Anopheles trianulatus a mais abundante. Os dados foram tratados estatisticamente pelos métodos ANOVA, Análise multivariada – distâncias euclidianas. A coleta por AH direta foi o método que coletou maior diversidade e abundância de mosquitos, seguidos da armadilha de Shannon para abundância e armadilha de Gorayeb para diversidade.
Resumo:
Dentre as doenças cardiovasculares, a trombose venosa (TV) destaca-se pela associação entre fatores de riscos adquiridos e fatores genéticos. A resistência hereditária à proteína C ativada tem sido identificada como a principal causa dos casos de trombose venosa, sendo frequentemente associada à mutação fator V Leiden (G1694A). Em indivíduos homozigotos, o risco de trombose venosa é 50 a 100 vezes maior que em pacientes homozigotos normais, enquanto em pacientes heterozigotos o risco é de 5 a 10 vezes. Baseado na necessidade de avaliação e acompanhamento de pacientes com casos de trombose venosa e prevenção de seus respectivos familiares, foi desenvolvido um método simples de discriminação alélica do fator V da coagulação utilizando PCR em tempo real. Foram selecionados 67 pacientes com histórico de TV e 51 indivíduos sem histórico de TV. Primeiramente, a discriminação alélica do fator V foi realizada através de PCR convencional seguida de digestão enzimática (Mnl). Posteriormente, o diagnóstico foi realizado por PCR em tempo real. Ambos os métodos foram baseados no polimorfismo G1691A, sendo no segundo utilizado fluoróforos VIC e FAM para marcar os nucleotídeos G e A, respectivamente. A técnica de PCR-RFLP foi utilizada para diagnosticar 95 indivíduos homozigotos normais, 21 heterozigotos e 2 homozigotos FVL. Utilizando PCR em tempo real foram obtidos os mesmos resultados. A máxima similaridade entre os resultados obtidos por PCR em tempo real e PCR-RFLP indicou precisão significativa do novo método de discriminação e visualização alélica do fator V.
Resumo:
A crescente demanda por energia elétrica aliada à grande importância deste setor para o sistema econômico nacional tem levado o governo e empresas particulares a investirem em estudos que possibilitem melhorar o desempenho dos sistemas envolvidos nesse processo, em virtude dos relevantes ganhos que esta iniciativa pode produzir. Neste contexto, esse trabalho é uma contribuição ao estudo do desenvolvimento de uma metodologia de diagnóstico de defeitos para a máquina hidrogeradora número 3 da Usina Hidrelétrica de Coaracy Nunes, localizada no Estado do Amapá. Em muitas situações os métodos de análise de vibrações são utilizados para detectar a presença de falhas nesse tipo de máquina, neste trabalho também será utilizada a análise dos sinais de corrente para fornecer indicações similares. Este trabalho tem por objetivo apresentar uma metodologia de diagnóstico de defeito em máquinas elétricas através dos sinais de vibração e correlação com a análise da corrente do estator. No decorrer deste trabalho apresenta-se uma revisão bibliográfica das técnicas de monitoramento e diagnóstico das condições das máquinas elétricas, através dos ensaios de vibração correlacionados com as características da corrente estatórica. O resultado da correlação da medição de vibração com a medição de corrente se baseia em uma metodologia implementada por um sistema de aquisição e de processamento de dados desenvolvido na plataforma LabView. Os resultados experimentais foram obtidos a partir de defeitos mecânicos (desbalanceamento mecânico e defeitos nas pistas, externa e interna dos rolamentos) induzidos em uma bancada experimental concebida com intuito de representar um sistema de geração. Finalizando, os sinais de vibração e corrente foram analisados e comparados para verificar se os defeitos que foram evidenciados pelo método convencional de vibração alteravam o comportamento dos sinais de corrente. Os bons resultados desse trabalho mostram a viabilidade em estudos futuros nesta área.
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
A modelagem 2.5D consiste em simular a propagação do campo de ondas em 3D em meios com simetria de translação em uma direção. Nesta tese esta abordagem é formulada para meios elásticos e anisotrópicos com classe de simetria arbitrária e a geometria de aquisição não precisa coincidir com um plano de simetria do meio. A migração por reversão no tempo do campo de ondas é formulada e implementada através de diferenças finitas 2.5D. Para reduzir os efeitos de retro-espalhamento e melhorar a recuperação da amplitude dos eventos migrados, propomos uma nova condição de imagem para migração reversa no tempo baseada na análise assintótica da condição de imagem clássica por correlação cruzada. Experimentos numéricos indicam que a migração reversa no tempo 2.5D com a nova condição de imagem proposta, melhora a resolução da imagem em relação à migração reversa no tempo 2D e reduz acentuadamente os ruídos causados por retro-espalhamento.
Resumo:
Tradicionalmente, o método dos mínimos quadrados tem sido empregado na inversão não linear de dados de campo potencial. No caso em que as observações dos campos gravimétrico ou magnético contém apenas ruído Gaussiano. O método dos mínimos quadrados não apresenta problemas. Entretanto, quando as observações são perturbadas por ruído não Gaussiano, ou mesmo por ruído não aleatório, como é o caso de muitos ruídos geológicos, o método dos mínimos quadrados torna-se bastante ineficiente, e métodos alternativos devem ser empregados a fim de produzir interpretações realísticas. Neste trabalho, uma comparação é feita entre os métodos dos mínimos quadrados, dos mínimos absolutos e do ajuste-M, aplicados à inversão não linear de dados de campo potencial. A comparação é efetuada usando-se dados teóricos, onde diversas situações geológicas são simuladas. Os resultados mostram que na presença de ruído geológico, caracterizado por pequeno corpo raso acima do corpo principal, ou por corpo grande, adjacente ao corpo principal, o ajuste-M apresenta desempenho muito superior ao dos mínimos quadrados e dos mínimos absolutos. Na presença de ruído Gaussiano, entretanto, o ajuste-M tem um desempenho inferior aos outros dois métodos. Como o ruído Gaussiano é um ruído branco, parte dele pode ser removido por um filtro passa baixa adequado, sem muita perda do sinal, o que não ocorre com o ruído geológico que contém componentes importantes de baixo número de onda. Desse modo o ajuste-M se torna uma ferramenta importante na interpretação de áreas geologicamente complexas, onde é comum a contaminação das anomalias por ruído geológico. Os três métodos em estudo são aplicados a uma anomalia magnética real causada por uma intrusão de diabásio em forma de dique, em sedimentos arenosos da formação Piauí na Bacia do Parnaíba. Os três métodos apresentaram resultados semelhantes indicando que tanto o nível de ruído Gaussiano como geológico são baixos nesta anomalia.
Resumo:
Ainda hoje, a migração em tempo é o processo de imageamento substancialmente empregado na indústria do petróleo. Tal popularidade é devida ao seu alto grau de eficiência e robustez, além de sua habilidade em focalizar refletores nos mais variados ambientes geológicos. Entretanto, em áreas de alta complexidade geológica a migração em tempo falha de tal forma que a migração em profundidade e um campo de velocidade em profundidade são indispensáveis. Esse campo é geralmente obtido através de processos tomográficos partindo de um campo de velocidade inicial. A conversão de campos de velocidade de tempo para profundidade é uma forma rápida de se obter um campo inicial mais consistente geologicamente para tais processos. Alguns algoritmos de conversão tempo-profundidade recentemente desenvolvidos baseados no traçamento de raios-imagem são revistos e um algoritmo alternativo baseado na propagação da frente de onda-imagem é proposto. Os algoritmos são aplicados a dados sintéticos bidimensionais e avaliados de acordo com suas eficiência e acurácia, destacando suas vantagens, desvantagens e limitações na obtenção de campos de velocidade em profundidade.
Resumo:
O método eletroresistivo é um dos métodos de prospecção geofísica mais empregados na exploração de água subterrânea. Todavia, ele apresenta a desvantagem de ser de difícil uso em locais habitados. De fato, para realizar sondagens elétricas é necessário, muitas vezes, expandir cabos elétricos até um quilômetro ou mais, dependendo da profundidade que se deseja investigar, o que nem sempre é possível em áreas urbanas. O método transiente eletromagnético no domínio do tempo, é usado também para a exploração de água subterrânea e não apresenta as mesmas desvantagens, porque este método indutivo emprega uma bobina quadrada cujo tamanho não é um impedimento para ser utilizado em locais habitados. Por outro lado, o método eletromagnético é mais sensível a ruídos devido a instalações elétricas. Para comparar as vantagens e desvantagens dos dois métodos em áreas urbanas foram utilizados programas para a modelagem sintética das sondagens elétricas verticais e das sondagens transientes eletromagnéticas, ambos desenvolvidos por RIJO (1994ab, 1996). Para tal propósito foram considerados dois casos: no primeiro, foram definidos quatro tipos de modelos (H, K, A e Q) com base nos horizontes geoelétricos em Palestina do Pará. No segundo caso, se considerou os modelos obtidos pelas 21 sondagens elétricas verticais tipo Schlumberger da mesma área. Com base nestes modelos, se utilizou um programa de transientes electromagnéticas para gerar as curvas sintéticas das resistividades aparentes. Como resultado, os valores de resistividades aparentes dados em função do espaçamento de eletrodos (método eletroresistivo) e em função do tempo (método eletromagnético), permitiu obter nos dois casos mencionados uma relação linear em escala bilogaritmica entre o espaçamento (metros) e o tempo (milisegundos). Deste modo é possível inferir a profundidade de investigação desejada em áreas urbanas usando o método eletromagnético, quando a aplicação do método eletroresistivo ficar limitada pela acessibilidade.
Resumo:
Os solventes orgânicos são substâncias neurotóxicas que podem causar efeitos danosos sobre as funções visuais. É comum a exposição ocupacional a esses tipos de substâncias, pois elas apresentam grande aplicabilidade em inúmeras atividades. Os efeitos podem ser quantificados por testes psicofísicos. Os testes mais usados nesse tipo de avaliação são de ordenamento de matizes, como o Teste D15 Dessaturado de Lanthony e o Teste dos 100 Matizes de Farnsworth-Munsell, e avaliação de sensibilidade ao contraste espacial de luminância, como MCT 8000 Vistech, VCTS 6500 Vistech e FACT 101. Em geral esses testes descrevem perda de discriminação de cores, afetando tanto o eixo azul-amarelo quanto o eixo verde-vermelho, e diminuição da sensibilidade ao contraste de luminância principalmente para as frequências espaciais mais baixas. Existe correlação positiva entre os resultados da avaliação psicofísica e vários marcadores biológicos e ambientais, mas essa correlação depende do marcador e do tipo de solvente ao qual os indivíduos são expostos. Fatores como alcoolismo crônico e tabagismo inveterado podem interferir no processo de correlacionar esses resultados.
Resumo:
Nos grandes centros urbanos pode-se constatar que o nível de ruído é tão elevado que ameaça a integridade psicológica e física dos habitantes. Entretanto, observa-se que muito do ruído no ambiente hospitalar origina-se de dentro do hospital, tendo como uma das principais fontes geradoras de ruído nas unidades os equipamentos e a conversação entre a equipe hospitalar. A perda auditiva induzida pelo ruído (PAIR) é uma das consequências que o ruído elevado pode acarretar à saúde, entre outros danos. Assim, o ambiente hospitalar que deveria ser sereno e silencioso transforma-se em um espaço ruidoso e estressante, aumentando a ansiedade e a percepção dolorosa do paciente, reduzindo o sono e estendendo a convalescença. Objetivo: Avaliar as condições acústicas dos principais ambientes nas unidades de urgência e emergência no município de Belém, Estado do Pará, Brasil. Verificar a adequação às normas sanitárias e técnicas vigentes, com a simulação de um ambiente piloto validado com a utilização do software ODEON e apresentar soluções virtuais de condicionamento acústico. Material e Métodos: foi utilizado o equipamento Medidor de Nível Sonoro com certificado de calibração da Rede Brasileira de Calibração (RBC) para aferição dos NPS nos períodos diurno e noturno, de acordo com o estabelecido pela NBR 10.151 (2000), além da observação e identificação das fontes de ruído dos ambientes. Resultados: Os valores obtidos durante as aferições dos NPS nos ambientes do Hospital A foram de 58 dB(A) a 70 dB(A) e do Hospital B foram de 62 dB(A) a 70 dB(A). O ambiente piloto foi selecionado de acordo com os resultados e com o tempo de permanência da equipe de saúde e dos pacientes. Conclusão: foi desenvolvido o modelo computacional validado do ambiente piloto, gerando um modelo proposto com intervenções arquitetônicas visando o conforto acústico da equipe de saúde e dos pacientes. Os ambientes pesquisados não apresentaram níveis de ruído superiores a 85 dB(A), comprovando que não há risco ocupacional para as equipes de saúde. Entretanto, níveis de ruídos elevados, por mais que não causem PAIR nos trabalhadores, são responsáveis por estimular ou até mesmo por desencadear diversos sintomas que prejudicam a capacidade laborativa da equipe de saúde, além de aumentar a convalescença e prejudicar a recuperação dos pacientes.
Resumo:
A interferência eletromagnética causada pela linha de energia elétrica afeta negativamente os sinais de instrumentos eletrônicos, especialmente aqueles com baixos níveis de amplitude. Este tipo de interferência é conhecida como interferência de modo comum. Existem muitos métodos e arquiteturas utilizadas para minimizar a influência deste fenômeno de interferência em instrumentos eletrônicos, o mais comum dos quais é a utilização de filtros rejeita banda. Este trabalho apresenta: a análise, desenvolvimento, protótipo e teste de uma nova arquitetura de filtro com característica reconfigurável para instrumentos biomédicos e medição de dados de fluxo em fluido de alta complexidade, com objetivo de reduzir a interferência de modo comum e preservar as componentes do sinal útil na mesma faixa de frequência do ruído, utilizando a técnica de equilíbrio dinâmico de impedância. Além disso, este trabalho pode ser usado em qualquer sistema de medição que também sofra interferência na frequência da linha de alimentação (50/60 Hz, no Brasil e na França, 60 Hz nos Estados Unidos da América). Os blocos de circuitos foram modelados matematicamente e a função de transferência global do circuito fechado foi gerada. Em seguida, o projeto foi descrito e simulado na língua VHDL_AMS e também em um software de simulação eletrônica, usando blocos de componentes discretos, com e sem realimentação. Após análise teórica dos resultados da simulação, um circuito protótipo foi construído e testado usando como entrada um sinal obtido a partir de eletrodos de ECG e Eletrodos Eletroresistivos. Os resultados experimentais do circuito condizem com os da simulação: uma redução de ruído de 98,7% foi obtida em simulações utilizando um sinal sinusoidal, e uma redução de 92% foi realizada utilizando eletrodos de ECG em testes experimentais. Os mesmos testes em eletrodos Eletroresistivos, obtendo o maior valor de 80,3% de redução (durante análise de 3 casos). Em ambos os casos, o sinal útil foi preservado. O método e a sua arquitetura pode ser aplicado para atenuar as interferências que ocorrem na mesma banda de frequência das componentes do sinal útil, preservando ao mesmo tempo estes sinais.
Resumo:
A presente Dissertação de Mestrado tem como objetivo o estudo do problema de inversão sísmica baseada em refletores planos para arranjo fonte-comum (FC) e ponto-médiocomum (PMC). O modelo direto é descrito por camadas homogêneas, isotrópicas com interfaces plano-horizontais. O problema é relacionado ao empilhamento NMO baseado na otimização da função semblance, para seções PMC corrigidas de sobretempo normal (NMO). O estudo foi baseado em dois princípios. O primeiro princípio adotado foi de combinar dois grupos de métodos de inversão: um Método Global e um Método Local. O segundo princípio adotado foi o de cascata, segundo a teoria Wichert-Herglotz-Bateman, que estabelece que para conhecer uma camada inferior tem-se que conhecer primeiro a camada superior (dissecação). A aplicação do estudo é voltada à simulação sísmica de Bacia Sedimentar do Solimões e de Bacia Marinha para se obter uma distribuição local 1D de velocidades e espessuras para a subsuperfície em horizontes alvo. Sendo assim, limitamos a inversão entre 4 e 11 refletores, uma vez que na prática a indústria limita uma interpretação realizada apenas em número equivalente de 3 a 4 refletores principais. Ressalta-se que este modelo é aplicável como condição inicial ao imageamento de seções sísmicas em regiões geologicamente complexas com variação horizontal suave de velocidades. Os dados sintéticos foram gerados a partir dos modelos relacionados a informações geológicas, o que corresponde a uma forte informação a priori no modelo de inversão. Para a construção dos modelos relacionados aos projetos da Rede Risco Exploratório (FINEP) e de formação de recursos humanos da ANP em andamento, analisamos os seguintes assuntos relevantes: (1) Geologia de bacias sedimentares terrestre dos Solimões e ma rinha (estratigráfica, estrutural, tectônica e petrolífera); (2) Física da resolução vertical e horizontal; e (3) Discretização temporal-espacial no cubo de multi-cobertura. O processo de inversão é dependente do efeito da discretização tempo-espacial do campo de ondas, dos parâmetros físicos do levantamento sísmico, e da posterior reamostragem no cubo de cobertura múltipla. O modelo direto empregado corresponde ao caso do operador do empilhamento NMO (1D), considerando uma topografia de observação plana. O critério básico tomado como referência para a inversão e o ajuste de curvas é a norma 2 (quadrática). A inversão usando o presente modelo simples é computacionalmente atrativa por ser rápida, e conveniente por permitir que vários outros recursos possam ser incluídos com interpretação física lógica; por exemplo, a Zona de Fresnel Projetada (ZFP), cálculo direto da divergência esférica, inversão Dix, inversão linear por reparametrização, informações a priori, regularização. A ZFP mostra ser um conceito út il para estabelecer a abertura da janela espacial da inversão na seção tempo-distância, e representa a influência dos dados na resolução horizontal. A estimativa da ZFP indica uma abertura mínima com base num modelo adotado, e atualizável. A divergência esférica é uma função suave, e tem base física para ser usada na definição da matriz ponderação dos dados em métodos de inversão tomográfica. A necessidade de robustez na inversão pode ser analisada em seções sísmicas (FC, PMC) submetida a filtragens (freqüências de cantos: 5;15;75;85; banda-passante trapezoidal), onde se pode identificar, comparar e interpretar as informações contidas. A partir das seções, concluímos que os dados são contaminados com pontos isolados, o que propõe métodos na classe dos considerados robustos, tendo-se como referência a norma 2 (quadrados- mínimos) de ajuste de curvas. Os algoritmos foram desenvolvidos na linguagem de programação FORTRAN 90/95, usando o programa MATLAB para apresentação de resultados, e o sistema CWP/SU para modelagem sísmica sintética, marcação de eventos e apresentação de resultados.
Resumo:
Apresentamos um novo método de inversão linear bidimensional de dados gravimétricos produzidos por bacias sedimentares com relevo do embasamento descontínuo. O método desenvolvido utiliza um modelo interpretativo formado por um conjunto de fitas horizontais bidimensionais justapostas cujas espessuras são os parâmetros a serem estimados. O contraste de densidade entre o embasamento e os sedimentos é presumido constante e conhecido. As estimativas das espessuras foram estabilizadas com o funcional da Variação Total (VT) que permite soluções apresentando descontinuidades locais no relevo do embasamento. As estimativas do relevo são obtidas através da resolução de um sistema de equações lineares, resolvido na norma L1. Como métodos lineares subestimam as estimativas de profundidade do embasamento de bacias maiores que cerca de 500 m, amplificamos as estimativas de profundidade através da modificação da matriz associada ao modelo interpretativo de fitas. As estimativas obtidas através deste procedimento são em geral ligeiramente superestimadas. Desse modo, elas são corrigidas através de uma correção definida pela expressão da placa Bouguer. Testes em dados sintéticos e reais produziram resultados comparáveis aos produzidos pelo método não linear, mas exigiram menor tempo computacional. A razão R entre os tempos exigidos pelo método não linear e o método proposto cresce com o número de observações e parâmetros. Por exemplo, para 60 observações e 60 parâmetros, R é igual a 4, enquanto para 2500 observações e 2500 parâmetros R cresce para 16,8. O método proposto e o método de inversão não linear foram aplicados também em dados reais do Steptoe Valley, Nevada, Estados Unidos, e da ponte do POEMA, no Campus do Guamá em Belém, produzindo soluções similares às obtidas com o método não linear exigindo menor tempo computacional.