28 resultados para Estatistica - Processamento de dados


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Apresentamos dois métodos de interpretação de dados de campos potenciais, aplicados à prospecção de hidrocarbonetos. O primeiro emprega dados aeromagnéticos para estimar o limite, no plano horizontal, entre a crosta continental e a crosta oceânica. Este método baseia-se na existência de feições geológicas magnéticas exclusivas da crosta continental, de modo que as estimativas das extremidades destas feições são usadas como estimativas dos limites da crosta continental. Para tanto, o sinal da anomalia aeromagnética na região da plataforma, do talude e da elevação continental é amplificado através do operador de continuação analítica para baixo usando duas implementações: o princípio da camada equivalente e a condição de fronteira de Dirichlet. A maior carga computacional no cálculo do campo continuado para baixo reside na resolução de um sistema de equações lineares de grande porte. Este esforço computacional é minimizado através do processamento por janelas e do emprego do método do gradiente conjugado na resolução do sistema de equações. Como a operação de continuação para baixo é instável, estabilizamos a solução através do funcional estabilizador de primeira ordem de Tikhonov. Testes em dados aeromagnéticos sintéticos contaminados com ruído pseudo-aleatório Gaussiano mostraram a eficiência de ambas as implementações para realçar os finais das feições magnéticas exclusivas da crosta continental, permitindo o delineamento do limite desta com a crosta oceânica. Aplicamos a metodologia em suas duas implementações a dados aeromagnéticos reais de duas regiões da costa brasileira: Foz do Amazonas e Bacia do Jequitinhonha. O segundo método delineia, simultaneamente, a topografia do embasamento de uma bacia sedimentar e a geometria de estruturas salinas contidas no pacote sedimentar. Os modelos interpretativos consistem de um conjunto de prismas bidimensionais verticais justapostos, para o pacote sedimentar e de prismas bidimensionais com seções verticais poligonais para as estruturas salinas. Estabilizamos a solução, incorporando características geométricas do relevo do embasamento e das estruturas salinas compatíveis com o ambiente geológico através dos estabilizadores da suavidade global, suavidade ponderada e da concentração de massa ao longo de direções preferenciais, além de vínculos de desigualdade nos parâmetros. Aplicamos o método a dados gravimétricos sintéticos produzidos por fontes 2D simulando bacias sedimentares intracratônicas e marginais apresentando densidade do pacote sedimentar variando com a profundidade segundo uma lei hiperbólica e abrigando domos e almofadas salinas. Os resultados mostraram que o método apresenta potencial para delinear, simultaneamente, as geometrias tanto de almofadas e domos salinos, como de relevos descontínuos do embasamento. Aplicamos o método, também, a dados reais ao longo de dois perfis gravimétricos sobre as Bacias de Campos e do Jequitinhonha e obtivemos interpretações compatíveis com a geologia da área.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A monitorização ambulatorial do eletrocardiograma (ECG) permite seguir as atividades cotidianas do paciente durante períodos de 24 horas (ou ainda maiores) possibilitando o estudo de casos que pudessem ter episódios arrítmicos fatais. Entretanto, o maior desafio tecnológico que este tipo de monitorização enfrenta é a perda de informação pela presença de ruídos e artefatos quando o paciente se move. A análise do intervalo QT de despolarização e repolarização ventricular do eletrocardiograma superficial é uma técnica não invasiva com um grande valor para a diagnose e prognósticos de cardiopatias e neuropatias, assim como para a predição da morte cardíaca súbita. A análise do desvio padrão do intervalo QT proporciona informação sobre a dispersão (temporal ou espacial) da repolarização ventricular, entretanto a influencia do ruído provoca erros na detecção do final da onda T que são apreciáveis devido ao fato dos valores pequenos do desvio padrão do QT tanto para sujeitos patológicos e quanto para os sãos. O objetivo geral desta tese é melhorar os métodos de processamento do sinal de ECG ambulatorial usando inteligência computacional, especificamente os métodos relacionados com a detecção do final da onda T, e os de reconhecimento morfológico de batimentos que invalidam a análise da variabilidade do intervalo QT. É proposto e validado (em termos de exatidão e precisão) um novo método e algoritmo para estimar o final da onda T baseado no calculo de áreas de trapézios, empregando sinais da base de dados QT da Physionet. O desempenho do método proposto foi testado e comparado com um dos métodos mais usados para detectar o final da onda T: o método baseado no limiar na primeira derivada. O método de inteligência computacional sugerido combina a extração de características usando o método de análise de componentes principais não lineares e a rede neural de tipo perceptron multicamada. O método de áreas de trapézios teve um bom desempenho em condições ruidosas e não depende de nenhum limiar empírico, sendo adequado para situações com níveis de elevados de ruído de banda larga. O método de reconhecimento morfológico de batimentos foi avaliado com sinais ambulatoriais com e sem artefatos pertencentes a bases de dados de prestigio internacional, e mostrou um bom desempenho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As Redes de Sensores Sem Fio possuem capacidades limitadas de processamento, armazenamento, comunicação (largura de banda) e fonte de energia, além de possuírem características e requisitos básicos de uma RSSF como: necessidade de se auto-organizar, comunicação com difusão de curto alcance e roteamento com múltiplos saltos. Neste trabalho é proposto uma ferramenta que otimize o posicionamento e os pacotes entregues através do uso de Algoritmo Genético (AG). Para solucionar o problema de roteamento que melhore o consumo de energia e maximize a agregação de dados é proposto a utilização de lógica fuzzy no protocolo de roteamento Ad hoc Ondemand Distance Vector (AODV). Esta customização é intitulada AODV – Fuzzy for Wireless Sensor Networks (AODV-FWSN). Os resultados mostram que a solução proposta é eficiente e consegue prolongar a vida útil da RSSF e melhorar a taxa de entrega de dados quando comparado com soluções similares.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo central deste trabalho é o estudo e a aplicação do método Kalman-Bucy no processo de deconvolução ao impulso e de deconvolução com predição, onde é considerado que os dados observados são classificados como não-estacionários. Os dados utilizados neste trabalho são sintéticos e, com isto, esta Tese tem características de um exercício numérico e investigativo. O operador de deconvolução ao impulso é obtido a partir da teoria de CRUMP (1974) fazendo uso das soluções das equações Wiener-Hopf apresentadas por KALMAN-BUCY (1961) nas formas contínuas e discretas considerando o processo como não estacionário. O operador de predição (KBCP) está baseado nas teorias de CRUMP (1974) e MENDEL ET AL (1979). Sua estrutura assemelha-se ao filtro Wiener-Hopf onde os coeficientes do operador (WHLP) são obtidos através da autocorrelação, e no caso (KBCP) são obtidos a partir da função bi(k). o problema é definido em duas etapas: a primeira consta da geração do sinal, e a segunda da sua avaliação. A deconvolução realizada aqui é classificada como estatística, e é um modelo fortemente baseado nas propriedades do sinal registrado e de sua representação. Os métodos foram aplicados apenas em dados sintéticos de seção fonte-comum obtida a partir dos modelos com interfaces contínuas e camadas homogêneas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desenvolvemos a modelagem numérica de dados sintéticos Marine Controlled Source Electromagnetic (MCSEM) usada na exploração de hidrocarbonetos para simples modelos tridimensionais usando computação paralela. Os modelos são constituidos de duas camadas estrati cadas: o mar e o sedimentos encaixantes de um delgado reservatório tridimensional, sobrepostas pelo semi-espaço correspondente ao ar. Neste Trabalho apresentamos uma abordagem tridimensional da técnica dos elementos nitos aplicada ao método MCSEM, usando a formulação da decomposição primária e secundária dos potenciais acoplados magnético e elétrico. Num pós-processamento, os campos eletromagnéticos são calculados a partir dos potenciais espalhados via diferenciação numérica. Exploramos o paralelismo dos dados MCSEM 3D em um levantamento multitransmissor, em que para cada posição do transmissor temos o mesmo processo de cálculos com dados diferentes. Para isso, usamos a biblioteca Message Passing Interface (MPI) e o modelo servidor cliente, onde o processador administrador envia os dados de entradas para os processadores clientes computar a modelagem. Os dados de entrada são formados pelos parâmetros da malha de elementos nitos, dos transmissores e do modelo geoelétrico do reservatório. Esse possui geometria prismática que representa lentes de reservatórios de hidrocarbonetos em águas profundas. Observamos que quando a largura e o comprimento horizontais desses reservatório têm a mesma ordem de grandeza, as resposta in-line são muito semelhantes e conseqüentemente o efeito tridimensional não é detectado. Por sua vez, quando a diferença nos tamanhos da largura e do comprimento do reservatório é signi cativa o efeito 3D é facilmente detectado em medidas in-line na maior dimensão horizontal do reservatório. Para medidas na menor dimensão esse efeito não é detectável, pois, nesse caso o modelo 3D se aproxima de um modelo bidimensional. O paralelismo dos dados é de rápida implementação e processamento. O tempo de execução para a modelagem multitransmissor em ambiente paralelo é equivalente ao tempo de processamento da modelagem para um único transmissor em uma máquina seqüêncial, com o acréscimo do tempo de latência na transmissão de dados entre os nós do cluster, o que justi ca o uso desta metodologia na modelagem e interpretação de dados MCSEM. Devido a reduzida memória (2 Gbytes) em cada processador do cluster do departamento de geofísica da UFPA, apenas modelos muito simples foram executados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Um registro sísmico é frequentemente representado como a convolução de um pulso-fonte com a resposta do meio ao impulso, relacionada ao caminho da propagação. O processo de separação destes dois componentes da convolução é denominado deconvolução. Existe uma variedade de aproximações para o desenvolvimento de uma deconvolução. Uma das mais comuns é o uso da filtragem linear inversa, ou seja, o processamento do sinal composto, através de um filtro linear, cuja resposta de frequência é a recíproca da transformada de Fourier de um dos componentes do sinal. Obviamente, a fim de usarmos a filtragem inversa, tais componentes devem ser conhecidas ou estimadas. Neste trabalho, tratamos da aplicação a sinais sísmicos, de uma técnica de deconvolução não linear, proposta por Oppenheim (1965), a qual utiliza a teoria de uma classe de sistemas não lineares, que satisfazem um princípio generalizado de superposição, denominados de sistemas homomórficos. Tais sistemas são particularmente úteis na separação de sinais que estão combinados através da operação de convolução. O algoritmo da deconvolução homomórfica transforma o processo de convolução em uma superposição aditiva de seus componentes, com o resultado de que partes simples podem ser separadas mais facilmente. Esta classe de técnicas de filtragem representa uma generalização dos problemas de filtragem linear. O presente método oferece a considerável vantagem de que não é necessário fazer qualquer suposição prévia sobre a natureza do pulso sísmico fonte, ou da resposta do meio ao impulso, não requerendo assim, as considerações usuais de que o pulso seja de fase-mínima e que a distribuição dos impulsos seja aleatória, embora a qualidade dos resultados obtidos pela análise homomórfica seja muito sensível à razão sinal/ruído, como demonstrado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Bacia do Solimões é caracterizada por um padrão magnético complexo, expresso ao longo de toda sua extensão, e produzido pela superposição de anomalias magnéticas que se apresentam sob a forma de feições lineares. Tais feições refletem as diferentes atividades tectônicas que atuaram na Região Amazônica através do Pré-Cambriano e Fanerozóico. Neste trabalho, foi aplicado nos dados aeromagnéticos da Bacia do Solimões um método de processamento de imagens digitais de sombreamento do relevo magnético anômalo total que, dadas suas características metodológicas, permitindo utilizá-lo como um filtro direcional, possibilitou a definição de aspectos relevantes no contexto das relações entre os lineamentos magnéticos E/W, NE/SW, e NW/SE. Nesse sentido, foram identificados padrões de lineamentos magnéticos que refletem a existência de zonas de cisalhamento transcorrentes dextrais, orientadas preferencialmente na direção E/W. A interação entre os diversos segmentos transcorrentes promoveu o desenvolvimento de um regime predominantemente transpressivo, representado por falhas reversas associadas aos lineamentos magnéticos E/W e NE/SW; e duplexes direcionais formando falhas em flor positivas e negativas associadas, respectivamente, aos lineamentos magnéticos orientados na direção N70-80E e N70-80W. A análise quantitativa permitiu explicar dois aspectos importantes em relação às feições lineares observadas nas imagens digitais. O primeiro mostra, através de modelamentos baseados na superposição de prismas bidimensionais, que estas feições lineares magnéticas podem ser explicadas pela superposição de fontes profundas intraembasamento altamente magnéticas, e fontes rasas de alta frequência, sendo estas associadas a falhas reversas ao longo dos níveis de diabásio, presentes em forma de intrusões nos sedimentos paleozóicos da Bacia do Solimões. O segundo aspecto, baseado na utilização dos conceitos da cross-covariância, constata a presença de 'offsets' dextrais, associados aos lineamentos magnéticos NE—SW, ao longo da direção E—W. Este fato mostra, quantitativamente, que o padrão magnético desta região pode ser explicado pela presença de zonas de cisalhamento transcorrestes dextrais, cujos processos tectônicos associados foram fortemente condicionados por zonas de fraquezas pré-existentes (Pré-Cambrianas, Paleozóicas) durante o Mesozóico e Cenozóico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Devido às suas características únicas, redes de sensores ópticos têm encontrado aplicação em muitos campos, como em Engenharia Civil, Engenharia Geotécnica, Aeronáutica, Energia e Indústrias de Petróleo & Gás. Soluções de monitoramento baseadas nessa tecnologia têm se mostrado particularmente rentáveis e podem ser aplicadas às estruturas de grande porte, onde centenas de sensores devem ser implantados para medições a longo prazo de diferentes parâmetros mecânicos e físicos. Sensores baseados em Grades de Bragg em fibra (FBGs) são a solução mais comumente utilizada no Monitoramento de Saúde Estrutural (SHM) e as medições são realizadas por instrumentos especiais conhecidos como interrogadores ópticos. Taxas de aquisição cada vez mais elevadas têm sido possíveis utilizando interrogadores ópticos mais recentes, o que dá origem a um grande volume de dados cuja manipulação, armazenamento, gerenciamento e visualização podem demandar aplicações de software especiais. Este trabalho apresenta duas aplicações de software de tempo real desenvolvidas para esses fins: Interrogator Abstraction (InterAB) e Web-based System (WbS). As inovações neste trabalho incluem a integração, sincronização, independência, segurança, processamento e visualização em tempo real, e persistência de dados ou armazenamento proporcionados pelo trabalho conjunto das aplicações desenvolvidas. Os resultados obtidos durante testes em laboratório e ambiente real demonstraram a eficiência, robustez e flexibilidade desses softwares para diferentes tipos de sensores e interrogadores ópticos, garantindo atomicidade, consistência, isolamento e durabilidade dos dados persistidos pelo InterAB e apresentados pelo WbS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os estudos ambientais necessitam de informações sobre a cobertura e o uso da terra. Este trabalho apresenta a aplicação de dados de sensores remotos orbitais (óticos e de radares) na validação de padrões de uso e cobertura do solo na planície costeira amapaense para fins de mapeamento e reconhecimento da dinâmica natural e antrópica. Esta costa é submetida a uma dinâmica intensa devido à magnitude dos processos costeiros (marés-pororoca), sua localização geográfica, influenciada pelo rio Amazonas e pela Zona de Convergência Intertropical, e processos antrópicos associados à bubalinocultura. A análise foi realizada aplicando-se dados de satélite (JERS-1, RADARSAT-1, Landsat 7 e DEM do SRTM) digitalmente processados em abordagem multisensor, multiescala e multitemporal, correlacionada com dados pretéritos e informações de campo. A análise dos produtos gerados e dados colaterais permitiu distinguir oito padrões de uso e cobertura do solo: florestas de mangue, florestas de várzeas, campos arbustivos, áreas de vegetação campestre, campo antrópico, zona de intermaré, canal estuarino e lagos, além de feições morfológicas lineares associadas a estes padrões. Estas informações são importantes para o mapeamento dos ambientes costeiros e fundamentais para o reconhecimento da dinâmica na região.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A fusão de imagens multisensor tem sido um procedimento amplamente utilizado em função da natureza complementar dos vários conjuntos de dados. Este artigo compara o desempenho de quatro métodos diferentes para fusão de imagens Landsat-7 ETM+ e RADARSAT-1 W1. A comparação foi baseada nas características espectrais das imagens, utilizando-se de análise estatística e visual dos produtos gerados. Quatro métodos foram usados para a fusão das imagens Landsat-7 ETM+ e RADARSAT-1 W1: i) fusão do SAR (radar de abertura sintética) com a tríade selecionada pelo OIF (Optimum Index Factor); ii) realce por decorrelação da tríade selecionada pelo OIF, seguida da fusão com SAR; iii) ACP (Análise por Componentes Principais) para as seis bandas ETM+ do espectro refletido (1, 2, 3, 4, 5 e 7) e posterior fusão das três primeiras componentes principais (1CP; 2CP; 3CP) com o SAR; iv) SPC-SAR (Principal Componente Seletivo - SAR). O produto SPC-SAR mostrou melhor desempenho na identificação das feições costeiras e permitiu o realce mais efetivo dos diferentes ambientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

De acordo com o Atlas de Manguezais, este ecossistema representa 8% de toda a linha de costa do planeta e um quarto da linha de costa da zona tropical, perfazendo um total de 181.077 km2. Este trabalho objetiva quantificar a extensão dos manguezais de macromaré da costa nordeste do Pará e noroeste do Maranhão, aqui denominada de Costa de Manguezais de Macromaré da Amazônia (CMMA). O reconhecimento das áreas de manguezais e sua quantificação foram realizados a partir da utilização de imagens Landsat-7 ETM+, adquiridas em 1999 e 2000 e de um sistema de informações geográficas (SIG). A integração dos dados de sensores remotos, dados geológicos e oceanográficos permitiu o reconhecimento de cinco setores geomorfológicos, que abrangem uma superfície total de 7.591 km2 de manguezais. Esta área representa a maior faixa de manguezais contínuos do planeta e corresponde a 56,6% dos manguezais do Brasil. Medidas prioritárias de conservação dos manguezais da Amazônia devem ser tomadas e pesquisas que busquem a melhor compreensão deste complexo e importante ecossistema devem ser financiadas e desenvolvidas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dentre os métodos geofísicos, o da Eletrorresistividade é um dos mais tradicionais, com o seu desenvolvimento ocorrido há mais de 80 anos. Durante esse tempo o seu uso acompanhou o avanço no poder de processamento numérico e mais recentemente, a modelagem e inversão tridimensional tornou-se uma possibilidade para o geofísico. Apresentamos, neste trabalho, a técnica de elementos finitos aplicada ao método da eletrorresistividade 3-D, através do cálculo do potencial secundário. Para o desenvolvimento da metodologia, simulamos o levantamento do método da eletrorresistividade 3-D com os arranjos Dipolo-Dipolo e Schlumberger, visando medir as variações laterais e verticais da resistividade aparente do solo. Estes arranjos consistem na injeção de corrente elétrica na superfície e de medidas de diferenças de potencial elétrico, resultante da interação da corrente elétrica com o solo. Sendo que, as fontes e receptores são localizados de acordo com os arranjos escolhidos para o levantamento. Neste trabalho, as curvas de sondagem e as pseudo-secções de resistividade aparente, são obtidas através da modelagem de eletrorresistividade 3-D, usando malha de elementos finitos regular. Para efeito de validação, os resultados são comparados com a resposta 3-D obtida a partir dos potenciais totais.