32 resultados para Processamento sísmico


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho teve como objetivos a análise e atenuação de múltiplas de superfície livre, o processamento e o imageamento de dados sísmicos marinhos visando obter imagens migradas de utilidade à interpretação geológica voltada à exploração de petróleo. Foi dada uma atenção sistemática ao estudo de múltiplas de superfície livre do ponto de vista do filtro de predição baseado na teoria da comunicação com o objetivo de melhor aplicar o filtro WH de deconvolução preditiva, na etapa de processamento, posterior à correção NMO, embora outros métodos possam ser considerados mais competitivos. A identificação e a atenuação de reflexões múltiplas em dados sísmicos reais continua como um grande desafio no processamento de dados sísmicos, uma vez que elas são consideradas como ruído. No entanto, sendo este ruído classificado como coerente, várias técnicas foram desenvolvidas objetivando sua atenuação para evitar erros em cascata nas etapas posteriores como processamento, marcação de eventos, inversão tomográfica, imageamento, e finalmente na interpretação geológica das imagens obtidas. Outro aspecto do trabalho foi estabelecer um fluxograma de processamento-imageamento sendo a atenuação de múltiplas de superfície livre uma etapa central. Foram obtidas seções migradas em tempo e em profundidade onde se permite a interpretação que se deseja. O desenvolvimento deste trabalho foi realizado com os pacotes CWP/SU e MatLab.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Arranjo Produtivo Local (APL) de Processamento de Frutas do Nordeste paraense, Região Metropolitana de Belém e ilha do Marajó, na Amazônia Oriental Brasileira, se destina ao atendimento dos mercados local, regional e nacional. O APL oferta produtos a partir de frutas regionais e exóticas. A base rural agrícola apresenta capacidade produtiva crescente constituída por agricultores familiares. Esses agricultores têm, relativamente, reorientado suas produções para diversificação e complexificação, onde a fruticultura tem destaque nesse processo. O APL se diferencia tanto das estruturas informais (micro-escala) de processamento do fruto açaí (mercado local), quanto das indústrias de larga escala voltadas às exportações. O APL apresenta taxas de crescimento elevadas, porém, com potencial de rentabilidade limitado por condições estruturais. Por um lado, essas limitações refletem o baixo nível da capacidade de governança e de cooperação entre as empresas. De outro, são o resultado de uma baixa capacidade de interação do conjunto de empresas do APL com o ambiente institucional. Assim, há dificuldades para consolidar e elevar a capacidade produtiva e inovativa das empresas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A monitorização ambulatorial do eletrocardiograma (ECG) permite seguir as atividades cotidianas do paciente durante períodos de 24 horas (ou ainda maiores) possibilitando o estudo de casos que pudessem ter episódios arrítmicos fatais. Entretanto, o maior desafio tecnológico que este tipo de monitorização enfrenta é a perda de informação pela presença de ruídos e artefatos quando o paciente se move. A análise do intervalo QT de despolarização e repolarização ventricular do eletrocardiograma superficial é uma técnica não invasiva com um grande valor para a diagnose e prognósticos de cardiopatias e neuropatias, assim como para a predição da morte cardíaca súbita. A análise do desvio padrão do intervalo QT proporciona informação sobre a dispersão (temporal ou espacial) da repolarização ventricular, entretanto a influencia do ruído provoca erros na detecção do final da onda T que são apreciáveis devido ao fato dos valores pequenos do desvio padrão do QT tanto para sujeitos patológicos e quanto para os sãos. O objetivo geral desta tese é melhorar os métodos de processamento do sinal de ECG ambulatorial usando inteligência computacional, especificamente os métodos relacionados com a detecção do final da onda T, e os de reconhecimento morfológico de batimentos que invalidam a análise da variabilidade do intervalo QT. É proposto e validado (em termos de exatidão e precisão) um novo método e algoritmo para estimar o final da onda T baseado no calculo de áreas de trapézios, empregando sinais da base de dados QT da Physionet. O desempenho do método proposto foi testado e comparado com um dos métodos mais usados para detectar o final da onda T: o método baseado no limiar na primeira derivada. O método de inteligência computacional sugerido combina a extração de características usando o método de análise de componentes principais não lineares e a rede neural de tipo perceptron multicamada. O método de áreas de trapézios teve um bom desempenho em condições ruidosas e não depende de nenhum limiar empírico, sendo adequado para situações com níveis de elevados de ruído de banda larga. O método de reconhecimento morfológico de batimentos foi avaliado com sinais ambulatoriais com e sem artefatos pertencentes a bases de dados de prestigio internacional, e mostrou um bom desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo central deste trabalho é o estudo do desempenho do operador deconvolucional WHL na compressão do pulso-fonte sísmico, sob condições especiais de fase não-mínima e da densidade de eventos no traço, como casos advogados para dados reais e processamento em rotina. O método de ataque ao problema construído é centrado no conteúdo da informação da função autocorrelação submetida a diferentes condições: (a) de truncamento e tipo de janelas; (b) das características da fase do operador (se mínima ou não-mínima); (c) da medida de qualidade; (d) do nível de embranquecimento; (e) do ruído presente e da equalização; (f) do balanceamento do traço; (g) dos princípios físicos da propagação expressos e limitados pelo modelo convolutional. Os resultados obtidos são apenas na forma numérica, organizados na forma de álbuns com dificuldades crescentes, e demonstram como o uso de janelas na autocorrelação serve para diagnosticar e melhorar a performance dos operadores. Concluímos que muitas perguntas ainda surgem quando técnicas de deconvolução são aplicadas a seções sísmicas de bacias sedimentares, e que o modelo de Goupillaud é conveniente para simulações e análises devido a sua descrição matemática simples e completa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho trata da aplicação do filtro Kalman-Bucy (FKB), organizado como uma deconvolução (FKBD), para extração da função refletividade a partir de dados sísmicos. Isto significa que o processo é descrito como estocástico não-estacionário, e corresponde a uma generalização da teoria de Wiener-Kolmogorov. A descrição matemática do FKB conserva a relação com a do filtro Wiener-Hopf (FWH) que trata da contra-parte com um processo estocástico estacionário. A estratégia de ataque ao problema é estruturada em partes: (a) Critério de otimização; (b) Conhecimento a priori; (c) Algoritmo; e (d) Qualidade. O conhecimento a priori inclui o modelo convolucional, e estabelece estatísticas para as suas componentes do modelo (pulso-fonte efetivo, função refletividade, ruídos geológico e local). Para demostrar a versatilidade, a aplicabilidade e limitações do método, elaboramos experimentos sistemáticos de deconvolução sob várias situações de nível de ruídos aditivos e de pulso-fonte efetivo. Demonstramos, em primeiro lugar, a necessidade de filtros equalizadores e, em segundo lugar, que o fator de coerência espectral é uma boa medida numérica da qualidade do processo. Justificamos também o presente estudo para a aplicação em dados reais, como exemplificado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas bacias sedimentares da região Amazônica, a geração e o acúmulo de hidrocarboneto estão relacionados com a presença das soleiras de diabásio. Estas rochas magmáticas intrusivas possuem grandes contrastes de impedância com as rochas sedimentares encaixantes, resultando em múltiplas externas e internas, com amplitudes semelhantes às das reflexões sísmicas primárias. Estas múltiplas podem predominar sobre as informações oriundas de interfaces mais profundas, dificultando o processamento, a interpretação e o imageamento da seção de sísmica. O objetivo da presente tese é realizar a atenuação de múltiplas em seções sintéticas fontecomum (CS), através da combinação dos métodos Wiener-Hopf-Levinson de predição (WHLP) e o do empilhamento superfície-de-reflexão-comum (CRS), aqui denominando pela sigla WHLPCRS. O operador de deconvolução é calculado com as amplitudes reais do sinal sísmico e traço-a-traço, o que consideramos como uma melhor eficiência para a operação de atenuação. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, utilizando o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, e usados para calcular o operador WHLP-CRS. No desenvolvimento do presente trabalho, visamos evitar a inconveniência da seção processada ZO; desenhar e aplicar operadores na configuração CS; e estender o método WHL para camadas curvas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresentamos dois métodos de interpretação de dados de campos potenciais, aplicados à prospecção de hidrocarbonetos. O primeiro emprega dados aeromagnéticos para estimar o limite, no plano horizontal, entre a crosta continental e a crosta oceânica. Este método baseia-se na existência de feições geológicas magnéticas exclusivas da crosta continental, de modo que as estimativas das extremidades destas feições são usadas como estimativas dos limites da crosta continental. Para tanto, o sinal da anomalia aeromagnética na região da plataforma, do talude e da elevação continental é amplificado através do operador de continuação analítica para baixo usando duas implementações: o princípio da camada equivalente e a condição de fronteira de Dirichlet. A maior carga computacional no cálculo do campo continuado para baixo reside na resolução de um sistema de equações lineares de grande porte. Este esforço computacional é minimizado através do processamento por janelas e do emprego do método do gradiente conjugado na resolução do sistema de equações. Como a operação de continuação para baixo é instável, estabilizamos a solução através do funcional estabilizador de primeira ordem de Tikhonov. Testes em dados aeromagnéticos sintéticos contaminados com ruído pseudo-aleatório Gaussiano mostraram a eficiência de ambas as implementações para realçar os finais das feições magnéticas exclusivas da crosta continental, permitindo o delineamento do limite desta com a crosta oceânica. Aplicamos a metodologia em suas duas implementações a dados aeromagnéticos reais de duas regiões da costa brasileira: Foz do Amazonas e Bacia do Jequitinhonha. O segundo método delineia, simultaneamente, a topografia do embasamento de uma bacia sedimentar e a geometria de estruturas salinas contidas no pacote sedimentar. Os modelos interpretativos consistem de um conjunto de prismas bidimensionais verticais justapostos, para o pacote sedimentar e de prismas bidimensionais com seções verticais poligonais para as estruturas salinas. Estabilizamos a solução, incorporando características geométricas do relevo do embasamento e das estruturas salinas compatíveis com o ambiente geológico através dos estabilizadores da suavidade global, suavidade ponderada e da concentração de massa ao longo de direções preferenciais, além de vínculos de desigualdade nos parâmetros. Aplicamos o método a dados gravimétricos sintéticos produzidos por fontes 2D simulando bacias sedimentares intracratônicas e marginais apresentando densidade do pacote sedimentar variando com a profundidade segundo uma lei hiperbólica e abrigando domos e almofadas salinas. Os resultados mostraram que o método apresenta potencial para delinear, simultaneamente, as geometrias tanto de almofadas e domos salinos, como de relevos descontínuos do embasamento. Aplicamos o método, também, a dados reais ao longo de dois perfis gravimétricos sobre as Bacias de Campos e do Jequitinhonha e obtivemos interpretações compatíveis com a geologia da área.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A motivação geológica deste trabalho reside no imageamento de estruturas de bacias sedimentares da região Amazônica, onde a geração e o acúmulo de hidrocarboneto estão relacionados com a presença de soleiras de diabásio. A motivação sísmica reside no fato de que essas rochas intrusivas possuem grandes contrastes de impedância com a rocha encaixante, o que resulta em múltiplas, externas e internas, com amplitudes semelhantes as das primárias. O sinal sísmico das múltiplas podem predominar sobre o sinal das reflexões primárias oriundas de interfaces mais profundas, o que pode dificultar o processamento, a interpretação e o imageamento da seção sísmica temporal. Neste trabalho, estudamos a atenuação de múltiplas em seções sintéticas fonte-comum (FC) através da comparação de dois métodos. O primeiro método resulta da combinação das técnicas Wiener-Hopf-Levinson de predição (WHLP) e o de empilhamento superfície-de-reflexão-comum (CRS), e denominando WHLP-CRS, onde o operador é desenhado exclusivamente no domínio do tempo-espaço. O segundo método utilizado é o filtro de velocidade (ω-k) aplicado após o empilhamento superfície-de-reflexão (CRS), onde o operador é desenhado exclusivamente no domínio bidimensional de freqüência temporal-espacial. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, e utiliza o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, que são usadas para calcular o operador WHLP-CRS. O cálculo do filtroω-k é realizado no domínio da freqüência temporal-espacial, onde os eventos são selecionados para corte ou passagem. O filtro (ω-k) é classificado como filtro de corte, com alteração de amplitude, mas não de fase, e limites práticos são impostos pela amostragem tempo-espaço. Em termos práticos, concluímos que, para o caso de múltiplas, os eventos separados no domínio x-t não necessariamente se separam no domínio ω-k, o que dificulta o desenho de um operador ω-k semelhante em performance ao operador x-t.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As redes neurais artificiais têm provado serem uma poderosa técnica na resolução de uma grande variedade de problemas de otimização. Nesta dissertação é desenvolvida uma nova rede neural, tipo recorrente, sem realimentação (self-feedback loops) e sem neurônios ocultos, para o processamento do sinal sísmico, para fornecer a posição temporal, a polaridade e as amplitudes estimadas dos refletores sísmicos, representadas pelos seus coeficientes de reflexão. A principal característica dessa nova rede neural consiste no tipo de função de ativação utilizada, a qual permite três possíveis estados para o neurônio. Busca-se estimar a posição dos refletores sísmicos e reproduzir as verdadeiras polaridades desses refletores. A idéia básica desse novo tipo de rede, aqui denominada rede neural discreta (RND), é relacionar uma função objeto, que descreve o problema geofísico, com a função de Liapunov, que descreve a dinâmica da rede neural. Deste modo, a dinâmica da rede leva a uma minimização local da sua função de Liapunov e consequentemente leva a uma minimização da função objeto. Assim, com uma codificação conveniente do sinal de saída da rede tem-se uma solução do problema geofísico. A avaliação operacional da arquitetura desta rede neural artificial é realizada em dados sintéticos gerados através do modelo convolucional simples e da teoria do raio. A razão é para explicar o comportamento da rede com dados contaminados por ruído, e diante de pulsos fonte de fases mínima, máxima e misturada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo a aplicação de um método de migração com amplitudes verdadeiras, considerando-se um meio acústico onde a velocidade de propagação varia linearmente com a profundidade. O método de migração é baseado na teoria dos raios e na integral de migração de Kirchhoff, procurando posicionar de forma correta os refletores e recuperar os respetivos coeficientes de reflexão. No processo de recuperação dos coeficientes de reflexão, busca-se corrigir o fator de espalhamento geométrico de reflexões sísmicas primárias, sem o conhecimento a priori dos refletores procurados. Ao considerar-se configurações fonte-receptor arbitrárias, as reflexões primárias podem ser imageadas no tempo ou profundidade, sendo as amplitudes do campo de ondas migrado uma medida dos coeficientes de reflexão (função do ângulo de incidência). Anteriormente têm sido propostos alguns algoritmos baseados na aproximação de Born ou Kirchhoff. Todos são dados em forma de um operador integral de empilhamento de difrações, que são aplicados à entrada dos dados sísmicos. O resultado é uma seção sísmica migrada, onde cada ponto de reflexão é imageado com uma amplitude proporcional ao coeficiente de reflexão no ponto. No presente caso, o processo de migração faz uso de um modelo com velocidade que apresenta uma distribuição que varia linearmente com a profundidade, conhecido também como gradiente constante de velocidade. O esquema de migração corresponde a uma versão modificada da migração de empilhamento por difração e faz uso explícito da teoria do raio, por exemplo, na descrição de tempos de trânsito e amplitudes das reflexões primárias, com as quais a operação de empilhamento e suas propriedades podem ser entendidas geometricamente. Efeitos como o espalhamento geométrico devido à trajetória do raio levam a distorção das amplitudes. Estes efeitos têm que ser corregidos durante o processamento dos dados sísmicos. Baseados na integral de migração de Kirchhoff e na teoria paraxial dos raios, foi derivada a função peso e o operador da integral por empilhamento de difrações para um modelo sísmico 2,5-D, e aplicado a uma serie de dados sintéticos em ambientes com ruído e livre de ruído. O resultado mostra a precisão e estabilidade do método de migração em um meio 2,5-D como ferramenta para obter informação sobre as propriedades de refletividade da subsuperfície da terra. Neste método não são levados em consideração a existência de caústicas nem a atenuação devido a fricção interna.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem acústica fornece dados úteis para avaliação de metodologias de processamento e imageamento sísmico, em modelos com estrutura geológica complexa. Esquemas de diferenças finitas (DF) e elementos finitos (EF) foram implementados e avaliados em modelos homogêneos e heterogêneos. O algoritmo de diferenças finitas foi estendido para o caso 2,5-D em modelos com densidade variável. Foi apresentada a modelagem de alvos geológicos de interesse exploratório existentes na Bacia Paleozóica do Solimões na Amazônia. Reflexões múltiplas de longo período produzidas entre a superfície livre e a discordância Cretáceo-Paleozóica, a baixa resolução da onda sísmica nas proximidades do reservatório e as fracas reflexões na interface entre as rochas reservatório e as rochas selantes são as principais características dos dados sintéticos obtidos, os quais representam um grande desafio ao imageamento sísmico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avaliou-se o processo de secagem por nebulização em "spray dryer" para a obtenção de leite bubalino em pó. Foram realizadas análises físico-químicas no leite in natura e no leite desidratado, para averiguar perdas de macronutrientes ocorridas durante a secagem; análises microbiológicas para assegurar a qualidade higiênico-sanitária do processo e produto e análises sensoriais para estabelecer a aceitabilidade do produto. Foram obtidas isotermas de adsorção e dessorção de umidade a 25°C, para o produto em pó, visando observar o seu comportamento higroscópico. O leite bubalino em pó obtido apresentou como características físicoquímicas: 3,4% de umidade, 23,2% de proteínas, 46,1% de gordura, 4,2% de cinzas, 0,5% de lecitina de soja e 22,6% de carboidratos totais. De acordo com os exames microbiológicos está apto para o consumo humano. O produto foi caracterizado como integral por não ter sofrido qualquer padronização. As perdas ocorridas para a maioria dos macronutrientes durante o processamento, foram inferiores a 5% e apenas o teor de proteínas apresentou variação superior a 15%, devido à desnaturação da caseína em temperatura superior a 80°C. O produto apresentou isotermas de adsorção do tipo III, mesmo comportamento apresentado pelo leite bovino. Através da isoterma de dessorção determinou-se o valor de umidade equivalente à monocamada, obtendo-se o valor médio de 4,4g H2O/100g b.s., o que validou o processo utilizado. O comportamento de histerese apresentado pelo produto foi similar ao do leite em pó integral, sendo a sua aceitabilidade de 74%, muito próxima a 80% obtido para um leite em pó integral comercial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi quantificar a concentração de cianeto total durante as etapas de produção da farinha de mandioca dos grupos seca e d'água. Em relação à farinha seca, a concentração de cianeto total na raiz de mandioca diminuiu de 160±11,8 mg HCN/kg para 149±12,3 mg HCN/kg após a trituração, 68±2,5 mg HCN/kg após a prensagem e chegando a 5±0,2 mg HCN/kg no produto final, após o processo de torração. Na produção da farinha d'água, a raiz de mandioca apresentava teor de cianeto total de 321±21,6 mg HCN/kg e durante o processo de fermentação da raiz, o teor de cianeto total nas primeiras 24 horas de fermentação era de 297±2,7 mg HCN/kg chegando a 64±2,3 mg HCN/kg após 96 horas em repouso no tanque. Após trituração e prensagem da massa fermentada, os valores diminuíram para 50±0,6 e 36±0,4 mg HCN/kg, respectivamente, obtendo-se no produto final a concentração de 9±0,1 mg HCN/kg, sendo evidenciado a eficiência do processo de destoxificação em ambos os processamentos.