21 resultados para Curvatura da superfície

em Universidade Federal do Pará


Relevância:

70.00% 70.00%

Publicador:

Resumo:

O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os dados sísmicos terrestres são afetados pela existência de irregularidades na superfície de medição, e.g. a topografia. Neste sentido, para obter uma imagem sísmica de alta resolução, faz-se necessário corrigir estas irregularidades usando técnicas de processamento sísmico, e.g. correições estáticas residuais e de campo. O método de empilhamento Superfície de Reflexão Comum, CRS ("Common-Reflection-Surface", em inglês) é uma nova técnica de processamento para simular seções sísmicas com afastamento-nulo, ZO ("Zero-Offset", em inglês) a partir de dados sísmicos de cobertura múltipla. Este método baseia-se na aproximação hiperbólica de tempos de trânsito paraxiais de segunda ordem referido ao raio (central) normal. O operador de empilhamento CRS para uma superfície de medição planar depende de três parâmetros, denominados o ângulo de emergência do raio normal, a curvatura da onda Ponto de Incidência Normal, NIP ("Normal Incidence Point", em inglês) e a curvatura da onda Normal, N. Neste artigo o método de empilhamento CRS ZO 2-D é modificado com a finalidade de considerar uma superfície de medição com topografia suave também dependente desses parâmetros. Com este novo formalismo CRS, obtemos uma seção sísmica ZO de alta resolução, sem aplicar as correições estáticas, onde em cada ponto desta seção são estimados os três parâmetros relevantes do processo de empilhamento CRS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O empilhamento por superfície de reflexão comum (ou empilhamento SRC), conhecido como empilhamento CRS, do inglês Commom reflection surface, constitui-se em um novo método para o processamento sísmico na simulação de seções afastamento nulo (AN) e afastamento comum (AC). Este método é baseado em uma aproximação paraxial hiperbólica de segunda ordem dos tempos de trânsito de reflexão na vizinhança de um raio central. Para a simulação de seção AN, o raio central é um raio normal, enquanto que para a simulação de uma seção AC o raio central é um raio de afastamento finito. Em adição à seção AN, o método de empilhamento SRC também fornece estimativas dos atributos cinemáticos do campo de onda, sendo aplicados, por exemplo, na determinação (por um processo de inversão) da velocidade intervalar, no cálculo do espalhamento geométrico, na estimativa da zona de Fresnel, e também na simulação de eventos de tempos de difrações, este último tendo uma grande importância para a migração pré-empilhamento. Neste trabalho é proposta uma nova estratégia para fazer uma migração em profundidade pré-empilhamento, que usa os atributos cinemáticos do campo de onda derivados do empilhamento SRC, conhecido por método CRS-PSDM, do inglês CRS based pre-stack depth migration. O método CRS-PSDM usa os resultados obtidos do método SRC, isto é, as seções dos atributos cinemáticos do campo de onda, para construir uma superfície de tempos de trânsito de empilhamento, ao longo da qual as amplitudes do dado sísmico de múltipla cobertura são somadas, sendo o resultado da soma atribuído a um dado ponto em profundidade, na zona alvo de migração que é definida por uma malha regular. Similarmente ao método convencional de migração tipo Kirchhoff (K-PSDM), o método CRS-PSDM precisa de um modelo de velocidade de migração. Contrário ao método K-PSDM, o método CRS-PSDM necessita apenas computar os tempos de trânsito afastamento nulo, ao seja, ao longo de um único raio ligando o ponto considerado em profundidade a uma dada posição de fonte e receptor coincidentes na superfície. O resultado final deste procedimento é uma imagem sísmica em profundidade dos refletores a partir do dado de múltipla cobertura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Facilitação Neuromuscular Proprioceptiva – FNP – é uma técnica que cada vez mais vem sendo utilizada no treinamento muscular de pessoas saudáveis e atletas. Pesquisas vêm mostrando que exercícios de resistência, dentre eles a FNP, são capazes de converter o tipo das fibras musculares treinadas. Esta pesquisa teve como objetivo verificar a eficiência da FNP no acréscimo de força muscular e verificar por métodos não invasivos se haveria indicativo de conversão de tipo de fibra muscular após o treinamento. Um grupo amostral de 22 jovens, universitárias do sexo feminino com idade entre 18 e 25 anos e fisicamente ativas, foi dividido em: grupo controle (GC n=10) e grupo experimental (GE n=12). Foram inicialmente mensurados: I - força da Contração Voluntária Máxima - CVM do músculo quadríceps por dinamometria analógica e root mean square - RMS e II - área de ativação muscular por eletromiografia de superfície (EMG) de todos os sujeitos. Após a primeira coleta de dados o GE realizou treinamento baseado na FNP no membro inferior dominante por 15 sessões em 5 semanas. Ao final, nova mensuração foi feita em todos. Quanto à força muscular, houve acréscimo em ambos os grupos, significativa no GC (p<0,01) e no GE (p<0,05); para RMS e tempo de CVM, houve aumento não significativo no GE, mas a interação Vxt aumentou significativamente para este grupo. Os resultados corroboram a literatura ao mostrar que músculos com predomínio de fibras resistentes (fibras I/ II A) possuem maior tempo de contração com mais ativação elétrica e de que a FNP é capaz fibras tipo II B para II A. Concluiu-se que para a amostra estudada o treinamento foi eficiente no acréscimo de força muscular e os dados EMG apresentados mostram fortes evidências da conversão das fibras do músculo treinado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho estudaram-se as características de superfície de CAG comercial in natura (CA-1) e tratado por (HNO3) (CA-2) e suas aplicações na adsorção de benzeno e tolueno. Caracterização dos adsorventes: área superficial específica - SBET e distribuição de poros (adsorção de N2/77 K), pH (norma ASTM D3838-05), grupos funcionais de superfície (FTIR e método de Boehm). Foram realizados ensaios de adsorção em sistema batelada (25°C/140 rpm/25 minutos) e sistema de coluna em leito fixo, onde as amostras foram quantificadas por cromatografia gasosa com extração por headspace método EPA 0010. A SBET e o volume médio dos poros do adsorvente CA-2 diminuíram com relação aos valores de CA1, bem como o valor do pH. Houve aumento de grupos funcionais ácidos determinados pelo método de Boehm do adsorvente CA-2 em relação ao CA-1, o que foi confirmado pela determinação de FTIR, na qual a intensidade das bandas de absorção foram mais intensas para CA-2. Obtiveram-se percentuais de remoção de benzeno de 92,6 e 93,6 (%) a partir de CA-1 e CA-2, respectivamente, e para tolueno de 93,2 e 94,3 (%) para CA-1 e CA-2. Os dados dos testes cinéticos foram ajustados satisfatoriamente pelo modelo matemático de pseudo-segunda ordem, baseado nos testes estatísticos aplicados, havendo diferenças estatísticas significativas entre o adsorvente tratado (CA-2) e o in natura (CA-1). Realizaram-se ensaios de equilíbrio de adsorção e correlacionaram-se os resultados pela Isoterma de Langmuir, com resposta satisfatória para o referido modelo. A partir do sistema de adsorção em coluna de leito fixo e considerando o maior valor de vazão volumétrica (Q=100 mL/min) utilizado no referido sistema obtiveram-se os resultados mais significativos de adsorção de benzeno e tolueno empregando (CA-2) como adsorvente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste estudo avaliamos o potencial antigênico da proteína recombinante His6-P119 contendo a região C-terminal da Proteína 1 da Superfície de Merozoítos de Plasmodium vivax. Analisamos a aquisição e os níveis de anticorpos IgG, e comparamos duas áreas com transmissão de malária, localizadas nos municípios de Trairão e Itaituba, Pará. Foram analisadas 391 amostras, sendo 208 amostras coletadas em Três Boeiras (TB) e 183 em São Luiz do Tapajós (SLT). No momento da coleta, foi realizado o exame da gota espessa e foram obtidos dados como idade, número de episódios prévios de malária e tempo decorrido desde o último episódio. As amostras foram analisadas por (ELISA) e os aspectos imunoepidemiológicos foram descritos. A comparação entre as duas áreas mostrou que tanto a freqüência de soros que reconheceram a His6-MSP119 como a concentração dos anticorpos IgG foi maior na população de TB, quando comparado com SLT. A freqüência de soros positivos foi 64,42% e 20,22% e a média dos índices de reatividade foi 6,11 ± 4,58 e 2,56 ± 1,96, respectivamente. A idade não influenciou a aquisição de anticorpos IgG na população mais expostas (TB), mas na população menos exposta (SLT) a percentagem de positivos aumentou entre os adultos. Nos grupos de indivíduos que relataram nunca terem tido malária, a freqüência de positivos foi semelhante nas duas localidades. No grupo que relatou ter tido malária, a percentagem de positivos foi maior em TB. Nesses dois grupos, a concentração de anticorpos IgG foi maior na população de TB. Nas duas áreas, o número de episódio influenciou a resposta de anticorpos específicos, sendo que em TB contribuiu para o aumento da percentagem de positivos e da concentração de anticorpos, mas em SLT influenciou apenas na percentagem de positivos. Entretanto, nas duas áreas, não foi possível associar a resposta de anticorpo com proteção, uma vez que os mais expostos estavam tendo malária recentemente. As áreas de estudo apresentaram perfil diferente quanto à intensidade da transmissão de malária e a aquisição natural de anticorpos. Os aspectos imunoepidemiológicos mostraram que a exposição contínua ao parasito contribuiu para a aquisição de anticorpos IgG específicos contra antígeno da fase sangüínea de P. vivax. No entanto, esta resposta não foi efetiva para conferir proteção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste estudo avaliou-se a rugosidade superficial em corpos-de-prova confeccionados com três tipos de resinas indicadas para confecção de restaurações indiretas, SR Adoro (Ivoclar-Vivadent) (GA), Signum Matrix (Heraeus-Kulzer) (GSM) e Signum+ (Heraeus-Kulzer) (GSP), assim como a resistência à flexão após serem utilizados diferentes tratamentos de superfície com o propósito de se verificar a influência dos mesmos na resistência mecânica dos materiais. Obteve-se 120 corpos-de-prova de cada tipo de resina de acordo com as recomendações dos fabricantes, os quais foram divididos e tratados com: A- Jateamento com óxido de alumínio a 50μm por 6 s a 60-80 libras (Grupo Controle); B- Jateamento e silanização com Monobond (Ivoclar Vivadent) e Excite DSC (Ivoclar Vivadent); C- Jateamento e condicionamento com ácido ortofosfórico a 37% por 3 minutos e D- Jateamento, condicionamento e silanização. Após a execução do tratamento superficial, analisou-se os corpos-de-prova em rugosímetro Mytutoyo no parâmetro Ra e teste de flexão por compressão em três pontos em máquina de ensaio universal Kratos. Submeteu-se os dados observados à análise estatística, tendo como nível de significância 5% para a construção dos resultados. Os resultados mostraram um comportamento bastante coerente com o que é visto na literatura com relação à composição das resinas estudadas, os quais apresentaram inicialmente lisura de superfície similar (p>0.05). Com a aplicação dos tratamentos de superfície, houve um comportamento bastante diversificado entre os materiais. Os grupos que receberam a aplicação de silano e adesivo apresentaram superfícies mais lisas e maiores valores de resistência flexural em todas as resinas. No entanto não houve correlação dos valores de rugosidade com a resistência flexural, a qual demonstrou ser maior nas resinas SR Adoro e Signum Matrix, sendo que nesta última, apenas após a silanização é que se observou melhoria deste aspecto flexural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de avaliar a superfície dentinária apical, após a remoção de diferentes pastas de hidróxido de cálcio (Ca(OH)2), foram selecionados 68 dentes unirradiculares, preparados por um único operador, valendo-se da técnica regressiva. Os canais foram irrigados com 5ml de hipoclorito de sódio (NaOCl) a 1%, seguido de irrigação final com 10 ml de ácido etilenodiaminotetracético associado ao tergentol (EDTA-T) a 17%. As amostras foram divididas, aleatoriamente, em 4 grupos (n=15), de acordo com o tipo de associação de Ca(OH)2: associado à solução de clorexidina 0.2% (Grupo 1); ao propilenoglicol (Grupo 2); à ciprofloxacina, metronidazol e água destilada (Grupo 3); à ciprofloxacina, metronidazol e propilenoglicol (Grupo 4). Os dentes controle negativos (n=4) não foram preenchidos com Ca(OH)2, e nos controle positivo, (n=4) não foi feita a remoção do Ca(OH)2. As amostras foram armazenadas à 37ºC, em 100% de umidade relativa, por 21 dias. A remoção da medicação foi realizada com: irrigação com 5ml de NaOCl 1%; limagem circunferencial com instrumento memória; 5ml de NaOCl 1%; patência com lima K #10; ultra-som com lima K #15; e 10ml de EDTA-T a 17%. Os espécimes foram analisados em microscópio eletrônico de varredura e, após a aplicação do teste de Kruskal-Wallis (α = 5%), observou-se que não houve diferença entre os grupos em relação à remoção do Ca(OH)2 (p = 0.0951). O teste Qui-quadrado (α = 5%) indicou a predominância de Ca(OH)2 obstruindo os túbulos dentinários, independente do veículo utilizado. Após análise química pontual (espectrometria por dispersão de raios-x EDS) e, aplicação do teste de análise das variâncias e Tukey (α = 5%), pôde-se observar que houve diferença na quantidade de íons cálcio (Ca) remanescente entre os grupos 1 e 4 (p<0.01). Com base na metodologia empregada, concluiu-se que, independente do tipo de veículo utilizado, a superfície dentinária apical permaneceu igualmente coberta por Ca (OH)2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, utilizamos o método de primeiros princípios, RS-LMTO-ASA (“Real Space - Linear Muffin-Tin Orbital - Atomic Sphere Approximation”), baseado na Teoria do Funcional da Densidade (DFT) e implementado para o cálculo de estruturas magnéticas não-colineares, para investigar as propriedades magnéticas de nanoestruturas de metais de transição 3d (Cr, Mn, Fe, Co e Ni) adsorvidas na superfície de Pt(111). Diferentes geometrias como adátomos, dímeros, trímeros, fios lineares e zig-zag foram consideradas e, o tamanho dos aglomerados foi variado de 2 a 7 átomos. Mostramos que os aglomerados de Fe, Co e Ni sobre a superfície de Pt(111), para todas as geometrias simuladas, apresentam um ordenamento ferromagnético. Devido à redução do número de coordenação presente na superfície, os momentos de spin e orbital nos sítios de Fe, Co e Ni, para as diferentes geometrias, mostram-se elevados comparados com os respectivos valores dos momentos destes metais como bulk. Para os glomerados de Cr e Mn mostramos que a interação de troca antiferromagnética entre primeiros vizinhos leva a um ordenamento antiferromagnético colinear no caso de geometrias lineares. No entanto, se o antiferromagnetismo é frustrado por restrição geométrica imposta aos aglomerados pela superfície triangular do substrato, obtém-se um comportamento magnético não-colinear para aglomerados de Cr e Mn sobre a Pt(111). Nossos resultados estão em boa concordância com os resultados experimentais da literatura e com os resultados teóricos obtidos por outros métodos, quando existentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentada uma nova técnica para a realização do empilhamento sísmico, aplicada ao problema do imageamento de refletores fixos em um meio bidimensional, suavemente heterogêneo, isotrópico, a partir de dados de reflexão. Esta nova técnica chamada de imageamento homeomórfico tem como base a aproximação geométrica do raio e propriedades topológicas dos refletores. São utilizados, portanto, os conceitos de frente de onda, ângulo de incidência, raio de curvatura da frente de onda, cáustica e definição da trajetória do raio; de tal modo que a imagem obtida mantém relações de homeomorfismo com o objeto que se deseja imagear. O empilhamento sísmico é feito, nesta nova técnica de imageamento, aplicando-se uma correção local do tempo, ∆ t, ao tempo de trânsito, t, do raio que parte da fonte sísmica localizada em xo, reflete-se em um ponto de reflexão, Co, sendo registrado como uma reflexão primária em um geofone localizado em xg, em relação ao tempo de referência to no sismograma, correspondente ao tempo de trânsito de um raio central. A fórmula utilizada nesta correção temporal tem como parâmetros o raio de curvatura Ro, o ângulo de emergência βo da frente de onda, no instante em que a mesma atinge a superfície de observação, e a velocidade vo considerada constante nas proximidades da linha sísmica. Considerando-se uma aproximação geométrica seguido um círculo para a frente de onda, pode-se estabelecer diferentes métodos de imageamento homeomórfico dependendo da configuração de processamento. Sendo assim tem-se: 1) Método Elemento de Fonte (Receptor) Comum (EF(R)C). Utiliza-se uma configuração onde se tem um conjunto de sismogramas relacionado com uma única fonte (receptor), e considera-se uma frente de onda real (de reflexão); 2) Método Elemento de Reflexão Comum (ERC). Utiliza-se uma configuração onde um conjunto de sismogramas é relacionado com um único ponto de reflexão, e considera-se uma frente de onda hipoteticamente originada neste ponto; 3) Método Elemento de Evoluta Comum (EEC). Utiliza-se uma configuração onde cada sismograma está relacionado com um par de fonte e geofone coincidentemente posicionados na linha sísmica, e considera-se uma frente de onda hipoteticamente originada no centro de curvatura do refletor. Em cada um desses métodos tem-se como resultados uma seção sísmica empilhada, u(xo, to); e outras duas seções denominadas de radiusgrama, Ro (xo, to), e angulograma, βo(xo, to), onde estão os valores de raios de curvatura e ângulos de emergência da frente de onda considerada no instante em que a mesma atinge a superfície de observação, respectivamente. No caso do método denominado elemento refletor comum (ERC), a seção sísmica resultante do empilhamento corresponde a seção afastamento nulo. Pode-se mostrar que o sinal sísmico não sofre efeitos de alongamento como consequência da correção temporal, nem tão pouco apresenta problemas de dispersão de pontos de reflexão como consequência da inclinação do refletor, ao contrário do que acontece com as técnicas de empilhamento que tem por base a correção NMO. Além disto, por não necessitar de um macro modelo de velocidades a técnica de imageamento homeomórfico, de um modo geral, pode também ser aplicada a modelos heterogêneos, sem perder o rigor em sua formulação. Aqui também são apresentados exemplos de aplicação dos métodos elemento de fonte comum (EFC) (KEYDAR, 1993), e elemento refletor comum (ERC) (STEENTOFT, 1993), ambos os casos com dados sintéticos. No primeiro caso, (EFC), onde o empilhamento é feito tendo como referência um raio central arbitrário, pode-se observar um alto nível de exatidão no imageamento obtido, além do que é dada uma interpretação para as seções de radiusgrama e angulograma, de modo a se caracterizar aspectos geométricos do model geofísico em questão. No segundo caso, (ERC), o método é aplicado a série de dados Marmousi, gerados pelo método das diferenças finitas, e o resultado é comparado com aquele obtido por métodos convecionais (NMO/DMO) aplicados aos mesmos dados. Como consequência, observa-se que através do método ERC pode-se melhor detectar a continuidade de refletores, enquanto que através dos métodos convencionais caracterizam-se melhor a ocorrência de difrações. Por sua vez, as seções de radiusgrama e angulograma, no método (ERC), apresentam um baixo poder de resolução nas regiões do modelo onde se tem um alto grau de complexidade das estruturas. Finalmente, apresenta-se uma formulação unificada que abrange os diferentes métodos de imageamento homeomórfico citados anteriormente, e também situações mais gerais onde a frente de onda não se aproxima a um círculo, mas a uma curva quadrática qualquer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho compilamos informações sobre um grande número de medidas de velocidade de grupo para ondas Rayleigh do modo fundamental, com período até 100 segundos. Tais dados consistiram de informações retiradas da literatura geofísica e cobriram toda a Terra. Parte dos dados foi organizada em trabalhos anteriores e uma segunda parte foi apresentada aqui de forma inédita. Para a América do Sul, selecionamos os principais conjuntos de dados de tais ondas e elaboramos diversos perfis onde a distribuição de velocidade de ondas cisalhantes foi obtida a partir da inversão das curvas de dispersão de velocidade de grupo. Tais perfis serviram para termos uma ideia inicial da estrutura interna da Terra em nosso continente. Com o conjunto global de dados de velocidade de grupo foi possível obtermos os mapas de distribuição lateral de valores de velocidade para cada período referencial entre 20 e 100 segundos. Tais mapas foram produzidos da mesma forma que os mapas de velocidade de fase de ROSA (1986), onde a amostragem for para realizada para blocas medindo 10x10 graus, englobando toda a Terra, em projeção mercator. O valor de velocidade de grupo em cada bloco, para cada período, foi obtido a partir da inversão estocástica dos dados de anomalia de velocidade em relação aos modelos regionalizados de JORDAN (1981) com os valores de velocidade de grupo de ROSA et al. (1992). Os mapas de velocidade de grupo obtidos aqui foram então empregados, na América do Sul, com os valores de velocidade de fase dos mapas obtidos por ROSA (1986). Assim, foi possível determinarmos, em profundidade, os mapas de variação de velocidade de onda cisalhante e os mapas de distribuição de valores de densidade. Com isto, pudemos construir o primeiro mapa de profundidade do Moho (todo do Manto Superior) da América do Sul.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve por objetivo estabelecer procedimento tecnológico para produção de fruta estruturada a partir de "mix" de polpa de cajá e mamão, procurando unir as propriedades sensoriais de cada uma das frutas e potencializar as características funcionais do produto final. Avaliou-se o efeito da combinação de pectina, gelatina e alginato de sódio, via metodologia de superfície de resposta, nas características do gel de fruta. As polpas de mamão e cajá e os estruturados obtidos foram caracterizados com relação aos compostos funcionais, avaliando-se o teor de taninos e carotenóides totais, além das análises de composição centesimal, pH, acidez titulável, sólidos solúveis, açúcares, atividade de água, carboidratos e valor energético total. Os resultados obtidos através do planejamento experimental indicam que para o estruturado misto de cajá e mamão, somente o aumento da concentração de gelatina afeta a firmeza do produto final. Os estruturados de frutas desenvolvidos apresentaram boa aceitação sensorial para todos os atributos avaliados. Com relação à intenção de compra, 70% dos provadores responderam que provavelmente ou certamente, comprariam o estruturado misto de cajá e mamão se o encontrassem à venda.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.