912 resultados para CURVATURE
Resumo:
A linhaça é a semente da planta do linho (Linum usitatissimum L.), uma espécie polimorfa originária do linho, sendo considerada uma das 6 plantas atualmente reconhecidas pelo Instituto Nacional do Câncer dos Estados Unidos (US National Cancer Institute - NCI) por suas propriedades específicas no combate ao câncer. Parte desse reconhecimento deve-se a notável característica de ser a fonte mais rica de precursores de lignina (esteróide vegetal de ação análoga ao estrógeno de mamíferos) na dieta humana. A variedade utilizada neste trabalho foi a “Linseed” de cor marrom e o objetivo deste trabalho foi analisar a fluidodinâmica dessa partícula em leito de jorro, estabelecida pelas medidas de tomadas de queda de pressão no leito a partir das deflexões em relação às velocidades de ar crescente e decrescente, obtendo assim informações para a determinação de parâmetros correlacionados ao processo, como: velocidade de mínimo jorro, queda de pressão máxima, queda de pressão no jorro estável e queda de pressão no mínimo jorro. Estes valores foram comparados aos correspondentes valores obtidos por equações empíricas citadas na literatura. Foi também avaliado o comportamento da secagem da matéria prima, mediante um planejamento estatístico 22, tendo com as variáveis de entrada temperatura do gás (Tg) e o tempo de operação (t), para a quantificação das variáveis de resposta razão de umidade (Xr, adim.), germinação (G, %) e o índice de velocidade de germinação (IVG, t-1) e analisadas estatisticamente pelo planejamento fatorial completo com três repetições no ponto central. A cinética de secagem das sementes de linhaça, previamente umidificadas, foi realizada nas temperaturas de 45, 55 e 65 °C, e dentre os três modelos propostos, o modelo de Midilli et al., foi que melhor descreveu aos dados experimentais. Para os parâmetros fluidodinâmicos observou-se que a correlação de Gorshtein e Mukhlenov (1965) apresentou os menores desvios para queda e pressão de mínimo jorro e jorro estável, Abdelrazek (1969) apresentou o menor desvio para a velocidade no mínimo jorro e Pallai e Németh (1969) descreveu adequadamente a queda de pressão máxima. Foi observado que a carga de sementes e a temperatura exerceram influência significativa nos parâmetros fluidodinâmicos em leito de jorro. Com base na análise do planejamento estatístico proposto pode-se concluir que os parâmetros de entrada temperatura do gás e tempo de operação exerceram influência significativa sobre todas as variáveis de resposta, sendo observada influência quadrática das variáveis de entrada ao se observar a significância da curvatura sobre os parâmetros: Razão de umidade, Germinação e Índice de Velocidade de Germinação, propondo-se modelos representativos destes parâmetros com a presença da curvatura, apresentando um coeficiente de determinação (R2) superior a 99 %.
Resumo:
Os dados sísmicos terrestres são afetados pela existência de irregularidades na superfície de medição, e.g. a topografia. Neste sentido, para obter uma imagem sísmica de alta resolução, faz-se necessário corrigir estas irregularidades usando técnicas de processamento sísmico, e.g. correições estáticas residuais e de campo. O método de empilhamento Superfície de Reflexão Comum, CRS ("Common-Reflection-Surface", em inglês) é uma nova técnica de processamento para simular seções sísmicas com afastamento-nulo, ZO ("Zero-Offset", em inglês) a partir de dados sísmicos de cobertura múltipla. Este método baseia-se na aproximação hiperbólica de tempos de trânsito paraxiais de segunda ordem referido ao raio (central) normal. O operador de empilhamento CRS para uma superfície de medição planar depende de três parâmetros, denominados o ângulo de emergência do raio normal, a curvatura da onda Ponto de Incidência Normal, NIP ("Normal Incidence Point", em inglês) e a curvatura da onda Normal, N. Neste artigo o método de empilhamento CRS ZO 2-D é modificado com a finalidade de considerar uma superfície de medição com topografia suave também dependente desses parâmetros. Com este novo formalismo CRS, obtemos uma seção sísmica ZO de alta resolução, sem aplicar as correições estáticas, onde em cada ponto desta seção são estimados os três parâmetros relevantes do processo de empilhamento CRS.
Resumo:
O raio conectando dois pontos em um meio anisotrópico, homogêneo por partes e com variação lateral, é calculado utilizando-se técnicas de continuação em 3D. Se combinado com algoritmos para solução do problema de valor inicial, o método pode ser estendido para o cálculo de eventos qS1 e qS2. O algoritmo apresenta a mesma eficiência e robustez que implementações de técnicas de continuação em meios isotrópicos. Rotinas baseadas neste algoritmo têm várias aplicações de interesse. Primeiramente, na modelagem e inversão de parâmetros elásticos na presença de anisotropia. Em segundo lugar, as iterações de Newton-Raphson produzem atributos da frente de onda como vetor vagarosidade e a matrix hessiana do tempo de trânsito, quantidades que permitem determinar o espalhamento geométrico e aproximações de segunda ordem para o tempo de trânsito. Estes atributos permitem calcular as amplitudes ao longo do raio e investigar os efeitos da anisotropia no empilhamento CRS em modelos de velocidade simples.
Resumo:
O objetivo do presente estudo foi avaliar a resistência à fadiga cíclica de instrumentos rotatórios de níquel-titânio de diferentes características geométricas, antes e após o uso em canais artificiais. Foram selecionadas limas rotatórias do Sistema Race (FKG Dentaire) e do Sistema K3 (SybronEndo) de conicidade 0,04, com 25mm de comprimento e diâmetro de ponta de 25, padrão ISO. As mesmas foram divididas em quatro grupos experimentais, com doze limas cada, totalizando quarenta e oito instrumentos. Os grupos foram assim divididos: grupo A0, instrumentos Race sem nenhum uso; grupo A5, instrumentos Race de cinco usos; grupo B0, instrumentos K3 de nenhum uso e grupo B5, instrumentos K3 de cinco usos. A simulação de uso foi realizada em canais artificiais de resina, com curvatura de 40° e raio de 5mm, utilizando uma peça de mão com contra-ângulo, acionado por motor elétrico, na velocidade de 350 rpm e 1 N/cm de torque. Todos os grupos foram submetidos a ensaios de fadiga cíclica num dispositivo que permitia o instrumento girar livremente, reproduzindo uma instrumentação rotatória num canal curvo. O tempo despendido até a fratura foi aferido por um cronômetro. Para avaliação estatística empregou-se o teste ANOVA para dois fatores e foi observada diferença estatisticamente significante entre as amostras. O teste de Tukey foi utilizado para verificar a diferença entre as médias dos grupos. Os resultados mostraram que o uso e a característica geométrica dos instrumentos influenciam na sua resistência à fadiga cíclica (p<0,05). As limas do grupo B0 (K3 sem nenhum uso) apresentaram maior resistência à fadiga, quando comparadas às limas dos demais grupos experimentais, independente do número de uso.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Ciências Odontológicas - FOAR
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
Neste trabalho é apresentada uma nova técnica para a realização do empilhamento sísmico, aplicada ao problema do imageamento de refletores fixos em um meio bidimensional, suavemente heterogêneo, isotrópico, a partir de dados de reflexão. Esta nova técnica chamada de imageamento homeomórfico tem como base a aproximação geométrica do raio e propriedades topológicas dos refletores. São utilizados, portanto, os conceitos de frente de onda, ângulo de incidência, raio de curvatura da frente de onda, cáustica e definição da trajetória do raio; de tal modo que a imagem obtida mantém relações de homeomorfismo com o objeto que se deseja imagear. O empilhamento sísmico é feito, nesta nova técnica de imageamento, aplicando-se uma correção local do tempo, ∆ t, ao tempo de trânsito, t, do raio que parte da fonte sísmica localizada em xo, reflete-se em um ponto de reflexão, Co, sendo registrado como uma reflexão primária em um geofone localizado em xg, em relação ao tempo de referência to no sismograma, correspondente ao tempo de trânsito de um raio central. A fórmula utilizada nesta correção temporal tem como parâmetros o raio de curvatura Ro, o ângulo de emergência βo da frente de onda, no instante em que a mesma atinge a superfície de observação, e a velocidade vo considerada constante nas proximidades da linha sísmica. Considerando-se uma aproximação geométrica seguido um círculo para a frente de onda, pode-se estabelecer diferentes métodos de imageamento homeomórfico dependendo da configuração de processamento. Sendo assim tem-se: 1) Método Elemento de Fonte (Receptor) Comum (EF(R)C). Utiliza-se uma configuração onde se tem um conjunto de sismogramas relacionado com uma única fonte (receptor), e considera-se uma frente de onda real (de reflexão); 2) Método Elemento de Reflexão Comum (ERC). Utiliza-se uma configuração onde um conjunto de sismogramas é relacionado com um único ponto de reflexão, e considera-se uma frente de onda hipoteticamente originada neste ponto; 3) Método Elemento de Evoluta Comum (EEC). Utiliza-se uma configuração onde cada sismograma está relacionado com um par de fonte e geofone coincidentemente posicionados na linha sísmica, e considera-se uma frente de onda hipoteticamente originada no centro de curvatura do refletor. Em cada um desses métodos tem-se como resultados uma seção sísmica empilhada, u(xo, to); e outras duas seções denominadas de radiusgrama, Ro (xo, to), e angulograma, βo(xo, to), onde estão os valores de raios de curvatura e ângulos de emergência da frente de onda considerada no instante em que a mesma atinge a superfície de observação, respectivamente. No caso do método denominado elemento refletor comum (ERC), a seção sísmica resultante do empilhamento corresponde a seção afastamento nulo. Pode-se mostrar que o sinal sísmico não sofre efeitos de alongamento como consequência da correção temporal, nem tão pouco apresenta problemas de dispersão de pontos de reflexão como consequência da inclinação do refletor, ao contrário do que acontece com as técnicas de empilhamento que tem por base a correção NMO. Além disto, por não necessitar de um macro modelo de velocidades a técnica de imageamento homeomórfico, de um modo geral, pode também ser aplicada a modelos heterogêneos, sem perder o rigor em sua formulação. Aqui também são apresentados exemplos de aplicação dos métodos elemento de fonte comum (EFC) (KEYDAR, 1993), e elemento refletor comum (ERC) (STEENTOFT, 1993), ambos os casos com dados sintéticos. No primeiro caso, (EFC), onde o empilhamento é feito tendo como referência um raio central arbitrário, pode-se observar um alto nível de exatidão no imageamento obtido, além do que é dada uma interpretação para as seções de radiusgrama e angulograma, de modo a se caracterizar aspectos geométricos do model geofísico em questão. No segundo caso, (ERC), o método é aplicado a série de dados Marmousi, gerados pelo método das diferenças finitas, e o resultado é comparado com aquele obtido por métodos convecionais (NMO/DMO) aplicados aos mesmos dados. Como consequência, observa-se que através do método ERC pode-se melhor detectar a continuidade de refletores, enquanto que através dos métodos convencionais caracterizam-se melhor a ocorrência de difrações. Por sua vez, as seções de radiusgrama e angulograma, no método (ERC), apresentam um baixo poder de resolução nas regiões do modelo onde se tem um alto grau de complexidade das estruturas. Finalmente, apresenta-se uma formulação unificada que abrange os diferentes métodos de imageamento homeomórfico citados anteriormente, e também situações mais gerais onde a frente de onda não se aproxima a um círculo, mas a uma curva quadrática qualquer.
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Neste trabalho, estuda-se um novo método de inversão tomográfica de reflexão para a determinação de um modelo isotrópico e suave de velocidade por meio da aplicação, em dados sintéticos e reais, do programa Niptomo que é uma implementação do método de inversão tomográfica dos atributos cinemáticos da onda hipotética do ponto de incidência normal (PIN). Os dados de entrada para a inversão tomográfica, isto é, o tempo de trânsito e os atributos da onda PIN (raio de curvatura da frente de onda emergente e ângulo de emergência), são retirados de uma série de pontos escolhidos na seção afastamento nulo (AN) simulada, obtida pelo método de empilhamento por superfícies de reflexão comum (SRC). Normalmente, a escolha destes pontos na seção AN é realizada utilizando-se programas de picking automático, que identificam eventos localmente coerentes na seção sísmica com base nos parâmetros fornecidos pelo usuário. O picking é um dos processos mais críticos dos métodos de inversão tomográfica, pois a inclusão de dados de eventos que não sejam de reflexões primárias podem ser incluídos neste processo, prejudicando assim o modelo de velocidades a ser obtido pela inversão tomográfica. Este trabalho tem por objetivo de construir um programa de picking interativo para fornecer ao usuário o controle da escolha dos pontos de reflexões sísmicas primárias, cujos dados serão utilizados na inversão tomográfica. Os processos de picking e inversão tomográfica são aplicados nos dados sintéticos Marmousi e nos dados da linha sísmica 50-RL-90 da Bacia do Tacutu. Os resultados obtidos mostraram que o picking interativo para a escolha de pontos sobre eventos de reflexões primárias favorece na obtenção de um modelo de velocidade mais preciso.
Resumo:
A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.
Resumo:
O presente trabalho trata da formulação e da implementação computacional, em MATLAB®, para a análise numérica de seções reforçadas de concreto armado, submetidas à flexão composta, considerando o estado de tensões anterior ao reforço. A referida análise se dá com a geração de diagramas de interação momento fletor esforço normal por dois métodos, quais sejam: a) varredura dos domínios de deformação da NBR6118/2003; b) determinação dos picos de diagramas momento fletor – esforço normal – curvatura. Em ambos os procedimentos utiliza-se o método numérico do ponto médio na integração do cálculo dos esforços resistentes, e o método de Newton Raphson para a obtenção de raízes é usado na determinação da deformação no eixo de referência da seção, durante a determinação dos diagramas momento fletor -esforço normal - curvatura. Preliminarmente, concluiu-se que a primeira das duas metodologias aplicadas é inviável. Posteriormente, com a confirmação da eficácia da segunda metodologia, foi possível expandir o escopo do trabalho de modo a permitir a análise de seções de formatos quaisquer executadas em várias etapas, considerando o estado de tensões inicial em cada uma das etapas. A implementação computacional referente a este trabalho se baseou no programa para análise numérica de seções SECLAB, desenvolvido pelo professor Remo Magalhães de Souza.