4 resultados para Very fast radical probe
em Universidade Federal do Pará
Resumo:
Na maioria dos métodos de exploração geofísica, a interpretação é feita assumindo-se um modelo da Terra uniformemente estratificado. Todos os métodos de inversão, inclusive o de dados eletromagnéticos, exigem técnica de modelamento teórico de modo a auxiliar a interpretação. Na literatura os dados são geralmente interpretados em termos de uma estrutura condutiva unidimensional; comumente a Terra é assumida ser horizontalmente uniforme de modo que a condutividade é função somente da profundidade. Neste trabalho uma técnica semi-analítica de modelagem desenvolvida por Hughes (1973) foi usada para modelar a resposta magnética de duas camadas na qual a interface separando as camadas pode ser representada por uma expansão em série de Fourier. A técnica envolve um método de perturbação para encontrar o efeito de um contorno senoidal com pequenas ondulações. Como a perturbação é de primeira ordem a solução obtida é linear, podemos então usar o princípio da superposição e combinar soluções para várias senoides de forma a obter a solução para qualquer dupla camada expandida em série de Fourier. Da comparação com a técnica de elementos finitos, as seguintes conclusões podem ser tiradas: • Para um modelo de dupla camada da Terra, as camadas separadas por uma interface cuja profundidade varia senoidalmente em uma direção, as respostas eletromagnética são muito mais fortes quando a espessura da primeira camada é da ordem do skin depth da onda eletromagnética no meio, e será tanto maior quanto maior for o contraste de condutividade entre as camadas; • Por outro lado, a resistividade aparente para este modelo não é afetada pela mudança na frequência espacial (v) do contorno; • Em caso do uso da solução geral para qualquer dupla camada na Terra cuja interface possa ser desenvolvida em série de Fourier, esta técnica produziu bons resultados quando comparado com a técnica de elementos finitos. A linerização restringe a aplicação da técnica para pequenas estruturas, apesar disso, uma grande quantidade de estruturas pode ser modelada de modo simples e com tempo computacional bastante rápido; • Quando a dimensão da primeira camada possui a mesma ordem de grandeza da estrutura, esta técnica não é recomendada, porque para algumas posições de sondagem, as curvas de resistividade aparente obtidas mostram um pequeno deslocamento quando comparadas com as curvas obtidas por elementos finitos.
Resumo:
Os efeitos Delaware e Groningen são dois tipos de anomalia que afetam ferramentas de eletrodos para perfilagem de resistividade. Ambos os efeitos ocorrem quando há uma camada muito resistiva, como anidrita ou halita, acima do(s) reservatório(s), produzindo um gradiente de resistividade muito similar ao produzido por um contato óleo-água. Os erros de interpretação produzidos têm ocasionado prejuízos consideráveis à indústria de petróleo. A PETROBRÁS, em particular, tem enfrentado problemas ocasionados pelo efeito Groningen sobre perfis obtidos em bacias paleozóicas da região norte do Brasil. Neste trabalho adaptamos, com avanços, uma metodologia desenvolvida por LOVELL (1990), baseada na equação de Helmholtz para HΦ, para modelagem dos efeitos Delaware e Groningen. Solucionamos esta equação por elementos finitos triangulares e retangulares. O sistema linear gerado pelo método de elementos finitos é resolvido por gradiente bi-conjugado pré-condicionado, sendo este pré-condicionador obtido por decomposição LU (Low Up) da matriz de stiffness. As voltagens são calculadas por um algoritmo, mais preciso, recentemente desenvolvido. Os perfis são gerados por um novo algoritmo envolvendo uma sucessiva troca de resistividade de subdomínios. Este procedimento permite obter cada nova matriz de stiffness a partir da anterior pelo cálculo, muito mais rápido, da variação dessa matriz. Este método permite ainda, acelerar a solução iterativa pelo uso da solução na posição anterior da ferramenta. Finalmente geramos perfis sintéticos afetados por cada um dos efeitos para um modelo da ferramenta Dual Laterolog.
Resumo:
O método de empilhamento por Superfície de Reflexão Comum (SRC) produz seções simuladas de afastamento nulo (AN) por meio do somatório de eventos sísmicos dos dados de cobertura múltipla contidos nas superfícies de empilhamento. Este método não depende do modelo de velocidade do meio, apenas requer o conhecimento a priori da velocidade próxima a superfície. A simulação de seções AN por este método de empilhamento utiliza uma aproximação hiperbólica de segunda ordem do tempo de trânsito de raios paraxiais para definir a superfície de empilhamento ou operador de empilhamento SRC. Para meios 2D este operador depende de três atributos cinemáticos de duas ondas hipotéticas (ondas PIN e N), observados no ponto de emergência do raio central com incidência normal, que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0) , o raio de curvatura da onda ponto de incidência normal (RPIN) e o raio de curvatura da onda normal (RN). Portanto, o problema de otimização no método SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros (β0, RPIN, RN) ótimos associados a cada ponto de amostragem da seção AN a ser simulada. A determinação simultânea destes parâmetros pode ser realizada por meio de processos de busca global (ou otimização global) multidimensional, utilizando como função objetivo algum critério de coerência. O problema de otimização no método SRC é muito importante para o bom desempenho no que diz respeito a qualidade dos resultados e principalmente ao custo computacional, comparado com os métodos tradicionalmente utilizados na indústria sísmica. Existem várias estratégias de busca para determinar estes parâmetros baseados em buscas sistemáticas e usando algoritmos de otimização, podendo estimar apenas um parâmetro de cada vez, ou dois ou os três parâmetros simultaneamente. Levando em conta a estratégia de busca por meio da aplicação de otimização global, estes três parâmetros podem ser estimados através de dois procedimentos: no primeiro caso os três parâmetros podem ser estimados simultaneamente e no segundo caso inicialmente podem ser determinados simultaneamente dois parâmetros (β0, RPIN) e posteriormente o terceiro parâmetro (RN) usando os valores dos dois parâmetros já conhecidos. Neste trabalho apresenta-se a aplicação e comparação de quatro algoritmos de otimização global para encontrar os parâmetros SRC ótimos, estes são: Simulated Annealing (SA), Very Fast Simulated Annealing (VFSA), Differential Evolution (DE) e Controlled Rando Search - 2 (CRS2). Como resultados importantes são apresentados a aplicação de cada método de otimização e a comparação entre os métodos quanto a eficácia, eficiência e confiabilidade para determinar os melhores parâmetros SRC. Posteriormente, aplicando as estratégias de busca global para a determinação destes parâmetros, por meio do método de otimização VFSA que teve o melhor desempenho foi realizado o empilhamento SRC a partir dos dados Marmousi, isto é, foi realizado um empilhamento SRC usando dois parâmetros (β0, RPIN) estimados por busca global e outro empilhamento SRC usando os três parâmetros (β0, RPIN, RN) também estimados por busca global.
Resumo:
As redes de acesso usando cabos de cobre atualmente utilizam bandas de frequência até 30 MHz, especificada no padrão VDSL2. À medida que arquiteturas híbridas de fibra e cobre se tornam mais proeminentes na indústria e academia, torna-se possível utilizar cabos metálicos mais curtos (i.e. até 250 metros) conectando o último ponto de distribuição aos usuários, de modo que frequências mais altas podem ser exploradas para se alcançar taxas de transmissão de dados de 500 Mbps ou mais, como é o caso do padrão G.fast atualmente em desenvolvimento no ITU-T. Nesse trabalho, um simulador no domínio do tempo foi desenvolvido para avaliar a capacidade do sistema G.fast com diferentes tamanhos de extensão cíclica e diferentes topologias de rede especificadas pelo ITU-T. Os resultados das simulações mostram que sistemas G.fast são robustos a bridged taps e capazes de atingir altas taxas de dados para todas as topologias simuladas, provendo suporte à próxima geração de serviços de banda larga. Além disso, esse trabalho descreve o progresso da implementação de um protótipo de modem baseado no padrão G.fast em um ambiente híbrido de DSP multicore e FPGA utilizando kits de avaliação adquiridos pela UFPA. Arquiteturas, protocolos de comunicação e benchmarks são apresentados e avaliados para se chegar à conclusão de que tal protótipo é factível e fornece suporte flexível a várias linhas de pesquisa em banda larga da próxima geração.