931 resultados para Receiver


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo realiza estimativas da condutividade térmica dos principais minerais formadores de rochas, bem como estimativas da condutividade média da fase sólida de cinco litologias básicas (arenitos, calcários, dolomitos, anidritas e litologias argilosas). Alguns modelos térmicos foram comparados entre si, possibilitando a verificação daquele mais apropriado para representar o agregado de minerais e fluidos que compõem as rochas. Os resultados obtidos podem ser aplicados a modelamentos térmicos os mais variados. A metodologia empregada baseia-se em um algoritmo de regressão não-linear denominado de Busca Aleatória Controlada. O comportamento do algoritmo é avaliado para dados sintéticos antes de ser usado em dados reais. O modelo usado na regressão para obter a condutividade térmica dos minerais é o modelo geométrico médio. O método de regressão, usado em cada subconjunto litológico, forneceu os seguintes valores para a condutividade térmica média da fase sólida: arenitos 5,9 ± 1,33 W/mK, calcários 3.1 ± 0.12 W/mK, dolomitos 4.7 ± 0.56 W/mK, anidritas 6.3 ± 0.27 W/mK e para litologias argilosas 3.4 ± 0.48 W/mK. Na sequência, são fornecidas as bases para o estudo da difusão do calor em coordenadas cilíndricas, considerando o efeito de invasão do filtrado da lama na formação, através de uma adaptação da simulação de injeção de poços proveniente das teorias relativas à engenharia de reservatório. Com isto, estimam-se os erros relativos sobre a resistividade aparente assumindo como referência a temperatura original da formação. Nesta etapa do trabalho, faz-se uso do método de diferenças finitas para avaliar a distribuição de temperatura poço-formação. A simulação da invasão é realizada, em coordenadas cilíndricas, através da adaptação da equação de Buckley-Leverett em coordenadas cartesianas. Efeitos como o aparecimento do reboco de lama na parede do poço, gravidade e pressão capilar não são levados em consideração. A partir das distribuições de saturação e temperatura, obtém-se a distribuição radial de resistividade, a qual é convolvida com a resposta radial da ferramenta de indução (transmissor-receptor) resultando na resistividade aparente da formação. Admitindo como referência a temperatura original da formação, são obtidos os erros relativos da resistividade aparente. Através da variação de alguns parâmetros, verifica-se que a porosidade e a saturação original da formação podem ser responsáveis por enormes erros na obtenção da resistividade, principalmente se tais "leituras" forem realizadas logo após a perfuração (MWD). A diferença de temperatura entre poço e formação é a principal causadora de tais erros, indicando que em situações onde esta diferença de temperatura seja grande, perfilagens com ferramentas de indução devam ser realizadas de um a dois dias após a perfuração do poço.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A resposta eletromagnética (EM) de um corpo condutivo envolvido por uma zona parcialmente condutiva, torna-se bastante diferente daquela de um corpo condutivo em um meio altamente resistivo. As zonas parcialmente condutivas, como por exemplo, rocha encaixante, halo de sulfetos disseminados ou manto de intemperismo, que envolvem o corpo condutivo, afetam a resposta EM de diferentes maneiras, dependendo de suas características físicas e geométricas e, em particular, do sistema de prospecção EM utilizado. Neste trabalho em modelamento analógico, foi feita uma análise de anomalias EM provocadas por corpos condutivos tabulares verticais sob manto de intemperismo, em levantamentos terrestres para diferentes sistemas de bobinas - horizontal coplanar, vertical coplanar e vertical coaxial - em oito frequências na faixa de 250 Hz a 35 kHz e separações entre as bobinas de 0,15; 0,20 e 0,25m. O manto de intemperismo foi simulado por folhas de aço finas dispostas horizontalmente e o corpo condutor principal por folhas de alumínio finas colocadas verticalmente. As dimensões das folhas foram determinadas de acordo com as condições de modelamento para o plano e o semi-plano. Foram utilizados três corpos e três mantos com diferentes espessuras e condutividades, simulando, deste modo, diversas situações geológicas. Os resultados mostraram que cada sistema de bobinas é afetado diferentemente pela presença do manto de intemperismo. Para a análise dos resultados foi plotado um conjunto de diagramas considerando os valores pico-a-pico das anomalias em fase e em quadratura. Um outro conjunto de diagramas mostra as amplitudes máximas em fase, que ocorrem quando a componente em quadratura se anula em uma frequência relativamente baixa para um conjunto de corpo-manto, e as amplitudes máximas em quadratura, que ocorrem quando a resposta em fase atinge um mínimo próximo de zero, em frequências relativamente altas. Com isto foi possível conhecer a faixa de frequências para cada sistema de bobinas, onde a resposta EM se encontra o mínimo afetada pela presença do manto de intemperismo. A maior amplitude na resposta é obtida no sistema horizontal coplanar e a menor no sistema vertical coplanar. Um aumento na separação entre as bobinas é acompanhado por um deslocamento da anomalia para baixas frequências. A faixa de frequências, onde a presença do manto tem pouca influência na resposta do corpo condutivo, e maior para o sistema vertical coaxial e menor para o sistema horizontal coplanar. Esses resultados dão uma luz para o conhecimento da posição e da largura da banda de frequências utilizável, assim como as melhores separações entre transmissor-receptor, para auxiliar no planejamento de sistemas de prospecção EM, de modo que a resposta fique o mais livre possível de sinais indesejáveis, tais como os causados pela presença do manto de intemperismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O empilhamento sísmico é um método de imageamento utilizado para simulação de seções sísmicas com afastamento nulo (AN) a partir de dados de cobertura múltipla, produzindo um aumento da razão sinal/ruído na seção simulada. Este método é realizado usando o processamento convencional denominado ponto médio comum (PMC), através das chamadas correções sobretempo normal e sobretempo oblíquo (STN/STO). Alternativamente, um novo método de empilhamento sísmico, denominado superfície de reflexão comum (SRC) pode ser usado para simular seções sísmicas em afastamento nulo (AN). O método SRC tem como principais características: 1) a construção de uma aproximação do tempo de trânsito de reflexões primárias na vizinhança de um raio de reflexão normal; 2) esta aproximação de empilhamento tem como parâmetros os ângulos de emergência do raio normal e os raios de curvaturas de duas ondas hipotéticas denominadas onda ponto de incidência normal (onda PIN) e onda normal (onda N). O método pressupõe ainda que a velocidade da onda longitudinal na parte superior do modelo próxima à superfície da Terra seja conhecida. Para determinar adequadamente os parâmetros supracitados, fundamentais para o método de imageamento SRC, são necessárias estratégias de busca que utilizem casos particulares da aproximação de segunda ordem hiperbólica dos tempos de trânsito. As estratégias de busca apresentadas são: SRC pragmático-extendito e SRC global-local. Neste trabalho é apresentada uma revisão extensa dos fundamentos teóricos de método de empilhamento SRC, como também das estratégias de busca dos parâmetros SRC, dos algoritmos de implementação, e da delimitação de aberturas do operador de empilhamento SRC usando conceitos de zonas de Fresnel e o fator de estiramento da correção STN. Como um exemplo de aplicação dos atributos ou parâmetros SRC é apresentado o resultado da correção STN, sem estiramento do sinal sísmico, obtido utilizando as velocidades estimadas dos parâmetros SRC. Também, são apresentados os resultados da aplicação dos três métodos de empilhamento (PMC (STN/STO), SRC pragmático-extendido, SRC global-local) nos dados sintéticos Marmousi e real terrestre da bacia paleozóica Amazônica. Finalmente apresentam-se as discussões sobre os resultados, quanto à resolução da imagem sísmica e custo computacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar do aumento significativo do uso de redes locais sem fio (WLAN) nos últimos anos, aspectos de projeto e planejamento de capacidade da rede são ainda sistematicamente negligenciados durante a implementação da rede. Tipicamente um projeto de rede local sem fio é feito e instalado por profissionais de rede. Esses profissionais são extremamente experientes com redes cabeadas, mas são ainda geralmente pouco experientes com redes sem fio. Deste modo, as instalações de redes locais sem fio são desvantajosas pela falta de um modelo de avaliação de desempenho e para determinar a localização do ponto de acesso (PA), além disso, fatores importantes do ambiente não são considerados no projeto. Esses fatores se tornam mais importante quando muitos pontos de acesso (PAs) são instalados para cobrir um único edifício, algumas vezes sem planejamento de freqüência. Falhas como essa podem causar interferência entre células geradas pelo mesmo PA. Por essa razão, a rede não obterá os padrões de qualidade de serviço (QoS) exigidos por cada serviço. O presente trabalho apresenta uma proposta para planejamento de redes sem fio levando em consideração a influência da interferência com o auxílio de inteligência computacional tais como a utilização de redes Bayesianas. Uma extensiva campanha de medição foi feita para avaliar o desempenho de dois pontos de acesso (PAs) sobre um cenário multiusuário, com e sem interferência. Os dados dessa campanha de medição foram usados como entrada das redes Bayesianas e confirmaram a influência da interferência nos parâmetros de QoS. Uma implementação de algoritmo genético foi utilizado permitindo uma abordagem híbrida para planejamento de redes sem fio. Como efeito de comparação para otimizar os parâmetros de QoS, de modo a encontrar a melhor distância do PA ao receptor garantindo as recomendações do International Telecomunication Union (ITU-T), a técnica de otimização por enxame de partículas foi aplicada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos tem-se verificado através de várias publicações um interesse crescente em métodos de migração com amplitude verdadeira, com o objetivo de obter mais informações sobre as propriedades de refletividade da subsuperfície da terra. A maior parte desses trabalhos tem tratado deste tema baseando-se na aproximação de Born, como em Bleistein (1987) e Bleistein et al. (1987), ou na aproximação do campo de ondas pela teoria do raio como Hubral et al. (1991), Schleicher et al. (1993) e Martins et al. (1997). Considerando configurações arbitrárias de fontes e receptores, as reflexões primárias compressionais podem ser imageadas em reflexões migradas no domínio do tempo ou profundidade de tal modo que as amplitudes do campo de ondas migrado são uma medida do coeficiente de reflexão dependente do ângulo de incidência. Para realizar esta tarefa, vários algoritmos têm sido propostos nos últimos anos baseados nas aproximações de Kirchhoff e Born. Essas duas abordagens utilizam um operador integral de empilhamento de difrações ponderado que é aplicado aos dados da seção sísmica de entrada. Como resultado obtém-se uma seção migrada onde, em cada ponto refletor, tem-se o pulso da fonte com amplitude proporcional ao coeficiente de reflexão naquele ponto. Baseando-se na aproximação de Kirchhoff e na aproximação da teoria do raio do campo de ondas, neste trabalho é obtida a função peso para modelos bidimensionais (2-D) e dois e meio dimensionais (2,5-D) que é aplicada a dados sintéticos com e sem ruído. O resultado mostra a precisão e estabilidade do método de migração em 2-D e 2,5-D como uma ferramenta para a obtenção de informações importantes da subsuperfície da terra, que é de grande interesse para a análise da variação da amplitude com o afastamento (ângulo). Em suma, este trabalho apresenta expressões para as funções peso 2-D e 2,5-D em função de parâmetros ao longo de cada ramo do raio. São mostrados exemplos da aplicação do algoritmo de migração em profundidade a dados sintéticos 2-D e 2,5-D obtidos por modelamento sísmico através da teoria do raio usando o pacote Seis88 (Cervený e Psencík, 1988) e os resultados confirmaram a remoção do espalhamento geométrico dos dados migrados mesmo na presença de ruído. Testes adicionais foram realizados para a análise do efeito de alongamento do pulso na migração em profundidade (Tygel et al., 1994) e a aplicação do empilhamento múltiplo (Tygel et al., 1993) para a estimativa de atributos dos pontos de reflexão - no caso o ângulo de reflexão e a posição do receptor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos aqui uma metodologia alternativa para modelagem de ferramentas de indução diretamente no domínio do tempo. Este trabalho consiste na solução da equação de difusão do campo eletromagnético através do método de diferenças finitas. O nosso modelo consiste de um meio estratificado horizontalmente, através do qual simulamos um deslocamento da ferramenta na direção perpendicular às interfaces. A fonte consiste de uma bobina excitada por uma função degrau de corrente e o registro do campo induzido no meio é feito através de uma bobina receptora localizada acima da bobina transmissora. Na solução da equação de difusão determinamos o campo primário e o campo secundário separadamente. O campo primário é obtido analiticamente e o campo secundário é determinado utilizando-se o método de Direção Alternada Implícita, resultando num sistema tri-diagonal que é resolvido através do método recursivo proposto por Claerbout. Finalmente, determina-se o valor máximo do campo elétrico secundário em cada posição da ferramenta ao longo da formação, obtendo-se assim uma perfilagem no domínio do tempo. Os resultados obtidos mostram que este método é bastante eficiente na determinação do contato entre camadas, inclusive para camadas de pequena espessura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the past few years several GPS (Global Position System) positioning techniques have been develope and/or improved with the goal of obtaining high accuracy and productivity in real time. The reference station network concept besides to enabling quality and reliability in positioning for scientific and civil GPS community, allows studies concerning tropospheric refraction modeling in the network region. Moreover, among the network corrections transmission methods available to users, there is the VRS (Virtual Reference Station) concept. In this method, the data of a virtual station are generated near the rover receiver (user). This provides a short baseline and the user has the possibility of using a single frequency receiver to accomplish the relative positioning. In this paper, the methodology applied to generate VRS data, using different tropospheric models is described. Thus, comparative tests were conducted in the four seasons with the NWP/INPE (Numerical Weather Prediction/National Institute for Space Research) and Hopfield tropospheric models. In order to analyse the VRS data quality, it was used the Precise Point Positioning (PPP) method, where satisfactory results were found. Mean differences between PNT/INPE and Hopfield models of 9.75% and 24.2% for the hydrostatic and wet days, respectively were obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Avaliar a viabilidade e acurácia diagnóstica da ultrassonografia pré-operatória combinada com biopsia por agulha fina (US-PAAF) e do exame clínico da axila em pacientes com câncer de mama.MÉTODOS: Neste estudo prospectivo 171 axilas de pacientes com câncer de mama foram avaliadas pelo exame clínico e ultrassonografia (US) com e sem biopsia por agulha fina (PAAF). Os linfonodos com espessura cortical maior que 2,3 mm na ultrassonografia foram considerados suspeitos e submetidos a US-PAAF.RESULTADOS: A análise de regressão logística não mostrou correlação estatisticamente significativa entre exame clínico e axilas positivas no exame patológico. Em relação à avaliação axilar com US, o risco de achados anatomopatológicos positivos aumentou 12,6 vezes, valor Kappa de Cohen foi de 0,12 para exame clínico, 0,48 para US e 0,80 para US-PAAF. A acurácia foi de 61,4% para o exame clínico, 73,1% para os US e 90,1% para US-PAAF. Análise Receiver Operating Chracteristics (ROC) mostrou que uma espessura de 2,75 mm cortical correspondeu à mais elevada sensibilidade e especificidade na predição metástase axilar (82,7 e 82,2%, respectivamente).CONCLUSÕES: A US combinada com aspiração por agulha fina é mais precisa que o exame clínico na avaliação do status axilar no pré-operatório em mulheres com câncer de mama. Aquelas que são US-PAAF positivo podem ser direcionadas para esvaziamento linfonodal axilar imediatamente, e somente aqueles que são US-PAAF negativos devem ser considerados para biópsia de linfonodo sentinela.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The implementation of local geodetic networks for georeferencing of rural properties has become a requirement after publication of the Georeferencing Technical Standard by INCRA. According to this standard, the maximum distance of baselines to GNSS L1 receivers is of 20 km. Besides the length of the baseline, the geometry and the number of geodetic control stations are other factors to be considered in the implementation of geodetic networks. Thus, this research aimed to examine the influence of baseline lengths higher than the regulated limit of 20 km, the geometry and the number of control stations on quality of local geodetic networks for georeferencing, and also to demonstrate the importance of using specific tests to evaluate the solution of ambiguities and on the quality of the adjustment. The results indicated that the increasing number of control stations has improved the quality of the network, the geometry has not influenced on the quality and the baseline length has influenced on the quality; however, lengths higher than 20 km has not interrupted the implementation, with GPS L1 receiver, of the local geodetic network for the purpose of georeferencing. Also, the use of different statistical tests, both for the evaluation of the resolution of ambiguities and for the adjustment, have enabled greater clearness in analyzing the results, which allow that unsuitable observations may be eliminated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since 2000 the use of the GPS navigation increases considerably. The reason for that was the deactivation of the selective availability in May 2000. However, these receivers do not register the observables, they just estimate and store them and that prevents the post-processing data. Based in this aspect some softwares were developed and are available for free. They allow recording the GPS observables, pseudorange and carrier phase. These programs are able to read in binary files and record information concerning the GPS observables and to convert binary format to a RINEX format. This study presents the GPS Garmin 12 XL evaluation using free programs. Two experiments were carried out in Presidente Prudente-SP region using the relative static survey. The processing was carried out with intervals of 30, 15, 10 and 5 minutes. The results were compared with the coordinates from a geodetic receiver and show that 98.9 % of the points, the values in relation to the planimetric accuracy were better than 0.50 m. The only baseline which the value was larger or equal to 0.50 m is the point M0001 (baseline lesser than 2 km) referred to the first experiment. In terms of precision the values did not exceeded 0.30 m.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Medicina Veterinária - FMVZ

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)