957 resultados para Rectangular waveguides
Resumo:
Para estudar os problemas de prospecção geofísica eletromagnética através de modelagem analógica, as condições em escala natural são representadas, no laboratório, em escala reduzida de acordo com a teoria da similitude. Portanto, para investigar os problemas de técnicas VLF, AFMAG e MT, freqüentemente é necessário criar um campo uniforme no arranjo experimental. Os sistemas físicos para geração de campos uniformes estudados aqui são a bobina circular, bobina de Helmholtz, solenóide, um plano de corrente, e dois planos paralelos de correntes. Os mapas de porcentagem de desvio de campo estão presentes para todos os sistemas estudados aqui. Um estudo comparativo desses sistemas mostra que o solenóide é a maneira mais eficiente para criar um campo uniforme, seguido pelo sistema de bobinas de Helmholtz. Porém, o campo criado em um solenóide está em um espaço fechado onde é difícil colocar modelos e substituí-los para executar experimentos. Portanto, recomenda-se o uso de bobinas de Helmholtz para criar um campo uniforme. Este último sistema fornece um campo uniforme com espaço aberto suficiente, o que facilita o experimento.
Resumo:
Este trabalho apresenta o desenvolvimento de um algoritmo computacional para análise do espalhamento eletromagnético de nanoestruturas plasmônicas isoladas. O Método dos Momentos tridimensional (MoM-3D) foi utilizado para resolver numericamente a equação integral do campo elétrico, e o modelo de Lorentz-Drude foi usado para representar a permissividade complexa das nanoestruturas metálicas. Baseado nesta modelagem matemática, um algoritmo computacional escrito em linguagem C foi desenvolvido. Como exemplo de aplicação e validação do código, dois problemas clássicos de espalhamento eletromagnético de nanopartículas metálicas foram analisados: nanoesfera e nanobarra, onde foram calculadas a resposta espectral e a distribuição do campo próximo. Os resultados obtidos foram comparados com resultados calculados por outros modelos e observou-se uma boa concordância e convergência entre eles.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Para o controle de qualidade da amostra comercial de Echinodorus macrophyllus, foram realizadas análises botânicas, farmacognósticas e físico-químicas. Para realização dos cortes anatômicos foi reidratado, seccionado com lâmina de aço e fixado em lâminas semi-permanentes. Os cortes foram clarificados em NaClO a 20% e corados com azul-de-astra seguido de fucsina básica. Em secção transversal as epidermes são unisseriadas, com células de formatos retangulares, heterodimensionais, paredes lisas e fina cutícula. Para realização da termogravimetria foi utilizada tanto a droga quanto o extrato seco em razão de aquecimento de 5, 10 e 15 graus Celsius. A cromatografia foi feita em HPLC e a amostra utilizada foi proveniente de cromatografia em coluna e eluída por gradiente com metanol e água ácida. O tecido paliçádico é constituído por duas camadas de células. As células do parênquima esponjonso têm paredes delgadas, heterodimensionais, formatos variados e espaços intercelulares bem desenvolvidos. A folha é anfiestomática com estômatos paracíticos. O pecíolo, em secção transversal, tem forma triangular a hexagonal. A epiderme é uniestratificada com células de formato poligonal, paredes lisas, grande quantidade de aerênquimas onde, algumas vezes, ocorrem diafragmas. As amostras da lâmina foliar têm características da espécie E. macrophyllus, porém a anatomia do pecíolo mostrou-se diferente dos descritos para a espécie, o que indica pertencer ao gênero Echinodorus, no entanto sugere possível contaminação do material fornecido com outras espécies vegetais. As análises termogravimétricas contribuíram bastante para estabelecer parâmetros e caracterizar a amostra.
Resumo:
Dois dos principais objetivos da interpretação petrofísica de perfis são a determinação dos limites entre as camadas geológicas e o contato entre fluidos. Para isto, o perfil de indução possui algumas importantes propriedades: É sensível ao tipo de fluido e a distribuição do mesmo no espaço poroso; e o seu registro pode ser modelado com precisão satisfatória como sendo uma convolução entre a condutividade da formação e a função resposta da ferramenta. A primeira propriedade assegura uma boa caracterização dos reservatórios e, ao mesmo tempo, evidencia os contatos entre fluidos, o que permite um zoneamento básico do perfil de poço. A segunda propriedade decorre da relação quasi-linear entre o perfil de indução e a condutividade da formação, o que torna possível o uso da teoria dos sistemas lineares e, particularmente, o desenho de filtros digitais adaptados à deconvolução do sinal original. A idéia neste trabalho é produzir um algoritmo capaz de identificar os contatos entre as camadas atravessadas pelo poço, a partir da condutividade aparente lida pelo perfil de indução. Para simplificar o problema, o modelo de formação assume uma distribuição plano-paralela de camadas homogêneas. Este modelo corresponde a um perfil retangular para condutividade da formação. Usando o perfil de entrada digitalizado, os pontos de inflexão são obtidos numericamente a partir dos extremos da primeira derivada. Isto gera uma primeira aproximação do perfil real da formação. Este perfil estimado é então convolvido com a função resposta da ferramenta gerando um perfil de condutividade aparente. Uma função custo de mínimos quadrados condicionada é definida em termos da diferença entre a condutividade aparente medida e a estimada. A minimização da função custo fornece a condutividade das camadas. O problema de otimização para encontrar o melhor perfil retangular para os dados de indução é linear nas amplitudes (condutividades das camadas), mas uma estimativa não linear para os contatos entre as camadas. Neste caso as amplitudes são estimadas de forma linear pelos mínimos quadrados mantendo-se fixos os contatos. Em um segundo passo mantem-se fixas as amplitudes e são calculadas pequenas mudanças nos limites entre as camadas usando uma aproximação linearizada. Este processo é interativo obtendo sucessivos refinamentos até que um critério de convergência seja satisfeito. O algoritmo é aplicado em dados sintéticos e reais demonstrando a robustez do método.
Resumo:
Os efeitos Delaware e Groningen são dois tipos de anomalia que afetam ferramentas de eletrodos para perfilagem de resistividade. Ambos os efeitos ocorrem quando há uma camada muito resistiva, como anidrita ou halita, acima do(s) reservatório(s), produzindo um gradiente de resistividade muito similar ao produzido por um contato óleo-água. Os erros de interpretação produzidos têm ocasionado prejuízos consideráveis à indústria de petróleo. A PETROBRÁS, em particular, tem enfrentado problemas ocasionados pelo efeito Groningen sobre perfis obtidos em bacias paleozóicas da região norte do Brasil. Neste trabalho adaptamos, com avanços, uma metodologia desenvolvida por LOVELL (1990), baseada na equação de Helmholtz para HΦ, para modelagem dos efeitos Delaware e Groningen. Solucionamos esta equação por elementos finitos triangulares e retangulares. O sistema linear gerado pelo método de elementos finitos é resolvido por gradiente bi-conjugado pré-condicionado, sendo este pré-condicionador obtido por decomposição LU (Low Up) da matriz de stiffness. As voltagens são calculadas por um algoritmo, mais preciso, recentemente desenvolvido. Os perfis são gerados por um novo algoritmo envolvendo uma sucessiva troca de resistividade de subdomínios. Este procedimento permite obter cada nova matriz de stiffness a partir da anterior pelo cálculo, muito mais rápido, da variação dessa matriz. Este método permite ainda, acelerar a solução iterativa pelo uso da solução na posição anterior da ferramenta. Finalmente geramos perfis sintéticos afetados por cada um dos efeitos para um modelo da ferramenta Dual Laterolog.
Resumo:
O efeito da topografia de um vale, uma colina, um declive e um aclive, em sondagens eletromagnéticas bidimensionais no domínio da freqüência, causa uma variação nos valores da amplitude e da fase da componente Hz devido a um meio homogêneo. A amplitude é menos afetada que a fase. A parede do vale mais próxima da linha de corrente causa uma forte diminuição dos valores da fase, enquanto que a parede do vale mais distante da linha causa um forte aumento. Os efeitos de uma colina são opostos aos do vale. Os efeitos do declive e do aclive num meio homogêneo, são similares, respectivamente, aos observados pelas paredes do vale e da colina mais próximas da linha de corrente. A resposta de um corpo condutivo retangular num meio homogêneo próximo a uma linha de corrente sofre pequenas variações devido a presença de um vale ou de uma colina situada longe da linha de corrente. Porém, se essas feições topográficas estiverem sobre o corpo, elas afetam fortemente a fase e a amplitude da componente Hz e apenas a amplitude, no caso da componente Hx. A resposta transiente não é afetada pela topografia para tempos muito baixos, pois nesse caso se investiga uma finíssima camada da superfície, assim como para tempos muito altos porque a profundidade de investigação é muito grande comparada com a dimensão da topografia. Para os modelos aqui estudados, a maior influência se dá para tempos intermediários, ao redor de 7 ms, ocasionando um retardo do ponto de "cross over" nas curvas de sondagens.
Resumo:
Os métodos numéricos de Elementos Finitos e Equação Integral são comumente utilizados para investigações eletromagnéticas na Geofísica, e, para essas modelagens é importante saber qual algoritmo é mais rápido num certo modelo geofísico. Neste trabalho são feitas comparações nos resultados de tempo computacional desses dois métodos em modelos bidimensionais com heterogeneidades condutivas num semiespaço resistivo energizados por uma linha infinita de corrente (com 1000Hz de freqüência) e situada na superfície paralelamente ao "strike" das heterogeneidades. Após a validação e otimização dos programas analisamos o comportamento dos tempos de processamento nos modelos de corpos retangulares variandose o tamanho, o número e a inclinação dos corpos. Além disso, investigamos nesses métodos as etapas que demandam maior custo computacional. Em nossos modelos, o método de Elementos Finitos foi mais vantajoso que o de Equação Integral, com exceção na situação de corpos com baixa condutividade ou com geometria inclinada.
Resumo:
Para estudar os problemas de prospecção geofísica eletromagnética através de modelagem analógica, as condições em escala natural são representadas, no laboratório, em escala reduzida de acordo com a teoria da similitude. Portanto, para investigar os problemas de técnicas VLF, AFMAG e MT, frequentemente é necessário criar campo uniforme no arranjo experimental. Vários sistemas físicos para geração de campos uniformes são analisados teoricamente nesta tese. Os sistemas estudados aqui são a bobina circular, bobina de Helmholtz, solenóide, um plano de corrente e dois planos paralelos de correntes. As equações analíticas foram obtidas para campo magnético num ponto do espaço e subsequentemente as condições de campo uniforme. Nos casos em que as condições para o campo uniforme não puderam ser obtidas analiticamente, a porcentagem de desvio do campo em relação a um ponto pré-selecionado foi calculada. Contudo, os mapas de campo magnético, assim como o mapa de porcentagem de desvio, estão presentes para todos os sistemas estudados aqui. Também, foram calculados as áreas e os volumes espaciais de vários desvios de porcentagem do campo uniforme. Um estudo comparativo desses sistemas mostra que o solenóide é a maneira mais eficiente para criar um campo uniforme, seguido pelo sistema de bobinas de Helmholtz. Porém, o campo criado em um solenóide está em um espaço fechado onde é difícil colocar modelos e substituí-los para executar experimentos. Portanto, recomenda-se o uso de bobinas de Helmholtz para criar um campo uniforme. Este último sistema fornece campo uniforme com espaço aberto suficiente, o que facilita o experimento.
Resumo:
Apesar das grandes vantagens decorrentes da interpretação conjunta de dados geofísicos, a aplicação da inversão simultânea destes dados tem sido pouco estudada, principalmente a nível de simulação. Este trabalho foi desenvolvido com intuito de cobrir parte desta deficiência. Neste trabalho, foi utilizado o método dos mínimos quadrados para comparar os resultados obtidos a partir de: a) inversão dos grupos de dados gravimétricos, magnéticos e resistivos tomados separadamente; b) inversão simultânea destes grupos de dados combinados dois a dois; c) inversão simultânea dos três grupos de dados. O trabalho é desenvolvido a partir de dados teóricos onde são simuladas diversas situações geológicas. A comparação dos resultados é efetuada a partir das estimativas dos parâmetros obtidos por cada inversão, pelos desvios padrões de cada parâmetro (inversão gravimetria-magnetometria para o ruído Gaussiano) e pela redução da ambiguidade, manifestada pela dependência das estimativas em relação a aproximação inicial dos parâmetros. Na maioria dos casos estudados as inversões conjuntas dos dados combinados dois a dois apresentam resultados bem superiores àqueles obtidos usando-se apenas um dos grupos de dados isoladamente, seja nas estimativas dos parâmetros, seja na redução da ambiguidade. Por sua vez, a inversão conjunta dos três grupos de dados apresentam resultados semelhantes às inversões dos grupos de dados combinados dois a dois, contudo em alguns casos a inversão conjunta dos três grupos de dados é a única totalmente independente da aproximação inicial. Dados gravimétricos e magnéticos de duas anomalias reais foram invertidos, produzindo sempre curvas estimadas bem ajustadas aos valores observados.
Resumo:
O presente método postula uma variação hiperbólica para o contraste de densidade de uma bacia sedimentar em função da profundidade, e tem dois objetivos: (1) delinear o relevo do embasamento de uma bacia, conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície da bacia e o fator de decaimento do contraste de densidade com a profundidade; (2) estimar, além do relevo, o valor do contraste de densidade na superfície de uma bacia sedimentar e o fator de decaimento do contraste de densidade com a profundidade, sendo fornecida a anomalia gravimétrica e a profundidade do embasamento em alguns pontos da bacia. Nos dois casos o modelo interpretativo é um conjunto de prismas retangulares verticais justapostos, cujas espessuras, que são parâmetros a serem estimados, representam a profundidade da interface de separação entre os sedimentos e o embasamento. As soluções obtidas nos dois problemas acima formulados são estáveis devido à incorporação de informações adicionais sobre a suavidade do relevo estimado, e o conhecimento da profundidade do relevo do embasamento em alguns pontos, fornecido por furos de sondagem. O método foi testado em anomalias gravimétricas sintéticas produzidas pela simulação de bacias sedimentares com relevos suaves. Os resultados mostraram relevos com boa resolução e valores estimados do contraste de densidade na superfície da bacia e do fator de decaimento do contraste de densidade com a profundidade, próximos aos verdadeiros, indicando dessa maneira o potencial do método em interpretações gravimétricas de bacias sedimentares. O método foi aplicado à anomalia Bouguer da Bacia do Recôncavo, Brasil, delineando um relevo com um valor para a profundidade máxima de cerca de 6 km, semelhante ao estimado em interpretações sísmicas. As estimativas para o contraste de densidade na superfície da Bacia e o fator de decaimento com a profundidade foram -0,30 g/cm3 e 30 km, respectivamente, produzindo uma estimativa para a compactação máxima dos sedimentos da ordem de 4%.
Resumo:
O presente trabalho apresenta um método que utiliza uma função hiperbólica para descrever o decaimento do contraste de densidade com a profundidade em aterros sanitários e lixões, e consiste de duas abordagens: (1) o mapeamento da base de um lixão ou de um aterro sanitário conhecendo-se a anomalia gravimétrica, o contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade; (2) estimação do contraste de densidade na superfície e o fator de decaimento do contraste de densidade com a profundidade a partir do conhecimento da anomalia gravimétrica e do relevo da base do lixão ou do aterro sanitário; uma variante desta última abordagem utiliza os valores conhecidos de profundidade desses ambientes para gerar a anomalia ajustada e estimar o valor do contraste de densidade na superfície e o fator de decaimento do contraste com a profundidade através da minimização da norma Euclidiana do vetor de resíduos entre as observações e o ajuste. Em ambas abordagens o modelo interpretativo é representado por um conjunto de prismas retangulares justapostos, cujas espessuras são os parâmetros a serem determinados. As soluções encontradas através das duas abordagens são estáveis devido à incorporação de informação sobre a suavidade do relevo estimado. O método foi aplicado a dados sintéticos produzidos pela simulação de aterros sanitários e lixões com até 15 m de profundidades e de relevos suaves. Os resultados das interpretações gravimétricas foram consistentes e revelaram a eficácia do método tanto na abordagem (1) como na abordagem (2). O método também foi aplicado à anomalia Bouguer residual do aterro sanitário da Fazenda Thomas, Indiana, USA, indicando que o contraste de densidade do aterro pode ou ser constante ou apresentar variação máxima de 0,09 g/cm3.
Resumo:
Apresentamos um novo método de inversão gravimétrica para estimar o relevo descontínuo do embasamento de bacias sedimentares, cujos pacotes sedimentares podem ter contraste de densidade constante ou variando hiperbolicamente com a profundidade. O método combina a maximização da medida de entropia de ordem zero e a minimização da medida de entropia de primeira ordem do vetor de soluções (profundidades do embasamento). O modelointerpretativo consiste de um conjunto de primas retangulares verticais justapostos, com o contraste de densidade conhecido, cujas espessuras representam as profundidades do embasamento e são os parâmetros a serem determinados. A minimização da entropia de ordem um favorece soluções apresentando descontinuidades abruptas e a maximização da entropia de ordem zero é empregada apenas para evitar sua minimização excessiva. O método foi aplicado a dados sintéticos simulando: (i) bacias intracratônicas com o relevo do embasamento suave ou apresentando descontinuidades abruptas localizadas e (ii) bacias marginais falhadas. No caso de embasamento suave, a comparação dos resultados com aqueles obtidos através da suavidade global e da suavidade ponderada mostrou que ambos os métodos delinearam o embasamento. No caso de embasamentos falhados, seja em bacias intracratônicas ou marginais, as soluções obtidas com a regularização entrópica e a suavidade ponderada foram equivalentes, delineando o embasamento e as descontinuidades, o que não ocorreu com a suavidade global. A regularização entrópica, no entanto, não requereu informação a priori sobre a profundidade, diferentemente da suavidade ponderada. Tanto o método proposto como os métodos das suavidades global e ponderada foram aplicadas a quatro conjuntos de dados reais. O primeiro é proveniente da Ponte do Poema que está localizada no campus da Universidade Federal do Pará, Belém, Pará, permitiu certificar a aplicabilidade prática do método, uma vez que o relevo abaixo da ponte é acessível. O segundo, da porção norte do Steptoe Valley, Nevada, Estados Unidos. As soluções obtidas com a regularização entrópica e com a suavidade ponderada mostram um embasamento apresentando diversas descontinuidades verticais, o que não aconteceu com a suavidade global. O terceiro conjunto provém do graben de San Jacinto, situado na Califórnia, Estados Unidos, que levou a soluções em que o graben é assimétrico e apenas a suavidade ponderada apresentou solução com fundo achatado. O quarto conjunto de dados é oriundo do graben do Büyük Menderes, localizado na Turquia ocidental. As soluções do método proposto e da suavidade ponderada apresentaram grandes deslocamentos verticais, confirmados pela geologia, o que não aconteceu com a suavidade global.
Resumo:
Este trabalho visou a demonstrar o dimensionamento e verificação de cálculo da NBR 6118 (ABNT, 2007) com as suas características geométricas, cobrimento da armadura, armaduras, flambagem e a resistência de pilares à compressão centrada dos pilares em concreto armado, apresentando na revisão bibliográfica as principais técnicas de reforço estrutural de pilares de concreto armado para edificações antigas, identificando as principais metodologias e técnicas utilizadas no Brasil e apresentando os pontos positivos e negativos de cada técnica:encamisamento de concreto, perfis metálicos, chapa de aço colado, manta/tecido de carbono, aramida e vidro e polímeros reforçados com fibras de carbono (PRFC). Os pilares com aumento da seção transversal retangular, com adição de armação e concreto, sendo mais usual e prática a técnica apresenta dificuldades em obras antigas, geralmente devido à necessidade arquitetônica de permanecer o mais fiel a sua forma original. Justificando-se a necessidade de conhecimento das diversas técnicas de reforço estrutural descritas neste trabalho com aumento de capacidade de resistência, sem que haja aumento substancial, na seção transversal dos pilares e objetivando a análise do reforço proposto através dos cálculos do projeto, programa – PDOP 2.0 e parâmetros de cálculo da NBR 6118 (ABNT, 2007). Os resultados obtidos através da análise comparativa do reforço executado no estudo de caso “revitalização do casarão” - com relação à análise dos pilares retangulares submetidos à flexão composta oblíqua, esforços cortantes e torsores quanto à NBR 6118 (ABNT, 2007) utilizando o programa para dimensionamento otimizado de pilares – PDOP 2.0 - indicaram que a técnica de reforço estudada foi eficiente, pois todas as peças reforçadas tiveram uma capacidade portante maior que a do pilar original sem o reforço.
Resumo:
In this paper, we present an algorithm for full-wave electromagnetic analysis of nanoplasmonic structures. We use the three-dimensional Method of Moments to solve the electric field integral equation. The computational algorithm is developed in the language C. As examples of application of the code, the problems of scattering from a nanosphere and a rectangular nanorod are analyzed. The calculated characteristics are the near field distribution and the spectral response of these nanoparticles. The convergence of the method for different discretization sizes is also discussed.