991 resultados para Abordagem de Fourier
Resumo:
Neste trabalho é descrita a teoria necessária para a obtenção da grandeza denominada intensidade supersônica, a qual tem por objetivo identificar as regiões de uma fonte de ruído que efetivamente contribuem para a potência sonora, filtrando, consequentemente, a parcela referente às ondas sonoras recirculantes e evanescentes. É apresentada a abordagem de Fourier para a obtenção da intensidade supersônica em fontes com geometrias separáveis e a formulação numérica existente para a obtenção de um equivalente à intensidade supersônica em fontes sonoras com geometrias arbitrárias. Este trabalho apresenta como principal contribuição original, uma técnica para o cálculo de um equivalente à intensidade supersônica, denominado aqui de intensidade acústica útil, capaz de identificar as regiões de uma superfície vibrante de geometria arbitrária que efetivamente contribuem para a potência sonora que será radiada. Ao contrário da formulação numérica existente, o modelo proposto é mais direto, totalmente formulado na superfície vibrante, onde a potência sonora é obtida através de um operador (uma matriz) que relaciona a potência sonora radiada com a distribuição de velocidade normal à superfície vibrante, obtida com o uso do método de elementos finitos. Tal operador, chamado aqui de operador de potência, é Hermitiano, fato crucial para a obtenção da intensidade acússtica útil, após a aplicação da decomposição em autovalores e autovetores no operador de potência, e do critério de truncamento proposto. Exemplos de aplicações da intensidade acústica útil em superfícies vibrantes com a geometria de uma placa, de um cilindro com tampas e de um silenciador automotivo são apresentados, e os resultados são comparados com os obtidos via intensidade supersônica (placa) e via técnica numérica existente (cilindro), evidenciando que a intensidade acústica útil traz, como benefício adicional, uma redução em relação ao tempo computacional quando comparada com a técnica numérica existente.
Resumo:
Este trabalho visa o uso da função de transferência, a qual relaciona distribuição de temperatura e fluxo de calor, na comparação no domínio freqüência, entre o modelo de difusão usual (parabólico) e um modelo ondulatório (hiperbólico) que inclue o efeito de propagação do calor não instantâneo, sendo avaliados os casos de meio semi-infinito e finito. Para o caso de meio semi-infinito, são determinadas as expressões para as características de amplitude e de fase, considerando tanto a abordagem parabólica quanto hiperbólica. É observada a relação entre estas duas abordagens, mostrando que a abordagem parabólica é uma caso particular da abordagem hiperbólica, podendo ser obtida através de um processo de limite envolvendo o tempo de relaxação r . Para o caso de meio finito, são determinadas as expressões para as caracteríısticas de amplitude de ambas as faces da placa unidimensional, considerando tanto a abordagem parabólica quanto hiperbólica. Estas expressões são transformadas para a forma adimensional quando então são deduzidas as expressões correspondentes das características de amplitude. Mais uma vez, todos os resultados para o caso parabólico podem ser determinados a partir dos resultados do caso hiperbólico, através de um processo de limite envolvendo o tempo de relaxação r São apresentados resultados numéricos referentes às características de amplitude, onde é apontada a existência de uma freqüência limite, acima da qual a diferença entre os dois modelos, do tipo parabólico ou hiperbólico, aumenta rapidamente. Também é apresentada uma forma alternativa de cálculo da distribuição de temperatura transiente que faz uso da função de transferência do sistema.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
A modelagem do mCSEM é feita normalmente no domínio da frequência, desde sua formulação teórica até a análise dos resultados, devido às simplificações nas equações de Maxwell, possibilitadas quando trabalhamos em um regime de baixa frequência. No entanto, a abordagem através do domínio do tempo pode em princípio fornecer informação equivalente sobre a geofísica da subsuperfície aos dados no domínio da frequência. Neste trabalho, modelamos o mCSEM no domínio da frequência em modelos unidimensionais, e usamos a transformada discreta de Fourier para obter os dados no domínio do tempo. Simulamos ambientes geológicos marinhos com e sem uma camada resistiva, que representa um reservatório de hidrocarbonetos. Verificamos que os dados no domínio do tempo apresentam diferenças quando calculados para os modelos com e sem hidrocarbonetos em praticamente todas as configurações de modelo. Calculamos os resultados considerando variações na profundidade do mar, na posição dos receptores e na resistividade da camada de hidrocarbonetos. Observamos a influência da airwave, presente mesmo em profundidades oceânicas com mais de 1000m, e apesar de não ser possível uma simples separação dessa influência nos dados, o domínio do tempo nos permitiu fazer uma análise de seus efeitos sobre o levantamento. Como parte da preparação para a modelagem em ambientes 2D e 3D, fazemos também um estudo sobre o ganho de desempenho pelo uso do paralelismo computacional em nossa tarefa.
Resumo:
No romance O Idiota, Dostoiévski cria, por meio do príncipe Míchkin, uma personagem com as características do Cristo. Sabe-se que a Bíblia, principalmente o Novo Testamento, acompanhou o escritor desde sua infância até o momento de sua morte. O primeiro capítulo, dedicado ao referencial teórico da pesquisa, lida com o universo da linguagem. Tanto o texto literário quanto a literatura bíblica procedem do mito. Neste sen-tido, religião e literatura se tocam e se aproximam. O segundo capítulo foi escrito na intenção de mostrar como o Cristo e os Evangelhos são temas, motivos e imagens recorrentes na obra de Dostoiévski. A literatura bíblica está presente, com mais ou menos intensidade, em diversas das principais obras do escritor russo e não somente em O Idiota. A hipótese de que Dostoiévski cria um Cristo e um Evangelho por meio de O Idiota é demonstrada na análise do romance, no terceiro capítulo. A tese proposta é: Dostoiévski desenvolve um evangelho literário, por meio de Míchkin, misto de um Cristo russo, ao mesmo tempo divino e humano, mas também idiota e quixotesco. Na dinâmica intertextual entre os Evangelhos bíblicos e O Idiota, entre Cristo e Míchkin, a literatura e o sagrado se revelam, como uma presença divina. Nas cenas e na estruturação do enredo que compõe o romance, Cristo se manifesta nas ações de Míchkin, na luz, na beleza, mas também na tragicidade de uma trajetória deslocada e antinômica. O amor e a compaixão ganham forma e vida na presen-ça do príncipe, vazio de si, servo de todos.
Resumo:
Gaining invariance to camera and illumination variations has been a well investigated topic in Active Appearance Model (AAM) fitting literature. The major problem lies in the inability of the appearance parameters of the AAM to generalize to unseen conditions. An attractive approach for gaining invariance is to fit an AAM to a multiple filter response (e.g. Gabor) representation of the input image. Naively applying this concept with a traditional AAM is computationally prohibitive, especially as the number of filter responses increase. In this paper, we present a computationally efficient AAM fitting algorithm based on the Lucas-Kanade (LK) algorithm posed in the Fourier domain that affords invariance to both expression and illumination. We refer to this as a Fourier AAM (FAAM), and show that this method gives substantial improvement in person specific AAM fitting performance over traditional AAM fitting methods.
Resumo:
Denaturation of tissues can provide a unique biological environment for regenerative medicine application only if minimal disruption of their microarchitecture is achieved during the decellularization process. The goal is to keep the structural integrity of such a construct as functional as the tissues from which they were derived. In this work, cartilage-on-bone laminates were decellularized through enzymatic, non-ionic and ionic protocols. This work investigated the effects of decellularization process on the microarchitecture of cartiligous extracellular matrix; determining the extent of how each process deteriorated the structural organization of the network. High resolution microscopy was used to capture cross-sectional images of samples prior to and after treatment. The variation of the microarchitecture was then analysed using a well defined fast Fourier image processing algorithm. Statistical analysis of the results revealed how significant the alternations among aforementioned protocols were (p < 0.05). Ranking the treatments by their effectiveness in disrupting the ECM integrity, they were ordered as: Trypsin> SDS> Triton X-100.
Resumo:
In this paper we propose a framework for both gradient descent image and object alignment in the Fourier domain. Our method centers upon the classical Lucas & Kanade (LK) algorithm where we represent the source and template/model in the complex 2D Fourier domain rather than in the spatial 2D domain. We refer to our approach as the Fourier LK (FLK) algorithm. The FLK formulation is advantageous when one pre-processes the source image and template/model with a bank of filters (e.g. oriented edges, Gabor, etc.) as: (i) it can handle substantial illumination variations, (ii) the inefficient pre-processing filter bank step can be subsumed within the FLK algorithm as a sparse diagonal weighting matrix, (iii) unlike traditional LK the computational cost is invariant to the number of filters and as a result far more efficient, and (iv) this approach can be extended to the inverse compositional form of the LK algorithm where nearly all steps (including Fourier transform and filter bank pre-processing) can be pre-computed leading to an extremely efficient and robust approach to gradient descent image matching. Further, these computational savings translate to non-rigid object alignment tasks that are considered extensions of the LK algorithm such as those found in Active Appearance Models (AAMs).
Resumo:
In Australia and increasingly worldwide, methamphetamine is one of the most commonly seized drugs analysed by forensic chemists. The current well-established GC/MS methods used to identify and quantify methamphetamine are lengthy, expensive processes, but often rapid analysis is requested by undercover police leading to an interest in developing this new analytical technique. Ninety six illicit drug seizures containing methamphetamine (0.1% - 78.6%) were analysed using Fourier Transform Infrared Spectroscopy with an Attenuated Total Reflectance attachment and Chemometrics. Two Partial Least Squares models were developed, one using the principal Infrared Spectroscopy peaks of methamphetamine and the other a Hierarchical Partial Least Squares model. Both of these models were refined to choose the variables that were most closely associated with the methamphetamine % vector. Both of the models were excellent, with the principal peaks in the Partial Least Squares model having Root Mean Square Error of Prediction 3.8, R2 0.9779 and lower limit of quantification 7% methamphetamine. The Hierarchical Partial Least Squares model had lower limit of quantification 0.3% methamphetamine, Root Mean Square Error of Prediction 5.2 and R2 0.9637. Such models offer rapid and effective methods for screening illicit drug samples to determine the percentage of methamphetamine they contain.