984 resultados para transformada rápida de fourier (FFT)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A modelagem do mCSEM é feita normalmente no domínio da frequência, desde sua formulação teórica até a análise dos resultados, devido às simplificações nas equações de Maxwell, possibilitadas quando trabalhamos em um regime de baixa frequência. No entanto, a abordagem através do domínio do tempo pode em princípio fornecer informação equivalente sobre a geofísica da subsuperfície aos dados no domínio da frequência. Neste trabalho, modelamos o mCSEM no domínio da frequência em modelos unidimensionais, e usamos a transformada discreta de Fourier para obter os dados no domínio do tempo. Simulamos ambientes geológicos marinhos com e sem uma camada resistiva, que representa um reservatório de hidrocarbonetos. Verificamos que os dados no domínio do tempo apresentam diferenças quando calculados para os modelos com e sem hidrocarbonetos em praticamente todas as configurações de modelo. Calculamos os resultados considerando variações na profundidade do mar, na posição dos receptores e na resistividade da camada de hidrocarbonetos. Observamos a influência da airwave, presente mesmo em profundidades oceânicas com mais de 1000m, e apesar de não ser possível uma simples separação dessa influência nos dados, o domínio do tempo nos permitiu fazer uma análise de seus efeitos sobre o levantamento. Como parte da preparação para a modelagem em ambientes 2D e 3D, fazemos também um estudo sobre o ganho de desempenho pelo uso do paralelismo computacional em nossa tarefa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La trasformata di Fourier (FT) è uno strumento molto potente implementato, oggi, in un enorme numero di tecnologie. Il suo primo esempio di applicazione fu proprio il campionamento e la digitalizzazione di segnali analogici. Nel tempo l'utilizzo della FT è stato ampliato a più orizzonti in ambito digitale, basti pensare che il formato di compressione '.jpg' utilizza una FT bidimensionale, mentre uno degli ultimi esempi di applicazione si ha nell'imaging digitale in ambito medico (risonanza magnetica nucleare, tomografia assiale computerizzata TAC ecc...). Nonostante gli utilizzi della FT siano molto diversificati il suo basilare funzionamento non è mai cambiato: essa non fa altro che modificare il dominio di una funzione del tempo (un segnale) in un dominio delle frequenze, permettendo così lo studio della composizione in termini di frequenza, ampiezza e fase del segnale stesso. Parallelamente all'evoluzione in termini di applicazioni si è sviluppato uno studio volto a migliorare e ottimizzare la computazione della stessa, data l'esponenziale crescita del suo utilizzo. In questa trattazione si vuole analizzare uno degli algoritmi di ottimizzazione più celebri e utilizzati in tal senso: la trasformata veloce di Fourier (Fast Fourier Transformation o FFT). Si delineeranno quindi le caratteristiche salienti della FT, e verrà introdotto l'algoritmo di computazione tramite linguaggio C++ dedicando particolare attenzione ai limiti di applicazione di tale algoritmo e a come poter modificare opportunamente la nostra funzione in modo da ricondurci entro i limiti di validità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Universidade Estadual de Campinas . Faculdade de Educação Física

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A vibração em equipamento industrial pode ser tanto um sinal de que o equipamento está a funcionar normalmente como pode revelar que o mesmo apresenta problemas. É assim importante que o técnico de manutenção consiga distinguir entre níveis normais e aceitáveis de vibração e os que requerem atenção imediata para monitorar. Nesta dissertação é estudado o problema de análise de vibrações em caixas redutoras - uma em bom estado e outra com desgaste no par de engrenagens. A escolha desta dissertação prende-se com a importância e uso generalizado de caixas de engrenagens - neste caso de caixas redutoras - nas grandes indústrias. Como tal, hoje em dia, as caixas redutoras estão geralmente providas de sistema de monitorização “online” que alertam o técnico responsável de quando algo foge dos parâmetros definidos pelo utilizador - aumento súbito de temperatura, de amplitude de vibração, entre outros. Esta dissertação pretende assim responder a algumas questões pertinentes: • Como responde uma caixa redutora quando se variam os parâmetros de velocidade e carga e como as variações dos mesmos se traduzem nos espectros de frequência? • Qual dos parâmetros - velocidade e carga - tem uma maior influência nas amplitudes de vibração registadas para as várias frequências típicas de uma caixa redutora? • O que é registado ao nível do espectro de frequências, no estudo de uma caixa redutora com o defeito de desgaste? • A teoria consultada para as caixas redutoras é comparável com os dados obtidos na prática? • Porquê a importância de utilizar a análise de vibrações quando se monitorizam caixas redutoras? Para ajudar a responder estas questões foi utilizada uma aplicação designada de Enlive, um programa de controlo de condição de máquinas para sistemas “online” - ou seja, para sistemas em contínua monitorização. A análise dos sinais provenientes das caixas redutoras foi realizada com recurso à transformada rápida de Fourier - Fast Fourier Trabsform. No fim da realização desta dissertação foi possível responder a todos os pontos referidos anteriormente. Foi possível confirmar a maior importância do factor carga no aumento da amplitude de engrenamento, harmónicas e bandas laterais. Este aumento é mais pronunciado no caso da caixa redutora com desgaste. A análise de vibrações assume-se assim, mais uma vez, como uma ferramenta importante no diagnóstico de avarias, permitindo poupar tempo e recursos - tanto financeiros como humanos - e salvaguardar a contínua eficácia e produtividade de uma empresa, pois permite diminuir o tempo que uma máquina não se encontra em funcionamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A eletromiografia é, hoje em dia, uma das técnicas mais utilizadas no estudo dos músculos, estando presente em áreas como a medicina, a biomecânica e a fisiologia, possibilitando o desenvolvimento científico e contribuindo para proporcionar melhorias na qualidade da vida humana. Sendo assim, este trabalho apresenta um protótipo de um aparelho de aquisição de sinais eletromiográficos, explicando também toda a teoria, técnicas, componentes utilizadas e softwares que estiveram presentes na sua implementação. De uma forma sucinta, para a aquisição do sinal eletromiográfico usou-se uma placa de aquisição NI-USB 6009 e para a visualização do mesmo recorreu-se ao software LabVIEW. Para validar o sinal adquirido com o equipamento desenvolvido, utilizou-se um outro equipamento, o Biopac MP36 Student Lab System, fazendo-se assim recolhas de sinais eletromiográficos com ambos os equipamentos. Os sinais recolhidos pelos dois equipamentos foram analisados no software Acknowledge 3.9.0 (Biopac Systems, Inc.), podendo observar-se os espetros de frequência correspondentes a cada sinal e retirar valores para posterior análise estatística. Feita essa análise, concluiu-se que não foram detetadas diferenças significativas entre os sinais eletromiográficos recolhidos com ambos os equipamentos, validando-se assim, o equipamento desenvolvido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los procesadores multi-core y el multi-threading por hardware permiten aumentar el rendimiento de las aplicaciones. Por un lado, los procesadores multi-core combinan 2 o más procesadores en un mismo chip. Por otro lado, el multi-threading por hardware es una técnica que incrementa la utilización de los recursos del procesador. Este trabajo presenta un análisis de rendimiento de los resultados obtenidos en dos aplicaciones, multiplicación de matrices densas y transformada rápida de Fourier. Ambas aplicaciones se han ejecutado en arquitecturas multi-core que explotan el paralelismo a nivel de thread pero con un modelo de multi-threading diferente. Los resultados obtenidos muestran la importancia de entender y saber analizar el efecto del multi-core y multi-threading en el rendimiento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O final da Glaciação Neopaleozóica está representado hoje no registro sedimentar da Bacia do Paraná pelas rochas do Grupo Itararé. No Estado do Rio Grande do Sul e no sudeste do Estado de Santa Catarina seus depósitos possuem idade eopermiana, datados desde o Asseliano até o Artinskiano. A partir de dados de testemunhos e de perfis de raios gama de dois poços, um em Santa Catarina (7-RL-04- SC) e outro no Rio Grande do Sul (IB-93-RS), perfurados para pesquisa de carvão pela CPRM (Companhia de Pesquisa de Recursos Minerais), foram feitas análises cicloestratigráficas com o intuito de determinar a existência e a natureza da possível ciclicidade induzida por fenômenos astronômicos presente nesses sedimentos glaciais (basicamente folhelhos e ritmitos). A distância entre as locações originais dos poços (cerca de 380 km) possibilitou testar a influência da indução astronômica em localidades distintas da bacia. Dois métodos de amostragem foram utilizados no estudo, de acordo com a escala dos dados e com a possível indução: os perfis de raios gama (191 m para o 7-RL-04-SC e 71 m para o IB-93-RS) foram digitalizados e amostrados em intervalos de 1 cm, com o intuito de testar a presença de indução pelos ciclos orbitais na escala de 20 mil a 400 mil anos, ou outros fenômenos indutores na escala de 3 mil a 10 mil anos, e os testemunhos foram escaneados nos intervalos com ritmitos, (1,2 m para o 7-RL-04-SC e 38 cm para o IB-93-RS) e transformados em dados em escala de cinza equiespaçados (0,2538 mm), objetivando a busca por ciclos anuais a milenares A análise harmônica pela transformada rápida de Fourier demonstrou a presença de ciclicidade em ambas as escalas: ciclos orbitais, com períodos de cerca de 17 mil a 100 mil anos, foram caracterizados em perfil e ciclos solares, com períodos de cerca de 22 a 1000 anos, foram evidenciados nos testemunhos. Os tempos de acumulação calculados para o poço 7-RL-04-SC nas duas escalas mostraram um alto grau de correlação (cerca de 9400 anos para o intervalo escaneado e aproximadamente 12600 para o mesmo intervalo nos dados do perfil), comprovando a eficiência dos métodos de obtenção dos dados e a utilidade da cicloestratigrafia como ferramenta de análise e refinamento cronoestratigráfico. Quanto às espessas seções de ritmitos, características do Grupo Itararé e presentes nos testemunhos, estas têm sido freqüentemente denominadas de varvitos ou referenciadas como semelhantes a varvitos na literatura. Porém os resultados mostraram que cada par de ritmitos foi depositado em períodos de vinte e dois anos, relacionados aos ciclos solares de Hale. A análise permitiu ainda o estudo das relações existentes entre várias variáveis, como a taxa e o tempo de acumulação, e a definição, na seção do poço 7-RL-04-SC, de seqüências deposicionais de terceira e de quarta ordem. Essas últimas são associadas à indução pelos ciclos orbitais de excentricidade e comparáveis aos períodos glaciais do Pleistoceno, sendo que as taxas de acumulação calculadas para os dados do poço, variando entre 5,2 a 9,3 cm/ka, são muito similares às taxas de acumulação do Pleistoceno. A análise também mostrou que a seção completa do Grupo Itararé no poço IB-93-RS corresponde apenas à cerca de meio ciclo de precessão (12342 anos). Como os dois fenômenos de indução astronômica detectados, os ciclos solares e os orbitais, afetam o clima de maneira global, certamente influenciaram a sedimentação em outros pontos da bacia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos últimos anos, o mercado brasileiro de opções apresentou um forte crescimento, principalmente com o aparecimento da figura dos High Frequency Traders (HFT) em busca de oportunidades de arbitragem, de modo que a escolha adequada do modelo de estimação de volatilidade pode tornar-se um diferencial competitivo entre esses participantes. Este trabalho apresenta as vantagens da adoção do modelo de volatilidade estocástica de Heston (1993) na construção de superfície de volatilidade para o mercado brasileiro de opções de dólar, bem como a facilidade e o ganho computacional da utilização da técnica da Transformada Rápida de Fourier na resolução das equações diferenciais do modelo. Além disso, a partir da calibração dos parâmetros do modelo com os dados de mercado, consegue-se trazer a propriedade de não-arbitragem para a superfície de volatilidade. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.