939 resultados para Procesamiento digital de voz
Resumo:
We propose a study of the mathematical properties of voice as an audio signal -- This work includes signals in which the channel conditions are not ideal for emotion recognition -- Multiresolution analysis- discrete wavelet transform – was performed through the use of Daubechies Wavelet Family (Db1-Haar, Db6, Db8, Db10) allowing the decomposition of the initial audio signal into sets of coefficients on which a set of features was extracted and analyzed statistically in order to differentiate emotional states -- ANNs proved to be a system that allows an appropriate classification of such states -- This study shows that the extracted features using wavelet decomposition are enough to analyze and extract emotional content in audio signals presenting a high accuracy rate in classification of emotional states without the need to use other kinds of classical frequency-time features -- Accordingly, this paper seeks to characterize mathematically the six basic emotions in humans: boredom, disgust, happiness, anxiety, anger and sadness, also included the neutrality, for a total of seven states to identify
Resumo:
We propose a novel analysis alternative, based on two Fourier Transforms for emotion recognition from speech -- Fourier analysis allows for display and synthesizes different signals, in terms of power spectral density distributions -- A spectrogram of the voice signal is obtained performing a short time Fourier Transform with Gaussian windows, this spectrogram portraits frequency related features, such as vocal tract resonances and quasi-periodic excitations during voiced sounds -- Emotions induce such characteristics in speech, which become apparent in spectrogram time-frequency distributions -- Later, the signal time-frequency representation from spectrogram is considered an image, and processed through a 2-dimensional Fourier Transform in order to perform the spatial Fourier analysis from it -- Finally features related with emotions in voiced speech are extracted and presented
Resumo:
Los retos en las actividades de innovación en docencia, se basan en la necesidad de proponer nuevos métodos y estrategias que permitan ampliar y armonizar toda clase de recursos que se tengan disponibles, para potencializar los resultados en el proceso de enseñanza - aprendizaje -- En el caso de la asignatura de rocas metamórficas, es muy común identificar dificultades en los estudiantes en el análisis petrográfico, identificación de minerales, patrones texturales, y relación con curvas de blastesis; por lo anterior se quiso implementar el tratamiento de análisis digital de imágenes (ADI), como una herramienta pedagógica que facilite el aprendizaje de los mismos
Resumo:
Digital rock physics combines modern imaging with advanced numerical simulations to analyze the physical properties of rocks -- In this paper we suggest a special segmentation procedure which is applied to a carbonate rock from Switzerland -- Starting point is a CTscan of a specimen of Hauptmuschelkalk -- The first step applied to the raw image data is a nonlocal mean filter -- We then apply different thresholds to identify pores and solid phases -- Because we are aware of a nonneglectable amount of unresolved microporosity we also define intermediate phases -- Based on this segmentation determine porositydependent values for the pwave velocity and for the permeability -- The porosity measured in the laboratory is then used to compare our numerical data with experimental data -- We observe a good agreement -- Future work includes an analytic validation to the numerical results of the pwave velocity upper bound, employing different filters for the image segmentation and using data with higher resolution
Resumo:
[ES]Este documento va a estudiar el desarrollo de un método alternativo de análisis granulométrico de polvos metálicos de láser cladding por procesamiento digital de imágenes. El concepto de tamaño de partícula, la cual, normalmente, tiene forma irregular, es muy importante de cara a controlar de manera fiable ciertas fases de procesos industriales. Un buen control del tamaño de partícula y de su forma repercute en una mayor calidad del proceso y del producto final. Tradicionalmente, el análisis granulométrico en procesos industriales se ha realizado por el método de tamizado, un método mecánico que consiste en que la muestra de polvo atraviese sucesivamente mallas con orificios progresivamente decrecientes. En los últimos años, los avances tecnológicos han revolucionado los procesos industriales. En concreto, campos como la visión artificial han adquirido gran presencia por tener como ventajas una alta velocidad de operación, gran capacidad de aumento, funcionamiento las 24 horas del día o la repetitividad de las medidas. Su objetivo es normalmente comprobar la conformidad de una pieza de acuerdo a ciertos requisitos especificados. Se propone un método adaptado a las nuevas tecnologías. En concreto, se busca ganar en información, fiabilidad, rapidez y repetitividad respecto a los métodos granulométricos clásicos. Se van a desarrollar algoritmos de análisis haciendo uso de herramientas informáticas y el software comercial Matlab. En el análisis, se van a crear indicadores que permitan caracterizar la muestra con la mayor fiabilidad posible. Finalmente, se van a aplicar los métodos desarrollados en muestras de polvo reales y diversas para comprobar el buen funcionamiento del método.
Resumo:
201 p.
Resumo:
The question of participation has been debated in Brazil since the 1980 decade in search a better way to take care of poulation s demand. More specificaly after the democratic open (1985) begins to be thought ways to make population participates of decisions related to alocation of public resources. The characteristic of participates actualy doesn t exist, population to be carried through is, at top, consulted, and the fact population participates stays restrict to some technics interests at the projects, mainly of public politics of local development. Observe that this implementation happens through a process and that has its limits (pass) that could be surpassed through strategies made to that. This dissertation shows results of a research about participative practices in city of Serrinha between 1997 and 2004, showing through a study of the case of Serrinha what was the process used to carry through these pratices in a moment and local considered model of this application. The analyses were developed through a model of research elaborated by the author based on large literature respects the ideal process to implant a participative public politics. The present research had a qualitative boarding, being explorative and descritive nature. The researcher (author of this dissertation) carried through all the research phases, including the transcriptions of interviews that were recorded with a digital voice recorder. Before the analysis of these data was verified that despite the public manager (former-mayor) had had a real interest in implant a process of local development in city, he was not able to forsee the correct process to do it. Two high faults were made. The first was the intention to have as tool a development plan, what locked up to make this plan was the booster of supossed participative pratice and no the ideal model that would be a plan generate by popular initiative. The second one was absence of a critical education project for the population that should be the fisrt step to carry through a politc like that
Resumo:
[ES] IPOL es una revista científica de procesamiento digital de imágenes y diversos métodos de análisis de imágenes. En cada publicación se incorpora una demo donde cualquier persona puede probar, vía web, el funcionamiento del método descrito en dicha publicación. De esta forma, se puede usar el método sin tener conocimiento de programación ni tener que instalarlo en su ordenador. En este proyecto fin de carrera se quiere desarrollar una aplicación que permita la ejecución de las demos desde un dispositivo móvil. Con ello, se pretende hacer más accesible la ejecución de algoritmo de procesamiento de imágenes y aumentar su divulgación científica.
Resumo:
Las nuevas tecnologías y el procesamiento digital han facilitado considerablemente la lingüística de corpus, por ejemplo Internet es una herramienta fácil y barata para recopilar corpus. Internet es cada vez más popular y más importante para la comunicación a causa de la enorme influencia de los nuevos medios y ha afectado la vida y la sociedad de muchas maneras y en parte, de manera fundamental. No sorprende por eso que la lengua y la comunicación misma se vean afectadas. Uno de los fenómenos más interesantes dentro de la comunicación mediada por ordenadores (CMC) son las redes sociales en línea, que en pocos años se han convertido en un medio de comunicación muy difundido y en expansión continua. Su estudio es particularmente interesante porque debido al desarrollo constante de la tecnología las redes sociales en línea no son una entidad estática, sino que cambian incesantemente, introduciéndose frecuentemente novedades para su uso. Estas novedades están condicionadas por el medio electrónico que a su vez influye decisivamente en el estilo de comunicación empleado en redes sociales como Facebook y Tuenti. Al ser un nuevo medio de interacción social, las redes sociales en línea producen un estilo de comunicación propio. El objetivo de análisis de mi tesis es cómo los usuarios de Facebook y Tuenti de la ciudad de Málaga crean este estilo mediante el uso de rasgos fónicos propios de la variedad andaluza y de qué manera la actitud lingüística de los usuarios influye en el uso de dichos rasgos fónicos. Este estudio se basa en un corpus elaborado a partir de enunciados de informantes en Facebook y Tuenti. Un corpus constituido por transcripciones amplias de grabaciones de hablantes malagueños me sirve de corpus de comparación. Otra herramienta metodológica empleada para recopilar datos será la encuesta: un tipo de encuesta estará destinada a captar las actitudes de los participantes frente a diversos rasgos del habla andaluza/malagueña y otro a examinar por qué la gente utiliza estos rasgos en Facebook y Tuenti. Este estudio se apoya en los resultados de un estudio piloto que muestran que los factores sociales y lingüísticos analizados funcionan de manera distinta en el habla real y virtual. Debido a estos usos diferentes podemos considerar la comunicación electrónica de Facebook y Tuenti como un estilo condicionado por el tipo de espacio virtual. Se trata de un estilo que sirve a los usuarios para crear significado social y para expresar sus identidades a partir de la lengua.
Resumo:
La metodología del número de la curva (NC) es la más empleada para transformar la precipitación total en precipitación efectiva. De esta manera se constituye en una herramienta de gran valor para realizar estudios hidrológicos en cuencas hidrográficas, fundamentalmente cuando hay una deficiencia de registros extensos y confiables. Esta metodología requiere del conocimiento del tipo y uso de suelo de la cuenca en estudio y registros pluviográficos. En el presente trabajo se aplicó el procesamiento de imágenes LANDSAT para la zonificación de la vegetación y uso del suelo en la cuenca del Arroyo Pillahuinco Grande (38° LS y 61° 15' LW), ubicada sobre el sistema serrano de La Ventana, en el sudoeste de la provincia de Buenos Aires, Argentina. El análisis de su interrelación generó los valores de NC y coeficiente de escorrentía (CE). El procesamiento digital de la base de datos raster georreferenciada se realizó con aplicación de herramientas de sistema de información geográfica (Idrisi Kilimanjaro). El análisis de regresión múltiple efectuado a las variables generó un R2 que explica el 89,77 % de la variabilidad de CE (a < 0,01). Los resultados se exponen a nivel diagnóstico y zonificación del NC, donde la mayor influencia de la escorrentía se relaciona con las variables cobertura vegetal y uso del suelo.
Resumo:
El riego es una construcción social. Esto no ha sido tenido suficientemente en cuenta en la gestión de áreas con riesgo recurrente de excesos o déficit hídricos. Por otra parte, la vulnerabilidad social se define por las condiciones sociales, económicas, culturales e institucionales de una sociedad, previas a la ocurrencia de un evento catastrófico que la predispone para sufrir o evitar daños. Las consecuencias que dejó el temporal ocurrido el 2 de abril de 2013 cuando precipitaron sobre el área de la Ciudad de La Plata y sus alrededores aproximadamente unos 400 mm de los cuales 313 mm lo hicieron en tan sólo seis horas se cobró 60 vidas (cifra oficialmente reconocida por las autoridades), 357.500 ciudadanos damnificados, lo que equivale a más del 55 por ciento del total de la población del partido de La Plata y 2.600 millones de pesos en pérdidas materiales. Este fenómeno supone la presentación de alternativas de manejo del riesgo hídrico que tenga en cuenta las condiciones de recurrencia de las inundaciones e identificar los grupos sociales con algún nivel de necesidades básicas insatisfechas que se encuentran vulnerables a la recurrencia de estos eventos. Para ello, se propone una metodología capaz de alertar a los actores involucrados sobre el estado de criticidad de las áreas identificadas como más vulnerables mediante la utilización de los Sistemas de Información Geográfica (SIG) que posibilitan integrar la información estadística a nivel de radio censal proveniente del Censo Nacional de Población, Hogares y Viviendas 2010 con productos provenientes del procesamiento digital de imágenes satelitales
Resumo:
El riego es una construcción social. Esto no ha sido tenido suficientemente en cuenta en la gestión de áreas con riesgo recurrente de excesos o déficit hídricos. Por otra parte, la vulnerabilidad social se define por las condiciones sociales, económicas, culturales e institucionales de una sociedad, previas a la ocurrencia de un evento catastrófico que la predispone para sufrir o evitar daños. Las consecuencias que dejó el temporal ocurrido el 2 de abril de 2013 cuando precipitaron sobre el área de la Ciudad de La Plata y sus alrededores aproximadamente unos 400 mm de los cuales 313 mm lo hicieron en tan sólo seis horas se cobró 60 vidas (cifra oficialmente reconocida por las autoridades), 357.500 ciudadanos damnificados, lo que equivale a más del 55 por ciento del total de la población del partido de La Plata y 2.600 millones de pesos en pérdidas materiales. Este fenómeno supone la presentación de alternativas de manejo del riesgo hídrico que tenga en cuenta las condiciones de recurrencia de las inundaciones e identificar los grupos sociales con algún nivel de necesidades básicas insatisfechas que se encuentran vulnerables a la recurrencia de estos eventos. Para ello, se propone una metodología capaz de alertar a los actores involucrados sobre el estado de criticidad de las áreas identificadas como más vulnerables mediante la utilización de los Sistemas de Información Geográfica (SIG) que posibilitan integrar la información estadística a nivel de radio censal proveniente del Censo Nacional de Población, Hogares y Viviendas 2010 con productos provenientes del procesamiento digital de imágenes satelitales
Resumo:
El riego es una construcción social. Esto no ha sido tenido suficientemente en cuenta en la gestión de áreas con riesgo recurrente de excesos o déficit hídricos. Por otra parte, la vulnerabilidad social se define por las condiciones sociales, económicas, culturales e institucionales de una sociedad, previas a la ocurrencia de un evento catastrófico que la predispone para sufrir o evitar daños. Las consecuencias que dejó el temporal ocurrido el 2 de abril de 2013 cuando precipitaron sobre el área de la Ciudad de La Plata y sus alrededores aproximadamente unos 400 mm de los cuales 313 mm lo hicieron en tan sólo seis horas se cobró 60 vidas (cifra oficialmente reconocida por las autoridades), 357.500 ciudadanos damnificados, lo que equivale a más del 55 por ciento del total de la población del partido de La Plata y 2.600 millones de pesos en pérdidas materiales. Este fenómeno supone la presentación de alternativas de manejo del riesgo hídrico que tenga en cuenta las condiciones de recurrencia de las inundaciones e identificar los grupos sociales con algún nivel de necesidades básicas insatisfechas que se encuentran vulnerables a la recurrencia de estos eventos. Para ello, se propone una metodología capaz de alertar a los actores involucrados sobre el estado de criticidad de las áreas identificadas como más vulnerables mediante la utilización de los Sistemas de Información Geográfica (SIG) que posibilitan integrar la información estadística a nivel de radio censal proveniente del Censo Nacional de Población, Hogares y Viviendas 2010 con productos provenientes del procesamiento digital de imágenes satelitales
Resumo:
Este proyecto tiene como objetivo el desarrollo de una interfaz MIDI, basada en técnicas de procesamiento digital de la imagen, capaz de controlar diversos parámetros de un software de audio mediante información gestual: el movimiento de las manos. La imagen es capturada por una cámara Kinect comercial y los datos obtenidos por ésta son procesados en tiempo real. La finalidad es convertir la posición de varios puntos de control de nuestro cuerpo en información de control musical MIDI. La interfaz ha sido desarrollada en el lenguaje y entorno de programación Processing, el cual está basado en Java, es de libre distribución y de fácil utilización. El software de audio seleccionado es Ableton Live, versión 8.2.2, elegido porque es útil tanto para la composición musical como para la música en directo, y esto último es la principal utilidad que se le pretende dar a la interfaz. El desarrollo del proyecto se divide en dos bloques principales: el primero, diseño gráfico del controlador, y el segundo, la gestión de la información musical. En el primer apartado se justifica el diseño del controlador, formado por botones virtuales: se explica el funcionamiento y, brevemente, la función de cada botón. Este último tema es tratado en profundidad en el Anexo II: Manual de usuario. En el segundo bloque se explica el camino que realiza la información MIDI desde el procesador gestual hasta el sintetizador musical. Este camino empieza en Processing, desde donde se mandan los mensajes que más tarde son interpretados por el secuenciador seleccionado, Ableton Live. Una vez terminada la explicación con detalle del desarrollo del proyecto se exponen las conclusiones del autor acerca del desarrollo del proyecto, donde se encuentran los pros y los contras a tener en cuenta para poder sacar el máximo provecho en el uso del controlador . En este mismo bloque de la memoria se exponen posibles líneas futuras a desarrollar. Se facilita también un presupuesto, desglosado en costes materiales y de personal. ABSTRACT. The aim of this project is the development of a MIDI interface based on image digital processing techniques, able to control several parameters of an audio software using gestural information, the movement of the hands. The image is captured by a commercial Kinect camera and the data obtained by it are processed in real time. The purpose is to convert the position of various points of our body into MIDI musical control information. The interface has been developed in the Processing programming language and environment which is based on Java, freely available and easy to used. The audio software selected is Ableton Live, version 8.2.2, chosen because it is useful for both music composition and live music, and the latter is the interface main intended utility. The project development is divided into two main blocks: the controller graphic design, and the information management. The first section justifies the controller design, consisting of virtual buttons: it is explained the operation and, briefly, the function of each button. This latter topic is covered in detail in Annex II: user manual. In the second section it is explained the way that the MIDI information makes from the gestural processor to the musical synthesizer. It begins in Processing, from where the messages, that are later interpreted by the selected sequencer, Ableton Live, are sent. Once finished the detailed explanation of the project development, the author conclusions are presented, among which are found the pros and cons to take into account in order to take full advantage in the controller use. In this same block are explained the possible future aspects to develop. It is also provided a budget, broken down into material and personal costs.
Resumo:
Esta tesis está incluida dentro del campo del campo de Multiband Orthogonal Frequency Division Multiplexing Ultra Wideband (MB-OFDM UWB), el cual ha adquirido una gran importancia en las comunicaciones inalámbricas de alta tasa de datos en la última década. UWB surgió con el objetivo de satisfacer la creciente demanda de conexiones inalámbricas en interiores y de uso doméstico, con bajo coste y alta velocidad. La disponibilidad de un ancho de banda grande, el potencial para alta velocidad de transmisión, baja complejidad y bajo consumo de energía, unido al bajo coste de implementación, representa una oportunidad única para que UWB se convierta en una solución ampliamente utilizada en aplicaciones de Wireless Personal Area Network (WPAN). UWB está definido como cualquier transmisión que ocupa un ancho de banda de más de 20% de su frecuencia central, o más de 500 MHz. En 2002, la Comisión Federal de Comunicaciones (FCC) definió que el rango de frecuencias de transmisión de UWB legal es de 3.1 a 10.6 GHz, con una energía de transmisión de -41.3 dBm/Hz. Bajo las directrices de FCC, el uso de la tecnología UWB puede aportar una enorme capacidad en las comunicaciones de corto alcance. Considerando las ecuaciones de capacidad de Shannon, incrementar la capacidad del canal requiere un incremento lineal en el ancho de banda, mientras que un aumento similar de la capacidad de canal requiere un aumento exponencial en la energía de transmisión. En los últimos años, s diferentes desarrollos del UWB han sido extensamente estudiados en diferentes áreas, entre los cuales, el protocolo de comunicaciones inalámbricas MB-OFDM UWB está considerado como la mejor elección y ha sido adoptado como estándar ISO/IEC para los WPANs. Combinando la modulación OFDM y la transmisión de datos utilizando las técnicas de salto de frecuencia, el sistema MB-OFDM UWB es capaz de soportar tasas de datos con que pueden variar de los 55 a los 480 Mbps, alcanzando una distancia máxima de hasta 10 metros. Se esperara que la tecnología MB-OFDM tenga un consumo energético muy bajo copando un are muy reducida en silicio, proporcionando soluciones de bajo coste que satisfagan las demandas del mercado. Para cumplir con todas estas expectativas, el desarrollo y la investigación del MBOFDM UWB deben enfrentarse a varios retos, como son la sincronización de alta sensibilidad, las restricciones de baja complejidad, las estrictas limitaciones energéticas, la escalabilidad y la flexibilidad. Tales retos requieren un procesamiento digital de la señal de última generación, capaz de desarrollar sistemas que puedan aprovechar por completo las ventajas del espectro UWB y proporcionar futuras aplicaciones inalámbricas en interiores. Esta tesis se centra en la completa optimización de un sistema de transceptor de banda base MB-OFDM UWB digital, cuyo objetivo es investigar y diseñar un subsistema de comunicación inalámbrica para la aplicación de las Redes de Sensores Inalámbricas Visuales. La complejidad inherente de los procesadores FFT/IFFT y el sistema de sincronización así como la alta frecuencia de operación para todos los elementos de procesamiento, se convierten en el cuello de la botella para el diseño y la implementación del sistema de UWB digital en base de banda basado en MB-OFDM de baja energía. El objetivo del transceptor propuesto es conseguir baja energía y baja complejidad bajo la premisa de un alto rendimiento. Las optimizaciones están realizadas tanto a nivel algorítmico como a nivel arquitectural para todos los elementos del sistema. Una arquitectura hardware eficiente en consumo se propone en primer lugar para aquellos módulos correspondientes a núcleos de computación. Para el procesado de la Transformada Rápida de Fourier (FFT/IFFT), se propone un algoritmo mixed-radix, basado en una arquitectura con pipeline y se ha desarrollado un módulo de Decodificador de Viterbi (VD) equilibrado en coste-velocidad con el objetivo de reducir el consumo energético e incrementar la velocidad de procesamiento. También se ha implementado un correlador signo-bit simple basado en la sincronización del tiempo de símbolo es presentado. Este correlador es usado para detectar y sincronizar los paquetes de OFDM de forma robusta y precisa. Para el desarrollo de los subsitemas de procesamiento y realizar la integración del sistema completo se han empleado tecnologías de última generación. El dispositivo utilizado para el sistema propuesto es una FPGA Virtex 5 XC5VLX110T del fabricante Xilinx. La validación el propuesta para el sistema transceptor se ha implementado en dicha placa de FPGA. En este trabajo se presenta un algoritmo, y una arquitectura, diseñado con filosofía de co-diseño hardware/software para el desarrollo de sistemas de FPGA complejos. El objetivo principal de la estrategia propuesta es de encontrar una metodología eficiente para el diseño de un sistema de FPGA configurable optimizado con el empleo del mínimo esfuerzo posible en el sistema de procedimiento de verificación, por tanto acelerar el periodo de desarrollo del sistema. La metodología de co-diseño presentada tiene la ventaja de ser fácil de usar, contiene todos los pasos desde la propuesta del algoritmo hasta la verificación del hardware, y puede ser ampliamente extendida para casi todos los tipos de desarrollos de FPGAs. En este trabajo se ha desarrollado sólo el sistema de transceptor digital de banda base por lo que la comprobación de señales transmitidas a través del canal inalámbrico en los entornos reales de comunicación sigue requiriendo componentes RF y un front-end analógico. No obstante, utilizando la metodología de co-simulación hardware/software citada anteriormente, es posible comunicar el sistema de transmisor y el receptor digital utilizando los modelos de canales propuestos por IEEE 802.15.3a, implementados en MATLAB. Por tanto, simplemente ajustando las características de cada modelo de canal, por ejemplo, un incremento del retraso y de la frecuencia central, podemos estimar el comportamiento del sistema propuesto en diferentes escenarios y entornos. Las mayores contribuciones de esta tesis son: • Se ha propuesto un nuevo algoritmo 128-puntos base mixto FFT usando la arquitectura pipeline multi-ruta. Los complejos multiplicadores para cada etapa de procesamiento son diseñados usando la arquitectura modificada shiftadd. Los sistemas word length y twiddle word length son comparados y seleccionados basándose en la señal para cuantización del SQNR y el análisis de energías. • El desempeño del procesador IFFT es analizado bajo diferentes situaciones aritméticas de bloques de punto flotante (BFP) para el control de desbordamiento, por tanto, para encontrar la arquitectura perfecta del algoritmo IFFT basado en el procesador FFT propuesto. • Para el sistema de receptor MB-OFDM UWB se ha empleado una sincronización del tiempo innovadora, de baja complejidad y esquema de compensación, que consiste en funciones de Detector de Paquetes (PD) y Estimación del Offset del tiempo. Simplificando el cross-correlation y maximizar las funciones probables solo a sign-bit, la complejidad computacional se ve reducida significativamente. • Se ha propuesto un sistema de decodificadores Viterbi de 64 estados de decisión-débil usando velocidad base-4 de arquitectura suma-comparaselecciona. El algoritmo Two-pointer Even también es introducido en la unidad de rastreador de origen con el objetivo de conseguir la eficiencia en el hardware. • Se han integrado varias tecnologías de última generación en el completo sistema transceptor basebanda , con el objetivo de implementar un sistema de comunicación UWB altamente optimizado. • Un diseño de flujo mejorado es propuesto para el complejo sistema de implementación, el cual puede ser usado para diseños de Cadena de puertas de campo programable general (FPGA). El diseño mencionado no sólo reduce dramáticamente el tiempo para la verificación funcional, sino también provee un análisis automático como los errores del retraso del output para el sistema de hardware implementado. • Un ambiente de comunicación virtual es establecido para la validación del propuesto sistema de transceptores MB-OFDM. Este método es provisto para facilitar el uso y la conveniencia de analizar el sistema digital de basebanda sin parte frontera analógica bajo diferentes ambientes de comunicación. Esta tesis doctoral está organizada en seis capítulos. En el primer capítulo se encuentra una breve introducción al campo del UWB, tanto relacionado con el proyecto como la motivación del desarrollo del sistema de MB-OFDM. En el capítulo 2, se presenta la información general y los requisitos del protocolo de comunicación inalámbrica MBOFDM UWB. En el capítulo 3 se habla de la arquitectura del sistema de transceptor digital MB-OFDM de banda base . El diseño del algoritmo propuesto y la arquitectura para cada elemento del procesamiento está detallado en este capítulo. Los retos de diseño del sistema que involucra un compromiso de discusión entre la complejidad de diseño, el consumo de energía, el coste de hardware, el desempeño del sistema, y otros aspectos. En el capítulo 4, se ha descrito la co-diseñada metodología de hardware/software. Cada parte del flujo del diseño será detallado con algunos ejemplos que se ha hecho durante el desarrollo del sistema. Aprovechando esta estrategia de diseño, el procedimiento de comunicación virtual es llevado a cabo para probar y analizar la arquitectura del transceptor propuesto. Los resultados experimentales de la co-simulación y el informe sintético de la implementación del sistema FPGA son reflejados en el capítulo 5. Finalmente, en el capítulo 6 se incluye las conclusiones y los futuros proyectos, y también los resultados derivados de este proyecto de doctorado. ABSTRACT In recent years, the Wireless Visual Sensor Network (WVSN) has drawn great interest in wireless communication research area. They enable a wealth of new applications such as building security control, image sensing, and target localization. However, nowadays wireless communication protocols (ZigBee, Wi-Fi, and Bluetooth for example) cannot fully satisfy the demands of high data rate, low power consumption, short range, and high robustness requirements. New communication protocol is highly desired for such kind of applications. The Ultra Wideband (UWB) wireless communication protocol, which has increased in importance for high data rate wireless communication field, are emerging as an important topic for WVSN research. UWB has emerged as a technology that offers great promise to satisfy the growing demand for low-cost, high-speed digital wireless indoor and home networks. The large bandwidth available, the potential for high data rate transmission, and the potential for low complexity and low power consumption, along with low implementation cost, all present a unique opportunity for UWB to become a widely adopted radio solution for future Wireless Personal Area Network (WPAN) applications. UWB is defined as any transmission that occupies a bandwidth of more than 20% of its center frequency, or more than 500 MHz. In 2002, the Federal Communications Commission (FCC) has mandated that UWB radio transmission can legally operate in the range from 3.1 to 10.6 GHz at a transmitter power of -41.3 dBm/Hz. Under the FCC guidelines, the use of UWB technology can provide enormous capacity over short communication ranges. Considering Shannon’s capacity equations, increasing the channel capacity requires linear increasing in bandwidth, whereas similar channel capacity increases would require exponential increases in transmission power. In recent years, several different UWB developments has been widely studied in different area, among which, the MB-OFDM UWB wireless communication protocol is considered to be the leading choice and has recently been adopted in the ISO/IEC standard for WPANs. By combing the OFDM modulation and data transmission using frequency hopping techniques, the MB-OFDM UWB system is able to support various data rates, ranging from 55 to 480 Mbps, over distances up to 10 meters. The MB-OFDM technology is expected to consume very little power and silicon area, as well as provide low-cost solutions that can satisfy consumer market demands. To fulfill these expectations, MB-OFDM UWB research and development have to cope with several challenges, which consist of high-sensitivity synchronization, low- complexity constraints, strict power limitations, scalability, and flexibility. Such challenges require state-of-the-art digital signal processing expertise to develop systems that could fully take advantages of the UWB spectrum and support future indoor wireless applications. This thesis focuses on fully optimization for the MB-OFDM UWB digital baseband transceiver system, aiming at researching and designing a wireless communication subsystem for the Wireless Visual Sensor Networks (WVSNs) application. The inherent high complexity of the FFT/IFFT processor and synchronization system, and high operation frequency for all processing elements, becomes the bottleneck for low power MB-OFDM based UWB digital baseband system hardware design and implementation. The proposed transceiver system targets low power and low complexity under the premise of high performance. Optimizations are made at both algorithm and architecture level for each element of the transceiver system. The low-power hardwareefficient structures are firstly proposed for those core computation modules, i.e., the mixed-radix algorithm based pipelined architecture is proposed for the Fast Fourier Transform (FFT/IFFT) processor, and the cost-speed balanced Viterbi Decoder (VD) module is developed, in the aim of lowering the power consumption and increasing the processing speed. In addition, a low complexity sign-bit correlation based symbol timing synchronization scheme is presented so as to detect and synchronize the OFDM packets robustly and accurately. Moreover, several state-of-the-art technologies are used for developing other processing subsystems and an entire MB-OFDM digital baseband transceiver system is integrated. The target device for the proposed transceiver system is Xilinx Virtex 5 XC5VLX110T FPGA board. In order to validate the proposed transceiver system in the FPGA board, a unified algorithm-architecture-circuit hardware/software co-design environment for complex FPGA system development is presented in this work. The main objective of the proposed strategy is to find an efficient methodology for designing a configurable optimized FPGA system by using as few efforts as possible in system verification procedure, so as to speed up the system development period. The presented co-design methodology has the advantages of easy to use, covering all steps from algorithm proposal to hardware verification, and widely spread for almost all kinds of FPGA developments. Because only the digital baseband transceiver system is developed in this thesis, the validation of transmitting signals through wireless channel in real communication environments still requires the analog front-end and RF components. However, by using the aforementioned hardware/software co-simulation methodology, the transmitter and receiver digital baseband systems get the opportunity to communicate with each other through the channel models, which are proposed from the IEEE 802.15.3a research group, established in MATLAB. Thus, by simply adjust the characteristics of each channel model, e.g. mean excess delay and center frequency, we can estimate the transmission performance of the proposed transceiver system through different communication situations. The main contributions of this thesis are: • A novel mixed radix 128-point FFT algorithm by using multipath pipelined architecture is proposed. The complex multipliers for each processing stage are designed by using modified shift-add architectures. The system wordlength and twiddle word-length are compared and selected based on Signal to Quantization Noise Ratio (SQNR) and power analysis. • IFFT processor performance is analyzed under different Block Floating Point (BFP) arithmetic situations for overflow control, so as to find out the perfect architecture of IFFT algorithm based on the proposed FFT processor. • An innovative low complex timing synchronization and compensation scheme, which consists of Packet Detector (PD) and Timing Offset Estimation (TOE) functions, for MB-OFDM UWB receiver system is employed. By simplifying the cross-correlation and maximum likelihood functions to signbit only, the computational complexity is significantly reduced. • A 64 state soft-decision Viterbi Decoder system by using high speed radix-4 Add-Compare-Select architecture is proposed. Two-pointer Even algorithm is also introduced into the Trace Back unit in the aim of hardware-efficiency. • Several state-of-the-art technologies are integrated into the complete baseband transceiver system, in the aim of implementing a highly-optimized UWB communication system. • An improved design flow is proposed for complex system implementation which can be used for general Field-Programmable Gate Array (FPGA) designs. The design method not only dramatically reduces the time for functional verification, but also provides automatic analysis such as errors and output delays for the implemented hardware systems. • A virtual communication environment is established for validating the proposed MB-OFDM transceiver system. This methodology is proved to be easy for usage and convenient for analyzing the digital baseband system without analog frontend under different communication environments. This PhD thesis is organized in six chapters. In the chapter 1 a brief introduction to the UWB field, as well as the related work, is done, along with the motivation of MBOFDM system development. In the chapter 2, the general information and requirement of MB-OFDM UWB wireless communication protocol is presented. In the chapter 3, the architecture of the MB-OFDM digital baseband transceiver system is presented. The design of the proposed algorithm and architecture for each processing element is detailed in this chapter. Design challenges of such system involve trade-off discussions among design complexity, power consumption, hardware cost, system performance, and some other aspects. All these factors are analyzed and discussed. In the chapter 4, the hardware/software co-design methodology is proposed. Each step of this design flow will be detailed by taking some examples that we met during system development. Then, taking advantages of this design strategy, the Virtual Communication procedure is carried out so as to test and analyze the proposed transceiver architecture. Experimental results from the co-simulation and synthesis report of the implemented FPGA system are given in the chapter 5. The chapter 6 includes conclusions and future work, as well as the results derived from this PhD work.