162 resultados para Forgiveness of sin


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La inmensa mayoría de los flujos de relevancia ingenieril permanecen sin estudiar en el marco de la teoría de estabilidad global. Esto es debido a dos razones fundamentalmente, las dificultades asociadas con el análisis de los flujos turbulentos y los inmensos recursos computacionales requeridos para obtener la solución del problema de autovalores asociado al análisis de inestabilidad de flujos tridimensionales, también conocido como problema TriGlobal. En esta tesis se aborda el problema asociado con la tridimensionalidad. Se ha desarrollado una metodología general para obtener soluciones de problemas de análisis modal de las inestabilidades lineales globales mediante el acoplamiento de métodos de evolución temporal, desarrollados en este trabajo, con códigos de mecánica de fluidos computacional de segundo orden, utilizados de forma general en la industria. Esta metodología consiste en la resolución del problema de autovalores asociado al análisis de inestabilidad mediante métodos de proyección en subespacios de Krylov, con la particularidad de que dichos subespacios son generados por medio de la integración temporal de un vector inicial usando cualquier código de mecánica de fluidos computacional. Se han elegido tres problemas desafiantes en función de la exigencia de recursos computacionales necesarios y de la complejidad física para la demostración de la presente metodología: (i) el flujo en el interior de una cavidad tridimensional impulsada por una de sus tapas, (ii) el flujo alrededor de un cilindro equipado con aletas helicoidales a lo largo su envergadura y (iii) el flujo a través de una cavidad abierta tridimensinal en ausencia de homogeneidades espaciales. Para la validación de la tecnología se ha obtenido la solución del problema TriGlobal asociado al flujo en la cavidad tridimensional, utilizando el método de evolución temporal desarrollado acoplado con los operadores numéricos de flujo incompresible del código CFD OpenFOAM (código libre). Los resultados obtenidos coinciden plentamente con la literatura. La aplicación de esta metodología al estudio de inestabilidades globales de flujos abiertos tridimensionales ha proporcionado por primera vez, información sobre la transición tridimensional de estos flujos. Además, la metodología ha sido adaptada para resolver problemas adjuntos TriGlobales, permitiendo el control de flujo basado en modificaciones de las inestabilidades globales. Finalmente, se ha demostrado que la cantidad moderada de los recursos computacionales requeridos para la solución del problema de valor propio TriGlobal usando este método numérico, junto a su versatilidad al poder acoplarse a cualquier código aerodinámico, permite la realización de análisis de inestabilidad global y control de flujos complejos de relevancia industrial. Abstract Most flows of engineering relevance still remain unexplored in a global instability theory context for two reasons. First, because of the difficulties associated with the analysis of turbulent flows and, second, for the formidable computational resources required for the solution of the eigenvalue problem associated with the instability analysis of three-dimensional base flows, also known as TriGlobal problem. In this thesis, the problem associated with the three-dimensionality is addressed by means of the development of a general approach to the solution of large-scale global linear instability analysis by coupling a time-stepping approach with second order aerodynamic codes employed in industry. Three challenging flows in the terms of required computational resources and physical complexity have been chosen for demonstration of the present methodology; (i) the flow inside a wall-bounded three-dimensional lid-driven cavity, (ii) the flow past a cylinder fitted with helical strakes and (iii) the flow over a inhomogeneous three-dimensional open cavity. Results in excellent agreement with the literature have been obtained for the three-dimensional lid-driven cavity by using this methodology coupled with the incompressible solver of the open-source toolbox OpenFOAM®, which has served as validation. Moreover, significant physical insight of the instability of three-dimensional open flows has been gained through the application of the present time-stepping methodology to the other two cases. In addition, modifications to the present approach have been proposed in order to perform adjoint instability analysis of three-dimensional base flows and flow control; validation and TriGlobal examples are presented. Finally, it has been demonstrated that the moderate amount of computational resources required for the solution of the TriGlobal eigenvalue problem using this method enables the performance of instability analysis and control of flows of industrial relevance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this thesis is the subjective and objective evaluation of angledependent absorption coefficients. As the assumption of a constant absorption coefficient over the angle of incidence is not always held, a new model acknowledging an angle-dependent reflection must be considered, to get a more accurate prediction in the sound field. The study provides information about the behavior of different materials in several rooms, depending on the reflection modeling of incident sound waves. An objective evaluation was run for an implementation of angle-dependent reflection factors in the image source and ray tracing simulation models. Results obtained were analysed after comparison to diffuse-field averaged data. However, changes in acoustic characteristics of a room do not always mean a variation in the listener’s perception. Thus, additional subjective evaluation allowed a comparison between the different results obtained with the computer simulation and the response from the individuals who participated in the listening test. The listening test was designed following a three-alternative forced-choice (3AFC) paradigm. In each interaction asked to the subjects a sequence of either three pink noise bursts or three natural signals was alternated. These results were supposed to show the influence and perception of the two different ways to implement surface reflection –either with diffuse or angle-dependent absorption properties. Results show slightly audible effects when material properties were exaggerated. El objetivo de este trabajo es la evaluación objetiva y subjetiva del coeficiente de absorción en función del ángulo de incidencia de la onda de sonido. La suposición de un coeficiente de absorción constante con respecto al ángulo de incidencia no siempre se sostiene. Por ello, un nuevo modelo considerando la reflexión dependiente del ángulo se debe tener en cuenta para obtener predicciones más certeras en el campo del sonido. El estudio proporciona información sobre el comportamiento de diferentes materiales en distintos recintos, dependientes del modelo de reflexión de las ondas de sonido incidentes. Debido a las dificultades a la hora de realizar las medidas y, por lo tanto, a la falta de datos, los coeficientes de absorción dependientes del ángulo a menudo no se tienen en cuenta a la hora de realizar las simulaciones. Hoy en día, aún no hay una tendencia de aplicar el coeficiente de absorción dependiente del ángulo para mejorar los modelos de reflexión. Por otra parte, para una medición satisfactoria de la absorción dependiente del ángulo, sólo hay unos pocos métodos. Las técnicas de medición actuales llevan mucho tiempo y hay algunos materiales, condiciones y ángulos que no pueden ser reproducidos y, por lo tanto, no es posible su medición. Sin embargo, en el presente estudio, los ángulos de incidencia de las ondas de sonido son conocidos y almacenados en una de base de datos para cada uno de los materiales, de modo que los coeficientes de absorción para el ángulo dado pueden ser devueltos siempre que sean requeridos por el usuario. Para realizar el estudio se llevó a cabo una evaluación objetiva, por medio de la implementación del factor de reflexión dependiente del ángulo en los modelos de fuentes imagen y trazado de rayos. Los resultados fueron analizados después de ser comparados con el promedio de los datos obtenidos en medidas en el campo difuso. La simulación se hizo una vez se configuraron un número de materiales creados por el autor, a partir de los datos existentes en la literatura y los catálogos de fabricantes. Los modelos de Komatsu y Mechel sirvieron como referencia para los materiales porosos, configurando la resistividad al aire o el grosor, y para los paneles perforados, introduciendo el radio de los orificios y la distancia entre centros, respectivamente. Estos materiales se situaban en la pared opuesta a la que se consideraba que debía alojar a la fuente sonora. El resto de superficies se modelaban con el mismo material, variando su coeficiente de absorción y/o de dispersión. Al mismo tiempo, una serie de recintos fueron modelados para poder reproducir distintos escenarios de los que obtener los resultados. Sin embargo, los cambios en las características acústicas de un recinto no significan variaciones en la percepción por parte del oyente. Por ello, una evaluación subjetiva adicional permitió una comparación entre los diferentes resultados obtenidos mediante la simulación informática y la respuesta de los individuos que participaron en la prueba de escucha. Ésta fue diseñada bajo las pautas del modelo de test three-alternative forced-choice (3AFC), con treinta y dos preguntas diferentes. En cada iteración los sujetos fueron preguntados por una secuencia alterna entre tres señales, siendo dos de ellas iguales. Éstas podían ser tanto ráfagas de ruido rosa como señales naturales, en este test se utilizó un fragmento de una obra clásica interpretada por un piano. Antes de contestar al cuestionario, los bloques de preguntas eran ordenados al azar. Para cada ensayo, la mezcla era diferente, así los sujetos no repetían la misma prueba, evitando un sesgo por efectos de aprendizaje. Los bloques se barajaban recordando siempre el orden inicial, para después almacenar los resultados reordenados. La prueba de escucha fue realizada por veintitrés personas, toda ellas con conocimientos dentro del campo de la acústica. Antes de llevar a cabo la prueba de escucha en un entorno adecuado, una hoja con las instrucciones fue facilitada a cada persona. Los resultados muestran la influencia y percepción de las dos maneras distintas de implementar las reflexiones de una superficie –ya sea con respecto a la propiedad de difusión o de absorción dependiente del ángulo de los materiales. Los resultados objetivos, después de ejecutar las simulaciones, muestran los datos medios obtenidos para comprender el comportamiento de distintos materiales de acuerdo con el modelo de reflexión utilizado en el caso de estudio. En las tablas proporcionadas en la memoria se muestran los valores del tiempo de reverberación, la claridad y el tiempo de caída temprana. Los datos de las características del recinto obtenidos en este análisis tienen una fuerte dependencia respecto al coeficiente de absorción de los diferentes materiales que recubren las superficies del cuarto. En los resultados subjetivos, la media de percepción, a la hora de distinguir las distintas señales, por parte de los sujetos, se situó significativamente por debajo del umbral marcado por el punto de inflexión de la función psicométrica. Sin embargo, es posible concluir que la mayoría de los individuos tienden a ser capaces de detectar alguna diferencia entre los estímulos presentados en el 3AFC test. En conclusión, la hipótesis de que los valores del coeficiente de absorción dependiente del ángulo difieren es contrastada. Pero la respuesta subjetiva de los individuos muestra que únicamente hay ligeras variaciones en la percepción si el coeficiente varía en intervalos pequeños entre los valores manejados en la simulación. Además, si los parámetros de los materiales acústicos no son exagerados, los sujetos no perciben ninguna variación. Los primeros resultados obtenidos, proporcionando información respecto a la dependencia del ángulo, llevan a una nueva consideración en el campo de la acústica, y en la realización de nuevos proyectos en el futuro. Para futuras líneas de investigación, las simulaciones se deberían realizar con distintos tipos de recintos, buscando escenarios con geometrías irregulares. También, la implementación de distintos materiales para obtener resultados más certeros. Otra de las fases de los futuros proyectos puede realizarse teniendo en cuenta el coeficiente de dispersión dependiente del ángulo de incidencia de la onda de sonido. En la parte de la evaluación subjetiva, realizar una serie de pruebas de escucha con distintos individuos, incluyendo personas sin una formación relacionada con la ingeniería acústica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As a consequence of cinema screens being placed in front of screen-speakers, a reduction in sound quality has been noticed. Cinema screens not only let the sound go through them, but also absorb a small amount of it and reflect the sound which impacts on the screen to the back, coming forward again in case it impacts on the loudspeaker. This backwards reflection in addition to the signal coming from the loudspeaker can lead to constructive or destructive interference at certain frequencies which usually results in comb filtering. In this project, this effect has been studied through researching amongst various data sheet provided by different manufacturers, acoustical measurements completed in the large anechoic chamber of the ISVR and some theoretical models developed with MatLab software. If results obtained with MatLab are accurate enough in comparison to the real measurements taken in the anechoic chamber this would lead to a good way to predict which would be the attenuation added to the system at each frequency, given that not all manufacturers provide an attenuation curve, but only an average attenuation. This average attenuation might be useless as sound waves have different wavelengths and its propagation through partitions varies. In fact, sound is composed by high and low frequencies, where high frequencies are characterised by a small wavelength which is usually easier to attenuate than low frequencies that characterised by bigger wavelengths. Furthermore, this information would be of great value to both screen manufacturers, who could offer a much more precise data in their data sheets; and customers, who would have a great amount of information to their disposal before purchasing and installing anything in their cinemas, being able to know by themselves which screen or loudspeaker should be best to meet their expectative. RESUMEN. La aparición de la digitalización de las bandas sonoras para las películas hace posible la mejora en la calidad de sonido de los cines. Sin embargo, un aspecto a tener en cuenta en esta calidad del sonido es la transmisión de éste a través de la pantalla, ya que normalmente tras ella se encuentran situados los altavoces. Las propiedades acústicas varían dependiendo del tipo de pantalla que se utilice, además de haber poca información a la que acceder para poder valorar su comportamiento. A lo largo de este proyecto, se analizan tres muestras de pantallas distintas donadas por distintos fabricantes para poder llegar a la conclusión de dependiendo del tipo de pantalla cuál es la distancia óptima a la que localizar la pantalla respecto al altavoz y con qué inclinación. Dicho análisis se realizó en la cámara anecoica del ISVR (University of Southampton) mediante la construcción de un marco de madera de 2x2 m en el que tensar las pantallas de cine, y un altavoz cuyo comportamiento sea el más similar al de los altavoces de pantalla reales. Los datos se captaron mediante cuatro micrófonos colocados en posiciones distintas y conectados al software Pulse de Brüel & Kjær, a través del cual se obtuvieron las respuestas en frecuencia del altavoz sin pantalla y con ella a diferentes distancias del altavoz. Posteriormente, los datos se analizaron con MatLab donde se calculó la atenuación, el factor de transmisión de la presión (PTF) y el análisis cepstrum. Finalmente, se realizó un modelo teórico del comportamiento de las pantallas perforadas basado en las placas perforadas utilizadas para atenuar el sonido entre distintas habitaciones. Como conclusión se llegó a que las pantallas curvadas son acústicamente más transparentes que las pantallas perforadas que a partir de 6 kHz son más acústicamente opacas. En las pantallas perforadas la atenuación depende del número de perforaciones por unidad de área y el diámetro de éstas. Dicha atenuación se reducirá si se reduce el diámetro de las perforaciones de la pantalla, o si se incrementa la cantidad de perforaciones. Acerca del efecto filtro peine, para obtener la mínima amplitud de éste la pantalla se deberá situar a una distancia entre 15 y 30 cm del altavoz, encontrando a la distancia de 30 cm que la última reflexión analizada a través de Cepstrum llega 5 ms más tarde que la señal directa, por lo cual no debería dañar el sonido ni la claridad del habla.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Debido a la complejidad de los procesos que controlan el intercambio de gases de carbono (C) y nitrógeno (N) entre el suelo y la atmósfera, en los sistemas forestales y agroforestales, son comprensibles las incógnitas existentes respecto a la estimación de los flujos de los gases de efecto invernadero (GEI) y la capacidad como reservorios de carbono de los suelos, bajo diferentes formas de uso y regímenes de alteración a escala regional y global. Esta escasez de información justifica la necesidad de caracterizar la dinámica de intercambio de GEI en los ecosistemas Mediterráneos, en especial en el contexto actual de cambio climático, y el incremento asociado de temperatura y periodos de sequía, alteración de los patrones de precipitación, y el riesgo de incendios forestales; cuyas consecuencias afectarán tanto a los compartimentos de C y de N del suelo como a la capacidad de secuestro de C de estos ecosistemas. Dentro de este contexto se enmarca la presente tesis doctoral cuyo objetivo ha sido cuantificar y caracterizar los flujos de dióxido de carbono (CO2), de oxido nitroso (N2O) y de metano (CH4), junto con los stocks de C y N, en suelos forestales de Quercus ilex, Quercus pyrenaica y Pinus sylvestris afectados por incendios forestales; así como el estudiar el efecto de la gestión y la cubierta arbórea en la respiración del suelo y los stocks de C y N en una dehesa situada en el centro de la Península Ibérica. De manera que los flujos de CO2, N2O y CH4; y los parámetros físico-químicos y biológicos del suelo fueron estudiados en los diferentes tratamientos y ecosistemas a lo largo del trabajo que se presenta. Los resultados obtenidos muestran la existencia de variaciones temporales y espaciales de la respiración del suelo dentro de una escala geográfica pequeña, controladas principalmente por la temperatura y la humedad del suelo; y por los contenidos de C y N del suelo en un bosque de Pinus sylvestris en la vertiente norte de la Sierra de Guadarrama , en España. El análisis de los efectos de los incendios forestales a largo plazo (6-8 años) revela que las pérdidas anuales de C a través de la respiración del suelo en las zonas quemadas de Quercus ilex, Quercus pyrenaica y Pinus sylvestris fueron 450 gCm-2yr-1, 790 gCm-2yr-1 y 1220 gCm-2yr-1, respectivamente; lo que representa una reducción del 43%, 22% y 11% en comparación con las zonas no quemadas de dichas especies, debido a la destrucción de la masa arbórea. El efecto del fuego también alteró los flujos N2O y CH4 del suelo, de una forma diferente en los distintos ecosistemas y estacionalidades estudiadas. De tal modo, que los suelos quemados mostraron una mayor oxidación del CH4 en las masas de Q. ilex, y una menor oxidación en las de P. sylvestris; además de una disminución de los flujos de N2O en Q. pyrenaica. Los incendios también afectaron los parámetros microclimáticos de los suelos forestales, observándose un incremento de la temperatura del suelo y una disminución de la humedad en los emplazamientos quemados que en los no quemados. Los cationes intercambiables, el pH, el cociente C/N, el contenido en raicillas y la biomasa microbiana también disminuyeron en las zonas quemadas. Aunque el C orgánico del suelo no se alteró de manera significativa, si lo hizo la calidad de la materia orgánica, disminuyendo el carbono lábil y aumentando las formas recalcitrantes lo que se tradujo en menor sensibilidad de la respiración del suelo a la temperatura (valores de Q10) en las zonas quemadas. Los resultados del estudio realizado en la Dehesa muestran que las actividades silvopastorales estudiadas afectaron levemente y de forma no constante a la respiración del suelo y las condiciones microclimáticas del suelo. Se observó una reducción 12% de la respiración del suelo por efecto del pastoreo no intensivo. Sin embargo, se observaron incrementos de 3Mg/ha en los stocks de C y de 0.3 Mg/ha en los stocks de N en los suelos pastoreados en comparación con los no pastoreados. Aunque, no se observó un claro efecto de la labranza sobre la respiración del suelo en nuestro experimento, sin embargo si se observó una disminución de 3.5 Mg/ha en las reservas de C y de 0.3 Mg/ ha en las de N en los suelos labrados comparados con los no labrados. La copa del arbolado influyó de forma positiva tanto en la respiración del suelo, como en los stocks de C y N de los suelos. La humedad del suelo jugó un papel relevante en la sensibilidad de la respiración a la temperatura del suelo. Nuestros resultados ponen de manifiesto la sensibilidad de la respiración del suelo a cambios en la humedad y los parámetros edáficos, y sugieren que la aplicación de modelos estándar para estimar la respiración del suelo en áreas geográficas pequeñas puede no ser adecuada a menos que otros factores sean considerados en combinación con la temperatura del suelo. Además, las diferentes respuestas de los flujos de gases de efecto invernadero a los cambios, años después de la ocurrencia de incendios forestales, destaca la necesidad de incluir estos cambios en las futuras investigaciones de la dinámica del carbono en los ecosistemas mediterráneos. Por otra parte, las respuestas divergentes en los valores de respiración del suelo y en los contenidos de C y N del suelo observados en la dehesa, además de la contribución de la copa de los árboles en los nutrientes del suelo ilustran la importancia de mantener la gestión tradicional aplicada en beneficio de la capacidad de almacenar C en la dehesa estudiada. La información obtenida en este trabajo pretende contribuir a la mejora del conocimiento de la dinámica y el balance de C en los sistemas mediterráneos, además de ayudar a predecir el impacto del cambio climático en el intercambio de C entre los ecosistemas forestales y agroforestales y la atmósfera. ABSTRACT Due to the complexity of the processes that control the exchange of carbon (C) and nitrogen (N) gasses between soils and the atmosphere in forest and agroforestry ecosystems, understandable uncertainties exist as regards the estimation of greenhouse gas (GHG) fluxes and the soil sink capacity at regional and global scale under different forms of land use and disturbance regimes. These uncertainties justify the need to characterize the exchange dynamics of GHG between the atmosphere and soils in Mediterranean terrestrial ecosystems, particularly in the current context of climate change and the associated increase in temperature, drought periods, heavy rainfall events, and increased risk of wildfires, which affect not only the C and N pools but also the soil C sink capacity of these ecosystems. Within this context, the aims of the present thesis were, firstly, to quantify and characterize the fluxes of carbon dioxide (CO2), nitrous oxide (N2O) and methane (CH4) as well as the C and N stocks in Quercus ilex, Quercus pyrenaica and Pinus sylvestris stands affected by wildfires, and secondly, to study the effects of Quercus ilex canopy and management on both soil respiration and C and N pools in dehesa systems in the center of Iberian Peninsula. Soil CO2, N2O and CH4 fluxes, and soil physical-chemical and biological parameters were studied under the different treatments and ecosystems considered in this study. The results showed seasonal and spatial variations in soil respiration within small geographic areas, mainly controlled by soil temperature and moisture in addition to soil carbon and nitrogen stocks in mixed pine–oak forest ecosystems on the north facing slopes of the Sierra de Guadarrama in Spain. The analysis of long term effects of wildfires (6–8 years) revealed that annual carbon losses through soil respiration from burned sites in Quercus ilex, Quercus pyrenaica and Pinus sylvestris stands were 450 gCm-2yr-1, 790 gCm-2yr-1 and 1220 gCm-2yr-1, respectively; with burned sites emitting 43%, 22% and 11% less in burned as opposed to non-burned sites due the loss of trees. Fire may alter both N2O and CH4 fluxes although the magnitude of such variation depends on the site, soil characteristics and seasonal climatic conditions. The burned sites showed higher CH4 oxidation in Q.ilex stands, and lower oxidation rates in P. sylvestris stands. A reduction in N2O fluxes in Q. pyrenaica stands was detected at burned sites along with changes in soil microclimate; higher soil temperature and lower soil moisture content. Exchangeable cations, the C/N ratio, pH, fine root and microbial biomass were also found to decrease at burned sites. Although the soil organic carbon was not significantly altered, the quality of the organic matter changed, displaying a decrease in labile carbon and a relative increase in refractory forms, leading to lower sensitivity of soil respiration to temperature (Q10 values) at burned sites. The results from the dehesa study show that light grazing and superficial tilling practices used in the studied dehesa system in Spain had a slight but non-consistent impact on soil respiration and soil microclimate over the study period. The reduction in soil respiration in the dehesa system due to the effects of grazing was around 12 %. However, increments of 3Mg/ha in C stocks and 0.3 Mg/ha in N stocks in grazed soils were observed. Although no clear effect of tilling on soil respiration was found, a decrease of 3.5 Mg/ha in C stocks and 0.3 Mg/ha in N stocks was detected for tilled soils. The presence of a tree canopy induced increases in soil respiration, soil C and N stocks, while soil moisture was found to play an important role in soil respiration temperature response. Our results suggest that the use of standard models to estimate soil respiration in small geographical areas may not be adequate unless other factors are considered in addition to soil temperature. Furthermore, the different responses of GHG flux to climatic shifts, many years after the occurrence of wildfire, highlight the need to include these shifts in C dynamics in future research undertaken in Mediterranean ecosystems. Furthermore, divergent responses in soil respiration and soil C and N stocks to grazing or tilling practices in Dehesa systems, and the influence of tree canopy on soil respiration and soil nutrient content, illustrate the importance of maintaining beneficial management practices. Moreover, the carbon sequestration capacity of the Dehesa system studied may be enhanced through improvements in the management applied. It is hoped that the information obtained through this research will contribute towards improving our understanding of the dynamics and balance of C in Mediterranean systems, and help predict the impact of climate change on the exchange of C between forest and agroforestry ecosystems and the atmosphere.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente Tesis analiza las posibilidades que ofrecen en la actualidad las tecnologías del habla para la detección de patologías clínicas asociadas a la vía aérea superior. El estudio del habla que tradicionalmente cubre tanto la producción como el proceso de transformación del mensaje y las señales involucradas, desde el emisor hasta alcanzar al receptor, ofrece una vía de estudio alternativa para estas patologías. El hecho de que la señal emitida no solo contiene este mensaje, sino también información acerca del locutor, ha motivado el desarrollo de sistemas orientados a la identificación y verificación de la identidad de los locutores. Estos trabajos han recibido recientemente un nuevo impulso, orientándose tanto hacia la caracterización de rasgos que son comunes a varios locutores, como a las diferencias existentes entre grabaciones de un mismo locutor. Los primeros resultan especialmente relevantes para esta Tesis dado que estos rasgos podrían evidenciar la presencia de características relacionadas con una cierta condición común a varios locutores, independiente de su identidad. Tal es el caso que se enfrenta en esta Tesis, donde los rasgos identificados se relacionarían con una de la patología particular y directamente vinculada con el sistema de físico de conformación del habla. El caso del Síndrome de Apneas Hipopneas durante el Sueno (SAHS) resulta paradigmático. Se trata de una patología con una elevada prevalencia mundo, que aumenta con la edad. Los pacientes de esta patología experimentan episodios de cese involuntario de la respiración durante el sueño, que se prolongan durante varios segundos y que se reproducen a lo largo de la noche impidiendo el correcto descanso. En el caso de la apnea obstructiva, estos episodios se deben a la imposibilidad de mantener un camino abierto a través de la vía aérea, de forma que el flujo de aire se ve interrumpido. En la actualidad, el diagnostico de estos pacientes se realiza a través de un estudio polisomnográfico, que se centra en el análisis de los episodios de apnea durante el sueño, requiriendo que el paciente permanezca en el hospital durante una noche. La complejidad y el elevado coste de estos procedimientos, unidos a las crecientes listas de espera, han evidenciado la necesidad de contar con técnicas rápidas de detección, que si bien podrían no obtener tasas tan elevadas, permitirían reorganizar las listas de espera en función del grado de severidad de la patología en cada paciente. Entre otros, los sistemas de diagnostico por imagen, así como la caracterización antropométrica de los pacientes, han evidenciado la existencia de patrones anatómicos que tendrían influencia directa sobre el habla. Los trabajos dedicados al estudio del SAHS en lo relativo a como esta afecta al habla han sido escasos y algunos de ellos incluso contradictorios. Sin embargo, desde finales de la década de 1980 se conoce la existencia de patrones específicos relativos a la articulación, la fonación y la resonancia. Sin embargo, su descripción resultaba difícilmente aprovechable a través de un sistema de reconocimiento automático, pero apuntaba la existencia de un nexo entre voz y SAHS. En los últimos anos las técnicas de procesado automático han permitido el desarrollo de sistemas automáticos que ya son capaces de identificar diferencias significativas en el habla de los pacientes del SAHS, y que los distinguen de los locutores sanos. Por contra, poco se conoce acerca de la conexión entre estos nuevos resultados, los sé que habían obtenido en el pasado y la patogénesis del SAHS. Esta Tesis continua la labor desarrollada en este ámbito considerando específicamente: el estudio de la forma en que el SAHS afecta el habla de los pacientes, la mejora en las tasas de clasificación automática y la combinación de la información obtenida con los predictores utilizados por los especialistas clínicos en sus evaluaciones preliminares. Las dos primeras tareas plantean problemas simbióticos, pero diferentes. Mientras el estudio de la conexión entre el SAHS y el habla requiere de modelos acotados que puedan ser interpretados con facilidad, los sistemas de reconocimiento se sirven de un elevado número de dimensiones para la caracterización y posterior identificación de patrones. Así, la primera tarea debe permitirnos avanzar en la segunda, al igual que la incorporación de los predictores utilizados por los especialistas clínicos. La Tesis aborda el estudio tanto del habla continua como del habla sostenida, con el fin de aprovechar las sinergias y diferencias existentes entre ambas. En el análisis del habla continua se tomo como punto de partida un esquema que ya fue evaluado con anterioridad, y sobre el cual se ha tratado la evaluación y optimización de la representación del habla, así como la caracterización de los patrones específicos asociados al SAHS. Ello ha evidenciado la conexión entre el SAHS y los elementos fundamentales de la señal de voz: los formantes. Los resultados obtenidos demuestran que el éxito de estos sistemas se debe, fundamentalmente, a la capacidad de estas representaciones para describir dichas componentes, obviando las dimensiones ruidosas o con poca capacidad discriminativa. El esquema resultante ofrece una tasa de error por debajo del 18%, sirviéndose de clasificadores notablemente menos complejos que los descritos en el estado del arte y de una única grabación de voz de corta duración. En relación a la conexión entre el SAHS y los patrones observados, fue necesario considerar las diferencias inter- e intra-grupo, centrándonos en la articulación característica del locutor, sustituyendo los complejos modelos de clasificación por el estudio de los promedios espectrales. El resultado apunta con claridad hacia ciertas regiones del eje de frecuencias, sugiriendo la existencia de un estrechamiento sistemático en la sección del tracto en la región de la orofaringe, ya prevista en la patogénesis de este síndrome. En cuanto al habla sostenida, se han reproducido los estudios realizados sobre el habla continua en grabaciones de la vocal /a/ sostenida. Los resultados son cualitativamente análogos a los anteriores, si bien en este caso las tasas de clasificación resultan ser más bajas. Con el objetivo de identificar el sentido de este resultado se reprodujo el estudio de los promedios espectrales y de la variabilidad inter e intra-grupo. Ambos estudios mostraron importantes diferencias con los anteriores que podrían explicar estos resultados. Sin embargo, el habla sostenida ofrece otras oportunidades al establecer un entorno controlado para el estudio de la fonación, que también había sido identificada como una fuente de información para la detección del SAHS. De su estudio se pudo observar que, en el conjunto de datos disponibles, no existen variaciones que pudieran asociarse fácilmente con la fonación. Únicamente aquellas dimensiones que describen la distribución de energía a lo largo del eje de frecuencia evidenciaron diferencias significativas, apuntando, una vez más, en la dirección de las resonancias espectrales. Analizados los resultados anteriores, la Tesis afronta la fusión de ambas fuentes de información en un único sistema de clasificación. Con ello es posible mejorar las tasas de clasificación, bajo la hipótesis de que la información presente en el habla continua y el habla sostenida es fundamentalmente distinta. Esta tarea se realizo a través de un sencillo esquema de fusión que obtuvo un 88.6% de aciertos en clasificación (tasa de error del 11.4%), lo que representa una mejora significativa respecto al estado del arte. Finalmente, la combinación de este clasificador con los predictores utilizados por los especialistas clínicos ofreció una tasa del 91.3% (tasa de error de 8.7%), que se encuentra dentro del margen ofrecido por esquemas más costosos e intrusivos, y que a diferencia del propuesto, no pueden ser utilizados en la evaluación previa de los pacientes. Con todo, la Tesis ofrece una visión clara sobre la relación entre el SAHS y el habla, evidenciando el grado de madurez alcanzado por la tecnología del habla en la caracterización y detección del SAHS, poniendo de manifiesto que su uso para la evaluación de los pacientes ya sería posible, y dejando la puerta abierta a futuras investigaciones que continúen el trabajo aquí iniciado. ABSTRACT This Thesis explores the potential of speech technologies for the detection of clinical disorders connected to the upper airway. The study of speech traditionally covers both the production process and post processing of the signals involved, from the speaker up to the listener, offering an alternative path to study these pathologies. The fact that utterances embed not just the encoded message but also information about the speaker, has motivated the development of automatic systems oriented to the identification and verificaton the speaker’s identity. These have recently been boosted and reoriented either towards the characterization of traits that are common to several speakers, or to the differences between records of the same speaker collected under different conditions. The first are particularly relevant to this Thesis as these patterns could reveal the presence of features that are related to a common condition shared among different speakers, regardless of their identity. Such is the case faced in this Thesis, where the traits identified would relate to a particular pathology, directly connected to the speech production system. The Obstructive Sleep Apnea syndrome (OSA) is a paradigmatic case for analysis. It is a disorder with high prevalence among adults and affecting a larger number of them as they grow older. Patients suffering from this disorder experience episodes of involuntary cessation of breath during sleep that may last a few seconds and reproduce throughout the night, preventing proper rest. In the case of obstructive apnea, these episodes are related to the collapse of the pharynx, which interrupts the air flow. Currently, OSA diagnosis is done through a polysomnographic study, which focuses on the analysis of apnea episodes during sleep, requiring the patient to stay at the hospital for the whole night. The complexity and high cost of the procedures involved, combined with the waiting lists, have evidenced the need for screening techniques, which perhaps would not achieve outstanding performance rates but would allow clinicians to reorganize these lists ranking patients according to the severity of their condition. Among others, imaging diagnosis and anthropometric characterization of patients have evidenced the existence of anatomical patterns related to OSA that have direct influence on speech. Contributions devoted to the study of how this disorder affects scpeech are scarce and somehow contradictory. However, since the late 1980s the existence of specific patterns related to articulation, phonation and resonance is known. By that time these descriptions were virtually useless when coming to the development of an automatic system, but pointed out the existence of a link between speech and OSA. In recent years automatic processing techniques have evolved and are now able to identify significant differences in the speech of OSAS patients when compared to records from healthy subjects. Nevertheless, little is known about the connection between these new results with those published in the past and the pathogenesis of the OSA syndrome. This Thesis is aimed to progress beyond the previous research done in this area by addressing: the study of how OSA affects patients’ speech, the enhancement of automatic OSA classification based on speech analysis, and its integration with the information embedded in the predictors generally used by clinicians in preliminary patients’ examination. The first two tasks, though may appear symbiotic at first, are quite different. While studying the connection between speech and OSA requires simple narrow models that can be easily interpreted, classification requires larger models including a large number dimensions for the characterization and posterior identification of the observed patterns. Anyhow, it is clear that any progress made in the first task should allow us to improve our performance on the second one, and that the incorporation of the predictors used by clinicians shall contribute in this same direction. The Thesis considers both continuous and sustained speech analysis, to exploit the synergies and differences between them. On continuous speech analysis, a conventional speech processing scheme, designed and evaluated before this Thesis, was taken as a baseline. Over this initial system several alternative representations of the speech information were proposed, optimized and tested to select those more suitable for the characterization of OSA-specific patterns. Evidences were found on the existence of a connection between OSA and the fundamental constituents of the speech: the formants. Experimental results proved that the success of the proposed solution is well explained by the ability of speech representations to describe these specific OSA-related components, ignoring the noisy ones as well those presenting low discrimination capabilities. The resulting scheme obtained a 18% error rate, on a classification scheme significantly less complex than those described in the literature and operating on a single speech record. Regarding the connection between OSA and the observed patterns, it was necessary to consider inter-and intra-group differences for this analysis, and to focus on the articulation, replacing the complex classification models by the long-term average spectra. Results clearly point to certain regions on the frequency axis, suggesting the existence of a systematic narrowing in the vocal tract section at the oropharynx. This was already described in the pathogenesis of this syndrome. Regarding sustained speech, similar experiments as those conducted on continuous speech were reproduced on sustained phonations of vowel / a /. Results were qualitatively similar to the previous ones, though in this case perfomance rates were found to be noticeably lower. Trying to derive further knowledge from this result, experiments on the long-term average spectra and intraand inter-group variability ratios were also reproduced on sustained speech records. Results on both experiments showed significant differences from the previous ones obtained from continuous speech which could explain the differences observed on peformance. However, sustained speech also provided the opportunity to study phonation within the controlled framework it provides. This was also identified in the literature as a source of information for the detection of OSA. In this study it was found that, for the available dataset, no sistematic differences related to phonation could be found between the two groups of speakers. Only those dimensions which relate energy distribution along the frequency axis provided significant differences, pointing once again towards the direction of resonant components. Once classification schemes on both continuous and sustained speech were developed, the Thesis addressed their combination into a single classification system. Under the assumption that the information in continuous and sustained speech is fundamentally different, it should be possible to successfully merge the two of them. This was tested through a simple fusion scheme which obtained a 88.6% correct classification (11.4% error rate), which represents a significant improvement over the state of the art. Finally, the combination of this classifier with the variables used by clinicians obtained a 91.3% accuracy (8.7% error rate). This is within the range of alternative, but costly and intrusive schemes, which unlike the one proposed can not be used in the preliminary assessment of patients’ condition. In the end, this Thesis has shed new light on the underlying connection between OSA and speech, and evidenced the degree of maturity reached by speech technology on OSA characterization and detection, leaving the door open for future research which shall continue in the multiple directions that have been pointed out and left as future work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis propone un sistema biométrico de geometría de mano orientado a entornos sin contacto junto con un sistema de detección de estrés capaz de decir qué grado de estrés tiene una determinada persona en base a señales fisiológicas Con respecto al sistema biométrico, esta tesis contribuye con el diseño y la implementación de un sistema biométrico de geometría de mano, donde la adquisición se realiza sin ningún tipo de contacto, y el patrón del usuario se crea considerando únicamente datos del propio individuo. Además, esta tesis propone un algoritmo de segmentación multiescala para solucionar los problemas que conlleva la adquisición de manos en entornos reales. Por otro lado, respecto a la extracción de características y su posterior comparación esta tesis tiene una contribución específica, proponiendo esquemas adecuados para llevar a cabo tales tareas con un coste computacional bajo pero con una alta precisión en el reconocimiento de personas. Por último, este sistema es evaluado acorde a la norma estándar ISO/IEC 19795 considerando seis bases de datos públicas. En relación al método de detección de estrés, esta tesis propone un sistema basado en dos señales fisiológicas, concretamente la tasa cardiaca y la conductancia de la piel, así como la creación de un innovador patrón de estrés que recoge el comportamiento de ambas señales bajo las situaciones de estrés y no-estrés. Además, este sistema está basado en lógica difusa para decidir el grado de estrés de un individuo. En general, este sistema es capaz de detectar estrés de forma precisa y en tiempo real, proporcionando una solución adecuada para sistemas biométricos actuales, donde la aplicación del sistema de detección de estrés es directa para evitar situaciónes donde los individuos sean forzados a proporcionar sus datos biométricos. Finalmente, esta tesis incluye un estudio de aceptabilidad del usuario, donde se evalúa cuál es la aceptación del usuario con respecto a la técnica biométrica propuesta por un total de 250 usuarios. Además se incluye un prototipo implementado en un dispositivo móvil y su evaluación. ABSTRACT: This thesis proposes a hand biometric system oriented to unconstrained and contactless scenarios together with a stress detection method able to elucidate to what extent an individual is under stress based on physiological signals. Concerning the biometric system, this thesis contributes with the design and implementation of a hand-based biometric system, where the acquisition is carried out without contact and the template is created only requiring information from a single individual. In addition, this thesis proposes an algorithm based on multiscale aggregation in order to tackle with the problem of segmentation in real unconstrained environments. Furthermore, feature extraction and matching are also a specific contributions of this thesis, providing adequate schemes to carry out both actions with low computational cost but with certain recognition accuracy. Finally, this system is evaluated according to international standard ISO/IEC 19795 considering six public databases. In relation to the stress detection method, this thesis proposes a system based on two physiological signals, namely heart rate and galvanic skin response, with the creation of an innovative stress detection template which gathers the behaviour of both physiological signals under both stressing and non-stressing situations. Besides, this system is based on fuzzy logic to elucidate the level of stress of an individual. As an overview, this system is able to detect stress accurately and in real-time, providing an adequate solution for current biometric systems, where the application of a stress detection system is direct to avoid situations where individuals are forced to provide the biometric data. Finally, this thesis includes a user acceptability evaluation, where the acceptance of the proposed biometric technique is assessed by a total of 250 individuals. In addition, this thesis includes a mobile implementation prototype and its evaluation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis está incluida dentro del campo del campo de Multiband Orthogonal Frequency Division Multiplexing Ultra Wideband (MB-OFDM UWB), el cual ha adquirido una gran importancia en las comunicaciones inalámbricas de alta tasa de datos en la última década. UWB surgió con el objetivo de satisfacer la creciente demanda de conexiones inalámbricas en interiores y de uso doméstico, con bajo coste y alta velocidad. La disponibilidad de un ancho de banda grande, el potencial para alta velocidad de transmisión, baja complejidad y bajo consumo de energía, unido al bajo coste de implementación, representa una oportunidad única para que UWB se convierta en una solución ampliamente utilizada en aplicaciones de Wireless Personal Area Network (WPAN). UWB está definido como cualquier transmisión que ocupa un ancho de banda de más de 20% de su frecuencia central, o más de 500 MHz. En 2002, la Comisión Federal de Comunicaciones (FCC) definió que el rango de frecuencias de transmisión de UWB legal es de 3.1 a 10.6 GHz, con una energía de transmisión de -41.3 dBm/Hz. Bajo las directrices de FCC, el uso de la tecnología UWB puede aportar una enorme capacidad en las comunicaciones de corto alcance. Considerando las ecuaciones de capacidad de Shannon, incrementar la capacidad del canal requiere un incremento lineal en el ancho de banda, mientras que un aumento similar de la capacidad de canal requiere un aumento exponencial en la energía de transmisión. En los últimos años, s diferentes desarrollos del UWB han sido extensamente estudiados en diferentes áreas, entre los cuales, el protocolo de comunicaciones inalámbricas MB-OFDM UWB está considerado como la mejor elección y ha sido adoptado como estándar ISO/IEC para los WPANs. Combinando la modulación OFDM y la transmisión de datos utilizando las técnicas de salto de frecuencia, el sistema MB-OFDM UWB es capaz de soportar tasas de datos con que pueden variar de los 55 a los 480 Mbps, alcanzando una distancia máxima de hasta 10 metros. Se esperara que la tecnología MB-OFDM tenga un consumo energético muy bajo copando un are muy reducida en silicio, proporcionando soluciones de bajo coste que satisfagan las demandas del mercado. Para cumplir con todas estas expectativas, el desarrollo y la investigación del MBOFDM UWB deben enfrentarse a varios retos, como son la sincronización de alta sensibilidad, las restricciones de baja complejidad, las estrictas limitaciones energéticas, la escalabilidad y la flexibilidad. Tales retos requieren un procesamiento digital de la señal de última generación, capaz de desarrollar sistemas que puedan aprovechar por completo las ventajas del espectro UWB y proporcionar futuras aplicaciones inalámbricas en interiores. Esta tesis se centra en la completa optimización de un sistema de transceptor de banda base MB-OFDM UWB digital, cuyo objetivo es investigar y diseñar un subsistema de comunicación inalámbrica para la aplicación de las Redes de Sensores Inalámbricas Visuales. La complejidad inherente de los procesadores FFT/IFFT y el sistema de sincronización así como la alta frecuencia de operación para todos los elementos de procesamiento, se convierten en el cuello de la botella para el diseño y la implementación del sistema de UWB digital en base de banda basado en MB-OFDM de baja energía. El objetivo del transceptor propuesto es conseguir baja energía y baja complejidad bajo la premisa de un alto rendimiento. Las optimizaciones están realizadas tanto a nivel algorítmico como a nivel arquitectural para todos los elementos del sistema. Una arquitectura hardware eficiente en consumo se propone en primer lugar para aquellos módulos correspondientes a núcleos de computación. Para el procesado de la Transformada Rápida de Fourier (FFT/IFFT), se propone un algoritmo mixed-radix, basado en una arquitectura con pipeline y se ha desarrollado un módulo de Decodificador de Viterbi (VD) equilibrado en coste-velocidad con el objetivo de reducir el consumo energético e incrementar la velocidad de procesamiento. También se ha implementado un correlador signo-bit simple basado en la sincronización del tiempo de símbolo es presentado. Este correlador es usado para detectar y sincronizar los paquetes de OFDM de forma robusta y precisa. Para el desarrollo de los subsitemas de procesamiento y realizar la integración del sistema completo se han empleado tecnologías de última generación. El dispositivo utilizado para el sistema propuesto es una FPGA Virtex 5 XC5VLX110T del fabricante Xilinx. La validación el propuesta para el sistema transceptor se ha implementado en dicha placa de FPGA. En este trabajo se presenta un algoritmo, y una arquitectura, diseñado con filosofía de co-diseño hardware/software para el desarrollo de sistemas de FPGA complejos. El objetivo principal de la estrategia propuesta es de encontrar una metodología eficiente para el diseño de un sistema de FPGA configurable optimizado con el empleo del mínimo esfuerzo posible en el sistema de procedimiento de verificación, por tanto acelerar el periodo de desarrollo del sistema. La metodología de co-diseño presentada tiene la ventaja de ser fácil de usar, contiene todos los pasos desde la propuesta del algoritmo hasta la verificación del hardware, y puede ser ampliamente extendida para casi todos los tipos de desarrollos de FPGAs. En este trabajo se ha desarrollado sólo el sistema de transceptor digital de banda base por lo que la comprobación de señales transmitidas a través del canal inalámbrico en los entornos reales de comunicación sigue requiriendo componentes RF y un front-end analógico. No obstante, utilizando la metodología de co-simulación hardware/software citada anteriormente, es posible comunicar el sistema de transmisor y el receptor digital utilizando los modelos de canales propuestos por IEEE 802.15.3a, implementados en MATLAB. Por tanto, simplemente ajustando las características de cada modelo de canal, por ejemplo, un incremento del retraso y de la frecuencia central, podemos estimar el comportamiento del sistema propuesto en diferentes escenarios y entornos. Las mayores contribuciones de esta tesis son: • Se ha propuesto un nuevo algoritmo 128-puntos base mixto FFT usando la arquitectura pipeline multi-ruta. Los complejos multiplicadores para cada etapa de procesamiento son diseñados usando la arquitectura modificada shiftadd. Los sistemas word length y twiddle word length son comparados y seleccionados basándose en la señal para cuantización del SQNR y el análisis de energías. • El desempeño del procesador IFFT es analizado bajo diferentes situaciones aritméticas de bloques de punto flotante (BFP) para el control de desbordamiento, por tanto, para encontrar la arquitectura perfecta del algoritmo IFFT basado en el procesador FFT propuesto. • Para el sistema de receptor MB-OFDM UWB se ha empleado una sincronización del tiempo innovadora, de baja complejidad y esquema de compensación, que consiste en funciones de Detector de Paquetes (PD) y Estimación del Offset del tiempo. Simplificando el cross-correlation y maximizar las funciones probables solo a sign-bit, la complejidad computacional se ve reducida significativamente. • Se ha propuesto un sistema de decodificadores Viterbi de 64 estados de decisión-débil usando velocidad base-4 de arquitectura suma-comparaselecciona. El algoritmo Two-pointer Even también es introducido en la unidad de rastreador de origen con el objetivo de conseguir la eficiencia en el hardware. • Se han integrado varias tecnologías de última generación en el completo sistema transceptor basebanda , con el objetivo de implementar un sistema de comunicación UWB altamente optimizado. • Un diseño de flujo mejorado es propuesto para el complejo sistema de implementación, el cual puede ser usado para diseños de Cadena de puertas de campo programable general (FPGA). El diseño mencionado no sólo reduce dramáticamente el tiempo para la verificación funcional, sino también provee un análisis automático como los errores del retraso del output para el sistema de hardware implementado. • Un ambiente de comunicación virtual es establecido para la validación del propuesto sistema de transceptores MB-OFDM. Este método es provisto para facilitar el uso y la conveniencia de analizar el sistema digital de basebanda sin parte frontera analógica bajo diferentes ambientes de comunicación. Esta tesis doctoral está organizada en seis capítulos. En el primer capítulo se encuentra una breve introducción al campo del UWB, tanto relacionado con el proyecto como la motivación del desarrollo del sistema de MB-OFDM. En el capítulo 2, se presenta la información general y los requisitos del protocolo de comunicación inalámbrica MBOFDM UWB. En el capítulo 3 se habla de la arquitectura del sistema de transceptor digital MB-OFDM de banda base . El diseño del algoritmo propuesto y la arquitectura para cada elemento del procesamiento está detallado en este capítulo. Los retos de diseño del sistema que involucra un compromiso de discusión entre la complejidad de diseño, el consumo de energía, el coste de hardware, el desempeño del sistema, y otros aspectos. En el capítulo 4, se ha descrito la co-diseñada metodología de hardware/software. Cada parte del flujo del diseño será detallado con algunos ejemplos que se ha hecho durante el desarrollo del sistema. Aprovechando esta estrategia de diseño, el procedimiento de comunicación virtual es llevado a cabo para probar y analizar la arquitectura del transceptor propuesto. Los resultados experimentales de la co-simulación y el informe sintético de la implementación del sistema FPGA son reflejados en el capítulo 5. Finalmente, en el capítulo 6 se incluye las conclusiones y los futuros proyectos, y también los resultados derivados de este proyecto de doctorado. ABSTRACT In recent years, the Wireless Visual Sensor Network (WVSN) has drawn great interest in wireless communication research area. They enable a wealth of new applications such as building security control, image sensing, and target localization. However, nowadays wireless communication protocols (ZigBee, Wi-Fi, and Bluetooth for example) cannot fully satisfy the demands of high data rate, low power consumption, short range, and high robustness requirements. New communication protocol is highly desired for such kind of applications. The Ultra Wideband (UWB) wireless communication protocol, which has increased in importance for high data rate wireless communication field, are emerging as an important topic for WVSN research. UWB has emerged as a technology that offers great promise to satisfy the growing demand for low-cost, high-speed digital wireless indoor and home networks. The large bandwidth available, the potential for high data rate transmission, and the potential for low complexity and low power consumption, along with low implementation cost, all present a unique opportunity for UWB to become a widely adopted radio solution for future Wireless Personal Area Network (WPAN) applications. UWB is defined as any transmission that occupies a bandwidth of more than 20% of its center frequency, or more than 500 MHz. In 2002, the Federal Communications Commission (FCC) has mandated that UWB radio transmission can legally operate in the range from 3.1 to 10.6 GHz at a transmitter power of -41.3 dBm/Hz. Under the FCC guidelines, the use of UWB technology can provide enormous capacity over short communication ranges. Considering Shannon’s capacity equations, increasing the channel capacity requires linear increasing in bandwidth, whereas similar channel capacity increases would require exponential increases in transmission power. In recent years, several different UWB developments has been widely studied in different area, among which, the MB-OFDM UWB wireless communication protocol is considered to be the leading choice and has recently been adopted in the ISO/IEC standard for WPANs. By combing the OFDM modulation and data transmission using frequency hopping techniques, the MB-OFDM UWB system is able to support various data rates, ranging from 55 to 480 Mbps, over distances up to 10 meters. The MB-OFDM technology is expected to consume very little power and silicon area, as well as provide low-cost solutions that can satisfy consumer market demands. To fulfill these expectations, MB-OFDM UWB research and development have to cope with several challenges, which consist of high-sensitivity synchronization, low- complexity constraints, strict power limitations, scalability, and flexibility. Such challenges require state-of-the-art digital signal processing expertise to develop systems that could fully take advantages of the UWB spectrum and support future indoor wireless applications. This thesis focuses on fully optimization for the MB-OFDM UWB digital baseband transceiver system, aiming at researching and designing a wireless communication subsystem for the Wireless Visual Sensor Networks (WVSNs) application. The inherent high complexity of the FFT/IFFT processor and synchronization system, and high operation frequency for all processing elements, becomes the bottleneck for low power MB-OFDM based UWB digital baseband system hardware design and implementation. The proposed transceiver system targets low power and low complexity under the premise of high performance. Optimizations are made at both algorithm and architecture level for each element of the transceiver system. The low-power hardwareefficient structures are firstly proposed for those core computation modules, i.e., the mixed-radix algorithm based pipelined architecture is proposed for the Fast Fourier Transform (FFT/IFFT) processor, and the cost-speed balanced Viterbi Decoder (VD) module is developed, in the aim of lowering the power consumption and increasing the processing speed. In addition, a low complexity sign-bit correlation based symbol timing synchronization scheme is presented so as to detect and synchronize the OFDM packets robustly and accurately. Moreover, several state-of-the-art technologies are used for developing other processing subsystems and an entire MB-OFDM digital baseband transceiver system is integrated. The target device for the proposed transceiver system is Xilinx Virtex 5 XC5VLX110T FPGA board. In order to validate the proposed transceiver system in the FPGA board, a unified algorithm-architecture-circuit hardware/software co-design environment for complex FPGA system development is presented in this work. The main objective of the proposed strategy is to find an efficient methodology for designing a configurable optimized FPGA system by using as few efforts as possible in system verification procedure, so as to speed up the system development period. The presented co-design methodology has the advantages of easy to use, covering all steps from algorithm proposal to hardware verification, and widely spread for almost all kinds of FPGA developments. Because only the digital baseband transceiver system is developed in this thesis, the validation of transmitting signals through wireless channel in real communication environments still requires the analog front-end and RF components. However, by using the aforementioned hardware/software co-simulation methodology, the transmitter and receiver digital baseband systems get the opportunity to communicate with each other through the channel models, which are proposed from the IEEE 802.15.3a research group, established in MATLAB. Thus, by simply adjust the characteristics of each channel model, e.g. mean excess delay and center frequency, we can estimate the transmission performance of the proposed transceiver system through different communication situations. The main contributions of this thesis are: • A novel mixed radix 128-point FFT algorithm by using multipath pipelined architecture is proposed. The complex multipliers for each processing stage are designed by using modified shift-add architectures. The system wordlength and twiddle word-length are compared and selected based on Signal to Quantization Noise Ratio (SQNR) and power analysis. • IFFT processor performance is analyzed under different Block Floating Point (BFP) arithmetic situations for overflow control, so as to find out the perfect architecture of IFFT algorithm based on the proposed FFT processor. • An innovative low complex timing synchronization and compensation scheme, which consists of Packet Detector (PD) and Timing Offset Estimation (TOE) functions, for MB-OFDM UWB receiver system is employed. By simplifying the cross-correlation and maximum likelihood functions to signbit only, the computational complexity is significantly reduced. • A 64 state soft-decision Viterbi Decoder system by using high speed radix-4 Add-Compare-Select architecture is proposed. Two-pointer Even algorithm is also introduced into the Trace Back unit in the aim of hardware-efficiency. • Several state-of-the-art technologies are integrated into the complete baseband transceiver system, in the aim of implementing a highly-optimized UWB communication system. • An improved design flow is proposed for complex system implementation which can be used for general Field-Programmable Gate Array (FPGA) designs. The design method not only dramatically reduces the time for functional verification, but also provides automatic analysis such as errors and output delays for the implemented hardware systems. • A virtual communication environment is established for validating the proposed MB-OFDM transceiver system. This methodology is proved to be easy for usage and convenient for analyzing the digital baseband system without analog frontend under different communication environments. This PhD thesis is organized in six chapters. In the chapter 1 a brief introduction to the UWB field, as well as the related work, is done, along with the motivation of MBOFDM system development. In the chapter 2, the general information and requirement of MB-OFDM UWB wireless communication protocol is presented. In the chapter 3, the architecture of the MB-OFDM digital baseband transceiver system is presented. The design of the proposed algorithm and architecture for each processing element is detailed in this chapter. Design challenges of such system involve trade-off discussions among design complexity, power consumption, hardware cost, system performance, and some other aspects. All these factors are analyzed and discussed. In the chapter 4, the hardware/software co-design methodology is proposed. Each step of this design flow will be detailed by taking some examples that we met during system development. Then, taking advantages of this design strategy, the Virtual Communication procedure is carried out so as to test and analyze the proposed transceiver architecture. Experimental results from the co-simulation and synthesis report of the implemented FPGA system are given in the chapter 5. The chapter 6 includes conclusions and future work, as well as the results derived from this PhD work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las reformas de agua en países en desarrollo suelen llevarse a cabo junto con cambios institucionales más profundos o, incluso, acompañadas de cambios constitucionales o de régimen político. Por lo tanto, los marcos institucionales adaptados a países gobernados sujetos al estado de derecho pueden no ser apropiados para contextos gobernados fundamentalmente, al menos en sus inicios, por instituciones informales o poco maduras. Esta tesis toma las reformas de agua como punto de partida y pretende contribuir a la literatura mediante una serie de análisis empíricos tanto del ámbito general como del plano individual o sujeto personal de la política del agua. En el ámbito general, el foco se pone en los factores que explican el fallo de la acción colectiva en dos contextos diferentes: 1) en la implementación de la nueva Ley de Aguas de Nicaragua y 2) en el mantenimiento y revitalización de las instituciones de riego en Surinam. En el plano del individuo, la investigación se centra en las decisiones de los usuarios de los recursos y analiza el papel crítico de las variables sociales para la gestión de los recursos comunes. Para ello, el método de investigación utilizado es mixto, combinando el análisis de entrevistas, encuestas y experimentos. En el ámbito general, los resultados muestran que las principales barreras para la implementación de la nueva Ley de Aguas de Nicaragua podrían tener su reflejo en el lenguaje de la Ley y, por tanto, en la forma en la que se definen y configuran las instituciones incluidas en dicha Ley. Así, la investigación demuestra que la implementación de políticas no puede ser estudiada o entendida sin tener en cuenta tanto el diseño de la propia política como el marco socio-ecológico en el que se enmarca. El contexto específico de Nicaragua remarca la importancia de considerar tanto las instituciones formales como informales en los procesos de transición política. A pesar de que las reformas de agua requieren plazos largos para su implementación, el hecho de que exista una diferencia entre las reglas tal cual se definen formalmente y las reglas que operan en la realidad merece una mayor consideración en el diseño de políticas basadas fundamentalmente en instituciones formales. En el ámbito de la conducta individual, el análisis de la acción colectiva ofrece una serie de observaciones empíricas interesantes. En el caso de Nicaragua, los resultados indican que la intensidad de las relaciones sociales, el tipo de agentes dispuestos a proporcionar apoyo social y el nivel de confianza en la comunidad son factores que explican de manera significativa la participación en la comunidad. Sin embargo, el hecho de que la gestión colectiva de riego se produzca, en la mayoría de casos, en torno a lazos familiares sugiere que las variables de capital social críticas se definen en gran medida en la esfera familiar, siendo difícil que se extiendan fuera de estos nexos. El análisis experimental de los resultados de un juego de uso de recurso común y contribución al bien público muestra que las preferencias pro-sociales de los individuos y la heterogeneidad del grupo en términos de composición por sexo son factores que explican significativamente los resultados y las decisiones de apropiación a lo largo del juego. En términos del diseño de las políticas, es fundamental tener en cuenta las dinámicas de participación y uso de los recursos comunes de manera que los niveles de cooperación puedan mantenerse en el largo plazo, lo cual, como se observa en el caso de Surinam, no es siempre posible. Finalmente, el caso de Surinam es un ejemplo ilustrativo de los procesos de acción colectiva en economías en transición. El análisis del fallo de la acción colectiva en Surinam muestra que los procesos políticos vinculados al período colonial y de independencia explican en gran medida la falta de claridad en las reglas operacionales y colectivas que gobiernan la gestión de los sistemas de riego y drenaje. Los resultados empíricos sugieren que a pesar de que la acción colectiva para la provisión de los servicios de riego y drenaje estaba bien establecida bajo el régimen colonial, la auto-organización no prosperó en un contexto dependiente del apoyo externo y regido fundamentalmente por reglas diseñadas al nivel competencial del gobierno central. El sistema socio-ecológico que se desarrolló durante la transición post-colonial favoreció, así, la emergencia de comportamientos oportunistas, y posteriormente la inoperancia de los Water Boards (WBs) creados en la época colonial. En este sentido, cualquier intento por revitalizar los WBs y fomentar el desarrollo de la auto-organización de los usuarios necesitará abordar los problemas relacionados con los patrones demográficos, incluyendo la distribución de la tierra, el diseño de instituciones y la falta de confianza en el gobierno, además de las inversiones típicas en infraestructura y sistemas de información hidrológicos. El liderazgo del gobierno, aportando empuje de arriba-abajo, es, además, otro elemento imprescindible en Surinam. ABSTRACT Water reforms in developing countries take place along deeper institutional and even constitutional. Therefore, institutional frameworks that might result in positive outcomes in countries governed by the rule of law might not fit in contexts governed mainly by informal or immature institutions. This thesis takes water reforms as the starting point and aims to contribute to the literature by presenting several conceptual and empirical analyses at both general and individual levels. At the general national level, the focus is on the factors explaining failure of collective action in two different settings: 1) in the implementation of the new Nicaraguan Water Law and 2) in sustaining and revitalizing irrigation institutions in Suriname. At the individual level, the research focuses on the actions of resource users and analyzes the critical role of social variables for common pool resources management. For this purpose, the research presented in this thesis makes use of a mixed-method approach, combining interviews, surveys and experimental methods. Overall, the results show that major barriers for the implementation of the new Nicaraguan Water Law have its reflection on the language of the Law and, therefore, on the way institutions are defined and configured. In this sense, our study shows that implementation cannot fruitfully be studied and understood without taking into account both the policy design and the social-ecological context in which it is framed. The specific setting of Nicaragua highlights the relevance of considering both formal and informal institutions when promoting policy transitions. Despite the unquestionable fact that water reforms implementation needs long periods of time, there is still a gap between the rules on paper and the rules on the ground that deserves further attention when proposing policy changes on the basis of formal institutions. At the level of the individual agent, the analysis of collective action provides a number of interesting empirical insights. In the case of Nicaragua, I found that the intensity of social networks, the type of agents willing to provide social support and the level of trust in the community are all significant factors in explaining collective action at community level. However, the fact that most collective irrigation relies on family ties suggests that critical social capital variables might be defined within the family sphere and making it difficult to go beyond it. Experimental research combining a common pool resource and a public good game in Nicaragua shows that individuals’ pro-social traits and group heterogeneity in terms of sex composition are significant variables in explaining efficiency outcomes and effort decisions along the game. Thus, with regard to policy design, it is fundamental to consider carefully the dynamics of agents' participation and use of common pool resources, for sustaining cooperation in the long term, which, as seen in the case and Surinam, is not always possible. The case of Suriname provides a rich setting for the analysis of collective action in transition economies. The analysis of decay of collective irrigation in Suriname shows that the lack of clear operational and collective choice rules appear to be rooted in deeper political processes that date back to the colonial period. The empirical findings suggest that despite collective action for the provision of irrigation and drainage services was well established during the colonial period, self-organization did not flourish in a context governed by colonial state-crafted rules and mostly dependent on external support. The social-ecological system developed during the post-colonial transition process favored the emergence of opportunistic behavior. In this respect, any attempt to revitalize WBs and support self-organization will need to tackle the problems derived from demographic patterns, including land allocation, institutions design and government distrust, in addition to the typical investments in both physical infrastructure and hydrological information systems. The leadership role of the government, acting as a top-down trigger, is another essential element in Suriname.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los objetivos globales de esta tesis han sido estudiar el efecto que los carbohidratos de la dieta ejercen sobre los rendimientos productivos, la barrera intestinal, y la digestión de animales destetados a 25 días de edad. Además se ha estudiado cuál es el mejor periodo para determinar la digestibilidad fecal tras el destete a esta edad. En el primer experimento se estudió el efecto de la fibra neutro detergente soluble (FNDS) sobre la barrera intestinal, digestión, microbiota intestinal y rendimientos productivos de gazapos en gazapos en la fase post-destete. Se diseñaron tres piensos isonutritivos en los que la única fuente de variación fueron los niveles de fibra soluble. A partir de una dieta control (AH) con 103 g/kg de materia seca de FNDS y alfalfa como fuente principal de fibra, se sustituyó la mitad de esta alfalfa por una mezcla de pulpa de remolacha y pulpa de manzana (75:25) en el pienso B-AP y por una mezcla de cascarilla y concentrado de proteína de soja (88:12) en el pienso OH, obteniéndose 131 y 79 g/kg de FNDS sobre materia seca, respectivamente. Los conejos se destetaron a 25 días y fueron alimentados con los piensos experimentales hasta los 35 días de edad, momento en el que se sacrificaron para la determinación de la digestibilidad ileal aparente (DIA) de la materia seca (MS), proteína bruta (PB) y almidón, la morfología de la mucosa, y actividad enzimática en el yeyuno, el tejido linfoide asociado a la mucosa, así como la microbiota intestinal. Para la determinación de la morfología de la mucosa se utilizaron adicionalmente 19 animales lactantes de 35 días de edad. Para el estudio de la tasa de mortalidad, se utilizaron 118 animales más por tratamiento que recibieron los piensos experimentales durante las dos semanas post-destete y posteriormente un pienso comercial hasta los 60 días de edad. Los animales recibieron durante todo el experimento medicación en el agua de bebida (100 ppm de apramicina sulfato y 120 ppm de tilosina tartrato). El nivel de fibra soluble mejoró los parámetros que se utilizaron para la caracterización del estado de la barrera intestinal. Los conejos alimentados con el mayor nivel de FNDS en el pienso presentaron una mayor longitud de los villi (P=0.001), un mayor ratio longitud villi/profundidad de las criptas (8.14; P=0.001), una mayor actividad disacaridásica (8671 μmol de glucosa/g de proteína; P=0.019), así como una mayor digestibilidad ileal (96.8%; P=0.002), observándose una reducción en el flujo ileal de almidón a medida que se incrementó el nivel de fibra soluble en el pienso (1,2 vs 0,5 g/d; P=0.001). Los animales lactantes a 35 días de edad presentaron un ratio longitud de villi/profundidad de las criptas menor que el observado en aquéllos alimentados con el pienso B-AP (6.70), pero superior al de los piensos AH y OH. Niveles inferiores de NDFS tendieron (P=0.074) a incrementar la respuesta inmune de tipo celular (linfocitos CD8+). El pienso también afectó a la producción de IL2 (CD25+; P=0.029; CD5+CD25+; P=0.057), pero sin llegar a establecerse una clara relación con el nivel de fibra soluble. La diversidad de la microbiota intestinal no se vio afectada por el pienso (P ≥ 0.38). Los animales alimentados con las piensos B-AP y AH presentaron una reducción en la frecuencia de detección de Clostridium perfringens tanto en íleon (P=0.062) como en ciego (4.3 vs. 17.6%, P =0.047), comparado con el pienso OH. Además la tasa de mortalidad (118 gazapos/pienso) disminuyó de 14.4% en el pienso OH a 5.1% en el pienso B-AP. Entre los 32 y los 35 días de edad se determinó la digestibilidad fecal aparente (14/pienso) de la materia seca (MS), energía bruta (EB), proteína bruta (PB), fibra neutro detergente (FND), fibra ácido detergente (FAD) y almidón. Este grupo, junto con otros nueve animales por tratamiento se utilizaron para determinar el peso del estómago y el ciego, la concentración cecal de ácidos grasos volátiles (AGV) y amoniaco (NH3), así como las tasas de similitud de la microbiota intestinal. Además se estudiaron los rendimientos productivos (35 animales/tratamiento) de los gazapos durante todo el período de cebo, consumiendo los piensos experimentales desde el destete hasta los 35 días y posteriormente un pienso comercial hasta los 60 días de edad. Niveles crecientes de FNDS mejoraron la digestibilidad fecal de la materia seca (MS) y energía (P<0.001). La inclusión FNDS aumentó de manera lineal el peso del contenido cecal (P=0.001) y el peso del aparato digestivo completo (P=0.008), y en los días previos al sacrificio disminuyó de manera lineal el consumo medio diario (P=0.040). Se observó además, una disminución lineal (P≤0.041) del pH del estómago. No se encontró relación entre el pH, la concentración y proporciones molares de AGV y el nivel de FNDS. El pienso pareció tener un efecto, incluso superior al de la madre, sobre la tasa de similitud de la microbiota, y los efectos fueron mayores a nivel cecal que ileal. La eficacia alimenticia aumentó de manera lineal en un 12% entre piensos extremos tras el destete (25- 39d) y en un 3% en el período global de cebo con niveles mayores de NDFS. El consumo medio diario durante la fase post-destete y durante todo el período de cebo, tendió a aumen tar (P≤0.079) con niveles mayores de FNDS, sin embargo no se apreció efecto sobre la ganancia media diaria (P≥0.15). En conclusión, el incremento del nivel de fibra soluble en el pienso parece resultar beneficioso para la salud del animal ya que mejora la integridad de la mucosa, y reduce la frecuencia de detección de potenciales patógenos como C. perfringens y Campylobacter spp. Conforme a estos resultados, debería tenerse en cuenta el contenido en fibra soluble en la formulación de piensos de conejos en la fase post-destete. El objetivo del segundo experimento fue determinar el efecto de la fuente de almidón sobre la digestión, la microbiota intestinal y los rendimientos productivos en conejos destetados con 25 días de edad. Se formularon tres piensos isonutritivos en los que se modificaron las principales fuentes de almidón: trigo crudo, trigo cocido y una combinación de trigo y arroz cocido. Dos grupos de 99 y 193 animales se destetaron con 25 días de edad. El primero de ellos se utilizó para la determinación de los parámetros productivos conforme al mismo protocolo seguido en el experimento anterior. El segundo de los grupos se utilizó para la determinación de la digestibilidad fecal de 32 a 35 d, la digestibilidad ileal aparente (DIA) a 35 d, la morfología de la mucosa intestinal, los parámetros de fermentación cecal; así como, la caracterización de la microbiota intestinal. Se utilizaron además dos grupos adicionales de animales 384 (medicados) y 177 (no medicados) para estudiar el efecto de la suplementación con antibióticos en el agua de bebida sobre la mortalidad. El procesado térmico del trigo mejoró ligeramente la digestibilidad ileal del almidón (P=0.020) pero no modificó el flujo final de almidón que alcanzó el ciego, observándose una mayor frecuencia de detección de Campylobacter spp. y Ruminococcus spp. en ciego (P≤0.023), pero sin cambios a nivel ileal. El procesado térmico del trigo no afectó tampoco a los parámetros productivos, la mortalidad, la digestibilidad ileal y fecal o la morfología de la mucosa. La sustitución parcial del trigo cocido por arroz cocido, penalizó la digestibilidad ileal del almidón (P=0.020) e incrementó el flujo ileal de este nutriente al ciego (P=0.007). Sin embargo no afectó a la mortalidad, pese a que se detectaron cambios en la microbiota tanto a nivel ileal como cecal, disminuyendo la frecuencia de detección de Campylobacter spp. (en íleon y ciego), Helicobacter spp. (en íleon) y Ruminococcus spp (en ciego) e incrementando Bacteroides spp. (en ciego) (P≤0.046). El empleo de arroz cocido en las piensos post-destete no tuvieron efectos sobre los parámetros productivos, la mortalidad, la digestibilidad ileal y fecal a excepción del almidón, o la morfología de la mucosa. La suplementación con antibiótico redujo la fre cuencia de detección de la mayoría de las bacterias estudiadas (P≤0.048), sobre todo para Campylobacter spp., Clostridium perfringens y Propionibacterium spp. (P≤0.048), observándose un efecto mayor a nivel ileal que cecal, lo que se asoció a la bajada significativa (P<0.001) de la mortalidad. En conclusión, los resultados de este experimento indican que la fuente de almidón afecta a la microbiota intestinal pero no influiye sobre la salud del animal. En relación al procesado, el uso de trigo cocido junto con arroz cocido no mejora los resultados obtenidos con trigo duro, si bienserían necesarios más experimentos que confirmaran este punto. El último de los experimentos se centró en un aspecto metodológico. Dado que, los conejos destetados presentan un patrón digestivo diferente al de un animal adulto resultado de su inmadurez digestiva, el objetivo buscado era tratar de determinar el mejor procedimiento para la determinación de la digestibilidad fecal en los gazapos en la fase post-destete. Para tal fin se utilizaron 15 animales/tratamiento de tres camadas diferentes que se destetaron con 25 días, suministrándoles un pienso comercial de crecimiento-cebo. Se registró el consumo medio diario y la excreción diaria de heces desde el día 25 hasta el día 40 de edad para la determinación de la digestibilidad de la MS. La camada afectó al consumo medio diario y la excreción de heces (P=0.013 y 0.014, respectivamente), observándose una tendencia (P=0.061) en la digestibilidad. La edad afectó (P<0.001) a todos estos factores, incrementándose de manera más evidente la excreción que la ingestión de materia seca en la primera semana de vida, para aumentar de forma paralela a partir de la segunda. La correlación entre el consumo medio diario fue mayor con la excreción de heces del mismo día que con la del día siguiente, por lo que se utilizó el primero para la determinación de la digestibilidad de la MS (MSd). La MSd disminuyó de manera lineal hasta los 32 días de edad (2.17±0.25 unidades porcentuales por día), mientras que permaneció constante desde los 32 a los 40 días (69.4±0.47%). Por otro lado, la desviación estándar de la MSd se redujo cuando se incrementó el período de recogida de 2 a 6 días en un 54%. Conforme a los resultados obtenidos, se puede concluir que no es aconsejable comenzar las pruebas de digestibilidad antes de los 32 días de edad y que el número de animales necesario para detectar diferencias significativas entre tratamientos dependerá del período de recogida de heces. ABSTRACT The global aim of this thesis has been to study the effect of dietary carbohydrates on growth, performance, digestion and intestinal barrier in 25-d weaned rabbits. In addition there has also been studied which is the best period to determine the fecal digestibility after weaning. The first experiment focused on the effect of Neutral Detergent Soluble Fibre (NDSF) on gut barrier function, digestion, intestinal microbiota and growth performance n rabbits in the post-weaning period. Three isonutritive diets which only varied in the levels of soluble fiber were formulated such as it described as follows: a control diet (AH) containing 103 g of neutral detergent soluble fiber, including alfalfa as main source of fiber, was replaced by a mixture of beet and apple pulp (75-25) in the B-AP diet and, by a mix of oat hulls and soybean protein concentrate (88:12) in the OH diet, resulting 131 and 79 g of NDFS/kg of dry matter, respectively. Rabbits, weaned at 25 days of age, were fed the experimental diets up to 35 days of age, moment in which they were slaughtered for apparent ileal digestibility (AID) of dry matter (DM), crude protein (CP) and starch, mucosa morphology, sucrose activity, characterization of lamina propria lymphocytes and intestinal microbiota. To assess mucosal morphology, 19 suckling 35-d-old rabbits were also used. For mortality study, besides these animals, 118 additional rabbits per treatment were fed the experimental diets for two weeks period and thereafter received a commercial diet until 60 days of age. Rabbits were water medicated during the whole experimental period (100 ppm de apramicine sulphate and 120 ppm of tylosine tartrate). Level of soluble fiber improved all the parameters used for the characterization of the intestinal barrier condition. Villous height of the jejunal mucosa increased with dietary soluble fiber (P=0.001). Villous height of jejunal mucosa increased with dietary soluble fiber (P = 0.001). Rabbits fed the highest level of soluble fiber (BA-P diet) showed the highest villous height/crypth depth ratio (8.14; P = 0.001), sucrase specific activity (8671 μmol glucose/ g protein; P = 0.019), and the greatest ileal starch digestibility (96.8%; P = 0.002). The opposite effects were observed in rabbits fed decreased levels of soluble fiber (AH and OH diets; 4.70, 5,848 μmol of glucose/g of protein, as average, respectively). The lowest ileal starch digestibility was detected for animal fed OH diet (93.2%). Suckling rabbits of the same age showed a lower villous height/crypt depth ratio (6.70) compared with the B-AP diet group, but this ration was higher that the AH or OH diet groups. Lower levels of soluble fiber tended (P = 0.074) to increase the cellular immune response (CD8+ lymphocytes). Diet affected IL-2 production (CD25+, P = 0.029; CD5+CD25+, P = 0.057), with no clear relationship between soluble fiber and IL-2. The intestinal microbiota biodiversity was not affected by diets (P ≥ 0.38). Animals fed B-AP and AH diets had a reduced cecal frequency of detection compatible with Campylobacter spp. (20.3 vs. 37.8, P = 0.074), and Clostridium perfringens (4.3 vs. 17.6%, P = 0.047), compared with the OH diet group. Moreover, the mortality rates decreased from 14.4 (OH diet) to 5.1% (B-AP diet) with the increased presence of soluble fiber in the diet. Between 32 and 35 days of age, faecal apparent digestibility of dry matter (DM), gross energy (GE), crude protein (CP), neutral detergent fiber (NDF), acid detergent fiber (ADF) and starch was determined (14/diet). This group, plus another nine rabbits/diet were used to determine weight of stomach and caecum and their contents, cecal fermentation traits and similarity rate (SR) of intestinal microbiota. Besides, growth performance parameters (35 rabbits/diet) were studied during the whole fattening period, in animals consuming the experimental feed after the weaning up to 35 days of age and later on a commercial diet up animals reached 60 days of age. Increasing levels of Neutral Detergent Soluble Fiber improved faecal dry matter and energy digestibility (P<0.001). NDSF inclusion improved linearly weight of the caecal content (P=0.001) and the total gastrointestinal tract (P=0.008), and in the previous days to slaughter a linear decrease of daily feed intake in diet with highest level of soluble fiber was also observed. Stomach pH decreased linearly with increasing levels of NDFS (P≤0.041). No relation between NDSF level on pH, concentration and molar proportion of VFA was found. Treatments appeared to influence the similarity rate of microbiota, even higher to mother effect. These effects were higher in ileum than in caecum. A linear positive effect of feed efficiency was observed, which increased around 12% in the two weeks post-weaning (25-39d) and 3% in the whole fattening period between extreme diets with highest levels of soluble fiber. Average daily feed intake during the two weeks after weaning and in the whole fattening period, tended (P≤0.079) to increase with highest levels of NDSF; although there were no effect on daily weight gain (≥0.15). In conclusion, an increase of soluble fiber in the feed seems to be beneficial for animal health, due to improve mucose integrity and reduce detection frequency of those poten tial pathogens like C. perfringens and Campylobacter spp. According to these results, level of soluble fiber should be taking care in feed rabbit formulation in the post-weaning period. The objective of the second experiment was to determine the effect of source of starch on digestion, intestinal microbiota and growth performance in twenty-five-day old weaned rabbits. To accomplish with this aim three iso-nutritive diets were formulated with different source of starch: raw wheat, boiled wheat and a combination of boiled wheat and boiled rice. Two groups of 99 and 193 rabbits were weaned at 25 days of age. The first group was used for growth performance determination following the same protocol than in previous experiment. The second group was used to determine faecal digestibility from 32 to 35 d, apparent ileal digestibility (AID) at 35 d, jejunal mucosa morphology, caecal fermentation traits and characterization of intestinal microbiota. For mortality, two additional groups of 384 (medicated) and 177 (not medicated) were used in order to study the effect of antibiotic water supply supplementation. Heat processing of starch slightly improved ileal digestibility of starch (P=0.020) but did not modify the flow of starch to the caecum. An increase in frequency of detection of Campylobacter spp. y Ruminococcus spp. was observed in the caecum (P≤0.023), with no changes at ileal level. Heat processing of wheat did not modify growth performance, mortality, ileal or faecal digestibility and mucosa morphology. Partial substitution of boiled wheat for boiled rice in the diet impaired ileal starch digestibility (P=0.020) and increased the ileal flow of this nutrient to the caecum (P=0.007). However, it did not affect mortality rate, although changes in the ileal and caecal intestinal microbiota were detected, decreasing the frequency of detection of Campylobacter spp. (both ileum and caecum), Helicobacter spp. (at ileum) and Ruminococcus spp (at caecum) and increasing the Bacteroides spp. (at caecum) (P≤0.046). The effect of boiled rice supplementation did not alter growth performance, mortality, ileal or faecal digestibility of other nutrients than starch, and mucosa morphology. Medication of rabbits reduced the ileal frequency of detection of most bacteria studied (P≤0.048), especially for Campylobacter spp., Clostridium perfringens y Propionibacterium spp. (P≤0.048), resulting the effect higher at ileal than caecal level and relating it with a strong reduction of mortality rate (P<0.001). In conclusion, the results of this experiment make think that the source of starch affects the intestinal microbiota but they do not seem to influence animal health. In relation to the effect of heat processed the use of cooked wheat or cooked rice it does not seem to im prove the results obtained with hard wheat, but there would be necessary more experiments that were confirming this point. The last experiment focused on a methodological aspect. Considering that, weaned rabbits have a different digestive pattern than older animals due to their digestive immaturity; the fixed objective was to determine the best procedure for faecal digestibility determination in young rabbits in the post-weaning period. Fifteen rabbits from 5 different litters were weaned at 25 days of age and fed with a commercial feed. Feed intake and faeces excretion were recorded daily from 25 to 40 days of age for dry matter digestibility (DMd) determination. Litter affected daily DM intake and excretion (P=0.013 y 0.014, respectively) and tended to affect DMd (P=0.061). Age affected all these factors (P<0.001), but ingestion increased slowly than dry matter excretion during the first week buth they evolved similarly in the second week. The correlation between daily feed intakes was higher with the faeces excretion of the day than with faeces excretion of the next day, and the first values were used to determine daily DMd. The DMd decreased linearly from weaning to 32 d of age (2.17±0.25 percentage units per day), whereas from 32 to 40 d remained constant (69.4±0.47%). On the other hand, average standard deviation of DMd decreased by 54% when the length of collection period increased from 2 to 6d. Consequently to the obtained results, it could be concluded that it would not be advisable to start digestibility trials before the 32 days of age and that the number of animals required to detect a significant difference among means would depend on the collection period.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El diseño y desarrollo de sistemas de suspensión para vehículos se basa cada día más en el diseño por ordenador y en herramientas de análisis por ordenador, las cuales permiten anticipar problemas y resolverlos por adelantado. El comportamiento y las características dinámicas se calculan con precisión, bajo coste, y recursos y tiempos de cálculo reducidos. Sin embargo, existe una componente iterativa en el proceso, que requiere la definición manual de diseños a través de técnicas “prueba y error”. Esta Tesis da un paso hacia el desarrollo de un entorno de simulación eficiente capaz de simular, analizar y evaluar diseños de suspensiones vehiculares, y de mejorarlos hacia la solución optima mediante la modificación de los parámetros de diseño. La modelización mediante sistemas multicuerpo se utiliza aquí para desarrollar un modelo de autocar con 18 grados de libertad, de manera detallada y eficiente. La geometría y demás características de la suspensión se ajustan a las del vehículo real, así como los demás parámetros del modelo. Para simular la dinámica vehicular, se utiliza una formulación multicuerpo moderna y eficiente basada en las ecuaciones de Maggi, a la que se ha incorporado un visor 3D. Así, se consigue simular maniobras vehiculares en tiempos inferiores al tiempo real. Una vez que la dinámica está disponible, los análisis de sensibilidad son cruciales para una optimización robusta y eficiente. Para ello, se presenta una técnica matemática que permite derivar las variables dinámicas dentro de la formulación, de forma algorítmica, general, con la precisión de la maquina, y razonablemente eficiente: la diferenciación automática. Este método propaga las derivadas con respecto a las variables de diseño a través del código informático y con poca intervención del usuario. En contraste con otros enfoques en la bibliografía, generalmente particulares y limitados, se realiza una comparación de librerías, se desarrolla una formulación híbrida directa-automática para el cálculo de sensibilidades, y se presentan varios ejemplos reales. Finalmente, se lleva a cabo la optimización de la respuesta dinámica del vehículo citado. Se analizan cuatro tipos distintos de optimización: identificación de parámetros, optimización de la maniobrabilidad, optimización del confort y optimización multi-objetivo, todos ellos aplicados al diseño del autocar. Además de resultados analíticos y gráficos, se incluyen algunas consideraciones acerca de la eficiencia. En resumen, se mejora el comportamiento dinámico de vehículos por medio de modelos multicuerpo y de técnicas de diferenciación automática y optimización avanzadas, posibilitando un ajuste automático, preciso y eficiente de los parámetros de diseño. ABSTRACT Each day, the design and development of vehicle suspension systems relies more on computer-aided design and computer-aided engineering tools, which allow anticipating the problems and solving them ahead of time. Dynamic behavior and characteristics are thus simulated accurately and inexpensively with moderate computational times and resources. There is, however, an iterative component in the process, which involves the manual definition of designs in a trialand-error manner. This Thesis takes a step towards the development of an efficient simulation framework capable of simulating, analyzing and evaluating vehicle suspension designs, and automatically improving them by varying the design parameters towards the optimal solution. The multibody systems approach is hereby used to model a three-dimensional 18-degrees-of-freedom coach in a comprehensive yet efficient way. The suspension geometry and characteristics resemble the ones from the real vehicle, as do the rest of vehicle parameters. In order to simulate vehicle dynamics, an efficient, state-of-the-art multibody formulation based on Maggi’s equations is employed, and a three-dimensional graphics viewer is developed. As a result, vehicle maneuvers can be simulated faster than real-time. Once the dynamics are ready, a sensitivity analysis is crucial for a robust optimization. To that end, a mathematical technique is introduced, which allows differentiating the dynamic variables within the multibody formulation in a general, algorithmic, accurate to machine precision, and reasonably efficient way: automatic differentiation. This method propagates the derivatives with respect to the design parameters throughout the computer code, with little user interaction. In contrast with other attempts in the literature, mostly not generalpurpose, a benchmarking of libraries is carried out, a hybrid direct-automatic differentiation approach for the computation of sensitivities is developed, and several real-life examples are analyzed. Finally, a design optimization process of the aforementioned vehicle is carried out. Four different types of dynamic response optimization are presented: parameter identification, handling optimization, ride comfort optimization and multi-objective optimization; all of which are applied to the design of the coach example. Together with analytical and visual proof of the results, efficiency considerations are made. In summary, the dynamic behavior of vehicles is improved by using the multibody systems approach, along with advanced differentiation and optimization techniques, enabling an automatic, accurate and efficient tuning of design parameters.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los materiales de banda intermedia han atraido la atención de la comunidad científica en el campo de la energía solar fotovoltaica en los últimos años. Sin embargo, con el objetivo de entender los fundamentos de las células solares de banda intermedia, se debe llevar a cabo un estudio profundo de la características de los materiales. Esto se puede hacer mediante un modelo teórico usando Primeros Principios. A partir de este enfoque se pueden obtener resultados tales como la estructura electrónica y propiedades ópticas, entre otras, de los semiconductores fuertemente dopados y sus precursores. Con el fin de desentrañar las estructuras de estos sistemas electrónicos, esta tesis presenta un estudio termodinámico y optoelectrónico de varios materiales fotovoltaicos. Específicamente se caracterizaron los materiales avanzados de banda intermedia y sus precursores. El estudio se hizo en términos de caracterización teórica de la estructura electrónica, la energética del sistema, entre otros. Además la estabilidad se obtuvo usando configuraciones adaptadas a la simetría del sistema y basado en la combinatoria. Las configuraciones de los sitios ocupados por defectos permiten obtener información sobre un espacio de configuraciones donde las posiciones de los dopantes sustituidos se basan en la simetría del sólido cristalino. El resultado puede ser tratado usando elementos de termodinámica estadística y da información de la estabilidad de todo el espacio simétrico. Además se estudiaron otras características importantes de los semiconductores de base. En concreto, el análisis de las interacciones de van der Waals fueron incluidas en el semiconductor en capas SnS2, y el grado de inversión en el caso de las espinelas [M]In2S4. En este trabajo además realizamos una descripción teórica exhaustiva del sistema CdTe:Bi. Este material de banda-intermedia muestra características que son distintas a las de los otros materiales estudiados. También se analizó el Zn como agente modulador de la posición de las sub-bandas prohibidas en el material de banda-intermedia CuGaS2:Ti. Analizándose además la viabilidad termodinámica de la formación de este compuesto. Finalmente, también se describió el GaN:Cr como material de banda intermedia, en la estructura zinc-blenda y en wurtztite, usando configuraciones de sitios ocupados de acuerdo a la simetría del sistema cristalino del semiconductor de base. Todos los resultados, siempre que fue posible, fueron comparados con los resultados experimentales. ABSTRACT The intermediate-band materials have attracted the attention of the scientific community in the field of the photovoltaics in recent years. Nevertheless, in order to understand the intermediate-band solar cell fundamentals, a profound study of the characteristics of the materials is required. This can be done using theoretical modelling from first-principles. The electronic structure and optical properties of heavily doped semiconductors and their precursor semiconductors are, among others, results that can be obtained from this approach. In order to unravel the structures of these crystalline systems, this thesis presents a thermodynamic and optoelectronic study of several photovoltaic materials. Specifically advanced intermediate-band materials and their precursor semiconductors were characterized. The study was made in terms of theoretical characterization of the electronic structure, energetics among others. The stability was obtained using site-occupancy-disorder configurations adapted to the symmetry of the system and based on combinatorics. The site-occupancy-disorder method allows the formation of a configurational space of substitutional dopant positions based on the symmetry of the crystalline solid. The result, that can be treated using statistical thermodynamics, gives information of the stability of the whole space of symmetry of the crystalline lattice. Furthermore, certain other important characteristics of host semiconductors were studied. Specifically, the van der Waal interactions were included in the SnS2 layered semiconductor, and the inversion degree in cases of [M]In2S4 spinels. In this work we also carried out an exhaustive theoretical description of the CdTe:Bi system. This intermediate-band material shows characteristics that are distinct from those of the other studied intermediate-band materials. In addition, Zn was analysed as a modulator of the positions of the sub-band gaps in the CuGaS2:Ti intermediate-band material. The thermodynamic feasibility of the formation of this compound was also carried out. Finally GaN:Cr intermediate-band material was also described both in the zinc-blende and the wurtztite type structures, using the symmetry-adapted-space of configurations. All results, whenever possible, were compared with experimental results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The effects of power and time conditions of in situ N2 plasma treatment, prior to silicon nitride (SiN) passivation, were investigated on an AlGaN/GaN high-electron mobility transistor (HEMT). These studies reveal that N2 plasma power is a critical parameter to control the SiN/AlGaN interface quality, which directly affects the 2-D electron gas density. Significant enhancement in the HEMT characteristics was observed by using a low power N2 plasma pretreatment. In contrast, a marked gradual reduction in the maximum drain-source current density (IDS max) and maximum transconductance (gm max), as well as in fT and fmax, was observed as the N2 plasma power increases (up to 40% decrease for 210 W). Different mechanisms were proposed to be dominant as a function of the discharge power range. A good correlation was observed between the device electrical characteristics and the surface assessment by atomic force microscopy and Kelvin force microscopy techniques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo principal del presente trabajo es estudiar y explotar estructuras que presentan un gas bidimensional de electrones (2DEG) basadas en compuestos nitruros con alto contenido de indio. Existen muchas preguntas abiertas, relacionadas con el nitruro de indio y sus aleaciones, algunas de las cuales se han abordado en este estudio. En particular, se han investigado temas relacionados con el análisis y la tecnología del material, tanto para el InN y heteroestructuras de InAl(Ga)N/GaN como para sus aplicaciones a dispositivos avanzados. Después de un análisis de la dependencia de las propiedades del InN con respecto a tratamientos de procesado de dispositivos (plasma y térmicos), el problema relacionado con la formación de un contacto rectificador es considerado. Concretamente, su dificultad es debida a la presencia de acumulación de electrones superficiales en la forma de un gas bidimensional de electrones, debido al pinning del nivel de Fermi. El uso de métodos electroquímicos, comparados con técnicas propias de la microelectrónica, ha ayudado para la realización de esta tarea. En particular, se ha conseguido lamodulación de la acumulación de electrones con éxito. En heteroestructuras como InAl(Ga)N/GaN, el gas bidimensional está presente en la intercara entre GaN y InAl(Ga)N, aunque no haya polarización externa (estructuras modo on). La tecnología relacionada con la fabricación de transistores de alta movilidad en modo off (E-mode) es investigada. Se utiliza un método de ataque húmedo mediante una solución de contenido alcalino, estudiando las modificaciones estructurales que sufre la barrera. En este sentido, la necesidad de un control preciso sobre el material atacado es fundamental para obtener una estructura recessed para aplicaciones a transistores, con densidad de defectos e inhomogeneidad mínimos. La dependencia de la velocidad de ataque de las propiedades de las muestras antes del tratamiento es observada y comentada. Se presentan también investigaciones relacionadas con las propiedades básicas del InN. Gracias al uso de una puerta a través de un electrolito, el desplazamiento de los picos obtenidos por espectroscopia Raman es correlacionado con una variación de la densidad de electrones superficiales. En lo que concierne la aplicación a dispositivos, debido al estado de la tecnología actual y a la calidad del material InN, todavía no apto para dispositivos, la tesis se enfoca a la aplicación de heteroestructuras de InAl(Ga)N/GaN. Gracias a las ventajas de una barrera muy fina, comparada con la tecnología de AlGaN/GaN, el uso de esta estructura es adecuado para aplicaciones que requieren una elevada sensibilidad, estando el canal 2DEG más cerca de la superficie. De hecho, la sensibilidad obtenida en sensores de pH es comparable al estado del arte en términos de variaciones de potencial superficial, y, debido al poco espesor de la barrera, la variación de la corriente con el pH puede ser medida sin necesidad de un electrodo de referencia externo. Además, estructuras fotoconductivas basadas en un gas bidimensional presentan alta ganancia debida al elevado campo eléctrico en la intercara, que induce una elevada fuerza de separación entre hueco y electrón generados por absorción de luz. El uso de metalizaciones de tipo Schottky (fotodiodos Schottky y metal-semiconductormetal) reduce la corriente de oscuridad, en comparación con los fotoconductores. Además, la barrera delgada aumenta la eficiencia de extracción de los portadores. En consecuencia, se obtiene ganancia en todos los dispositivos analizados basados en heteroestructuras de InAl(Ga)N/GaN. Aunque presentando fotoconductividad persistente (PPC), los dispositivos resultan más rápidos con respeto a los valores que se dan en la literatura acerca de PPC en sistemas fotoconductivos. ABSTRACT The main objective of the present work is to study and exploit the two-dimensionalelectron- gas (2DEG) structures based on In-related nitride compounds. Many open questions are analyzed. In particular, technology and material-related topics are the focus of interest regarding both InNmaterial and InAl(Ga)N/GaNheterostructures (HSs) as well as their application to advanced devices. After the analysis of the dependence of InN properties on processing treatments (plasma-based and thermal), the problemof electrical blocking behaviour is taken into consideration. In particular its difficulty is due to the presence of a surface electron accumulation (SEA) in the form of a 2DEG, due to Fermi level pinning. The use of electrochemical methods, compared to standard microelectronic techniques, helped in the successful realization of this task. In particular, reversible modulation of SEA is accomplished. In heterostructures such as InAl(Ga)N/GaN, the 2DEGis present at the interface between GaN and InAl(Ga)N even without an external bias (normally-on structures). The technology related to the fabrication of normally off (E-mode) high-electron-mobility transistors (HEMTs) is investigated in heterostructures. An alkali-based wet-etching method is analysed, standing out the structural modifications the barrier underwent. The need of a precise control of the etched material is crucial, in this sense, to obtain a recessed structure for HEMT application with the lowest defect density and inhomogeneity. The dependence of the etch rate on the as-grown properties is observed and commented. Fundamental investigation related to InNis presented, related to the physics of this degeneratematerial. With the help of electrolyte gating (EG), the shift in Raman peaks is correlated to a variation in surface eletron density. As far as the application to device is concerned, due to the actual state of the technology and material quality of InN, not suitable for working devices yet, the focus is directed to the applications of InAl(Ga)N/GaN HSs. Due to the advantages of a very thin barrier layer, compared to standard AlGaN/GaN technology, the use of this structure is suitable for high sensitivity applications being the 2DEG channel closer to the surface. In fact, pH sensitivity obtained is comparable to the state-of-the-art in terms of surface potential variations, and, due to the ultrathin barrier, the current variation with pH can be recorded with no need of the external reference electrode. Moreover, 2DEG photoconductive structures present a high photoconductive gain duemostly to the high electric field at the interface,and hence a high separation strength of photogenerated electron and hole. The use of Schottky metallizations (Schottky photodiode and metal-semiconductor-metal) reduce the dark current, compared to photoconduction, and the thin barrier helps to increase the extraction efficiency. Gain is obtained in all the device structures investigated. The devices, even if they present persistent photoconductivity (PPC), resulted faster than the standard PPC related decay values.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Insulating materials in buildings are one of the main factors that should be taken into account when talking about sustainability since with a correct application it could imply important savings for the citizens. In the course of its life, a building requires a series of supplies to perform the duties it has been built for, generating an impact on the environment. The selection of one material or another will establish partly the global environmental impact of the building. Choosing the right insulating material will determine the building's general degree of sustainability, both in its heating savings (energy consumption) and in the environmental impacts caused by its LCA (greenhouse gas emissions). Therefore, we propose to establish guidelines to characterize the insulating material with a better environmental performance in all the stages of its life cycle, taking into account the construction system, the use of the building and its location.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nuestro cerebro contiene cerca de 1014 sinapsis neuronales. Esta enorme cantidad de conexiones proporciona un entorno ideal donde distintos grupos de neuronas se sincronizan transitoriamente para provocar la aparición de funciones cognitivas, como la percepción, el aprendizaje o el pensamiento. Comprender la organización de esta compleja red cerebral en base a datos neurofisiológicos, representa uno de los desafíos más importantes y emocionantes en el campo de la neurociencia. Se han propuesto recientemente varias medidas para evaluar cómo se comunican las diferentes partes del cerebro a diversas escalas (células individuales, columnas corticales, o áreas cerebrales). Podemos clasificarlos, según su simetría, en dos grupos: por una parte, la medidas simétricas, como la correlación, la coherencia o la sincronización de fase, que evalúan la conectividad funcional (FC); mientras que las medidas asimétricas, como la causalidad de Granger o transferencia de entropía, son capaces de detectar la dirección de la interacción, lo que denominamos conectividad efectiva (EC). En la neurociencia moderna ha aumentado el interés por el estudio de las redes funcionales cerebrales, en gran medida debido a la aparición de estos nuevos algoritmos que permiten analizar la interdependencia entre señales temporales, además de la emergente teoría de redes complejas y la introducción de técnicas novedosas, como la magnetoencefalografía (MEG), para registrar datos neurofisiológicos con gran resolución. Sin embargo, nos hallamos ante un campo novedoso que presenta aun varias cuestiones metodológicas sin resolver, algunas de las cuales trataran de abordarse en esta tesis. En primer lugar, el creciente número de aproximaciones para determinar la existencia de FC/EC entre dos o más señales temporales, junto con la complejidad matemática de las herramientas de análisis, hacen deseable organizarlas todas en un paquete software intuitivo y fácil de usar. Aquí presento HERMES (http://hermes.ctb.upm.es), una toolbox en MatlabR, diseñada precisamente con este fin. Creo que esta herramienta será de gran ayuda para todos aquellos investigadores que trabajen en el campo emergente del análisis de conectividad cerebral y supondrá un gran valor para la comunidad científica. La segunda cuestión practica que se aborda es el estudio de la sensibilidad a las fuentes cerebrales profundas a través de dos tipos de sensores MEG: gradiómetros planares y magnetómetros, esta aproximación además se combina con un enfoque metodológico, utilizando dos índices de sincronización de fase: phase locking value (PLV) y phase lag index (PLI), este ultimo menos sensible a efecto la conducción volumen. Por lo tanto, se compara su comportamiento al estudiar las redes cerebrales, obteniendo que magnetómetros y PLV presentan, respectivamente, redes más densamente conectadas que gradiómetros planares y PLI, por los valores artificiales que crea el problema de la conducción de volumen. Sin embargo, cuando se trata de caracterizar redes epilépticas, el PLV ofrece mejores resultados, debido a la gran dispersión de las redes obtenidas con PLI. El análisis de redes complejas ha proporcionado nuevos conceptos que mejoran caracterización de la interacción de sistemas dinámicos. Se considera que una red está compuesta por nodos, que simbolizan sistemas, cuyas interacciones se representan por enlaces, y su comportamiento y topología puede caracterizarse por un elevado número de medidas. Existe evidencia teórica y empírica de que muchas de ellas están fuertemente correlacionadas entre sí. Por lo tanto, se ha conseguido seleccionar un pequeño grupo que caracteriza eficazmente estas redes, y condensa la información redundante. Para el análisis de redes funcionales, la selección de un umbral adecuado para decidir si un determinado valor de conectividad de la matriz de FC es significativo y debe ser incluido para un análisis posterior, se convierte en un paso crucial. En esta tesis, se han obtenido resultados más precisos al utilizar un test de subrogadas, basado en los datos, para evaluar individualmente cada uno de los enlaces, que al establecer a priori un umbral fijo para la densidad de conexiones. Finalmente, todas estas cuestiones se han aplicado al estudio de la epilepsia, caso práctico en el que se analizan las redes funcionales MEG, en estado de reposo, de dos grupos de pacientes epilépticos (generalizada idiopática y focal frontal) en comparación con sujetos control sanos. La epilepsia es uno de los trastornos neurológicos más comunes, con más de 55 millones de afectados en el mundo. Esta enfermedad se caracteriza por la predisposición a generar ataques epilépticos de actividad neuronal anormal y excesiva o bien síncrona, y por tanto, es el escenario perfecto para este tipo de análisis al tiempo que presenta un gran interés tanto desde el punto de vista clínico como de investigación. Los resultados manifiestan alteraciones especificas en la conectividad y un cambio en la topología de las redes en cerebros epilépticos, desplazando la importancia del ‘foco’ a la ‘red’, enfoque que va adquiriendo relevancia en las investigaciones recientes sobre epilepsia. ABSTRACT There are about 1014 neuronal synapses in the human brain. This huge number of connections provides the substrate for neuronal ensembles to become transiently synchronized, producing the emergence of cognitive functions such as perception, learning or thinking. Understanding the complex brain network organization on the basis of neuroimaging data represents one of the most important and exciting challenges for systems neuroscience. Several measures have been recently proposed to evaluate at various scales (single cells, cortical columns, or brain areas) how the different parts of the brain communicate. We can classify them, according to their symmetry, into two groups: symmetric measures, such as correlation, coherence or phase synchronization indexes, evaluate functional connectivity (FC); and on the other hand, the asymmetric ones, such as Granger causality or transfer entropy, are able to detect effective connectivity (EC) revealing the direction of the interaction. In modern neurosciences, the interest in functional brain networks has increased strongly with the onset of new algorithms to study interdependence between time series, the advent of modern complex network theory and the introduction of powerful techniques to record neurophysiological data, such as magnetoencephalography (MEG). However, when analyzing neurophysiological data with this approach several questions arise. In this thesis, I intend to tackle some of the practical open problems in the field. First of all, the increase in the number of time series analysis algorithms to study brain FC/EC, along with their mathematical complexity, creates the necessity of arranging them into a single, unified toolbox that allow neuroscientists, neurophysiologists and researchers from related fields to easily access and make use of them. I developed such a toolbox for this aim, it is named HERMES (http://hermes.ctb.upm.es), and encompasses several of the most common indexes for the assessment of FC and EC running for MatlabR environment. I believe that this toolbox will be very helpful to all the researchers working in the emerging field of brain connectivity analysis and will entail a great value for the scientific community. The second important practical issue tackled in this thesis is the evaluation of the sensitivity to deep brain sources of two different MEG sensors: planar gradiometers and magnetometers, in combination with the related methodological approach, using two phase synchronization indexes: phase locking value (PLV) y phase lag index (PLI), the latter one being less sensitive to volume conduction effect. Thus, I compared their performance when studying brain networks, obtaining that magnetometer sensors and PLV presented higher artificial values as compared with planar gradiometers and PLI respectively. However, when it came to characterize epileptic networks it was the PLV which gives better results, as PLI FC networks where very sparse. Complex network analysis has provided new concepts which improved characterization of interacting dynamical systems. With this background, networks could be considered composed of nodes, symbolizing systems, whose interactions with each other are represented by edges. A growing number of network measures is been applied in network analysis. However, there is theoretical and empirical evidence that many of these indexes are strongly correlated with each other. Therefore, in this thesis I reduced them to a small set, which could more efficiently characterize networks. Within this framework, selecting an appropriate threshold to decide whether a certain connectivity value of the FC matrix is significant and should be included in the network analysis becomes a crucial step, in this thesis, I used the surrogate data tests to make an individual data-driven evaluation of each of the edges significance and confirmed more accurate results than when just setting to a fixed value the density of connections. All these methodologies were applied to the study of epilepsy, analysing resting state MEG functional networks, in two groups of epileptic patients (generalized and focal epilepsy) that were compared to matching control subjects. Epilepsy is one of the most common neurological disorders, with more than 55 million people affected worldwide, characterized by its predisposition to generate epileptic seizures of abnormal excessive or synchronous neuronal activity, and thus, this scenario and analysis, present a great interest from both the clinical and the research perspective. Results revealed specific disruptions in connectivity and network topology and evidenced that networks’ topology is changed in epileptic brains, supporting the shift from ‘focus’ to ‘networks’ which is gaining importance in modern epilepsy research.