26 resultados para ANÁLISIS ESPECTRAL

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Ingeniería Biomédica surgió en la década de 1950 como una fascinante mezcla interdisciplinaria, en la cual la ingeniería, la biología y la medicina aunaban esfuerzos para analizar y comprender distintas enfermedades. Las señales existentes en este área deben ser analizadas e interpretadas, más allá de las capacidades limitadas de la simple vista y la experiencia humana. Aquí es donde el procesamiento digital de la señal se postula como una herramienta indispensable para extraer la información relevante oculta en dichas señales. La electrocardiografía fue una de las primeras áreas en las que se aplicó el procesado digital de señales hace más de 50 años. Las señales electrocardiográficas continúan siendo, a día de hoy, objeto de estudio por parte de cardiólogos e ingenieros. En esta área, las técnicas de procesamiento de señal han ayudado a encontrar información oculta a simple vista que ha cambiado la forma de tratar ciertas enfermedades que fueron ya diagnosticadas previamente. Desde entonces, se han desarrollado numerosas técnicas de procesado de señales electrocardiográficas, pudiéndose resumir estas en tres grandes categorías: análisis tiempo-frecuencia, análisis de organización espacio-temporal y separación de la actividad atrial del ruido y las interferencias. Este proyecto se enmarca dentro de la primera categoría, análisis tiempo-frecuencia, y en concreto dentro de lo que se conoce como análisis de frecuencia dominante, la cual se va a aplicar al análisis de señales de fibrilación auricular. El proyecto incluye una parte teórica de análisis y desarrollo de algoritmos de procesado de señal, y una parte práctica, de programación y simulación con Matlab. Matlab es una de las herramientas fundamentales para el procesamiento digital de señales por ordenador, la cual presenta importantes funciones y utilidades para el desarrollo de proyectos en este campo. Por ello, se ha elegido dicho software como herramienta para la implementación del proyecto. ABSTRACT. Biomedical Engineering emerged in the 1950s as a fascinating interdisciplinary blend, in which engineering, biology and medicine pooled efforts to analyze and understand different diseases. Existing signals in this area should be analyzed and interpreted, beyond the limited capabilities of the naked eye and the human experience. This is where the digital signal processing is postulated as an indispensable tool to extract the relevant information hidden in these signals. Electrocardiography was one of the first areas where digital signal processing was applied over 50 years ago. Electrocardiographic signals remain, even today, the subject of close study by cardiologists and engineers. In this area, signal processing techniques have helped to find hidden information that has changed the way of treating certain diseases that were already previously diagnosed. Since then, numerous techniques have been developed for processing electrocardiographic signals. These methods can be summarized into three categories: time-frequency analysis, analysis of spatio-temporal organization and separation of atrial activity from noise and interferences. This project belongs to the first category, time-frequency analysis, and specifically to what is known as dominant frequency analysis, which is one of the fundamental tools applied in the analysis of atrial fibrillation signals. The project includes a theoretical part, related to the analysis and development of signal processing algorithms, and a practical part, related to programming and simulation using Matlab. Matlab is one of the fundamental tools for digital signal processing, presenting significant functions and advantages for the development of projects in this field. Therefore, we have chosen this software as a tool for project implementation.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

En este proyecto se van a aplicar las técnicas de análisis de ruido para caracterizar la respuesta dinámica de varios sensores de temperatura, tanto termorresistencias de platino como de termopares. Estos sensores son imprescindibles para él correcto funcionamiento de las centrales nucleares y requieren vigilancia para garantizar la exactitud de las medidas. Las técnicas de análisis de ruido son técnicas pasivas, es decir, no afectan a la operación de la planta y permiten realizar una vigilancia in situ de los sensores. Para el caso de los sensores de temperatura, dado que se pueden asimilar a sistemas de primer orden, el parámetro fundamental a vigilar es el tiempo de respuesta. Éste puede obtenerse para cada una de las sondas por medio de técnicas en el dominio de la frecuencia (análisis espectral) o por medio de técnicas en el dominio del tiempo (modelos autorregresivos). Además de la estimación del tiempo de respuesta, se realizará una caracterización estadística de las sondas. El objetivo es conocer el comportamiento de los sensores y vigilarlos de manera que se puedan diagnosticar las averías aunque éstas estén en una etapa incipiente. ABSTRACT In this project we use noise analysis technique to study the dynamic response of RTDs (Resistant temperature detectors) and thermocouples. These sensors are essential for the proper functioning of nuclear power plants and therefore need to be monitored to guarantee accurate measurements. The noise analysis techniques do not affect plant operation and allow in situ monitoring of the sensors. Temperature sensors are equivalent to first order systems. In these systems the main parameter to monitor is the response time which can be obtained by means of techniques in the frequency domain (spectral analysis) as well as time domain (autoregressive models). Besides response time estimation the project will also include a statistical study of the probes. The goal is to understand the behavior of the sensors and monitor them in order to detect any anomalies or malfunctions even if they occur in an early stage.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Se analiza el problema de los ciclos largos en economía, planteando las distintas posturas actuales y aplicando técnicas de análisis espectral a una serie de datos correspondientes al PIB per cápita mundial en dólares internacionales Geary-Khamis de 1990.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El registro sedimentario del lago volcánico conocido como maar de Fuentillejo (Centro de España) ofrece la oportunidad de determinar la evolución paleoambiental durante el Pleistoceno medio y superior de la parte Centro-Sur de la Península Ibérica, objetivo principal de esta Tesis Doctoral. Se ha recopilado información sobre otras reconstrucciones paleoambientales en maares de todo el mundo y estudios paleoclimáticos realizados en el registro de la turbera de Padul, relativamente próxima al maar de Fuentillejo. Con ello, se pudo realizar el estado del arte.A lo largo del sondeo continuo (142,25 m) perforado en la parte central del maar de Fuentillejo en el año 2002, se han tomando un total de 613 muestras a intervalos de 20 cm para el análisis de biomarcadores. Los biomarcadores se obtuvieron mediante un equipo de extracción acelerada de disolventes (Dionex ASE 200) y fueron analizados con un cromatógrafo de gases (HP 6890) con detector selectivo de masas (HP 5973). La datación de sedimentos del maar de Fuentillejo ha sido complicada debido a la ausencia de restos orgánicos terrestres. Se seleccionaron seis muestras de sedimento para intentar datar por el método de racemización de aminoácidos: los resultados obtenidos no fueron buenos. Finalmente, el modelo de edad-profundidad se ha llevado a cabo mediante paleomagnetismo, dataciones 14C y U/Th. En base a una interpolación lineal de las edades medias calibradas se ha datado la base del registro en aproximadamente 355 ka. Se han identificado y cuantificado los n-alcanos, n-metil cetonas, ácidos n- alcanoicos y azufre orgánico del sedimento a lo largo del registro. La interpretación de los diferentes índices establecidos a partir de éstos permite independizar tres Unidades Geoquímicas generales (UG) y nueve Subunidades (S) que definen condiciones paleoambientales distintas (predominio en el aporte de vegetación terrestre/de macrofitas/acuática, lámina de agua más alta vs. más baja, periodos más húmedos vs. más secos).A partir de análisis estadísticos de los índices de n-alcanos (matriz de correlación y análisis de agrupaciones) se han definido tres asociaciones: Grupo 1 (condiciones ambientales más húmedas y fase con lámina de agua elevada), Grupo 2 (con condiciones intermedias) y Grupo 3 (las fases más secas y con lámina de agua más baja). Además, se establece un Indicador Paleoambiental (I.P.) que muestra variaciones notables correlacionables con escenarios paleoambientales distintos (más húmedos vs. más secos) distinguiendo veintiséis Episodios (E): cinco Secos, nueve Húmedos y doce Intermedios.En general, se encuentra una buena correspondencia entre estos Episodios (E) y los eventos paleoclimáticos cortos descritos por Vegas et al. (2010) en este registro, en base a la palinología y geoquímica, así como los Episodios del Oxígeno Marino (MIS) y Eventos Heinrich, que permiten suponer que las oscilaciones paleoclimatológicas registradas en el maar tienen un origen global. Esta correspondencia se confirma por el análisis espectral, que revela que los ciclos interpretados (103, 41, 26 y 23 ka) evidencian influencia orbital. Además, se ha realizado una correlación tentativa entre los episodios paleoambientales de larga duración obtenidos a partir del perfil suavizado del porcentaje relativo de C27 de la Cuenca de Padul (Granada, Sur de la Península Ibérica) y el perfil I.P. suavizado del maar de Fuentillejo, aunque hay diferencias que podrían ser explicadas por la vecindad de Padul a la zona de nieves perpetuas de Sierra Nevada lo que origina marcadas diferencias hidrológicas entre ambos sitios. El análisis por cadenas de Markov ha permitido determinar que los cambios paleoambientales reflejados por los biomarcadores no fueron, en la mayoría de los casos, bruscos pasando, normalmente, por estados transicionales.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En la actualidad, el seguimiento de la dinámica de los procesos medio ambientales está considerado como un punto de gran interés en el campo medioambiental. La cobertura espacio temporal de los datos de teledetección proporciona información continua con una alta frecuencia temporal, permitiendo el análisis de la evolución de los ecosistemas desde diferentes escalas espacio-temporales. Aunque el valor de la teledetección ha sido ampliamente probado, en la actualidad solo existe un número reducido de metodologías que permiten su análisis de una forma cuantitativa. En la presente tesis se propone un esquema de trabajo para explotar las series temporales de datos de teledetección, basado en la combinación del análisis estadístico de series de tiempo y la fenometría. El objetivo principal es demostrar el uso de las series temporales de datos de teledetección para analizar la dinámica de variables medio ambientales de una forma cuantitativa. Los objetivos específicos son: (1) evaluar dichas variables medio ambientales y (2) desarrollar modelos empíricos para predecir su comportamiento futuro. Estos objetivos se materializan en cuatro aplicaciones cuyos objetivos específicos son: (1) evaluar y cartografiar estados fenológicos del cultivo del algodón mediante análisis espectral y fenometría, (2) evaluar y modelizar la estacionalidad de incendios forestales en dos regiones bioclimáticas mediante modelos dinámicos, (3) predecir el riesgo de incendios forestales a nivel pixel utilizando modelos dinámicos y (4) evaluar el funcionamiento de la vegetación en base a la autocorrelación temporal y la fenometría. Los resultados de esta tesis muestran la utilidad del ajuste de funciones para modelizar los índices espectrales AS1 y AS2. Los parámetros fenológicos derivados del ajuste de funciones permiten la identificación de distintos estados fenológicos del cultivo del algodón. El análisis espectral ha demostrado, de una forma cuantitativa, la presencia de un ciclo en el índice AS2 y de dos ciclos en el AS1 así como el comportamiento unimodal y bimodal de la estacionalidad de incendios en las regiones mediterránea y templada respectivamente. Modelos autorregresivos han sido utilizados para caracterizar la dinámica de la estacionalidad de incendios y para predecir de una forma muy precisa el riesgo de incendios forestales a nivel pixel. Ha sido demostrada la utilidad de la autocorrelación temporal para definir y caracterizar el funcionamiento de la vegetación a nivel pixel. Finalmente el concepto “Optical Functional Type” ha sido definido, donde se propone que los pixeles deberían ser considerados como unidades temporales y analizados en función de su dinámica temporal. ix SUMMARY A good understanding of land surface processes is considered as a key subject in environmental sciences. The spatial-temporal coverage of remote sensing data provides continuous observations with a high temporal frequency allowing the assessment of ecosystem evolution at different temporal and spatial scales. Although the value of remote sensing time series has been firmly proved, only few time series methods have been developed for analyzing this data in a quantitative and continuous manner. In the present dissertation a working framework to exploit Remote Sensing time series is proposed based on the combination of Time Series Analysis and phenometric approach. The main goal is to demonstrate the use of remote sensing time series to analyze quantitatively environmental variable dynamics. The specific objectives are (1) to assess environmental variables based on remote sensing time series and (2) to develop empirical models to forecast environmental variables. These objectives have been achieved in four applications which specific objectives are (1) assessing and mapping cotton crop phenological stages using spectral and phenometric analyses, (2) assessing and modeling fire seasonality in two different ecoregions by dynamic models, (3) forecasting forest fire risk on a pixel basis by dynamic models, and (4) assessing vegetation functioning based on temporal autocorrelation and phenometric analysis. The results of this dissertation show the usefulness of function fitting procedures to model AS1 and AS2. Phenometrics derived from function fitting procedure makes it possible to identify cotton crop phenological stages. Spectral analysis has demonstrated quantitatively the presence of one cycle in AS2 and two in AS1 and the unimodal and bimodal behaviour of fire seasonality in the Mediterranean and temperate ecoregions respectively. Autoregressive models has been used to characterize the dynamics of fire seasonality in two ecoregions and to forecasts accurately fire risk on a pixel basis. The usefulness of temporal autocorrelation to define and characterized land surface functioning has been demonstrated. And finally the “Optical Functional Types” concept has been proposed, in this approach pixels could be as temporal unities based on its temporal dynamics or functioning.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La determinación del origen de un material utilizado por el hombre en la prehistoria es de suma importancia en el ámbito de la arqueología. En los últimos años, los estudios de procedencia han utilizado técnicas que suelen ser muy precisas pero con el inconveniente de ser metodologías de carácter destructivo. El fenómeno de la minería a gran escala es una de las características que acompaña al Neolítico, de ahí que la revolución correspondiente a este periodo sea una de las etapas más importantes para la humanidad. El yacimiento arqueológico de Casa Montero es una mina de sílex neolítica ubicada en la Península Ibérica, de gran importancia por su antigüedad y su escala productiva. Este sitio arqueológico corresponde a una cantera de explotación de rocas silícicas desarrollada en el periodo neolítico en la que solamente se han encontrado los desechos de la extracción minera, lo cual incrementa la variabilidad de las muestras analizadas, de las que se desconoce su contexto económico, social y cultural. Es de gran interés arqueológico saber por qué esos grupos neolíticos explotaban de forma tan intensiva determinados tipos de material y cuál era el destino de la cadena productiva del sílex. Además, por ser una excavación de rescate, que ha tenido que procesar varias toneladas de material, en un tiempo relativamente corto, requiere de métodos expeditivos de clasificación y manejo de dicho material. Sin embargo,la implementación de cualquier método de clasificación debe evitar la alteración o modificación de la muestra,ya que,estudios previos sobre caracterización de rocas silícicas tienen el inconveniente de alterar parcialmente el objeto de estudio. Por lo que el objetivo de esta investigación fue la modelización del registro y procesamiento de datos espectrales adquiridos de rocas silícicas del yacimiento arqueológico de Casa Montero. Se implementó la metodología para el registro y procesamiento de datos espectrales de materiales líticos dentro del contexto arqueológico. Lo anterior se ha conseguido con la aplicación de modelos de análisis espectral, algoritmos de suavizado de firmas espectrales, reducción de la dimensionalidad de las características y la aplicación de métodos de clasificación, tanto de carácter vectorial como raster. Para la mayoría de los procedimientos se ha desarrollado una aplicación informática validada tanto por los propios resultados obtenidos como comparativamente con otras aplicaciones. Los ensayos de evaluación de la metodología propuesta han permitido comprobar la eficacia de los métodos. Por lo que se concluye que la metodología propuesta no solo es útil para materiales silícicos, sino que se puede generalizar en aquellos procesos donde la caracterización espectral puede ser relevante para la clasificación de materiales que no deban ser alterados, además, permite aplicarla a gran escala, dado que los costes de ejecución son mínimos si se comparan con los de métodos convencionales. Así mismo, es de destacar que los métodos propuestos, representan la variabilidad del material y permiten relacionarla con el estado del yacimiento, según su contenido respecto de las tipologías de la cadena operativa. ABSTRACT: The determination of the origin of a material used by man in prehistory is very important in the field of archaeology. In recent years the provenance studies have used techniques that tend to be very precise but with the drawback of being destructive methodologies. The phenomenon of mining on a large scale is a feature that accompanies the Neolithic period; the Neolithic revolution is one of the most important periods of humanity. The archaeological site of Casa Montero is a Neolithic flint mine located in the Iberian Peninsula of great importance for its antiquity and its scale. This archaeological site corresponds to a quarry exploitation of silicic rocks developed in the Neolithic period, in which only found debris from mining, which increases the variability of the samples analyzed, including their economic, social and cultural context is unknown. It is of great archaeological interest to know why these Neolithic groups exploited as intensive certain types of material and what the final destination of flint was in the productive chain. In addition, being an excavation of rescue that had to process several tons of material in a relatively short time requires expeditious methods of classification and handling of the material. However, the implementation of any method of classification should avoid the alteration or modification of the sample, since previous studies on characterization of silicic rocks have the disadvantage of destroying or partially modify the object of study. So the objective of this research wasthe modeling of the registration and processing of acquired spectral data of silicic rocks of the archaeological site of Casa Montero. The methodology implemented for modeling the registration and processing of existing spectral data of lithic materials within the archaeological context, was presented as an alternative to the conventional classification methods (methods destructive and expensive) or subjective methods that depend on the experience of the expert. The above has been achieved with the implementation of spectral analysis models, smoothing of spectral signatures and the dimensionality reduction algorithms. Trials of validation of the proposed methodology allowed testing the effectiveness of the methods in what refers to the spectral characterization of siliceous materials of Casa Montero. Is remarkable the algorithmic contribution of the signal filtering, improve of quality and reduction of the dimensionality, as well the proposal of using raster structures for efficient storage and analysis of spectral information. For which it is concluded that the proposed methodology is not only useful for siliceous materials, but it can be generalized in those processes where spectral characterization may be relevant to the classification of materials that must not be altered, also allows to apply it on a large scale, given that the implementation costs are minimal when compared with conventional methods.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El principal objetivo de este trabajo es aportar conocimiento para contestar la pregunta: ¿hasta que punto los ensayos en túnel aerodinámico pueden contribuir a determinar las características que afectan la respuesta dinámica de los aerogeneradores operando en terreno complejo?. Esta pregunta no es nueva, de hecho, el debate en la comunidad científica comenzó en el primer tercio del siglo pasado y aún está intensamente vivo. El método generalmente aceptado para enfrentar el mencionado problema consiste en analizar un caso de estudio determinado en el cual se aplican tanto ensayos a escala real como análisis computacionales y ensayos en túnel aerodinámico. Esto no es ni fácil ni barato. Esta es la razón por la cual desde el experimento de Askervein en 1988, los modelizadores del flujo atmosférico tuvieron que esperar hasta 2007 a que el experimento de Bolund fuese puesto en marcha con un despliegue de medios técnicos equivalentes (teniendo en cuenta la evolución de las tecnologías de sensores y computación). El problema contempla tantos aspectos que ambas experiencias fueron restringidas a condiciones de atmósfera neutra con efectos de Coriolis despreciables con objeto de reducir la complejidad. Este es el contexto en el que se ha desarrollado la presente tesis doctoral. La topología del flujo sobre la isla de Bolund ha sido estudiada mediante la reproducción del experimento de Bolund en los túneles aerodinámicos A9 y ACLA16 del IDR. Dos modelos de la isla de Bolund fueron fabricados a dos escalas, 1:230 y 1:115. El flujo de entrada en el túnel aerodinámico simulando la capa límite sin perturbar correspondía a régimen de transición (transitionally rough regime) y fue usado como situación de referencia. El modelo a escala 1:230 fue ensayado en el túnel A9 para determinar la presión sobre su superficie. La distribución del coeficiente de presión sobre la isla proporcionó una visualización y estimación de una región de desprendimiento sobre el pequeño acantilado situado al frente de la misma. Las medidas de presión instantánea con suficiente grado de resolución temporal pusieron de manifiesto la no estacionariedad en la región de desprendimiento. El modelo a escala 1:115 fue ensayado utilizando hilo caliente de tres componentes y un sistema de velocimetría por imágenes de partículas de dos componentes. El flujo fue caracterizado por el ratio de aceleración, el incremento normalizado de energía cinética turbulenta y los ángulos de inclinación y desviación horizontal. Los resultados a lo largo de la dirección 270°y alturas de 2 m y 5 m presentaron una gran similitud con los resultados a escala real del experimento de Bolund. Los perfiles verticales en las localizaciones de las torres meteorológicas mostraron un acuerdo significativo con los resultados a escala real. El análisis de los esfuerzos de Reynolds y el análisis espectral en las localizaciones de los mástiles meteorológicos presentaron niveles de acuerdo variados en ciertas posiciones, mientras que en otras presentaron claras diferencias. El mapeo horizontal del flujo, para una dirección de viento de 270°, permitió caracterizar el comportamiento de la burbuja intermitente de recirculación sobre el pequeño acantilado existente al frente de la isla así como de la región de relajación y de la capa de cortadura en la región corriente abajo de Bolund. Se realizaron medidas de velocidad con alta resolución espacial en planos perpendiculares a la dirección del flujo sin perturbar. Estas medidas permitieron detectar y caracterizar una estructura de flujo similar a un torbellino longitudinal con regiones con altos gradientes de velocidad y alta intensidad de turbulencia. Esta estructura de flujo es, sin duda, un reto para los modelos computacionales y puede considerarse un factor de riesgo para la operación de los aerogeneradores. Se obtuvieron y analizaron distribuciones espaciales de los esfuerzos de Reynolds mediante 3CHW y PIV. Este tipo de parámetros no constituyen parte de los resultados habituales en los ensayos en túnel sobre topografías y son muy útiles para los modelizadores que utilizan simulación de grades torbellinos (LES). Se proporciona una interpretación de los resultados obtenidos en el túnel aerodinámico en términos de utilidad para los diseñadores de parques eólicos. La evolución y variación de los parámetros del flujo a lo largo de líneas, planos y superficies han permitido identificar como estas propiedades del flujo podrían afectar la localización de los aerogeneradores y a la clasificación de emplazamientos. Los resultados presentados sugieren, bajo ciertas condiciones, la robustez de los ensayos en túnel para estudiar la topología sobre terreno complejo y su comparabilidad con otras técnicas de simulación, especialmente considerando el nivel de acuerdo del conjunto de resultados presentados con los resultados a escala real. De forma adicional, algunos de los parámetros del flujo obtenidos de las medidas en túnel son difícilmente determinables en ensayos a escala real o por medios computacionales, considerado el estado del arte. Este trabajo fue realizado como parte de las actividades subvencionadas por la Comisión Europea como dentro del proyecto FP7-PEOPLE-ITN-2008WAUDIT (Wind Resource Assessment Audit and Standardization) dentro de la FP7 Marie-Curie Initial Training Network y por el Ministerio Español de Economía y Competitividad dentro del proyecto ENE2012-36473, TURCO (Determinación en túnel aerodinámico de la distribución espacial de parámetros estadísticos de la turbulencia atmosférica sobre topografías complejas) del Plan Nacional de Investigación (Subprograma de investigación fundamental no orientada 2012). El informe se ha organizado en siete capítulos y un conjunto de anexos. En el primer capítulo se introduce el problema. En el capítulo dos se describen los medios experimentales utilizados. Seguidamente, en el capítulo tres, se analizan en detalle las condiciones de referencia del principal túnel aerodinámico utilizado en esta investigación. En el capítulo tres se presentan resultados de ensayos de presión superficial sobre un modelo de la isla. Los principales resultados del experimento de Bolund se reproducen en el capítulo cinco. En el capítulo seis se identifican diferentes estructuras del flujo sobre la isla y, finalmente, en el capitulo siete, se recogen las conclusiones y una propuesta de lineas de trabajo futuras. ABSTRACT The main objective of this work is to contribute to answer the question: to which extend can the wind tunnel testing contribute to determine the flow characteristics that affect the dynamic response of wind turbines operating in highly complex terrains?. This question is not new, indeed, the debate in the scientific community was opened in the first third of the past century and it is still intensely alive. The accepted approach to face this problem consists in analysing a given case study where full-scale tests, computational modelling and wind tunnel testing are applied to the same topography. This is neither easy nor cheap. This is is the reason why since the Askervein experience in 1988, the atmospheric flow modellers community had to wait till 2007 when the Bolund experiment was setup with a deployment of technical means equivalent (considering the evolution of the sensor and computing techniques). The problem is so manifold that both experiences were restricted to neutral conditions without Coriolis effects in order to reduce the complexity. This is the framework in which this PhD has been carried out. The flow topology over the Bolund Island has been studied by replicating the Bolund experiment in the IDR A9 and ACLA16 wind tunnels. Two mock-ups of the Bolund island were manufactured at two scales of 1:230 and 1:115. The in-flow in the empty wind tunnel simulating the incoming atmospheric boundary layer was in the transitionally rough regime and used as a reference case. The 1:230 model was tested in the A9 wind tunnel to measure surface pressure. The mapping of the pressure coefficient across the island gave a visualisation and estimation of a detachment region on the top of the escarpment in front of the island. Time resolved instantaneous pressure measurements illustrated the non-steadiness in the detachment region. The 1:115 model was tested using 3C hot-wires(HW) and 2C Particle Image Velocimetry(PIV). Measurements at met masts M3, M6, M7 and M8 and along Line 270°were taken to replicate the result of the Bolund experiment. The flow was characterised by the speed-up ratio, normalised increment of the turbulent kinetic energy, inclination angle and turning angle. Results along line 270°at heights of 2 m and 5 m compared very well with the full-scale results of the Bolund experiment. Vertical profiles at the met masts showed a significant agreement with the full-scale results. The analysis of the Reynolds stresses and the spectral analysis at the met mast locations gave a varied level of agreement at some locations while clear mismatch at others. The horizontal mapping of the flow field, for a 270°wind direction, allowed to characterise the behaviour of the intermittent recirculation bubble on top of the front escarpment followed by a relaxation region and the presence of a shear layer in the lee side of the island. Further detailed velocity measurements were taken at cross-flow planes over the island to study the flow structures on the island. A longitudinal vortex-like structure with high mean velocity gradients and high turbulent kinetic energy was characterised on the escarpment and evolving downstream. This flow structure is a challenge to the numerical models while posing a threat to wind farm designers when siting wind turbines. Spatial distribution of Reynold stresses were presented from 3C HW and PIV measurements. These values are not common results from usual wind tunnel measurements and very useful for modellers using large eddy simulation (LES). An interpretation of the wind tunnel results in terms of usefulness to wind farm designers is given. Evolution and variation of the flow parameters along measurement lines, planes and surfaces indicated how the flow field could affect wind turbine siting. Different flow properties were presented so compare the level of agreement to full-scale results and how this affected when characterising the site wind classes. The results presented suggest, under certain conditions, the robustness of the wind tunnel testing for studying flow topology over complex terrain and its capability to compare to other modelling techniques especially from the level of agreement between the different data sets presented. Additionally, some flow parameters obtained from wind tunnel measurements would have been quite difficult to be measured at full-scale or by computational means considering the state of the art. This work was carried out as a part of the activities supported by the EC as part of the FP7- PEOPLE-ITN-2008 WAUDIT project (Wind Resource Assessment Audit and Standardization) within the FP7 Marie-Curie Initial Training Network and by the Spanish Ministerio de Economía y Competitividad, within the framework of the ENE2012-36473, TURCO project (Determination of the Spatial Distribution of Statistic Parameters of Flow Turbulence over Complex Topographies in Wind Tunnel) belonging to the Spanish National Program of Research (Subprograma de investigación fundamental no orientada 2012). The report is organised in seven chapters and a collection of annexes. In chapter one, the problem is introduced. In chapter two the experimental setup is described. Following, in chapter three, the inflow conditions of the main wind tunnel used in this piece of research are analysed in detail. In chapter three, preliminary pressure tests results on a model of the island are presented. The main results from the Bolund experiment are replicated in chapter five. In chapter six, an identification of specific flow strutures over the island is presented and, finally, in chapter seven, conclusions and lines for future works related to the presented one are included.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tesis se centra en el estudio y desarrollo de algoritmos de guerra electrónica {electronic warfare, EW) y radar para su implementación en sistemas de tiempo real. La llegada de los sistemas de radio, radar y navegación al terreno militar llevó al desarrollo de tecnologías para combatirlos. Así, el objetivo de los sistemas de guerra electrónica es el control del espectro electomagnético. Una de la funciones de la guerra electrónica es la inteligencia de señales {signals intelligence, SIGINT), cuya labor es detectar, almacenar, analizar, clasificar y localizar la procedencia de todo tipo de señales presentes en el espectro. El subsistema de inteligencia de señales dedicado a las señales radar es la inteligencia electrónica {electronic intelligence, ELINT). Un sistema de tiempo real es aquel cuyo factor de mérito depende tanto del resultado proporcionado como del tiempo en que se da dicho resultado. Los sistemas radar y de guerra electrónica tienen que proporcionar información lo más rápido posible y de forma continua, por lo que pueden encuadrarse dentro de los sistemas de tiempo real. La introducción de restricciones de tiempo real implica un proceso de realimentación entre el diseño del algoritmo y su implementación en plataformas “hardware”. Las restricciones de tiempo real son dos: latencia y área de la implementación. En esta tesis, todos los algoritmos presentados se han implementado en plataformas del tipo field programmable gate array (FPGA), ya que presentan un buen compromiso entre velocidad, coste total, consumo y reconfigurabilidad. La primera parte de la tesis está centrada en el estudio de diferentes subsistemas de un equipo ELINT: detección de señales mediante un detector canalizado, extracción de los parámetros de pulsos radar, clasificación de modulaciones y localization pasiva. La transformada discreta de Fourier {discrete Fourier transform, DFT) es un detector y estimador de frecuencia quasi-óptimo para señales de banda estrecha en presencia de ruido blanco. El desarrollo de algoritmos eficientes para el cálculo de la DFT, conocidos como fast Fourier transform (FFT), han situado a la FFT como el algoritmo más utilizado para la detección de señales de banda estrecha con requisitos de tiempo real. Así, se ha diseñado e implementado un algoritmo de detección y análisis espectral para su implementación en tiempo real. Los parámetros más característicos de un pulso radar son su tiempo de llegada y anchura de pulso. Se ha diseñado e implementado un algoritmo capaz de extraer dichos parámetros. Este algoritmo se puede utilizar con varios propósitos: realizar un reconocimiento genérico del radar que transmite dicha señal, localizar la posición de dicho radar o bien puede utilizarse como la parte de preprocesado de un clasificador automático de modulaciones. La clasificación automática de modulaciones es extremadamente complicada en entornos no cooperativos. Un clasificador automático de modulaciones se divide en dos partes: preprocesado y el algoritmo de clasificación. Los algoritmos de clasificación basados en parámetros representativos calculan diferentes estadísticos de la señal de entrada y la clasifican procesando dichos estadísticos. Los algoritmos de localization pueden dividirse en dos tipos: triangulación y sistemas cuadráticos. En los algoritmos basados en triangulación, la posición se estima mediante la intersección de las rectas proporcionadas por la dirección de llegada de la señal. En cambio, en los sistemas cuadráticos, la posición se estima mediante la intersección de superficies con igual diferencia en el tiempo de llegada (time difference of arrival, TDOA) o diferencia en la frecuencia de llegada (frequency difference of arrival, FDOA). Aunque sólo se ha implementado la estimación del TDOA y FDOA mediante la diferencia de tiempos de llegada y diferencia de frecuencias, se presentan estudios exhaustivos sobre los diferentes algoritmos para la estimación del TDOA, FDOA y localización pasiva mediante TDOA-FDOA. La segunda parte de la tesis está dedicada al diseño e implementación filtros discretos de respuesta finita (finite impulse response, FIR) para dos aplicaciones radar: phased array de banda ancha mediante filtros retardadores (true-time delay, TTD) y la mejora del alcance de un radar sin modificar el “hardware” existente para que la solución sea de bajo coste. La operación de un phased array de banda ancha mediante desfasadores no es factible ya que el retardo temporal no puede aproximarse mediante un desfase. La solución adoptada e implementada consiste en sustituir los desfasadores por filtros digitales con retardo programable. El máximo alcance de un radar depende de la relación señal a ruido promedio en el receptor. La relación señal a ruido depende a su vez de la energía de señal transmitida, potencia multiplicado por la anchura de pulso. Cualquier cambio hardware que se realice conlleva un alto coste. La solución que se propone es utilizar una técnica de compresión de pulsos, consistente en introducir una modulación interna a la señal, desacoplando alcance y resolución. ABSTRACT This thesis is focused on the study and development of electronic warfare (EW) and radar algorithms for real-time implementation. The arrival of radar, radio and navigation systems to the military sphere led to the development of technologies to fight them. Therefore, the objective of EW systems is the control of the electromagnetic spectrum. Signals Intelligence (SIGINT) is one of the EW functions, whose mission is to detect, collect, analyze, classify and locate all kind of electromagnetic emissions. Electronic intelligence (ELINT) is the SIGINT subsystem that is devoted to radar signals. A real-time system is the one whose correctness depends not only on the provided result but also on the time in which this result is obtained. Radar and EW systems must provide information as fast as possible on a continuous basis and they can be defined as real-time systems. The introduction of real-time constraints implies a feedback process between the design of the algorithms and their hardware implementation. Moreover, a real-time constraint consists of two parameters: Latency and area of the implementation. All the algorithms in this thesis have been implemented on field programmable gate array (FPGAs) platforms, presenting a trade-off among performance, cost, power consumption and reconfigurability. The first part of the thesis is related to the study of different key subsystems of an ELINT equipment: Signal detection with channelized receivers, pulse parameter extraction, modulation classification for radar signals and passive location algorithms. The discrete Fourier transform (DFT) is a nearly optimal detector and frequency estimator for narrow-band signals buried in white noise. The introduction of fast algorithms to calculate the DFT, known as FFT, reduces the complexity and the processing time of the DFT computation. These properties have placed the FFT as one the most conventional methods for narrow-band signal detection for real-time applications. An algorithm for real-time spectral analysis for user-defined bandwidth, instantaneous dynamic range and resolution is presented. The most characteristic parameters of a pulsed signal are its time of arrival (TOA) and the pulse width (PW). The estimation of these basic parameters is a fundamental task in an ELINT equipment. A basic pulse parameter extractor (PPE) that is able to estimate all these parameters is designed and implemented. The PPE may be useful to perform a generic radar recognition process, perform an emitter location technique and can be used as the preprocessing part of an automatic modulation classifier (AMC). Modulation classification is a difficult task in a non-cooperative environment. An AMC consists of two parts: Signal preprocessing and the classification algorithm itself. Featurebased algorithms obtain different characteristics or features of the input signals. Once these features are extracted, the classification is carried out by processing these features. A feature based-AMC for pulsed radar signals with real-time requirements is studied, designed and implemented. Emitter passive location techniques can be divided into two classes: Triangulation systems, in which the emitter location is estimated with the intersection of the different lines of bearing created from the estimated directions of arrival, and quadratic position-fixing systems, in which the position is estimated through the intersection of iso-time difference of arrival (TDOA) or iso-frequency difference of arrival (FDOA) quadratic surfaces. Although TDOA and FDOA are only implemented with time of arrival and frequency differences, different algorithms for TDOA, FDOA and position estimation are studied and analyzed. The second part is dedicated to FIR filter design and implementation for two different radar applications: Wideband phased arrays with true-time delay (TTD) filters and the range improvement of an operative radar with no hardware changes to minimize costs. Wideband operation of phased arrays is unfeasible because time delays cannot be approximated by phase shifts. The presented solution is based on the substitution of the phase shifters by FIR discrete delay filters. The maximum range of a radar depends on the averaged signal to noise ratio (SNR) at the receiver. Among other factors, the SNR depends on the transmitted signal energy that is power times pulse width. Any possible hardware change implies high costs. The proposed solution lies in the use of a signal processing technique known as pulse compression, which consists of introducing an internal modulation within the pulse width, decoupling range and resolution.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En el Campus Sur de la Universidad Politécnica de Madrid se ha llevado a cabo un proyecto para obtener una caracterización del subsuelo mediante ensayos ReMi, en colaboración con el departamento de Geofísica del Instituto Geográfico Nacional. La técnica ReMi (Refraction Microtremor) permite, mediante ensayos geofísicos realizados localmente sobre el terreno,obtener los parámetros físicos del mismo, que resultan de especial interés en el ámbito de la ingeniería civil. Esta técnica se caracteriza por englobarse dentro de la sísmica pasiva, muy empleada en prospección geofísica y basada en la obtención del modelo subyacente de distribución de velocidades de propagación de la onda S en función de la profundidad, con la ventaja de aprovechar el ruido sísmico ambiental como fuente de energía. Fue desarrollada en el Laboratorio Sismológico de Nevada (EEUU) por Louie (2001), con el objetivo de presentar una técnica innovadora en la obtención de las velocidades de propagación de manera experimental. Presenta ciertas ventajas, como la observación directa de la dispersión de ondas superficiales,que da un buen resultado de la velocidad de onda S, siendo un método no invasivo, de bajo coste y buena resolución, aplicable en entornos urbanos o sensibles en los que tanto otras técnicas sismológicas como otras variedades de prospección presentan dificultades. La velocidad de propagación de la onda S en los 30 primeros metros VS30, es ampliamente reconocida como un parámetro equivalente válido para caracterizar geotécnicamente el subsuelo y se halla matemáticamente relacionada con la velocidad de propagación de las ondas superficiales a observar mediante la técnica ReMi. Su observación permite el análisis espectral de los registros adquiridos, obteniéndose un modelo representado por la curva de dispersión de cada emplazamiento, de modo que mediante una inversión se obtiene el modelo de velocidad de propagación en función de la profundidad. A través de estos modelos, pueden obtenerse otros parámetros de interés sismológico. Estos resultados se representan sobre mapas isométricos para obtener una relación espacial de los mismos, particularmente conocido como zonación sísmica. De este análisis se extrae que la VS30 promedio del Campus no es baja en exceso, correspondiéndose a posteriori con los resultados de amplificación sísmica, período fundamental de resonancia del lugar y profundidad del sustrato rocoso. En última instancia se comprueba que los valores de amplificación sísmica máxima y el período al cual se produce posiblemente coincidan con los períodos fundamentales de resonancia de algunos edificios del Campus. ABSTRACT In South Campus at Polytechnic University of Madrid, a project has been carried out to obtain a proper subsoil description by applying ReMi tests, in collaboration with the Department of Geophysics of the National Geographic Institute. Through geophysical tests conducted locally, the ReMi (Refraction Microtremor) technique allows to establish the physical parameters of soil, which are of special interest in the field of civil engineering. This technique is part of passive seismic methods, often used in geophysical prospecting. It focuses in obtaining the underlying model of propagation velocity distribution of the shear wave according to depth and has the advantage of being able to use seismic ambient noise as a source of energy. It was developed in the Nevada Seismological Laboratory (USA) by Louie (2001) as an innovative technique for obtaining propagation velocities experimentally. It has several other advantages, including the direct observation of the dispersion of surface waves, which allows to reliably measure S wave velocity. This is a non-invasive, low cost and good resolution method, which can be applied in urban or sensitive environments where other prospection methods present difficulties. The propagation velocity of shear waves in the first 30 meters Vs30 is widely recognized as a valid equivalent parameter to geotechnically characterize the subsurface. It is mathematically related to surface wave's velocity of propagation, which are to observe using REMI technique. Spectral analysis of acquired data sets up a model represented by the dispersion curve at each site, so that, using an inversion process, propagation velocity model in relation to depth is obtained. Through this models, other seismologically interesting parameters can be obtained. These results are represented on isometric maps in order to obtain a spatial relationship between them, a process which is known as seismic zonation. This analysis infers that Vs30 at South Campus is not alarmingly low , corresponding with subsequent results of seismic amplification, fundamental period of resonance of soil and depth of bedrock. Ultimately, it's found that calculated values of soil's fundamental periods at which maximum seismic amplification occurs, may possibly match fundamental periods of some Campus buildings.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Traditional identification of ore minerals with reflected light microscopy relies heavily on the experience of the observer. Qualified observers have become a rarity, as ore microscopy is often neglected in today’s university training, but since it furnishes necessary and inexpensive information, innovative alternatives are needed, especially for quantification. Many of the diagnostic optical properties of ores defy quantification, but recent developments in electronics and optics allow new insights into the reflectance and colour properties of ores. Preliminary results for the development of an expert system aimed at the automatic identification of ores based on their reflectance properties are presented. The discriminatory capacity of the system is enhanced by near IR reflectance measures, while UV filters tested to date are unreliable. Interaction with image analysis software through a wholly automated microscope, to furnish quantitative and morphological information for geometallurgy, relies on automated identification of the ores based on the measured spectra. This methodology increases enormously the performance of the microscopist; nevertheless supervision by an expert is always needed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo de Tesis ha abordado el objetivo de dar robustez y mejorar la Detección de Actividad de Voz en entornos acústicos adversos con el fin de favorecer el comportamiento de muchas aplicaciones vocales, por ejemplo aplicaciones de telefonía basadas en reconocimiento automático de voz, aplicaciones en sistemas de transcripción automática, aplicaciones en sistemas multicanal, etc. En especial, aunque se han tenido en cuenta todos los tipos de ruido, se muestra especial interés en el estudio de las voces de fondo, principal fuente de error de la mayoría de los Detectores de Actividad en la actualidad. Las tareas llevadas a cabo poseen como punto de partida un Detector de Actividad basado en Modelos Ocultos de Markov, cuyo vector de características contiene dos componentes: la energía normalizada y la variación de la energía. Las aportaciones fundamentales de esta Tesis son las siguientes: 1) ampliación del vector de características de partida dotándole así de información espectral, 2) ajuste de los Modelos Ocultos de Markov al entorno y estudio de diferentes topologías y, finalmente, 3) estudio e inclusión de nuevas características, distintas de las del punto 1, para filtrar los pulsos de pronunciaciones que proceden de las voces de fondo. Los resultados de detección, teniendo en cuenta los tres puntos anteriores, muestran con creces los avances realizados y son significativamente mejores que los resultados obtenidos, bajo las mismas condiciones, con otros detectores de actividad de referencia. This work has been focused on improving the robustness at Voice Activity Detection in adverse acoustic environments in order to enhance the behavior of many vocal applications, for example telephony applications based on automatic speech recognition, automatic transcription applications, multichannel systems applications, and so on. In particular, though all types of noise have taken into account, this research has special interest in the study of pronunciations coming from far-field speakers, the main error source of most activity detectors today. The tasks carried out have, as starting point, a Hidden Markov Models Voice Activity Detector which a feature vector containing two components: normalized energy and delta energy. The key points of this Thesis are the following: 1) feature vector extension providing spectral information, 2) Hidden Markov Models adjustment to environment and study of different Hidden Markov Model topologies and, finally, 3) study and inclusion of new features, different from point 1, to reject the pronunciations coming from far-field speakers. Detection results, taking into account the above three points, show the advantages of using this method and are significantly better than the results obtained under the same conditions by other well-known voice activity detectors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se proponen estrategias de análisis y de modelado optimizadas para abordar el estudio sísmico de puentes atirantados que mantienen sus materiales en rango elástico, ofreciendo al diseñador un rango de errores esperables en cada caso en función del tipo de torre de atirantamiento, luz principal y terreno de cimentación, entre otras características. Para ello, se ha realizado un estudio comparativo de diferentes procedimientos de cálculo dinámico aplicados al análisis sísmico elástico de un gran número de puentes atirantados, y se han relacionado las desviaciones observadas con las simplificaciones introducidas en el planteamiento matemático de los mismos. Entre los métodos considerados se encuentra el cálculo modal espectral, el análisis modal dinámico y la integración directa del sistema acoplado de la dinámica. Además, el efecto del impacto del tablero contra las torres en dirección transversal ha sido analizado por medio de elementos de contacto. Se ha concluido que el cálculo modal espectral ofrece resultados que están del lado de la inseguridad, alrededor de de un 20%, respecto del cálculo modal dinámico de referencia, el cual es el más preciso

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Junto con el incremento de la resolución espacial, el desarrollo de las técnicas de interpretación multiespectrales e hiperespectrales es otro de los campos de investigación actual en teledetección. Es de suponer que una de las vías naturales de evolución de las plataformas espaciales será sin duda la incorporación de sensores de mayor resolución espectral. A partir de ahí se comenzará a sustituir el tradicional análisis multiespectral,basado en los datos de a lo sumo cinco o seis bandas, por el hiperespectral, que habrá de manejar datos de varios centenares de bandas simultáneamente. Ya existen satélites con sensores hiperespectrales en órbita, como Hyperion, montado sobre el satélite EO-1, el cual estudiamos en este proyecto. La detección de cambios, surge ante la necesidad de actualizar la cartografía de forma periódica. La evaluación de cambios producidos en el terreno se realiza manualmente y requiere de la supervisión por parte de un operador experto. Esto implica una importante inversión en tiempo, con su consecuente coste económico. Las imágenes satélite constituyen una valiosa fuente para estudiar los cambios que se producen en la superficie terrestre. En un ciclo productivo basado en imágenes numéricas, es de esperar que se ahorre una importante cantidad de trabajo introduciendo procedimientos de detección de cambios que se puedan implementar en procesos de carácter automático. Desde hace unas décadas, se están utilizando como fuentes de datos para diversos usos en detección de cambios, los sensores transportados en plataformas aeroespaciales. En resumen, el objetivo de éste proyecto es analizar los métodos de análisis multitemporal aplicados a imágenes de satélite, para lo cual se hará un estudio comparativo de las características de las imágenes proporcionadas por las plataformas Landsat y EO-1.Como resultado de ello, se obtendrá documentación cartográfica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis del comportamiento de los modos de interferencia tiene una aplicación cada vez mas amplia, especialmente en el campo de los biosensores opticos. En este tipo de sensores se observa el desplazamiento Δν de los modos de interferencia de la señal de transducción al reconocer un determinado agente biologico. Para medir ese desplazamiento se debe detectar la posición de un máximo o minimo de la senal antes y después de dicho desplazamiento. En este tipo de biosensores un parámetro de gran importancia es el periodo Pν de la senal el cual es inversamente proporcional al espesor óptico h0 del sensor en ausencia de agente biologico. El aumento de dicho periodo mejora la sensibilidad del sensor pero parece dificultar la detección del minimo o maximo. Por tanto, su efecto sobre la incetidumbre del resultado de la medida presentados efectos contrapuestos: la mejora de la sensibilidad frente a la dificultad creciente en la detección del minimo o maximo. En este trabajo, los autores analizan la propagación de incertidumbres en estos sensores utilizando herramientas de ajuste por MM.CC. para la detección de los minimos o máximos de la senal y técnicas de propagación de incertidumbres descritas en los suplementos 2 de la Guia ISO-GUM. El resultado del análisis permite dar una respuesta, justificada desde el punto de vista metrologico, de en que condiciones es conveniente o no aumentar el periodo Pν de la senal.