30 resultados para Oxímetro de pulso
Resumo:
Existe una creciente necesidad de hacer el mejor uso del agua para regadío. Una alternativa eficiente consiste en la monitorización del contenido volumétrico de agua (θ), utilizando sensores de humedad. A pesar de existir una gran diversidad de sensores y tecnologías disponibles, actualmente ninguna de ellas permite obtener medidas distribuidas en perfiles verticales de un metro y en escalas laterales de 0.1-1,000 m. En este sentido, es necesario buscar tecnologías alternativas que sirvan de puente entre las medidas puntuales y las escalas intermedias. Esta tesis doctoral se basa en el uso de Fibra Óptica (FO) con sistema de medida de temperatura distribuida (DTS), una tecnología alternativa de reciente creación que ha levantado gran expectación en las últimas dos décadas. Específicamente utilizamos el método de fibra calentada, en inglés Actively Heated Fiber Optic (AHFO), en la cual los cables de Fibra Óptica se utilizan como sondas de calor mediante la aplicación de corriente eléctrica a través de la camisa de acero inoxidable, o de un conductor eléctrico simétricamente posicionado, envuelto, alrededor del haz de fibra óptica. El uso de fibra calentada se basa en la utilización de la teoría de los pulsos de calor, en inglés Heated Pulsed Theory (HPP), por la cual el conductor se aproxima a una fuente de calor lineal e infinitesimal que introduce calor en el suelo. Mediante el análisis del tiempo de ocurrencia y magnitud de la respuesta térmica ante un pulso de calor, es posible estimar algunas propiedades específicas del suelo, tales como el contenido de humedad, calor específico (C) y conductividad térmica. Estos parámetros pueden ser estimados utilizando un sensor de temperatura adyacente a la sonda de calor [método simple, en inglés single heated pulsed probes (SHPP)], ó a una distancia radial r [método doble, en inglés dual heated pulsed probes (DHPP)]. Esta tesis doctoral pretende probar la idoneidad de los sistemas de fibra óptica calentada para la aplicación de la teoría clásica de sondas calentadas. Para ello, se desarrollarán dos sistemas FO-DTS. El primero se sitúa en un campo agrícola de La Nava de Arévalo (Ávila, España), en el cual se aplica la teoría SHPP para estimar θ. El segundo sistema se desarrolla en laboratorio y emplea la teoría DHPP para medir tanto θ como C. La teoría SHPP puede ser implementada con fibra óptica calentada para obtener medidas distribuidas de θ, mediante la utilización de sistemas FO-DTS y el uso de curvas de calibración específicas para cada suelo. Sin embargo, la mayoría de aplicaciones AHFO se han desarrollado exclusivamente en laboratorio utilizando medios porosos homogéneos. En esta tesis se utiliza el programa Hydrus 2D/3D para definir tales curvas de calibración. El modelo propuesto es validado en un segmento de cable enterrado en una instalación de fibra óptica y es capaz de predecir la respuesta térmica del suelo en puntos concretos de la instalación una vez que las propiedades físicas y térmicas de éste son definidas. La exactitud de la metodología para predecir θ frente a medidas puntuales tomadas con sensores de humedad comerciales fue de 0.001 a 0.022 m3 m-3 La implementación de la teoría DHPP con AHFO para medir C y θ suponen una oportunidad sin precedentes para aplicaciones medioambientales. En esta tesis se emplean diferentes combinaciones de cables y fuentes emisoras de calor, que se colocan en paralelo y utilizan un rango variado de espaciamientos, todo ello en el laboratorio. La amplitud de la señal y el tiempo de llegada se han observado como funciones del calor específico del suelo. Medidas de C, utilizando esta metodología y ante un rango variado de contenidos de humedad, sugirieron la idoneidad del método, aunque también se observaron importantes errores en contenidos bajos de humedad de hasta un 22%. La mejora del método requerirá otros modelos más precisos que tengan en cuenta el diámetro del cable, así como la posible influencia térmica del mismo. ABSTRACT There is an increasing need to make the most efficient use of water for irrigation. A good approach to make irrigation as efficient as possible is to monitor soil water content (θ) using soil moisture sensors. Although, there is a broad range of different sensors and technologies, currently, none of them can practically and accurately provide vertical and lateral moisture profiles spanning 0-1 m depth and 0.1-1,000 m lateral scales. In this regard, further research to fulfill the intermediate scale and to bridge single-point measurement with the broaden scales is still needed. This dissertation is based on the use of Fiber Optics with Distributed Temperature Sensing (FO-DTS), a novel approach which has been receiving growing interest in the last two decades. Specifically, we employ the so called Actively Heated Fiber Optic (AHFO) method, in which FO cables are employed as heat probe conductors by applying electricity to the stainless steel armoring jacket or an added conductor symmetrically positioned (wrapped) about the FO cable. AHFO is based on the classic Heated Pulsed Theory (HPP) which usually employs a heat probe conductor that approximates to an infinite line heat source which injects heat into the soil. Observation of the timing and magnitude of the thermal response to the energy input provide enough information to derive certain specific soil thermal characteristics such as the soil heat capacity, soil thermal conductivity or soil water content. These parameters can be estimated by capturing the soil thermal response (using a thermal sensor) adjacent to the heat source (the heating and the thermal sources are mounted together in the so called single heated pulsed probe (SHPP)), or separated at a certain distance, r (dual heated pulsed method (DHPP) This dissertation aims to test the feasibility of heated fiber optics to implement the HPP theory. Specifically, we focus on measuring soil water content (θ) and soil heat capacity (C) by employing two types of FO-DTS systems. The first one is located in an agricultural field in La Nava de Arévalo (Ávila, Spain) and employ the SHPP theory to estimate θ. The second one is developed in the laboratory using the procedures described in the DHPP theory, and focuses on estimating both C and θ. The SHPP theory can be implemented with actively heated fiber optics (AHFO) to obtain distributed measurements of soil water content (θ) by using reported soil thermal responses in Distributed Temperature Sensing (DTS) and with a soil-specific calibration relationship. However, most reported AHFO applications have been calibrated under laboratory homogeneous soil conditions, while inexpensive efficient calibration procedures useful in heterogeneous soils are lacking. In this PhD thesis, we employ the Hydrus 2D/3D code to define these soil-specific calibration curves. The model is then validated at a selected FO transect of the DTS installation. The model was able to predict the soil thermal response at specific locations of the fiber optic cable once the surrounding soil hydraulic and thermal properties were known. Results using electromagnetic moisture sensors at the same specific locations demonstrate the feasibility of the model to detect θ within an accuracy of 0.001 to 0.022 m3 m-3. Implementation of the Dual Heated Pulsed Probe (DPHP) theory for measurement of volumetric heat capacity (C) and water content (θ) with Distributed Temperature Sensing (DTS) heated fiber optic (FO) systems presents an unprecedented opportunity for environmental monitoring. We test the method using different combinations of FO cables and heat sources at a range of spacings in a laboratory setting. The amplitude and phase-shift in the heat signal with distance was found to be a function of the soil volumetric heat capacity (referred, here, to as Cs). Estimations of Cs at a range of θ suggest feasibility via responsiveness to the changes in θ (we observed a linear relationship in all FO combinations), though observed bias with decreasing soil water contents (up to 22%) was also reported. Optimization will require further models to account for the finite radius and thermal influence of the FO cables, employed here as “needle probes”. Also, consideration of the range of soil conditions and cable spacing and jacket configurations, suggested here to be valuable subjects of further study and development.
Resumo:
Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.
Resumo:
En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].
Resumo:
La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.
Resumo:
Durante el proceso de producción de voz, los factores anatómicos, fisiológicos o psicosociales del individuo modifican los órganos resonadores, imprimiendo en la voz características particulares. Los sistemas ASR tratan de encontrar los matices característicos de una voz y asociarlos a un individuo o grupo. La edad y sexo de un hablante son factores intrínsecos que están presentes en la voz. Este trabajo intenta diferenciar esas características, aislarlas y usarlas para detectar el género y la edad de un hablante. Para dicho fin, se ha realizado el estudio y análisis de las características basadas en el pulso glótico y el tracto vocal, evitando usar técnicas clásicas (como pitch y sus derivados) debido a las restricciones propias de dichas técnicas. Los resultados finales de nuestro estudio alcanzan casi un 100% en reconocimiento de género mientras en la tarea de reconocimiento de edad el reconocimiento se encuentra alrededor del 80%. Parece ser que la voz queda afectada por el género del hablante y las hormonas, aunque no se aprecie en la audición. ABSTRACT Particular elements of the voice are printed during the speech production process and are related to anatomical and physiological factors of the phonatory system or psychosocial factors acquired by the speaker. ASR systems attempt to find those peculiar nuances of a voice and associate them to an individual or a group. Age and gender are inherent factors to the speaker which may be represented in voice. This work attempts to differentiate those characteristics, isolate them and use them to detect speaker’s gender and age. Features based on glottal pulse and vocal tract are studied and analyzed in order to achieve good results in both tasks. Classical methodologies (such as pitch and derivates) are avoided since the requirements of those techniques may be too restrictive. The final scores achieve almost 100% in gender recognition whereas in age recognition those scores are around 80%. Factors related to the gender and hormones seem to affect the voice although they are not audible.
Diseño de algoritmos de guerra electrónica y radar para su implementación en sistemas de tiempo real
Resumo:
Esta tesis se centra en el estudio y desarrollo de algoritmos de guerra electrónica {electronic warfare, EW) y radar para su implementación en sistemas de tiempo real. La llegada de los sistemas de radio, radar y navegación al terreno militar llevó al desarrollo de tecnologías para combatirlos. Así, el objetivo de los sistemas de guerra electrónica es el control del espectro electomagnético. Una de la funciones de la guerra electrónica es la inteligencia de señales {signals intelligence, SIGINT), cuya labor es detectar, almacenar, analizar, clasificar y localizar la procedencia de todo tipo de señales presentes en el espectro. El subsistema de inteligencia de señales dedicado a las señales radar es la inteligencia electrónica {electronic intelligence, ELINT). Un sistema de tiempo real es aquel cuyo factor de mérito depende tanto del resultado proporcionado como del tiempo en que se da dicho resultado. Los sistemas radar y de guerra electrónica tienen que proporcionar información lo más rápido posible y de forma continua, por lo que pueden encuadrarse dentro de los sistemas de tiempo real. La introducción de restricciones de tiempo real implica un proceso de realimentación entre el diseño del algoritmo y su implementación en plataformas “hardware”. Las restricciones de tiempo real son dos: latencia y área de la implementación. En esta tesis, todos los algoritmos presentados se han implementado en plataformas del tipo field programmable gate array (FPGA), ya que presentan un buen compromiso entre velocidad, coste total, consumo y reconfigurabilidad. La primera parte de la tesis está centrada en el estudio de diferentes subsistemas de un equipo ELINT: detección de señales mediante un detector canalizado, extracción de los parámetros de pulsos radar, clasificación de modulaciones y localization pasiva. La transformada discreta de Fourier {discrete Fourier transform, DFT) es un detector y estimador de frecuencia quasi-óptimo para señales de banda estrecha en presencia de ruido blanco. El desarrollo de algoritmos eficientes para el cálculo de la DFT, conocidos como fast Fourier transform (FFT), han situado a la FFT como el algoritmo más utilizado para la detección de señales de banda estrecha con requisitos de tiempo real. Así, se ha diseñado e implementado un algoritmo de detección y análisis espectral para su implementación en tiempo real. Los parámetros más característicos de un pulso radar son su tiempo de llegada y anchura de pulso. Se ha diseñado e implementado un algoritmo capaz de extraer dichos parámetros. Este algoritmo se puede utilizar con varios propósitos: realizar un reconocimiento genérico del radar que transmite dicha señal, localizar la posición de dicho radar o bien puede utilizarse como la parte de preprocesado de un clasificador automático de modulaciones. La clasificación automática de modulaciones es extremadamente complicada en entornos no cooperativos. Un clasificador automático de modulaciones se divide en dos partes: preprocesado y el algoritmo de clasificación. Los algoritmos de clasificación basados en parámetros representativos calculan diferentes estadísticos de la señal de entrada y la clasifican procesando dichos estadísticos. Los algoritmos de localization pueden dividirse en dos tipos: triangulación y sistemas cuadráticos. En los algoritmos basados en triangulación, la posición se estima mediante la intersección de las rectas proporcionadas por la dirección de llegada de la señal. En cambio, en los sistemas cuadráticos, la posición se estima mediante la intersección de superficies con igual diferencia en el tiempo de llegada (time difference of arrival, TDOA) o diferencia en la frecuencia de llegada (frequency difference of arrival, FDOA). Aunque sólo se ha implementado la estimación del TDOA y FDOA mediante la diferencia de tiempos de llegada y diferencia de frecuencias, se presentan estudios exhaustivos sobre los diferentes algoritmos para la estimación del TDOA, FDOA y localización pasiva mediante TDOA-FDOA. La segunda parte de la tesis está dedicada al diseño e implementación filtros discretos de respuesta finita (finite impulse response, FIR) para dos aplicaciones radar: phased array de banda ancha mediante filtros retardadores (true-time delay, TTD) y la mejora del alcance de un radar sin modificar el “hardware” existente para que la solución sea de bajo coste. La operación de un phased array de banda ancha mediante desfasadores no es factible ya que el retardo temporal no puede aproximarse mediante un desfase. La solución adoptada e implementada consiste en sustituir los desfasadores por filtros digitales con retardo programable. El máximo alcance de un radar depende de la relación señal a ruido promedio en el receptor. La relación señal a ruido depende a su vez de la energía de señal transmitida, potencia multiplicado por la anchura de pulso. Cualquier cambio hardware que se realice conlleva un alto coste. La solución que se propone es utilizar una técnica de compresión de pulsos, consistente en introducir una modulación interna a la señal, desacoplando alcance y resolución. ABSTRACT This thesis is focused on the study and development of electronic warfare (EW) and radar algorithms for real-time implementation. The arrival of radar, radio and navigation systems to the military sphere led to the development of technologies to fight them. Therefore, the objective of EW systems is the control of the electromagnetic spectrum. Signals Intelligence (SIGINT) is one of the EW functions, whose mission is to detect, collect, analyze, classify and locate all kind of electromagnetic emissions. Electronic intelligence (ELINT) is the SIGINT subsystem that is devoted to radar signals. A real-time system is the one whose correctness depends not only on the provided result but also on the time in which this result is obtained. Radar and EW systems must provide information as fast as possible on a continuous basis and they can be defined as real-time systems. The introduction of real-time constraints implies a feedback process between the design of the algorithms and their hardware implementation. Moreover, a real-time constraint consists of two parameters: Latency and area of the implementation. All the algorithms in this thesis have been implemented on field programmable gate array (FPGAs) platforms, presenting a trade-off among performance, cost, power consumption and reconfigurability. The first part of the thesis is related to the study of different key subsystems of an ELINT equipment: Signal detection with channelized receivers, pulse parameter extraction, modulation classification for radar signals and passive location algorithms. The discrete Fourier transform (DFT) is a nearly optimal detector and frequency estimator for narrow-band signals buried in white noise. The introduction of fast algorithms to calculate the DFT, known as FFT, reduces the complexity and the processing time of the DFT computation. These properties have placed the FFT as one the most conventional methods for narrow-band signal detection for real-time applications. An algorithm for real-time spectral analysis for user-defined bandwidth, instantaneous dynamic range and resolution is presented. The most characteristic parameters of a pulsed signal are its time of arrival (TOA) and the pulse width (PW). The estimation of these basic parameters is a fundamental task in an ELINT equipment. A basic pulse parameter extractor (PPE) that is able to estimate all these parameters is designed and implemented. The PPE may be useful to perform a generic radar recognition process, perform an emitter location technique and can be used as the preprocessing part of an automatic modulation classifier (AMC). Modulation classification is a difficult task in a non-cooperative environment. An AMC consists of two parts: Signal preprocessing and the classification algorithm itself. Featurebased algorithms obtain different characteristics or features of the input signals. Once these features are extracted, the classification is carried out by processing these features. A feature based-AMC for pulsed radar signals with real-time requirements is studied, designed and implemented. Emitter passive location techniques can be divided into two classes: Triangulation systems, in which the emitter location is estimated with the intersection of the different lines of bearing created from the estimated directions of arrival, and quadratic position-fixing systems, in which the position is estimated through the intersection of iso-time difference of arrival (TDOA) or iso-frequency difference of arrival (FDOA) quadratic surfaces. Although TDOA and FDOA are only implemented with time of arrival and frequency differences, different algorithms for TDOA, FDOA and position estimation are studied and analyzed. The second part is dedicated to FIR filter design and implementation for two different radar applications: Wideband phased arrays with true-time delay (TTD) filters and the range improvement of an operative radar with no hardware changes to minimize costs. Wideband operation of phased arrays is unfeasible because time delays cannot be approximated by phase shifts. The presented solution is based on the substitution of the phase shifters by FIR discrete delay filters. The maximum range of a radar depends on the averaged signal to noise ratio (SNR) at the receiver. Among other factors, the SNR depends on the transmitted signal energy that is power times pulse width. Any possible hardware change implies high costs. The proposed solution lies in the use of a signal processing technique known as pulse compression, which consists of introducing an internal modulation within the pulse width, decoupling range and resolution.
Resumo:
Hoy en día asistimos a un creciente interés por parte de la sociedad hacia el cuidado de la salud. Esta afirmación viene apoyada por dos realidades. Por una parte, el aumento de las prácticas saludables (actividad deportiva, cuidado de la alimentación, etc.). De igual manera, el auge de los dispositivos inteligentes (relojes, móviles o pulseras) capaces de medir distintos parámetros físicos como el pulso cardíaco, el ritmo respiratorio, la distancia recorrida, las calorías consumidas, etc. Combinando ambos factores (interés por el estado de salud y disponibilidad comercial de dispositivos inteligentes) están surgiendo multitud de aplicaciones capaces no solo de controlar el estado actual de salud, también de recomendar al usuario cambios de hábitos que lleven hacia una mejora en su condición física. En este contexto, los llamados dispositivos llevables (weareables) unidos al paradigma de Internet de las cosas (IoT, del inglés Internet of Things) permiten la aparición de nuevos nichos de mercado para aplicaciones que no solo se centran en la mejora de la condición física, ya que van más allá proponiendo soluciones para el cuidado de pacientes enfermos, la vigilancia de niños o ancianos, la defensa y la seguridad, la monitorización de agentes de riesgo (como bomberos o policías) y un largo etcétera de aplicaciones por llegar. El paradigma de IoT se puede desarrollar basándose en las existentes redes de sensores inalámbricos (WSN, del inglés Wireless Sensor Network). La conexión de los ya mencionados dispositivos llevables a estas redes puede facilitar la transición de nuevos usuarios hacia aplicaciones IoT. Pero uno de los problemas intrínsecos a estas redes es su heterogeneidad. En efecto, existen multitud de sistemas operativos, protocolos de comunicación, plataformas de desarrollo, soluciones propietarias, etc. El principal objetivo de esta tesis es realizar aportaciones significativas para solucionar no solo el problema de la heterogeneidad, sino también de dotar de mecanismos de seguridad suficientes para salvaguardad la integridad de los datos intercambiados en este tipo de aplicaciones. Algo de suma importancia ya que los datos médicos y biométricos de los usuarios están protegidos por leyes nacionales y comunitarias. Para lograr dichos objetivos, se comenzó con la realización de un completo estudio del estado del arte en tecnologías relacionadas con el marco de investigación (plataformas y estándares para WSNs e IoT, plataformas de implementación distribuidas, dispositivos llevables y sistemas operativos y lenguajes de programación). Este estudio sirvió para tomar decisiones de diseño fundamentadas en las tres contribuciones principales de esta tesis: un bus de servicios para dispositivos llevables (WDSB, Wearable Device Service Bus) basado en tecnologías ya existentes tales como ESB, WWBAN, WSN e IoT); un protocolo de comunicaciones inter-dominio para dispositivos llevables (WIDP, Wearable Inter-Domain communication Protocol) que integra en una misma solución protocolos capaces de ser implementados en dispositivos de bajas capacidades (como lo son los dispositivos llevables y los que forman parte de WSNs); y finalmente, la tercera contribución relevante es una propuesta de seguridad para WSN basada en la aplicación de dominios de confianza. Aunque las contribuciones aquí recogidas son de aplicación genérica, para su validación se utilizó un escenario concreto de aplicación: una solución para control de parámetros físicos en entornos deportivos, desarrollada dentro del proyecto europeo de investigación “LifeWear”. En este escenario se desplegaron todos los elementos necesarios para validar las contribuciones principales de esta tesis y, además, se realizó una aplicación para dispositivos móviles por parte de uno de los socios del proyecto (lo que contribuyó con una validación externa de la solución). En este escenario se usaron dispositivos llevables tales como un reloj inteligente, un teléfono móvil con sistema operativo Android y un medidor del ritmo cardíaco inalámbrico capaz de obtener distintos parámetros fisiológicos del deportista. Sobre este escenario se realizaron diversas pruebas de validación mediante las cuales se obtuvieron resultados satisfactorios. ABSTRACT Nowadays, society is shifting towards a growing interest and concern on health care. This phenomenon can be acknowledged by two facts: first, the increasing number of people practising some kind of healthy activity (sports, balanced diet, etc.). Secondly, the growing number of commercial wearable smart devices (smartwatches or bands) able to measure physiological parameters such as heart rate, breathing rate, distance or consumed calories. A large number of applications combining both facts are appearing. These applications are not only able to monitor the health status of the user, but also to provide recommendations about routines in order to improve the mentioned health status. In this context, wearable devices merged with the Internet of Things (IoT) paradigm enable the proliferation of new market segments for these health wearablebased applications. Furthermore, these applications can provide solutions for the elderly or baby care, in-hospital or in-home patient monitoring, security and defence fields or an unforeseen number of future applications. The introduced IoT paradigm can be developed with the usage of existing Wireless Sensor Networks (WSNs) by connecting the novel wearable devices to them. In this way, the migration of new users and actors to the IoT environment will be eased. However, a major issue appears in this environment: heterogeneity. In fact, there is a large number of operating systems, hardware platforms, communication and application protocols or programming languages, each of them with unique features. The main objective of this thesis is defining and implementing a solution for the intelligent service management in wearable and ubiquitous devices so as to solve the heterogeneity issues that are presented when dealing with interoperability and interconnectivity of devices and software of different nature. Additionally, a security schema based on trust domains is proposed as a solution to the privacy problems arising when private data (e.g., biomedical parameters or user identification) is broadcasted in a wireless network. The proposal has been made after a comprehensive state-of-the-art analysis, and includes the design of a Wearable Device Service Bus (WDSB) including the technologies collected in the requirement analysis (ESB, WWBAN, WSN and IoT). Applications are able to access the WSN services regardless of the platform and operating system where they are running. Besides, this proposal also includes the design of a Wearable Inter-Domain communication Protocols set (WIDP) which integrates lightweight protocols suitable to be used in low-capacities devices (REST, JSON, AMQP, CoAP, etc...). Furthermore, a security solution for service management based on a trustworthy domains model to deploy security services in WSNs has been designed. Although the proposal is a generic framework for applications based on services provided by wearable devices, an application scenario for testing purposes has been included. In this validation scenario it has been presented an autonomous physical condition performance system, based on a WSN, bringing the possibility to include several elements in an IoT scenario: a smartwatch, a physiological monitoring device and a smartphone. In summary, the general objective of this thesis is solving the heterogeneity and security challenges arising when developing applications for WSNs and wearable devices. As it has been presented in the thesis, the solution proposed has been successfully validated in a real scenario and the obtained results were satisfactory.
Resumo:
El objetivo de este trabajo fin de grado (TFG) consiste en estudiar algunas técnicas de análisis tiempo-frecuencia y aplicarlas a la detección de señales radar. Estas técnicas se incorporan en los actuales equipos de guerra electrónica radar, tales como los interceptadores digitales. La principal motivación de estos equipos consiste en detectar y localizar las fuentes radiantes enemigas e intentar obtener cierta información de las señales interceptadas, tal como, la dirección de llegada (DOA, Direction Of Arrival), el tiempo de llegada (TOA, Time Of Arrival), amplitud de pulso (PA, Pulse Amplitude), anchura de pulso (PW, Pulse Width), frecuencia instantánea (IF, Instantaneous Frequency) o modulación intrapulso. Se comenzará con un estudio detallado de la Short-Time Fourier Transform (STFT),dado su carácter lineal es la técnica más explotada actualmente. Este algoritmo presenta una mala resolución conjunta tiempo-frecuencia. Este hecho provoca el estudio complementario de una segunda técnica de análisis basada en la distribución de Wigner-Ville (WVD). Mediante este método se logra una resolución optima tiempo-frecuencia. A cambio, se obtienen términos cruzados indeseados debido a su carácter cuadrático. Uno de los objetivos de este TFG reside en calcular la sensibilidad de los sistemas de detección analizados a partir de las técnicas tiempo-frecuencia. Se hará uso del método de Monte Carlo para estimar ciertos parámetros estadísticos del sistema tales como la probabilidad de falsa alarma y de detección. Así mismo, se llevará a cabo el estudio completo de un receptor digital de guerra electrónica a fin de comprender el funcionamiento de todos los subsistemas que componen el conjunto (STFT/WVD, medidor instantáneo de frecuencias, procesamiento no coherente y generación de descriptores de pulso). Por último, se analizará su comportamiento frente a diferentes señales Radar (FM-lineal, BPSK, chirp o Barker). Se utilizará para ello la herramienta Matlab.
Resumo:
Esta tesis recoje un trabajo experimental centrado en profundizar sobre el conocimiento de los bloques detectores monolíticos como alternativa a los detectores segmentados para tomografía por emisión de positrones (Positron Emission Tomography, PET). El trabajo llevado a cabo incluye el desarrollo, la caracterización, la puesta a punto y la evaluación de prototipos demostradores PET utilizando bloques monolíticos de ortosilicato de lutecio ytrio dopado con cerio (Cerium-Doped Lutetium Yttrium Orthosilicate, LYSO:Ce) usando sensores compatibles con altos campos magnéticos, tanto fotodiodos de avalancha (Avalanche Photodiodes, APDs) como fotomultiplicadores de silicio (Silicon Photomultipliers, SiPMs). Los prototipos implementados con APDs se construyeron para estudiar la viabilidad de un prototipo PET de alta sensibilidad previamente simulado, denominado BrainPET. En esta memoria se describe y caracteriza la electrónica frontal integrada utilizada en estos prototipos junto con la electrónica de lectura desarrollada específicamente para los mismos. Se muestran los montajes experimentales para la obtención de las imágenes tomográficas PET y para el entrenamiento de los algoritmos de red neuronal utilizados para la estimación de las posiciones de incidencia de los fotones γ sobre la superficie de los bloques monolíticos. Con el prototipo BrainPET se obtuvieron resultados satisfactorios de resolución energética (13 % FWHM), precisión espacial de los bloques monolíticos (~ 2 mm FWHM) y resolución espacial de la imagen PET de 1,5 - 1,7 mm FWHM. Además se demostró una capacidad resolutiva en la imagen PET de ~ 2 mm al adquirir simultáneamente imágenes de fuentes radiactivas separadas a distancias conocidas. Sin embargo, con este prototipo se detectaron también dos limitaciones importantes. En primer lugar, se constató una falta de flexibilidad a la hora de trabajar con un circuito integrado de aplicación específica (Application Specific Integrated Circuit, ASIC) cuyo diseño electrónico no era propio sino comercial, unido al elevado coste que requieren las modificaciones del diseño de un ASIC con tales características. Por otra parte, la caracterización final de la electrónica integrada del BrainPET mostró una resolución temporal con amplio margen de mejora (~ 13 ns FWHM). Tomando en cuenta estas limitaciones obtenidas con los prototipos BrainPET, junto con la evolución tecnológica hacia matrices de SiPM, el conocimiento adquirido con los bloques monolíticos se trasladó a la nueva tecnología de sensores disponible, los SiPMs. A su vez se inició una nueva estrategia para la electrónica frontal, con el ASIC FlexToT, un ASIC de diseño propio basado en un esquema de medida del tiempo sobre umbral (Time over Threshold, ToT), en donde la duración del pulso de salida es proporcional a la energía depositada. Una de las características más interesantes de este esquema es la posibilidad de manejar directamente señales de pulsos digitales, en lugar de procesar la amplitud de las señales analógicas. Con esta arquitectura electrónica se sustituyen los conversores analógicos digitales (Analog to Digital Converter, ADCs) por conversores de tiempo digitales (Time to Digital Converter, TDCs), pudiendo implementar éstos de forma sencilla en matrices de puertas programmable ‘in situ’ (Field Programmable Gate Array, FPGA), reduciendo con ello el consumo y la complejidad del diseño. Se construyó un nuevo prototipo demostrador FlexToT para validar dicho ASIC para bloques monolíticos o segmentados. Se ha llevado a cabo el diseño y caracterización de la electrónica frontal necesaria para la lectura del ASIC FlexToT, evaluando su linealidad y rango dinámico, el comportamiento frente a ruido así como la no linealidad diferencial obtenida con los TDCs implementados en la FPGA. Además, la electrónica presentada en este trabajo es capaz de trabajar con altas tasas de actividad y de discriminar diferentes centelleadores para aplicaciones phoswich. El ASIC FlexToT proporciona una excelente resolución temporal en coincidencia para los eventos correspondientes con el fotopico de 511 keV (128 ps FWHM), solventando las limitaciones de resolución temporal del prototipo BrainPET. Por otra parte, la resolución energética con bloques monolíticos leidos por ASICs FlexToT proporciona una resolución energética de 15,4 % FWHM a 511 keV. Finalmente, se obtuvieron buenos resultados en la calidad de la imagen PET y en la capacidad resolutiva del demostrador FlexToT, proporcionando resoluciones espaciales en el centro del FoV en torno a 1,4 mm FWHM. ABSTRACT This thesis is focused on the development of experimental activities used to deepen the knowledge of monolithic detector blocks as an alternative to segmented detectors for Positron Emission Tomography (PET). It includes the development, characterization, setting up, running and evaluation of PET demonstrator prototypes with monolithic detector blocks of Cerium-doped Lutetium Yttrium Orthosilicate (LYSO:Ce) using magnetically compatible sensors such as Avalanche Photodiodes (APDs) and Silicon Photomultipliers (SiPMs). The prototypes implemented with APDs were constructed to validate the viability of a high-sensitivity PET prototype that had previously been simulated, denominated BrainPET. This work describes and characterizes the integrated front-end electronics used in these prototypes, as well as the electronic readout system developed especially for them. It shows the experimental set-ups to obtain the tomographic PET images and to train neural networks algorithms used for position estimation of photons impinging on the surface of monolithic blocks. Using the BrainPET prototype, satisfactory energy resolution (13 % FWHM), spatial precision of monolithic blocks (~ 2 mm FWHM) and spatial resolution of the PET image (1.5 – 1.7 mm FWHM) in the center of the Field of View (FoV) were obtained. Moreover, we proved the imaging capabilities of this demonstrator with extended sources, considering the acquisition of two simultaneous sources of 1 mm diameter placed at known distances. However, some important limitations were also detected with the BrainPET prototype. In the first place, it was confirmed that there was a lack of flexibility working with an Application Specific Integrated Circuit (ASIC) whose electronic design was not own but commercial, along with the high cost required to modify an ASIC design with such features. Furthermore, the final characterization of the BrainPET ASIC showed a timing resolution with room for improvement (~ 13 ns FWHM). Taking into consideration the limitations obtained with the BrainPET prototype, along with the technological evolution in magnetically compatible devices, the knowledge acquired with the monolithic blocks were transferred to the new technology available, the SiPMs. Moreover, we opted for a new strategy in the front-end electronics, the FlexToT ASIC, an own design ASIC based on a Time over Threshold (ToT) scheme. One of the most interesting features underlying a ToT architecture is the encoding of the analog input signal amplitude information into the duration of the output signals, delivering directly digital pulses. The electronic architecture helps substitute the Analog to Digital Converters (ADCs) for Time to Digital Converters (TDCs), and they are easily implemented in Field Programmable Gate Arrays (FPGA), reducing the consumption and the complexity of the design. A new prototype demonstrator based on SiPMs was implemented to validate the FlexToT ASIC for monolithic or segmented blocks. The design and characterization of the necessary front-end electronic to read-out the signals from the ASIC was carried out by evaluating its linearity and dynamic range, its performance with an external noise signal, as well as the differential nonlinearity obtained with the TDCs implemented in the FPGA. Furthermore, the electronic presented in this work is capable of working at high count rates and discriminates different phoswich scintillators. The FlexToT ASIC provides an excellent coincidence time resolution for events that correspond to 511 keV photopeak (128 ps FWHM), resolving the limitations of the poor timing resolution of the BrainPET prototype. Furthermore, the energy resolution with monolithic blocks read by FlexToT ASICs provides an energy resolution of 15.4 % FWHM at 511 keV. Finally, good results were obtained in the quality of the PET image and the resolving power of the FlexToT demonstrator, providing spatial resolutions in the centre of the FoV at about 1.4 mm FWHM.
Resumo:
Los sistemas de adquisición de datos utilizados en los diagnósticos de los dispositivos de fusión termonuclear se enfrentan a importantes retos planteados en los dispositivos de pulso largo. Incluso en los dispositivos de pulso corto, en los que se analizan los datos después de la descarga, existen aún una gran cantidad de datos sin analizar, lo cual supone que queda una gran cantidad de conocimiento por descubrir dentro de las bases de datos existentes. En la última década, la comunidad de fusión ha realizado un gran esfuerzo para mejorar los métodos de análisis off‐line para mejorar este problema, pero no se ha conseguido resolver completamente, debido a que algunos de estos métodos han de resolverse en tiempo real. Este paradigma lleva a establecer que los dispositivos de pulso largo deberán incluir dispositivos de adquisición de datos con capacidades de procesamiento local, capaces de ejecutar avanzados algoritmos de análisis. Los trabajos de investigación realizados en esta tesis tienen como objetivo determinar si es posible incrementar la capacidad local de procesamiento en tiempo real de dichos sistemas mediante el uso de GPUs. Para ello durante el trascurso del periodo de experimentación realizado se han evaluado distintas propuestas a través de casos de uso reales elaborados para algunos de los dispositivos de fusión más representativos como ITER, JET y TCV. Las conclusiones y experiencias obtenidas en dicha fase han permitido proponer un modelo y una metodología de desarrollo para incluir esta tecnología en los sistemas de adquisición para diagnósticos de distinta naturaleza. El modelo define no sólo la arquitectura hardware óptima para realizar dicha integración, sino también la incorporación de este nuevo recurso de procesamiento en los Sistemas de Control de Supervisión y Adquisición de Datos (SCADA) utilizados en la comunidad de fusión (EPICS), proporcionando una solución completa. La propuesta se complementa con la definición de una metodología que resuelve las debilidades detectadas, y permite trazar un camino de integración de la solución en los estándares hardware y software existentes. La evaluación final se ha realizado mediante el desarrollo de un caso de uso representativo de los diagnósticos que necesitan adquisición y procesado de imágenes en el contexto del dispositivo internacional ITER, y ha sido testeada con éxito en sus instalaciones. La solución propuesta en este trabajo ha sido incluida por la ITER IO en su catálogo de soluciones estándar para el desarrollo de sus futuros diagnósticos. Por otra parte, como resultado y fruto de la investigación de esta tesis, cabe destacar el acuerdo llevado a cabo con la empresa National Instruments en términos de transferencia tecnológica, lo que va a permitir la actualización de los sistemas de adquisición utilizados en los dispositivos de fusión. ABSTRACT Data acquisition systems used in the diagnostics of thermonuclear fusion devices face important challenges due to the change in the data acquisition paradigm needed for long pulse operation. Even in shot pulse devices, where data is mainly analyzed after the discharge has finished , there is still a large amount of data that has not been analyzed, therefore producing a lot of buried knowledge that still lies undiscovered in the data bases holding the vast amount of data that has been generated. There has been a strong effort in the fusion community in the last decade to improve the offline analysis methods to overcome this problem, but it has proved to be insufficient unless some of these mechanisms can be run in real time. In long pulse devices this new paradigm, where data acquisition devices include local processing capabilities to be able to run advanced data analysis algorithms, will be a must. The research works done in this thesis aim to determining whether it is possible to increase local capacity for real‐time processing of such systems by using GPUs. For that, during the experimentation period, various proposals have been evaluated through use cases developed for several of the most representative fusion devices, ITER, JET and TCV. Conclusions and experiences obtained have allowed to propose a model, and a development methodology, to include this technology in systems for diagnostics of different nature. The model defines not only the optimal hardware architecture for achieving this integration, but also the incorporation of this new processing resource in one of the Systems of Supervision Control and Data Acquisition (SCADA) systems more relevant at the moment in the fusion community (EPICS), providing a complete solution. The final evaluation has been performed through a use case developed for a generic diagnostic requiring image acquisition and processing for the international ITER device, and has been successfully tested in their premises. The solution proposed in this thesis has been included by the ITER IO in his catalog of standard solutions for the development of their future diagnostics. This has been possible thanks to the technologic transfer agreement signed with xi National Instruments which has permitted us to modify and update one of their core software products targeted for the acquisition systems used in these devices.
Resumo:
El presente trabajo tiene dos objetivos diferenciados. El primero de ellos tiene un punto de vista más ingenieril que es el de obtener una gama cromática extensa y parametrizar los colores para su reproducción en aplicaciones industriales. El segundo, desarrollar y proponer un modelo numérico óptico de interferencia en láminas delgadas que describa y relacione el espesor de la capa de óxido obtenida por marcado láser con el color obtenido en la superficie procesada. Para desarrollar ambos estudios ha sido necesaria una extensa búsqueda bibliográfica para comprender el proceso de formación de la capa de óxido y los compuestos que se generaban en la misma. Como objetivo para la gama cromática se buscaba obtener un total de doce colores. No se han obtenido dos de los colores primarios considerados pero sí una extensa gama de colores intermedios, muy superior en número objetivo, que evidencian el potencial que tiene el procesado láser para la obtención de colores en la superficie de acero inoxidable. Para conseguir obtener la gama cromática ha sido necesaria la realización de ensayos para parametrizar el haz láser. Se ha estudiado la estabilidad de la potencia media de pulso, se ha calculado indirectamente la cintura del haz y se ha medido el tamaño del spot láser a distintas cotas respecto del plano focal. El modelo óptico de interferencia en capa delgada ha sido comparado con un ensayo en el que se midieron las reflectancias en muestras de acero procesadas con láser. Este ensayo ha permitido dilucidar que la composición de la capa de óxido introducida en el modelo que más se aproxima a los resultados, entre las tres composiciones consideradas, se compone de un 50% de cromita y 50% de magnetita, considerando una relación lineal y directamente proporcional entre la proporción de los mismos y sus propiedades ópticas. A nivel cualitativo, se pueden relacionar los colores encontrados en los aceros con el modelo óptico en función de las reflectancias predominantes para cada espesor de capa de óxido de forma que exista una relación directa entre tamaño de la capa de óxido y densidad de energía depositada en la muestra. Aunque ajustar y validar un modelo óptico está fuera del alcance del proyecto, el resultado anterior permite justificar y afirmar que el fenómeno de interferencia óptica está presente entre los fenómenos que generan el color en la superficie del acero tras procesado láser. También se comprueba en el trabajo, a través de un ensayo que mide la rugosidad superficial de las muestras obtenidas, que la rugosidad es un parámetro que afecta en gran medida al resultado que se obtiene tras el procesado láser. El presente trabajo tiene un gran interés industrial. El marcado láser presenta una gran versatilidad por las distintas aplicaciones en las que puede emplearse. Es muy utilizado para crear métodos de identificación por su flexibilidad y rapidez y su carácter indeleble, económico y prácticamente ausente de mantenimiento. La alta inversión inicial es rentable para grandes niveles de producción por su velocidad de producción, repetitividad y facilidad de automatización. Puede ejercer una influencia importante en el control del stocks y en el seguimiento del ciclo de vida del producto. La amplia gama cromática obtenida en este trabajo amplía las posibilidades de este proceso en la práctica industrial y, por tanto, su valor como proceso.
Resumo:
El tratamiento superficial por ondas de choque generadas por láser, LSP, es una técnica cuyo principal objetivo es el de la modificación del estado tensional de las primeras micras en profundidad de materiales metálicos. En sus comienzos está técnica fue empleada para inducir tensiones residuales de compresión en superficie, pero mientras se avanzaba en su desarrollo se empezaron a observar otros efectos. Profundizando en ellos se llega a la conclusión de que existe una fuerte relación entre todos, pero dependiendo de la aplicación a la que se vea sometido un componente tratado con LSP será necesario una serie de características que bien pueden ser ajustadas “a priori”. Para ello se ha de tener una buena caracterización del proceso láser y de las modificaciones que produce en las propiedades de un material determinado. Y es en este punto donde surge el problema: las modificaciones introducidas por el tratamiento láser son dependientes de la interacción de la energía del pulso láser con el material, es decir, para cada material es necesaria una caracterización previa de cómo sus propiedades son modificadas con las diferentes configuraciones del tratamiento LSP, encontrando para cada material un óptimo en los parámetros láser. En esta Tesis se pretende desarrollar una metodología para evaluar las modificaciones en las propiedades mecánicas y superficiales inducidas en materiales metálicos debido al tratamiento superficial por ondas de choque. De esta manera y avanzando de una manera lógica con la línea de investigación del grupo, se ha querido aplicar todo el conocimiento adquirido de la técnica para desarrollar esa metodología sobre un caso práctico: el empleo de dos configuraciones de tratamiento LSP sobre el acero inoxidable AISI 316L. Estas dos configuraciones elegidas se hacen en base a estudios previos, por parte del grupo de investigación, donde se han optimizados los parámetros para obtener el óptimo en lo que a perfil de tensiones residuales en profundidad se refiere. El material elegido como caso característico para llevar acabo la evaluación integrada del tratamiento LSP, de acuerdo con el propósito de esta Tesis, ha sido el acero inoxidable AISI 316L, debido a que este tipo de acero tiene una excelente resistencia a la corrosión en un amplio rango de atmosferas corrosivas, y es conocido como el grado estándar para un importante número de aplicaciones tecnológicas. La resistencia a la oxidación es buena incluso a altas temperaturas de servicio y la soldabilidad es excelente. Los aceros austeníticos son empleados en aplicaciones que soportan condiciones de alta temperatura y medios altamente corrosivos, como en reactores nucleares. Estos aceros resisten la corrosión en el agua de un reactor y procesos químicos en plantas que operan a temperaturas superiores a los 900 ˚C. En concreto el acero 316L se utiliza en la industria de equipamiento alimentario, en ambientes donde haya presencia de cloruros, en aplicaciones farmacéuticas, en la industria naval, en arquitectura, sector energético, centrales nucleares y en implantes médicos. Es decir, es un material ampliamente implantado en la industria, tanto en industrias tradicionales, como en industrias emergentes como la biomédica. El objetivo marcado para el desarrollo de la presente Tesis es caracterizar de forma precisa cómo el tratamiento superficial por ondas de choque generadas por láser es capaz de mejorar las propiedades de los materiales y cómo de estables son estas con la temperatura. Este punto es importante puesto que a la hora de introducir el proceso LSP en la industria no solo se tiene que tener en cuenta que las propiedades del material sean mejoradas, sino que también es necesario comprobar si esas mejoras se mantienen después de ser sometido el material a un tratamiento térmico ya que las condiciones de servicio de los materiales y componentes empleados no tienen por qué trabajar a temperatura ambiente. Para lograr el objetivo mencionado, el trabajo experimental realizado en la aleación seleccionada bajo todas las condiciones a estudio (material según fue recibido de fábrica, tratado con las dos configuraciones LSP y después de haber sido sometido al tratamiento térmico) ha consistido en lo siguiente: i) Estudios microestructural, morfológico y de composición química. ii) Medida de las tensiones residuales introducidas. iii) Caracterización superficial del material. iv) Estudio de las propiedades mecánicas: ensayos de tracción, ensayos de dureza, cálculo de la densidad de dislocaciones y ensayos de fatiga. v) Caracterización tribológica: ensayos de fricción y cálculo de la tasa de desgaste y volumen eliminado. vi) Caracterización electro-química para el material base y tratado con las dos configuraciones LSP. Se realizan medidas a circuito abierto, curvas de polarización (OCP), ensayos potenciostáticos y espectroscopia de impedancia electroquímica (EIS). El trabajo se ha llevado a cabo en los laboratorios del Centro Láser de la Universidad Politécnica de Madrid.
Resumo:
El trabajo del Proyecto Fin de Carrera consiste en el análisis de la formación de los distintos abanicos aluviales localizados en la provincia de Murcia, entre las ciudades de Lorca y Totana y su entorno inmediato, es decir, la Sierra de la Tercia al NO y parte de la depresión del Guadalentín al SE. Se comprobará, como objetivo destacado, si a partir de los datos obtenidos se puede determinar la degradación de los abanicos aluviales afectados por fallas. Inicialmente se realiza un estudio del terreno, con unos datos previos de traza de falla, marcando en él posibles indicios del paso, o no, de la falla en esa zona. Apoyándonos en una parte del trabajo desarrollado en el marco del proyecto del plan nacional de I+D denominado “Searching the record of past earthquakes in South Iberia: Advanced technologies in terrestrial and marine paleoseismology” (SHAKE), los datos con los que se ha trabajado en este proyecto se obtuvieron mediante la realización, en agosto del 2013, de un vuelo usando tecnología LiDAR en combinación con técnicas de Fotogrametría Digital que incorporan imágenes aéreas proporcionadas por el Instituto Geográfico Nacional (PNOA 2010) de la Región de Murcia. La tecnología LiDAR (Light Detection And Ranging) se trata de una técnica geofísica de mapeo por barrido que consta de un sensor láser aerotransportado que escanea la superficie terrestre recogiendo millones de medidas de distancia entre el sensor y el objeto, cuya posición es calculada por GPS diferencial y un sistema de navegación inercial. Cada pulso de láser toma múltiples medidas de distancia a lo largo de un solo haz, con el primer retorno desde la parte superior de la vegetación local, y el último desde la superficie del suelo. El resultado es una nube de puntos a partir de la cual se desarrollan los MDT utilizando el programa MDTopX. Este vuelo (correspondiente a la falla de Alhama) ocupa una extensión aproximada de 282 km2 y un perímetro de vuelo de 139 km. Para obtener una cobertura LiDAR lo más densa posible, se planificó el vuelo a una altura de 1500 metros sobre el terreno, obteniendo así una densidad media de 4 puntos/m2 y una separación entre puntos promedio de 0,5 m. A continuación se crean diferentes mapas (pendientes, orientaciones y curvas de nivel) de los cuales se obtiene toda la información posible para realizar una clasificación de los diferentes indicios, según se explica más adelante. Posteriormente se realiza una nueva traza de los abanicos aluviales usando los resultados anteriores y estableciendo una clasificación de su época, materiales y grado de degradación, entre otros.
Resumo:
La importantísima expansión urbana que sufren las principales ciudades de los países en vías de desarrollo, es el mayor reto que afronta la habitabilidad a nivel mundial. Dentro de la teoría general de la Habitabilidad Básica (HaB-ETSAM-UPM, 1995) la ordenación del territorio y el planeamiento urbanístico son las herramientas determinantes para orientar coherentemente los procesos de urbanización, como se reconoce también desde las principales esferas técnicas a nivel internacional. Pero tales herramientas deben enfocarse a una construcción eficiente del territorio, actuando desde una aproximación multidisciplinar, flexible y directa, que incida en las prioridades específicas de cada contexto. Para ello, resulta fundamental comprender a fondo las realidades específicas de estos ámbitos. La ciudad es un fenómeno complejo en esencia. El tejido construido, en constante proceso de cambio, es el caparazón visible que alberga una maravillosa mezcla entrelazada de espacios, funciones, flujos, personas.... Cada ciudad, diferente y única, se integra en su medio, se adapta a geografías, contextos y climas distintos, evoluciona según dinámicas propias, en incomprensibles (o casi) procesos evolutivos. El estudio de la ciudad, supone siempre una simplificación de la misma. La realidad urbana, por detallado que sea nuestro análisis, siempre contendrá indescifrables relaciones que se nos escapan. En cambio, necesitamos de métodos analíticos que nos ayuden a comprender algo esa complejidad. Acercarnos en ese análisis, es un paso previo fundamental para la formulación de respuestas. En este plano, de avance en la comprensión del hecho urbano, se sitúa este trabajo. Se pone el acento en el enfoque cuantitativo, profundizando en datos básicos concretos, siempre aceptando de partida que esta información es una componente mínima, pero esperamos que sustantiva, de un fenómeno inabordable. Y es esta búsqueda de comprensión material y cuantitativa de la ciudad, el objetivo esencial de la investigación. Se pretende proporcionar una base detallada de aquéllos aspectos fundamentales, que pueden ser medidos en los entornos urbanos y que nos proporcionan información útil para el diagnóstico y las propuestas. Para ello, se aportan rangos y referencias deseables, a través de una herramienta para la comprensión y la valoración de cada contexto, la Matriz de Indicadores. Esta herramienta se concibe desde la reflexión a la aplicación práctica, a la utilidad directa, al aporte concreto para quien pueda servir. Ésta es la voluntad decidida con la que se aborda este trabajo, centrado en los entornos urbanos donde el aporte técnico es prioritario: la Ciudad Informal. La Ciudad Informal, entendida aquí como aquélla que se desarrolla sin los medios suficientes (técnicos, económicos e institucionales) que proporciona la planificación, aquélla por donde la habitabilidad precaria se extiende. Es la ciudad que predomina en los países en vías de desarrollo, en los contextos de bajos recursos, allí donde, precisamente, se concentran los principales déficits y necesidades a nivel global. El enfoque nace de la teoría de la Habitabilidad Básica, de la definición de mínimos posibles para, desde allí, construir el espacio necesario para el desarrollo humano. Éste es el ámbito genérico objeto del trabajo que, a su vez, se nutre, de forma muy importante, de la experiencia directa en la ciudad de Makeni, en Sierra Leona. Esta ciudad nos sirve de prototipo experimental en un doble sentido. Por un lado, sirve como espacio empírico en el que chequear la metodología de valoración cuantitativa; y, por otro, el conocimiento de esta ciudad de tamaño medio africana, que se ha ido adquiriendo en los últimos cinco años, es una base directa para el desarrollo teórico de la propia metodología, que ayuda a atisbar lo esencial en contextos similares. El encaje de todo este recorrido se ha articulado desde una experiencia académica que, como docente, he coordinado directa e intensamente. Experiencia muy enriquecedora, que ha sumado muchas manos y mucho aprendizaje en este tiempo. Teoría y práctica en planeamiento urbano se alternan en el trabajo, nutriéndose la una de la otra y a la inversa. Trabajo que nace desde la pasión por la ciudad y el urbanismo. Desde la búsqueda por comprender y desde la vocación de actuar, de intentar mejorar y hacer más habitables los entornos urbanos. Especialmente allí donde las dificultades se agolpan y el camino se alarga, se llena de polvo. Acumular preguntas a cada paso. Cada vez más preguntas. Las respuestas, si existen, aparecen entrelazadas en dinámicas indescifrables de las que queremos formar parte. Fundirnos por momentos en la misma búsqueda, acompañarla. Sentirnos cerca de quiénes comienzan de cero casi cada día. Y otra vez, arrancar. Y compartir, desde el conocimiento, si acaso es que se puede. Y la ciudad. Brutal, imponente, asfixiante, maravillosa, imposible. Creación colectiva insuperable, de energías sumadas que se cosen sin patrón aparente. O sin más razón que la del propio pulso de la vida. Así se siente Makeni. ABSTRACT The important urban growth suffering major cities of developing countries, is the biggest challenge facing the global habitability. Within the general theory of Basic Habitability (HAB-ETSAM-UPM, 1995) spatial planning and urban planning are the crucial tools to consistently guide the urbanization process, as also recognized from the main technical areas worldwide. But such tools should focus on an efficient construction of the territory, working from a multidisciplinary, flexible and direct approach, that affects the specific priorities of each context. To do this, it is essential to thoroughly understand the specific realities of these areas. The city is essentially a complex phenomenon. The urban fabric in constant flux, is the visible shell that houses a wonderful mixture interlocking spaces, functions, flows, people.... Every city, different and unique, is integrated into its environment, adapted to geographies, contexts and climates, it evolves according to its own dynamics, along (almost) incomprehensible evolutionary processes. The study of the city, is always a simplification of it. The urban reality, even studied from a detailed analysis, always contain undecipherable relationships that escape us. Instead, we need analytical methods that help us understand something that complexity. Moving forward in this analysis is an essential first step in formulating responses. At this level, progressing in understand the urban reality, is where this work is located. The emphasis on the quantitative approach is placed, delving into specific basic data, starting always accepting that this information is just a minimal component, but we hope that substantive, of an intractable phenomenon. And it is this search for materials and quantitative understanding of the city, the main objective of the research. It is intended to provide a detailed basis of those fundamental aspects that can be measured in urban environments that provide us useful information for the diagnosis and proposals. To do this, desirable ranges and references are provided, through a tool for understanding and appreciation of each context, the Indicator Matrix. This tool is conceived from reflection to practical application, to a direct utility, concrete contribution to who can serve. This is the firm resolve with which this work is addressed, centered in urban environments where the technical contribution is a priority: the Informal City. The Informal City, understood here as the urban areas developed without the sufficient resources (technical, economic and institutional) which planning provides, where it is extended the precarious habitability. It is the city that prevails in developing countries, in low-resource settings, where, precisely, the main gaps and needs in the global context are concentrated. The approach stems from the theory of Basic Habitability, the definition of possible minimum, to build the necessary space for human development. This is the generic scope of the work object, that is also based in the direct experience in the town of Makeni, Sierra Leone. This city serves as an experimental prototype in two ways. On the one hand, it serves as a space where empirically check the quantitative assessment methodology; and, secondly, the knowledge of this African city of medium size, which has been acquired in the last five years, is a direct basis for the theoretical development of the methodology itself, which helps to glimpse the essence in similar contexts. The engagement of this whole journey has been articulated from an academic experience, directly and intensely coordinated as teacher. Enriching experience that has added many hands and much learning at this time. Theory and practice in urban planning are mixed at work, enriching the one of the other and vice versa. Work is born from the passion for the city and urbanism. From the search for understanding and from the vocation of acting, trying to improve and make more livable urban environments. Especially where the difficulties are crowded and the road is so long, full of dust. To accumulate questions at every turn. More and more questions. The answers, if do exist, appears inside indecipherable dynamics in which we want to be involved. Merge at times in the same search. Feel close to those who start from scratch almost every day. And again, move forward. And share, from knowledge, if possible. And the city. Brutal, impressive, suffocating, wonderful, impossible. Unsurpassed collective creation, combined energy mix that are sewn with no apparent pattern. Or for no reason other than the pulse of life itself. As it feels the city of Makeni.
Resumo:
La tesis “1950 En torno al Museo Louisiana 1970” analiza varias obras relacionadas con el espacio doméstico, que se realizaron entre 1950 y 1970 en Dinamarca, un periodo de esplendor de la Arquitectura Moderna. Tras el aislamiento y restricciones del conflicto bélico que asoló Europa, los jóvenes arquitectos daneses, estaban deseosos por experimentar nuevas ideas de procedencia internacional, favorecidos por diferentes circunstancias, encuentran el mejor campo de ensayo en el espacio doméstico. La mejor arquitectura doméstica en Dinamarca, de aquel periodo, debe entenderse como un sistema compuesto por diferentes autores, que tienen en común muchas más similitudes que diferencias, se complementan unos a otros. Para la comprensión y el entendimiento de ello se hace necesario el estudio de varias figuras y edificios, que completen este sistema cuya investigación está escasamente desarrollada. La tesis propone un viaje para conocer los nombres de algunos de sus protagonistas, que mostraron con su trabajo, que tradición y vanguardia no estarán reñidas. El objetivo es desvelar las claves de la Modernidad Danesa, reconocer, descubrir y recuperar el legado de algunos de sus protagonistas en el ámbito doméstico, cuya lección se considera de total actualidad. Una arquitectura que asume las aportaciones extranjeras con moderación y crítica, cuya íntima relación con la tradición arquitectónica y la artesanía propias, será una de sus notas especiales. Del estudio contrastado de varios proyectos y versiones, se obtienen valores comunes entre sus autores, al igual que se descubren sus afinidades o diferencias respecto a los mismos asuntos; que permitirán comprender sus actuaciones según las referencias e influencias, y definir las variables que configuran sus espacios arquitectónicos. La línea de conexión entre los edificios elegidos será su particular relación con la naturaleza y el lugar en que se integran. La fachada, lugar donde se negociará la relación entre el interior y el paisaje, será un elemento entendido de un modo diferente en cada uno de ellos, una relación que se extenderá en todas ellas, más allá de su perímetro. La investigación se ha estructurado en seis capítulos, que van precedidos de una Introducción. En el capítulo primero, se estudian y se señalan los antecedentes, las figuras y edificios más relevantes de la Tradición Danesa, para la comprensión y el esclarecimiento de algunas de las claves de su Modernidad en el campo de la Arquitectura, que se produce con una clara intención de encontrar su propia identidad y expresión. Esta Modernidad floreciente se caracteriza por la asimilación de otras culturas extranjeras desde la moderación, con un punto de vista crítico, y encuentra sus raíces ancladas a la tradición arquitectónica y la artesanía propia, que fragua en la aparición de un ideal común con enorme personalidad y que hoy se valora como una auténtica aportación de una cultura considerada entonces periférica. Se mostrará el debate y el camino seguido por las generaciones anteriores, a las obras análizadas. Las sensibilidades por lo vernáculo y lo clásico, que aparentemente son contradictorias, dominaran el debate con la misma veracidad y respetabilidad. La llamada tercera generación por Sigfried Giedion reanudará la práctica entre lo clásico y lo vernáculo, apoyados en el espíritu del trabajo artesanal y de la tradición, con el objetivo de conocer del acto arquitectónico su “la verdad” y “la esencia original”. El capítulo segundo, analiza la casa Varming, de 1953, situada en un área residencial de Gentofte, por Eva y Nils Koppel, que reinterpreta la visión de Asplund de un paisaje interior continuación del exterior, donde rompen la caja de ladrillo macizo convencional propia de los años 30. Es el ejemplo más poderoso de la unión de tradición e innovación en su obra residencial. Sus formas sobrias entre el Funcionalismo Danés y la Modernidad se singularizarán por su abstracción y volúmenes limpios que acentúan el efecto de su geometría, prismática y brutalista. El desplazamiento de los cuerpos que lo componen, unos sobre otros, generan un ritmo, que se producirá a otras escalas, ello unido a las variaciones de sus formas y a la elección de sus materiales, ladrillo y madera, le confieren a la casa un carácter orgánico. El edificio se ancla a la tierra resolviéndose en diferentes niveles tras el estudio del lugar y su topografía. El resultado es una versión construida del paisaje, en la cual el edificio da forma al lugar y ensalza la experiencia del escenario natural. La unidad de las estructuras primitivas, parece estar presente. Constituye un ejemplo de la “La idea de Promenade de Asplund”, el proyecto ofrece diferentes recorridos, permitiendo su propia vivencia de la casa, que ofrece la posibilidad vital de decidir. El capítulo tercero trata sobre el pabellón de invitados de Niels Bohr de 1957, situado un área boscosa, en Tisvilde Hegn, fue el primer edificio del arquitecto danés Vilhelm Wohlert. Arraigado a la Tradición Danesa, representa una renovación basada en la absorción de influencias extranjeras: la Arquitectura Americana y la Tradición Japonesa. La caja de madera, posada sobre un terreno horizontal, tiene el carácter sensible de un organismo vivo, siempre cambiante según las variaciones de luz del día o temperatura. Cuando se abre, crea una prolongación del espacio interior, que se extiende a la naturaleza circundante, y se expande hacia el espacio exterior, permitiendo su movilización. Se establece una arquitectura de flujos. Hay un interés por la materia, su textura y el efecto emocional que emana. Las proporciones y dimensiones del edificio están reguladas por un módulo, que se ajusta a la medida del hombre, destacando la gran unidad del edificio. La llave se su efecto estético está en su armonía y equilibrio, que transmiten serenidad y belleza. El encuentro con la naturaleza es la lección más básica del proyecto, donde un mundo de relaciones es amable al ser humano. El capítulo cuarto, analiza el proyecto del Museo Louisiana de 1958, en Humlebæk, primer proyecto de la pareja de arquitectos daneses Jørgen Bo y Vilhelm Wohlert. La experiencia en California de Wohlert donde será visitado por Bo, será trascendental para el desarrollo de Louisiana, donde la identidad Danesa se fusiona con la asimilación de otras culturas, la arquitectura de Frank Lloyd Wright, la del área de la Bahía y la Tradición Japonesa principalmente. La idea del proyecto es la de una obra de arte integral: arquitectura, arte y paisaje, coexistirían en un mismo lugar. Diferentes recursos realzarán su carácter residencial, como el uso de los materiales propios de un entorno doméstico, la realización a la escala del hombre, el modo de usar la iluminación. Cubiertas planas que muestran su artificialidad, parecen flotar sobre galerías acristaladas, acentuarán la fuerza del plano horizontal y establecerán un recorrido en zig-zag de marcado ritmo acompasado. Ritmo que tiene que ver con la encarnación del pulso de la naturaleza, que se acompaña de juegos de luz, y de otras vibraciones materiales a diferentes escalas, imagen, que encuentra una analogía semejante en la cultura japonesa. Todo se coordina con la trama estructural, que conlleva a una construcción y proporción disciplinada. Louisiana atiende al principio de crecimiento de la naturaleza, con la que su conexión es profunda. Hay un dinamismo expresado por el despliegue del edificio, que evoca a algunos proyectos de la Tradición Japonesa. Los blancos muros tienen su propia identidad como formas en sí mismas, avanzan prolongándose fuera de la línea del vidrio, se mueven libremente siguiendo el orden estructural, acompañando al espacio que fluye, en contacto directo con la naturaleza que está en un continuo estado de flujos. Se da todo un mundo de relaciones, donde existe un dialogo entre el paisaje, arte y arquitectura. El capítulo quinto, se dedica a analizar la segunda casa del arquitecto danés Halldor Gunnløgsson, de 1959. Evoca a la Arquitectura Japonesa y Americana, pero es principalmente resultado de una fuerte voluntad y disciplina artística personal. La cubierta, plana, suspendida sobre una gran plataforma pavimentada, que continúa la sección del terreno construyendo de lugar, tiene una gran presencia y arroja una profunda sombra bajo ella. En el interior un espacio único, que se puede dividir eventualmente, discurre en torno a un cuerpo central. El espacio libre fluye, extendiéndose a través de la transparencia de sus ventanales a dos espacios contrapuestos: un patio ajardinado íntimo, que inspira calma y sosiego; y la naturaleza salvaje del mar que proyecta el color del cielo, ambos en constante estado de cambio. El proyecto se elabora de un modo rigurosamente formal, existiendo al mismo tiempo un perfecto equilibrio entre la abstracción de su estructura y su programa. La estructura de madera cuyo orden se extiende más allá de los límites de su perímetro, está formada por pórticos completos como elementos libres, queda expuesta, guardando una estrecha relación con el concepto de modernidad de Mies, equivalente a la arquitectura clásica. La preocupación por el efecto estético es máxima, nada es improvisado. Pero además la combinación de materiales y el juego de las texturas hay una cualidad táctil, cierto erotismo, que flota alrededor de ella. La precisión constructiva y su refinamiento se acercan a Mies. La experiencia del espacio arquitectónico es una vivencia global. La influencia de la arquitectura japonesa, es más conceptual que formal, revelada en un respeto por la naturaleza, la búsqueda del refinamiento a través de la moderación, la eliminación de los objetos innecesarios que distraen de la experiencia del lugar y la preocupación por la luz y la sombra, donde se establece cierto paralelismo con el oscuro mundo del invierno nórdico. Hay un entendimiento de que el espacio, en lugar de ser un objeto inmaterial definido por superficies materiales se entiende como interacciones dinámicas. El capítulo sexto. Propone un viaje para conocer algunas de las viviendas unifamiliares más interesantes que se construyeron en el periodo, que forman parte del sistema investigado. Del estudio comparado y orientado en varios temas, se obtienen diversa conclusiones propias del sistema estudiado. La maestría de la sustancia y la forma será una característica distintiva en Dinamarca, se demuestra que hay un acercamiento a la cultura de Oriente, conceptual y formal, y unos intereses comunes con cierta arquitectura Americana. Su lección nos sensibiliza hacia un sentido fortalecido de proporción, escala, materialidad, textura y peso, densidad del espacio, se valora lo táctil y lo visual, hay una sensibilidad hacia la naturaleza, hacia lo humano, hacia el paisaje, la integridad de la obra. ABSTRACT The thesis “1950 around the Louisiana Museum 1970” analyses several works related to domestic space, which were carried out between 1950 and 1970 in Denmark, a golden age of modern architecture. After the isolation and limitations brought about by the war that blighted Europe, young Danish architects were keen to experiment with ideas of an international origin, encouraged by different circumstances. They find the best field of rehearsal to be the domestic space. The best architecture of that period in Denmark should be understood as a system composed of different authors, who have in common with each other many more similarities than differences, thus complimenting each other. In the interests of understanding, the study of a range of figures and buildings is necessary so that this system, the research of which is still in its infancy, can be completed. The thesis proposes a journey of discovery through the names of some of those protagonists who were showcased through their work so that tradition and avant- garde could go hand in hand. The objective is to unveil the keys to Danish Modernity; to recognise, discover and revive the legacy of some of its protagonists in the domestic field whose lessons are seen as entirely of the present. For an architect, the taking on of modern contributions with both moderation and caution, with its intimate relationship with architectural tradition and its own craft, will be one of his hallmarks. With the study set against several projects and versions, one can derive common values among their authors. In the same way their affinities and differences in respect of the same issue emerge. This will allow an understanding of their measures in line with references and influences and enable the defining of the variables of their architectural spaces. The common line between the buildings selected will be their particular relationship with nature and the space with which they integrate. The façade, the place where the relationship between the interior and the landscape would be negotiated, wouldl be the discriminating element in a distinct way for each one of them. It is through each of these facades that this relationship would extend, and far beyond their physical perimeter. The investigation has been structured into six chapters, preceded by an introduction. The first chapter outlines and analyses the backgrounds, figures and buildings most relevant to the Danish Tradition. This is to facilitate the understanding and elucidation of some of the keys to its modernity in the field of architecture, which came about with the clear intention to discover its own identity and expression. This thriving modernity is characterized by its moderate assimilation with foreign cultures with a critical eye, and finds its roots anchored in architectural tradition and its own handcraft. It is forged in the emergence of a common ideal of enormous personality which today has come to be valued as an authentic contribution to the sphere from a culture that was formerly seen as on the peripheries. What will be demonstrated is the path taken by previous generations to these works and the debate that surrounds them. The sensibilities for both the vernacular and the classic, which at first glance may seem contradictory, will dominate the debate with the same veracity and respectability. The so-called third generation of Sigfried Giedion will revive the process between the classic and the vernacular, supported in spirit by the handcraft work and by tradition, with the objective of discovering the “truth” and the “original essence” of the architectural act. The second chapter analyzes the Varming house, built by Eva and Nils Koppel 1953, which is situated in a residential area of Gentofte. This reinterprets Asplund’s vision of an interior landscape extending to the exterior, where we see a break with the conventional sturdy brick shell of the 1930s. It is the most powerful example of the union of tradition and innovation in his their residential work. Their sober forms caught between Danish Functionalism and modernity are characterized by their abstraction and clean shapes which accentuate their prismatic and brutal geometry, The displacement of the parts of which they are composed, one over the other, generate a rhythm. This is produced to varying scales and is closely linked to its forms and the selection of materials – brick and wood – that confer an organic character to the house. The building is anchored to the earth, finding solution at different levels through the study of place and topography. The result is an adaption constructed out of the landscape, in which the building gives form to the place and celebrates the experience of the natural setting. The unity of primitive structures appears to be present. It constitutes an example of “Asplund’s Promenade Idea”. Different routes of exploration within are available to the visitor, allowing for one’s own personal experience of the house, allowing in turn for the vital chance to decide. The third chapter deals with Niels Bohr’s guest pavilion. Built in 1957, it is situated in a wooded area of Tisvilde Hegn and was the architect Vilhelm Wohlert’s first building. Rooted in the Danish Tradition, it represents a renewal based on the absorption of foreign influences: American architecture and the Japanese tradition. The wooden box, perched atop a horizontal terrain, possesses the sensitive character of the living organism, ever-changing in accordance with the variations in daylight and temperature. When opened up, it creates an elongation of the interior space which extends into the surrounding nature and it expands towards the exterior space, allowing for its mobilisation. It establishes an architecture of flux. There is interest in the material, its texture and the emotional effect it inspires. The building’s proportions and dimensions are regulated by a module, which is adjusted by hand, bringing out the great unity of the building. The key to its aesthetic effect is its harmony and equilibrium, which convey serenity and beauty. The meeting with nature is the most fundamental lesson of the project, where a world of relationships softens the personality of the human being. The fourth chapter analyzes the Louisiana Museum project of 1958 in 1958. It was the first project of the Danish architects Jørgen Bo and Vilhelm Wohlert. Wohlert’s experience in California where he was visited by Bo would be essential to the development of Louisiana, where the Danish identity is fused in assimilation with other cultures, the architecture of Frank Lloyd Wright, that of the Bahía area and principally the Japanese tradition. The idea of the project was for an integrated work of art: architecture, art and landscape, which would coexist in the same space. A range of different resources would realize the residential character, such as the use of materials taken from a domestic environment, the attainment of human scale and the manner in which light was used. Flat roof plans that show their artificiality and appear to float over glassed galleries. They accentuate the strength of the horizontal plan and establish a zigzag route of marked and measured rhythm. It is a rhythm that has to do with the incarnation of nature’s pulse, which is accompanied with plays of light, as well as material vibrations of different scales, imagery which uncovers a parallel analogy with Japanese culture. Everything is coordinated along a structural frame, which involves a disciplined construction and proportion. Louisiana cherishes nature’s principle of growth, to which its connection is profound. Here is a dynamism expressed through the disposition of the building, which evokes in some projects the Japanese tradition. The white walls possess their own identity as forms in their own right. They advance, extending beyond the line of glass, moving freely along the structural line, accompanying a space that flows and in direct contact with nature that is itself in a constant state of flux. It creates a world of relationships, where dialogue exists between the landscape, art and architecture. The fifth chapter is dedicated to analyzing the Danish architect Halldor Gunnløgsson’s second house, built in 1959. It evokes both Japanese and American architecture but is principally the result of a strong will and personal artistic discipline. The flat roof suspended above a large paved platform – itself continuing the constructed terrain of the place – has great presence and casts a heavy shadow beneath. In the interior, a single space, which can at length be divided and which flows around a central space. The space flows freely, extending through the transparency of its windows which give out onto two contrasting locations: an intimate garden patio, inspiring calm and tranquillity, and the wild nature of the sea which projects the colour of sky, both in a constant state of change. The project is realized in a rigorously formal manner. A perfect balance exists between the abstraction of his structure and his project. The wooden structure, whose order extends beyond the limits of its perimeter, is formed of complete porticos of free elements. It remains exposed, maintaining a close relationship with Mies’ concept of modernity, analogous to classical architecture. The preoccupation with the aesthetic effect is paramount and nothing is improvised. But in addition to this - the combination of materials and the play of textures - there is a tactile quality, a certain eroticism, which lingers all about. The constructive precision and its refinement are close to Mies. The experience of the architectural space is universal. The influence of Japanese architecture, more conceptual than formal, is revealed in a respect for nature. It can be seen in the search for refinement through moderation, the elimination of the superfluous object that distract from the experience of place and the preoccupation with light and shade, where a certain parallel with the dark world of the Nordic winter is established. There is an understanding that space, rather than being an immaterial object defined by material surfaces, extends instead as dynamic interactions. The sixth chapter. This proposes a journey to discover some of the unfamiliar residences of most interest which were constructed in the period, and which form part of the system being investigated. Through the study of comparison and one which is geared towards various themes, diverse conclusions are drawn regarding the system being researched. The expertise in substance and form will be a distinctive characteristic in Denmark, demonstrating an approach to the culture of the Orient, both conceptual and formal, and some common interests in certain American architecture. Its teachings sensitize us to a strengthened sense of proportion, scale, materiality, texture and weight and density of space. It values both the tactile and the visual. There is a sensitivity to nature, to the human, to the landscape and to the integrity of the work.