19 resultados para Biopsia por agulha fina

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo aborda el estudio de la calidad acústica de restaurantes y propone la inteligibilidad como magnitud adecuada para su valoración. La conversación en el entorno de cada mesa se considera como señal de interés para quienes la ocupan, mientras que las conversaciones de los comensales de las restantes mesas se consideran ruido perturbador junto con el procedente de otras fuentes interiores o exteriores, ruido este que por otra parte suele estar limitado por ordenanzas o reglamentaciones ad hoc, a niveles muy por debajo del nivel de conversación medio y se suele tratar como un ruido estacionario homogéneamente distribuido en todo el restaurante. Las condiciones de inteligibilidad en cada mesa del restaurante deben ser equivalentes. La relación señal-ruido juega un papel primordial en todos los modelos objetivos de predicción de la inteligibilidad en recintos comúnmente aceptados en la actualidad. La calificación de la inteligibilidad de un recinto de restauración requiere un mapa de inteligibilidad en una retícula suficientemente fina que cubra la zona de público, en cuyos puntos se necesita calcular los niveles de señal y de ruido, así como el tiempo de reverberación u otro parámetro relacionado con la señal recibida en el tiempo de integración auditiva. Esto conlleva una cantidad ingente de potencia computacional tanto en memoria como en tiempo. Si se dispone de ecuaciones sencillas y fiables de distribución del nivel sonoro en función de la distancia a la fuente sonora los enormes requerimientos de cálculo mencionados podrían reducirse en un factor importante. La teoría estadística clásica de recintos presenta justamente este escenario, pero trabajos relativamente recientes de Barron y colaboradores indican la mejor adecuación de ecuaciones empíricas algo más complejas, dentro de la sencillez, las cuales a su vez han sido cuestionadas en parte por otros autores. La importancia de estas ecuaciones ha condicionado que en esta tesis se haya planeado un programa de exploraciones experimentales ambicioso, a la par que lo mas simplificado posible, para obtener distribuciones de campos sonoros en recintos prismáticos de plantas en forma de I, L y U; en donde se exploran trayectorias axiales y diagonales. En paralelo se exploro el tiempo de reverberación y se completo con estudios análogos en recintos acoplados formados a partir del recinto de planta en U, por su utilidad actual en recintos de interés arquitectónico rehabilitados para restaurantes. Por su facilidad operativa la experimentación se planteo en maquetas a escala reducida asegurando el cumplimiento de los requisitos en este tipo de estudios. Los resultados experimentales directos se corrigieron de los efectos alineales derivados de las descargas eléctricas usadas como señales de excitación, tanto en el tiempo de reverberación como en la distribución de niveles. Con este fin se desarrollaron ecuaciones de corrección de ambas magnitudes en función del parámetro de alinealidad en el rango de débil alinealidad. También se aplicaron correcciones del exceso de absorción sonora en el seno del aire a los valores de humedad relativa, temperatura y presión atmosféricas reinantes en el interior de las maquetas durante la experimentación, para las frecuencias transpuestas por el factor de escala, en relación con la escala real. Como resultado se obtuvo un paquete de archivos de datos experimentales correspondientes a condiciones lineales. Se ha mostrado que una generalización de la ecuación de Barron consigue un buen ajuste a los valores experimentales en todos los casos considerados, lo que apoya el gran fundamento de esta ecuación tipo. El conjunto de ecuaciones empíricas que ajusta cada caso particular solamente difiere en el valor de una de las tres constantes del tipo funcional: el factor ligado al término exponencial. Un valor de esta constante cercano al valor medio de la serie de casos estudiados se ha usado en el cálculo de los mapas de inteligibilidad en recintos prismáticos que se comentaran más adelante Los resultados experimentales del nivel sonoro a lo largo de trayectorias axiales y diagonales comparados a los calculados numéricamente con las ecuaciones empíricas presentan disminuciones justamente detrás de las esquinas de los recintos con plantas en forma de L y de U. Las aéreas de estas zonas afónicas son función de la frecuencia de manera bastante coincidente con las encontradas en las barreras de ruido por efecto de la difracción. A distancias superiores los valores experimentales caen de nuevo sobre las curvas empíricas. Se ha estudiado la influencia en los mapas de inteligibilidad del ruido de fondo, de la absorción sonora, de la distribución de las mesas, de la densidad de mesas por unidad de superficie, del porcentaje de ocupación y su distribución espacial así como de la posición de la mesa de señal. El ruido conversacional resulta ser el factor más adverso a la inteligibilidad. Al aumentar la densidad de mesas (ocupadas) la valoración de la inteligibilidad disminuye e inversamente. La influencia negativa de las mesas de ruido conversacional disminuye rápidamente al aumentar la distancia a la mesa de señal: pudiendo afirmarse que las 4 a 8 mesas mas próximas a la de señal, junto con la absorción total del recinto, constituyen los dos factores que condicionan la inteligibilidad influyendo negativamente el primero y positivamente el segundo. Este resultado difiere del ofrecido por la teoría geométrico estadística clásica donde todas las mesas tienen la misma influencia con independencia del sitio que ocupen en el recinto, y también con la teoría derivada de la ecuación de Barron, que ocupa una posición intermedia. Mayor absorción y menor densidad de mesas (ocupadas) mejoran la inteligibilidad en todos los casos pero la absorción no siempre puede neutralizar el efecto adverso de la densidad de mesas de la cual parece existir un valor frontera imposible de neutralizar en la práctica con incrementos de absorción. El grado de inteligibilidad en torno a la mesa de señal es poco sensible a la posición de esta dentro del recinto, resultado que simplifica el enunciado de criterios de calidad acústica de utilidad práctica tanto en diseño como en reglamentaciones de control. La influencia del ruido de fondo estacionario y homogéneo resulta de escasa o nula influencia en la inteligibilidad para niveles de hasta 50-55 dB, si se admite que los niveles normales de conversación se sitúan de 65 a 70 dB. La subdivisión del restaurante en subespacios menores mediante septa de separación parcial media y alta, presenta ventajas ya que dentro de cada subespacio la inteligibilidad no depende más que de las características de este

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La harina de soja (HS) es la fuente de proteína de elección en dietas para cerdos. La HS contiene diversos factores anti nutricionales (FAN), tales como los inhibidores de tripsina (IT; Huisman y Jansman, 1991) y los oligosacáridos (Clarke y Wiseman, 2005) que afectan al crecimiento y limitan los niveles de inclusión en dietas para lechones. El procesado térmico del haba y su composición (De Coca Sinova et al., 2008) afectan al contenido de nutrientes así como la respuesta de los animales a su inclusión en piensos. Morgan et al. (1984) y Dilger et al. (2004) han demostrado que un aumento en el contenido de fibra bruta de la dieta o de la HS utilizada disminuye la digestibilidad de los nutrientes en monogástricos y De Coca et al. (2008) observaron una relación lineal entre el contenido de proteína bruta (PB) y la digestibilidad de los aminoácidos en HS. Por lo tanto, la inclusión de HS de alto contenido en PB (AP-HS) en sustitución de HS de menor contenido proteico (BP-HS) podría mejorar el crecimiento de los lechones. Los concentrados de soja (CPS) tienen un alto contenido en PB y bajo contenido de fibra bruta y en FAN (Shon et al., 1994). Por lo tanto, la sustitución de HS por CPS, podría mejorar el rendimiento de los cerdos al destete. Los efectos del tamaño medio de partícula (GMD) del pienso sobre el crecimiento es un tema de debate (Goodband et al., 1995). La mayoría de estudios llevados a cabo con cereales han encontrado una relación directa positiva entre la GMD y el índice de conversión (IC) en cerdos (Goodband y Hines, 1988; Healy et al., 1994). Sin embargo, los resultados disponibles sobre los efectos de la molturación fina de la HS sobre la productividad en lechones son escasos y no concordantes (Fastinger y Mahan, 2003; Lawrence et al., 2003; Valencia et al., 2008). El objetivo de este experimento fue evaluar los efectos de la inclusión de diferentes tipos de soja en los que variaba el contenido de PB y el tamaño de partícula sobre el crecimiento de los lechones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La importancia de la seguridad en la aplicación de la tecnología nuclear impregna todas las tareas asociadas a la utilización de esta fuente de energía, comenzando por la fase de diseño, explotación y posterior desmantelamiento o gestión de residuos. En todos estos pasos, las herramientas de simulación computacional juegan un papel esencial como guía para el diseño, apoyo durante la operación o predicción de la evolución isotópica de los materiales del reactor. Las constantes mejoras en cuanto a recursos computacionales desde mediados del siglo XX hasta este momento así como los avances en los métodos de cálculo utilizados, permiten tratar la complejidad de estas situaciones con un detalle cada vez mayor, que en ocasiones anteriores fue simplemente descartado por falta de capacidad de cálculo o herramientas adecuadas. El presente trabajo se centra en el desarrollo de un método de cálculo neutrónico para reactores de agua ligera basado en teoría de difusión corregida con un nivel de detalle hasta la barra de combustible, considerando un número de grupos de energía mayor que los tradicionales rápido y térmico, y modelando la geometría tridimensional del núcleo del reactor. La capacidad de simular tanto situaciones estacionarias con posible búsqueda de criticidad, como la evolución durante transitorios del flujo neutrónico ha sido incluida, junto con un algoritmo de cálculo de paso de tiempo adaptativo para mejorar el rendimiento de las simulaciones. Se ha llevado a cabo un estudio de optimización de los métodos de cálculo utilizados para resolver la ecuación de difusión, tanto en el lazo de iteración de fuente como en los métodos de resolución de sistemas lineales empleados en las iteraciones internas. Por otra parte, la cantidad de memoria y tiempo de computación necesarios para resolver problemas de núcleo completo en malla fina obliga a introducir un método de paralelización en el cálculo; habiéndose aplicado una descomposición en subdominios basada en el método alternante de Schwarz acompañada de una aceleración nodal. La aproximación de difusión debe ser corregida si se desea reproducir los valores con una precisión cercana a la obtenida con la ecuación de transporte. Los factores de discontinuidad de la interfase utilizados para esta corrección no pueden en la práctica ser calculados y almacenados para cada posible configuración de una barra de combustible de composición determinada en el interior del reactor. Por esta razón, se ha estudiado una parametrización del factor de discontinuidad según la vecindad que permitiría tratar este factor como una sección eficaz más, parametrizada en función de valores significativos del entorno de la barra de material. Por otro lado, también se ha contemplado el acoplamiento con códigos termohidráulicos, lo que permite realizar simulaciones multifísica y producir resultados más realistas. Teniendo en cuenta la demanda creciente de la industria nuclear para que los resultados realistas sean suministrados junto con sus márgenes de confianza, se ha desarrollado la posibilidad de obtener las sensibilidades de los resultados mediante el cálculo del flujo adjunto, para posteriormente propagar las incertidumbres de las secciones eficaces a los cálculos de núcleo completo. Todo este trabajo se ha integrado en el código COBAYA3 que forma parte de la plataforma de códigos desarrollada en el proyecto europeo NURESIM del 6º Programa Marco. Los desarrollos efectuados han sido verificados en cuanto a su capacidad para modelar el problema a tratar; y la implementación realizada en el código ha sido validada numéricamente frente a los datos del benchmark de transitorio accidental en un reactor PWR con combustible UO2/MOX de la Agencia de Energía Nuclear de la OCDE, así como frente a otros benchmarks de LWR definidos en los proyectos europeos NURESIM y NURISP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las técnicas SAR (Synthetic Aperture Radar, radar de apertura sintética) e ISAR (Inverse SAR, SAR inverso) son sistemas radar coherentes de alta resolución, capaces de proporcionar un mapa de la sección radar del blanco en el dominio espacial de distancia y acimut. El objetivo de ambas técnicas radica en conseguir una resolución acimutal más fina generando una apertura sintética a partir del movimiento relativo entre radar y blanco. Los radares imagen complementan la labor de los sistemas ópticos e infrarrojos convencionales, especialmente en condiciones meteorológicas adversas. Los sistemas SAR e ISAR convencionales se diseñan para iluminar blancos en situaciones de línea de vista entre sensor y blanco. Por este motivo, presentan un menor rendimiento en escenarios complejos, como por ejemplo en bosques o entornos urbanos, donde los retornos multitrayecto se superponen a los ecos directos procedentes de los blancos. Se conocen como "imágenes fantasma", puesto que enmascaran a los verdaderos blancos y dan lugar a una calidad visual pobre, complicando en gran medida la detección del blanco. El problema de la mitigación del multitrayecto en imágenes radar adquiere una relevancia teórica y práctica. En esta Tesis Doctoral, se hace uso del concepto de inversión temporal (Time Reversal, TR) para mejorar la calidad visual de las imágenes SAR e ISAR eliminando las "imágenes fantasma" originadas por la propagación multitrayecto (algoritmos TR-SAR y TR-ISAR, respectivamente). No obstante, previamente a la aplicación de estas innovadoras técnicas de mitigación del multi-trayecto, es necesario resolver el problema geométrico asociado al multitrayecto. Centrando la atención en la mejora de las prestaciones de TR-ISAR, se implementan una serie de técnicas de procesado de señal avanzadas antes y después de la etapa basada en inversión temporal (el eje central de esta Tesis). Las primeras (técnicas de pre-procesado) están relacionadas con el multilook averaging, las transformadas tiempo-frecuencia y la transformada de Radon, mientras que las segundas (técnicas de post-procesado) se componen de un conjunto de algoritmos de superresolución. En pocas palabras, todas ellas pueden verse como un valor añadido al concepto de TR, en lugar de ser consideradas como técnicas independientes. En resumen, la utilización del algoritmo diseñado basado en inversión temporal, junto con algunas de las técnicas de procesado de señal propuestas, no deben obviarse si se desean obtener imágenes ISAR de gran calidad en escenarios con mucho multitrayecto. De hecho, las imágenes resultantes pueden ser útiles para posteriores esquemas de reconocimiento automático de blancos (Automatic Target Recognition, ATR). Como prueba de concepto, se hace uso tanto de datos simulados como experimentales obtenidos a partir de radares de alta resolución con el fin de verificar los métodos propuestos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La propulsión eléctrica constituye hoy una tecnología muy competitiva y de gran proyección de futuro. Dentro de los diversos motores de plasma existentes, el motor de efecto Hall ha adquirido una gran madurez y constituye un medio de propulsión idóneo para un rango amplio de misiones. En la presente Tesis se estudian los motores Hall con geometría convencional y paredes dieléctricas. La compleja interacción entre los múltiples fenómenos físicos presentes hace que sea difícil la simulación del plasma en estos motores. Los modelos híbridos son los que representan un mejor compromiso entre precisión y tiempo de cálculo. Se basan en utilizar un modelo fluido para los electrones y algoritmos de dinámica de partículas PIC (Particle-In- Cell) para los iones y los neutros. Permiten hacer uso de la hipótesis de cuasineutralidad del plasma, a cambio de resolver separadamente las capas límite (o vainas) que se forman en torno a las paredes de la cámara. Partiendo de un código híbrido existente, llamado HPHall-2, el objetivo de la Tesis doctoral ha sido el desarrollo de un código híbrido avanzado que mejorara la simulación de la descarga de plasma en un motor de efecto Hall. Las actualizaciones y mejoras realizadas en las diferentes partes que componen el código comprenden tanto aspectos teóricos como numéricos. Fruto de la extensa revisión de la algoritmia del código HPHall-2 se han conseguido reducir los errores de precisión un orden de magnitud, y se ha incrementado notablemente su consistencia y robustez, permitiendo la simulación del motor en un amplio rango de condiciones. Algunos aspectos relevantes a destacar en el subcódigo de partículas son: la implementación de un nuevo algoritmo de pesado que permite determinar de forma más precisa el flujo de las magnitudes del plasma; la implementación de un nuevo algoritmo de control de población, que permite tener suficiente número de partículas cerca de las paredes de la cámara, donde los gradientes son mayores y las condiciones de cálculo son más críticas; las mejoras en los balances de masa y energía; y un mejor cálculo del campo eléctrico en una malla no uniforme. Merece especial atención el cumplimiento de la condición de Bohm en el borde de vaina, que en los códigos híbridos representa una condición de contorno necesaria para obtener una solución consistente con el modelo de interacción plasma-pared, y que en HPHall-2 aún no se había resuelto satisfactoriamente. En esta Tesis se ha implementado el criterio cinético de Bohm para una población de iones con diferentes cargas eléctricas y una gran dispersión de velocidades. En el código, el cumplimiento de la condición cinética de Bohm se consigue por medio de un algoritmo que introduce una fina capa de aceleración nocolisional adyacente a la vaina y mide adecuadamente el flujo de partículas en el espacio y en el tiempo. Las mejoras realizadas en el subcódigo de electrones incrementan la capacidad de simulación del código, especialmente en la región aguas abajo del motor, donde se simula la neutralización del chorro del plasma por medio de un modelo de cátodo volumétrico. Sin abordar el estudio detallado de la turbulencia del plasma, se implementan modelos sencillos de ajuste de la difusión anómala de Bohm, que permiten reproducir los valores experimentales del potencial y la temperatura del plasma, así como la corriente de descarga del motor. En cuanto a los aspectos teóricos, se hace especial énfasis en la interacción plasma-pared y en la dinámica de los electrones secundarios libres en el interior del plasma, cuestiones que representan hoy en día problemas abiertos en la simulación de los motores Hall. Los nuevos modelos desarrollados buscan una imagen más fiel a la realidad. Así, se implementa el modelo de vaina de termalización parcial, que considera una función de distribución no-Maxwelliana para los electrones primarios y contabiliza unas pérdidas energéticas más cercanas a la realidad. Respecto a los electrones secundarios, se realiza un estudio cinético simplificado para evaluar su grado de confinamiento en el plasma, y mediante un modelo fluido en el límite no-colisional, se determinan las densidades y energías de los electrones secundarios libres, así como su posible efecto en la ionización. El resultado obtenido muestra que los electrones secundarios se pierden en las paredes rápidamente, por lo que su efecto en el plasma es despreciable, no así en las vainas, donde determinan el salto de potencial. Por último, el trabajo teórico y de simulación numérica se complementa con el trabajo experimental realizado en el Pnnceton Plasma Physics Laboratory, en el que se analiza el interesante transitorio inicial que experimenta el motor en el proceso de arranque. Del estudio se extrae que la presencia de gases residuales adheridos a las paredes juegan un papel relevante, y se recomienda, en general, la purga completa del motor antes del modo normal de operación. El resultado final de la investigación muestra que el código híbrido desarrollado representa una buena herramienta de simulación de un motor Hall. Reproduce adecuadamente la física del motor, proporcionando resultados similares a los experimentales, y demuestra ser un buen laboratorio numérico para estudiar el plasma en el interior del motor. Abstract Electric propulsion is today a very competitive technology and has a great projection into the future. Among the various existing plasma thrusters, the Hall effect thruster has acquired a considerable maturity and constitutes an ideal means of propulsion for a wide range of missions. In the present Thesis only Hall thrusters with conventional geometry and dielectric walls are studied. The complex interaction between multiple physical phenomena makes difficult the plasma simulation in these engines. Hybrid models are those representing a better compromise between precision and computational cost. They use a fluid model for electrons and Particle-In-Cell (PIC) algorithms for ions and neutrals. The hypothesis of plasma quasineutrality is invoked, which requires to solve separately the sheaths formed around the chamber walls. On the basis of an existing hybrid code, called HPHall-2, the aim of this doctoral Thesis is to develop an advanced hybrid code that better simulates the plasma discharge in a Hall effect thruster. Updates and improvements of the code include both theoretical and numerical issues. The extensive revision of the algorithms has succeeded in reducing the accuracy errors in one order of magnitude, and the consistency and robustness of the code have been notably increased, allowing the simulation of the thruster in a wide range of conditions. The most relevant achievements related to the particle subcode are: the implementation of a new weighing algorithm that determines more accurately the plasma flux magnitudes; the implementation of a new algorithm to control the particle population, assuring enough number of particles near the chamber walls, where there are strong gradients and the conditions to perform good computations are more critical; improvements in the mass and energy balances; and a new algorithm to compute the electric field in a non-uniform mesh. It deserves special attention the fulfilment of the Bohm condition at the edge of the sheath, which represents a boundary condition necessary to match consistently the hybrid code solution with the plasma-wall interaction, and remained as a question unsatisfactory solved in the HPHall-2 code. In this Thesis, the kinetic Bohm criterion has been implemented for an ion particle population with different electric charges and a large dispersion in their velocities. In the code, the fulfilment of the kinetic Bohm condition is accomplished by an algorithm that introduces a thin non-collisional layer next to the sheaths, producing the ion acceleration, and measures properly the flux of particles in time and space. The improvements made in the electron subcode increase the code simulation capabilities, specially in the region downstream of the thruster, where the neutralization of the plasma jet is simulated using a volumetric cathode model. Without addressing the detailed study of the plasma turbulence, simple models for a parametric adjustment of the anomalous Bohm difussion are implemented in the code. They allow to reproduce the experimental values of the plasma potential and the electron temperature, as well as the discharge current of the thruster. Regarding the theoretical issues, special emphasis has been made in the plasma-wall interaction of the thruster and in the dynamics of free secondary electrons within the plasma, questions that still remain unsolved in the simulation of Hall thrusters. The new developed models look for results closer to reality, such as the partial thermalization sheath model, that assumes a non-Maxwellian distribution functions for primary electrons, and better computes the energy losses at the walls. The evaluation of secondary electrons confinement within the chamber is addressed by a simplified kinetic study; and using a collisionless fluid model, the densities and energies of free secondary electrons are computed, as well as their effect on the plasma ionization. Simulations show that secondary electrons are quickly lost at walls, with a negligible effect in the bulk of the plasma, but they determine the potential fall at sheaths. Finally, numerical simulation and theoretical work is complemented by the experimental work carried out at the Princeton Plasma Physics Laboratory, devoted to analyze the interesting transitional regime experienced by the thruster in the startup process. It is concluded that the gas impurities adhered to the thruster walls play a relevant role in the transitional regime and, as a general recomendation, a complete purge of the thruster before starting its normal mode of operation it is suggested. The final result of the research conducted in this Thesis shows that the developed code represents a good tool for the simulation of Hall thrusters. The code reproduces properly the physics of the thruster, with results similar to the experimental ones, and represents a good numerical laboratory to study the plasma inside the thruster.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de este artículo es el análisis lineal de estructuras laminares sometidas a excitaciones dinámicas con alto contenido en frecuencia. El método numérico propuesto utiliza para el modelado elementos continuos monodimensionales. La respuesta exacta de este tipo de elementos es conocida, y por lo tanto el método es más conveniente para este tipo de problemas que otros métodos convencionales basados en discretización espacial, por ejemplo el método de los elementos finitos (MEF), que precisarían de una malla muy fina para recoger adecuadamente los fenómenos de interés. El estudio aquí descrito se limita a estructuras axisimétricas con formas cilíndricas o cónicas. Se presentan criterios para modelar dichas estructuras mediante vigas sobre apoyo elástico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo realizado ha pretendido desarrollar y caracterizar una solución de revestimiento continuo interior con características de barrera de vapor e higroscopicidad. El objetivo ha sido desarrollar una solución de revestimiento continuo interior, capaz de reducir el riesgo de condensación intersticial en los cerramientos, manteniendo la capacidad de regulación de la humedad del ambiente interior. ESTUDIO DE ANTECEDENTES 1 La condensación intersticial La condensación intersticial se produce cuando la presión de vapor sobrepasa la presión de vapor de saturación en una de las capas internas del cerramiento. El vapor de agua se transfiere de los locales de mayor presión de vapor a los de menor presión. Para la situación de condensación intersticial, en la estación de calentamiento, las presiones de vapor son más elevadas en el interior del edificio que en el exterior. Entonces existe una transferencia de vapor del interior hacia el exterior y es en ese trayecto cuando pueden producirse las condensaciones intersticiales si éste alcanza la temperatura de rocío. Las consecuencias de la condensación intersticial pueden ser varias, desde la degradación de los materiales, como la corrosión de elementos metálicos; la pudrición de productos orgánicos naturales, como la madera, variaciones dimensionales de las fábricas de ladrillo con posibilidad de deformación del cerramiento y de fisuración de los revestimientos continuos. Pueden también producirse fenómenos de corrosión física provocados por la congelación del agua en los elementos porosos del cerramiento. Los revestimientos continuos pueden también estar sujetos a vegetaciones parasitarias por el exterior del cerramiento o de hongos por el interior, por transferencia del agua condensada a las superficies del cerramiento. Los hongos pueden provocar enfermedades principalmente respiratorias o alergias, al alterar la calidad del aire. La condensación intersticial se produce principalmente en situaciones de bajas temperaturas y elevados grados de humedad especifica exterior. Pero las condiciones de temperatura y principalmente de humedad especifica interior tienen también gran influencia en esta situación patológica. Las condiciones de humedad relativa interior dependen de muchos factores como el tipo y uso del edificio, y en caso de vivienda, del número de ocupantes, de las actividades que se desarrollan, pero esencialmente de la temperatura interior y del grado de ventilación. Las soluciones constructivas también tienen influencia en el riesgo de condensaciones. Las soluciones de cerramientos con aislamientos por el interior y con capas impermeables al vapor por el exterior son las más problemáticas. En esta solución constructiva extrema, tenemos prácticamente todo el cerramiento cerca de las temperaturas exteriores, con gran concentración de vapor de agua. El tipo de aislamiento también es importante, los aislamientos con gran desequilibrio higrotérmico, como las lanas minerales, de fibra de madera, o de fibras textiles, caracterizados por el elevado aislamiento y la elevada permeabilidad al vapor, son los que presentan mayor riesgo. Éstos permiten el paso del vapor y producen un salto acentuado de la temperatura. Su colocación por el interior de los cerramientos incrementa aún más el riesgo de condensaciones. Estos materiales de aislamiento también se caracterizan por tener una menor energía primaria asociada a su fabricación. Por lo tanto merecen una atención especial en la búsqueda de soluciones sostenibles. Así mismo, también puede existir riesgo de condensaciones con aquellos aislamientos de menor permeabilidad al vapor, como los poliméricos o las espumas de vidrio, pero deficientemente aplicados, permitiendo el paso del vapor de agua por las juntas o en los encuentros con forjados, pilares o huecos. La condensación de agua en los aislamientos caracterizados por una elevada permeabilidad al vapor es la situación más problemática porque, además de poder conducir a la pudrición de aislamientos de origen orgánico (como los de fibra de madera), conduce a una disminución del aislamiento del cerramiento y al consecuente incremento del consumo de energía en la obtención del confort térmico. Existen un conjunto de reglas y de soluciones constructivas que pueden reducir el riesgo de condensaciones intersticiales como la colocación de materiales sucesivamente más permeables al vapor, o más aislantes, del interior al exterior. XXXIII Revestimientos exteriores discontinuos y ventilados y aislamientos aplicados por el exterior es la solución extrema de este principio. La aplicación de aislamientos impermeables al vapor es otra solución, siendo necesario que se garantice que las juntas de las placas del aislamiento sean estancas, así como los encuentros con los forjados, pilares y huecos. Otra solución es la aplicación de cerramientos dobles con cámara de aire ventilada, teniendo el cuidado de ventilar solamente la parte fría del cerramiento. Es necesario en estas situaciones, que se garantice que el aislamiento se encuentra aplicado en la cara exterior del ladrillo interior del cerramiento. También es importante controlar el grado de ventilación de la cámara para que no se produzca la pérdida de la resistencia térmica de la hoja de ladrillo exterior. La aplicación de barreras de vapor en la parte caliente del cerramiento es una solución que garantiza la reducción del flujo del vapor del interior hacia el exterior y consecuentemente contribuye a la reducción de la presión de vapor en su lado exterior y en la parte fría del cerramiento. 2 La normativa La normativa española, el Código Técnico de la Edificación de 2006, en su capítulo Ahorro de Energía, establece que no está permitida en ninguna situación, la condensación en el aislamiento. Todavía existiendo condensaciones en otras capas del cerramiento, en la estación de calentamiento, éstas no pueden ser mayores que la evaporación en la estación de enfriamiento. La misma normativa determina que si existe una barrera de vapor en la parte caliente del cerramiento no será necesario comprobar las condiciones anteriores. La normativa portuguesa, el Regulamento das Características do Comportamento Térmico dos Edifícios, de 2006, no tiene ninguna exigencia relativa a las condensaciones intersticiales. Sus autores defienden que en Portugal no es un fenómeno que pueda tener consecuencias graves en los elementos constructivos o en el consumo de energía. En la norma EN 13788 de 2001 están definidos los métodos más comunes de verificación de las condensaciones y de la evaporación y están basados en el Diagrama de Glaser. En base a esta norma es posible verificar el riesgo de condensaciones superficiales y la posibilidad de desarrollo de hongos en la superficie interior del cerramiento. Pero también permite evaluar el riesgo de condensaciones debido a la difusión de vapor de agua. En este método se considera que el agua incorporada en la construcción ha secado, y es aplicable en situaciones en que sean insignificantes los fenómenos de alteración de conductividad térmica con la humedad, la liberación y absorción de calor, alteración de las propiedades de los materiales con la humedad, succión capilar y transferencia de humedad líquida en los materiales, circulación de aire a través de grietas, y la capacidad higroscópica en los materiales. Me resulta extraño que la misma norma establezca que el método no debe ser utilizado para la comprobación de la existencia de condensaciones, sino solamente como método comparativo de diferentes soluciones constructivas o condiciones ambientales. Más recientemente, con la norma EN 15026 de 2007, se ha introducido una alteración en el método de verificación. Mientras que en base a la norma 13788 la verificación se realiza en régimen estacionario, y solamente considerando algunas propiedades de los materiales como la resistencia térmica (R) y el coeficiente de resistencia a la difusión de vapor de agua (μ), la norma EN 15026, determina que se realice en régimen variable y que otros fenómenos físicos sean considerados. Con respecto a la temperatura, el almacenamiento de calor en materiales secos o húmedos, la transferencia de calor con la transmitancia térmica dependiente de la cantidad de agua presente en los materiales, transferencia de calor latente por difusión de vapor de agua con cambio de fase. Con respecto a la humedad, el almacenamiento de humedad por adsorción y desorción de vapor de agua y fuerzas capilares. Transporte de humedad por difusión de vapor de agua, transporte de agua líquida por difusión de superficie y conducción capilar. 3 Barreras de vapor Las barreras de vapor se caracterizan por una reducida permeancia al vapor, que de acuerdo con la normativa española NBE 79 es inferior a 0,1g /MNs o resistencia superior a 10 MNs/g. (o permeancia inferior a 1,152 g/mmHg, o resistencia al vapor mayor que 0,86 mmHg∙m2∙día /g). Esta permeancia al vapor corresponde a una capa de aire de difusión equivalente (Sd) de 215 cm o 2,15 metros. XXXV Todos los materiales pueden alcanzar estos valores de resistencia al vapor siempre que se utilicen con grandes espesores, pero los que más interesan son los que puedan tener esa característica con pequeños espesores. Existen otras clasificaciones, como la del CSTC de la Bélgica que divide los materiales de acuerdo a su permeancia al vapor. Están definidas 4 categorías de barreras de vapor E1, E2, E3, E4. La categoría E1 para los materiales con - Sd entre 2 y 5 metros, E2 – con Sd entre 5 y 25 metros y 3 - con Sd entre 25 y 200 metros y finalmente E4 para valores de Sd superiores a 200 metros. Estos materiales pueden ser de diferentes tipos, y con diferentes aplicaciones. Las pinturas al esmalte o emulsiones bituminosas, los films de polietileno o de aluminio, y las membranas de betún o vinílicas son algunos ejemplos de productos con estas características y que se utilizan con ese fin. Su aplicación puede realizarse en la superficie interior del cerramiento como las pinturas al esmalte o en la cámara de aire como los otros tipos mencionados anteriormente. En todo caso deben ser colocados en la parte caliente del cerramiento, por el interior del aislamiento. Las pinturas al esmalte, los barnices, o las membranas vinílicas, cuando son aplicados sobre el revestimiento interior, presentan el problema de quitar la capacidad higroscópica del revestimiento, sea de yeso, mortero de cemento o incluso de madera. Las emulsiones de betún o las membranas de betún son generalmente aplicadas en la cara exterior de la hoja interior del cerramiento, cuando existe cámara de aire, por lo que necesitan ser aplicadas por el exterior del edificio y obligan a que la ejecución de la hoja de ladrillo de fuera sea hecha también por el exterior, con las condiciones de seguridad y de costo asociadas. Los films de aluminio o de polietileno presentan problemas de aplicación como la garantía de estanquidad, por no ser continuos, y por que el sistema de fijación poder no garantizarla. Las soluciones que parecen garantizar una mejor estanquidad y menor costo son las aplicaciones de barreras de vapor continuas y aplicadas por el interior del cerramiento, como la pintura al esmalte. Sin embargo, como ya se ha comentado con anterioridad, pueden reducir la capacidad higroscópica de los cerramientos y la inercia higroscópica de las construcciones. 4 La importancia de la capacidad higroscópica El agua actúa como un pequeño imán y es atraída por varios materiales en estado líquido o gaseoso. Muchos materiales son capaces de contener moléculas de vapor de aire, llamándose este fenómeno adsorción y ocurre en los materiales llamados hidrófilos. La capacidad de los materiales de variar su contenido de humedad con la humedad relativa del aire se llama capacidad higroscópica. La capacidad higroscópica de los materiales de revestimiento es importante por permitir la adsorción y desadsorción de agua en estado de vapor y así permitir la regulación de la humedad del ambiente interior, adsorbiendo cuando la humedad relativa del aire es elevada y desorbiendo cuando la humedad relativa es baja. De acuerdo con los datos del Fraunhofer Institut y para valores de humedad por unidad de volumen (Kg/m3), el revestimiento de yeso no es el producto que presenta una mejor capacidad higroscópica, comparado por ejemplo con los revocos de cemento. Para valores de humedad relativa del 50%, el revestimiento de yeso presenta valores de contenido de humedad de 3,6 g/m3, el revoco de cemento 9,66 g/m3, y el revestimiento acrílico de acabado de 2,7 g/m3. Para una humedad relativa del 95% y por tanto aún en el rango higroscópico, los valores para los mismos morteros son de 19 g/m3, 113,19 g/m3 y 34,55 g/m3, respectivamente. Para una humedad relativa del 100% y por tanto en el rango por encima de la saturación capilar, en la saturación máxima, los valores son de 400 g/m3, 280 g/m3 y 100 g/m3 respectivamente. Solo para valores de humedad relativa del 100% es posible verificar un contenido de humedad del revestimiento de yeso superior al del revoco de cemento. La inercia higroscópica permite que las variaciones de la humedad relativa del aire en una habitación, tenga una atenuación de los picos diarios pudiendo contribuir para el confort y para la disminución de los costos energéticos a él asociados. Puede también XXXVII tener un efecto a largo plazo traducido en alteraciones de las medias mensuales en los meses de inicio y de fin de ciclos estacionales, de variación de la humedad relativa. Estos son los fundamentos que han llevado al desarrollo de soluciones de revestimientos continuos interiores con características de barrera de vapor e higroscopicidad. ESTUDIO EXPERIMENTAL El estudio experimental consta de dos partes: - permeabilidad al vapor e capacidad higroscópica de materiales y productos - adherencia de revestimientos predosificados de yeso a capas impermeables al vapor. 1- Materiales y métodos I. Permeabilidad al vapor y capacidad higroscópica de materiales y productos El desarrollo de esta solución de revestimiento ha comenzado por el estudio de las características de permeabilidad al vapor y de capacidad higroscópica de los materiales y productos utilizados en los revestimientos continuos de cerramientos. Los primeros ensayos han sido realizados en el periodo de docencia del Curso de Doctorado en la asignatura de Aplicaciones Actuales de Conglomerantes Tradicionales, del Profesor Luis de Villanueva Domínguez, y han permitido el primer contacto con los métodos de ensayos y el conocimiento de las normas aplicables. En el trabajo de investigación realizado en la asignatura, se ha ensayado la permeabilidad al vapor e la capacidad higroscópica de morteros de revestimiento, de conglomerantes tradicionales Los materiales y productos ensayados, en ese primer trabajo experimental, han sido, mortero de escayola y cal aérea, yeso de proyectar, mortero de cal aérea y arena, mortero de cal hidráulica y arena, mortero de cemento y arena, mortero de cemento y arena con aditivos impermeabilizantes y morteros impermeabilizantes a base de cemento. En el periodo de investigación del Curso de Doctorado han sido ensayados otros materiales y productos. También con la orientación del Catedrático Luis de Villanueva Domínguez se ha desarrollado el Trabajo Tutelado en el cual se han ensayado materiales y productos de revestimiento continuo de conglomerantes no tradicionales, yesos puros con adiciones naturales, yesos de proyectar con adiciones sintéticas y capas peliculares de diferente origen. De los productos de origen sintético se ha ensayado la permeabilidad al vapor y capacidad higroscópica de estucos acrílicos de relleno (Matesica), estucos acrílicos de acabado (Matesica), mortero sintético de relleno/acabado para exterior o interior (Matesica), mortero sintético de acabado para exterior (Weber), mortero epoxi de relleno y acabado para interior (Gobbetto), morteros de agarre (BASF y Matesica), mortero de reparación de cemento (Weber), mortero de reparación de yeso (Weber). Se ha ensayado también la permeabilidad al vapor de capas peliculares continuas de diferentes orígenes, como aceite de linaza hervido, cera de abeja diluida en esencia de trementina, emulsión bituminosa (Shell), emulsión bituminosa con polímero (BASF), imprimación epoxídica con cemento (BASF), pintura epoxídica (Matesica), pintura anticarbonatación (BASF), estuco Veneciano de cal (La Calce de la Brenta), estuco Veneciano sintético (Gobbetto) e impermeabilización líquida (Weber). Han sido ensayadas también la permeabilidad al vapor y la capacidad higroscópica de yesos puros (portugueses) sin adiciones y con aditivos naturales (cal aérea hidratada 1/1, cola de pescado y cola de conejo). Los yesos de proyectar han sido ensayados sin adiciones y con adiciones de látex SBR (BASF), acrílico (Weber) y epoxi (Matesica). II Adherencia de revestimientos predosificados de yeso a capas impermeables al vapor Como ya se ha dicho anteriormente, hasta una humedad relativa por debajo del 95%, el revestimiento de yeso tiene una capacidad higroscópica inferior al revoco de cemento y al revestimiento acrílico de acabado. Se ha elegido, de acuerdo con el profesor Luis de Villanueva Domínguez, este producto como capa higroscópica del esquema de revestimiento. Las cuestiones de tradición cultural, de abundancia de materia prima en la Península Ibérica, esencialmente en España, y los menores costos energéticos asociados a su fabricación, determinan el origen de esta decisión. Para la producción de 1 m3 de XXXIX cemento son necesarios 12600 MJ, mientras que para 1 m3 de yeso son necesarios solamente 2640 MJ. Pero el yeso presenta otras características mejores que los morteros de cemento, como la menor densidad, menor conductividad térmica y menor efusividad térmica. La mejor capacidad de absorción de agua en la fase líquida por capilaridad, que el mortero de cemento, es otra de las ventajas de los revestimientos de yeso que en situaciones de condensación superficial interior puede evitar el goteo. El paso siguiente ha sido ensayar la adherencia de un revestimiento predosificado de yeso a las capas que han presentado característica de barrera de vapor con espesores hasta 6 mm, así como en aquellas en que los fabricantes recomiendan menores espesores, como el mortero epoxi de relleno y acabado y el mortero sintético de acabado. Se ha utilizado un revestimiento de yeso predosificado de aplicación manual, portugués. La elección de un producto de aplicación manual se ha debido a la dificultad de obtener la aplicación por proyección en el local donde se han hecho las muestras, el taller de la Faculdade de Arquitectura da Universidade Técnica de Lisboa. Se ha aplicado con espesor de 2 cm sobre las capas de aceite de linaza hervido, emulsión de bituminosa, imprimación epoxídica con cemento, pintura epoxídica, impermeabilización líquida, mortero epoxi de relleno y acabado, mortero sintético de acabado. Verificando que ninguno de los materiales que han presentado características de barrera de vapor hasta espesores de 0,6 mm proporcionaban una adherencia al revestimiento de yeso capaz de garantizar el cumplimento de todas las exigencias, se ha decidido elegir los materiales impermeables al vapor más finos y con diferentes orígenes para desarrollar los estudios de mejora de la adherencia. Ha sido necesario desarrollar un conjunto de experimentos con el objetivo de incrementar la adherencia del revestimiento de yeso a estos soportes no absorbentes. La adherencia de los revestimientos continuos de conglomerantes tradicionales, como el yeso sobre soportes absorbentes, se basa en una adherencia mecánica. En este caso los cristales de yeso se van a formar dentro de la red capilar del ladrillo cerámico o del hormigón. Aplicando una barrera de vapor sobre ellos, se elimina esta posibilidad por aplicarse una barrera entre la estructura porosa del soporte (ladrillo u hormigón) y el revestimiento de yeso. Se tiene que producir otro tipo de adherencia, la adherencia química. Esta adherencia se basa en los enlaces químicos, de tipo secundario, como los puentes de hidrógeno o las fuerzas bipolares de Van der Waals. Aunque este tipo de adherencia es menor que la que se produce sobre soportes absorbentes, puede alcanzar valores considerables. Los materiales impermeables al vapor elegidos han sido el aceite de linaza hervido, la emulsión bituminosa y la imprimación epoxi con cemento. A estos materiales de origen natural, artificial e sintético, han sido aplicadas capas intermedias de arena de sílice, mortero de cemento y arena, mortero de agarre y un puente de adherencia de acuerdo con las recomendaciones de Eurogypsum. La capa de arena ha sido aplicada con la última mano aún fresca, mientras que las otras capas intermedias han sido aplicadas con las capas impermeables al vapor ya secas. Las capas intermedias aplicadas han sido: - al aceite de linaza hervido - arena de sílice y puente de adherencia. - a la emulsión bituminosa - arena de sílice, mortero de cemento y arena 1:1 y puente de adherencia - a la capa de imprimación epoxídica con cemento - arena de sílice, mortero de agarre y puente de adherencia. El revestimiento de yeso utilizado ha sido un yeso predosificado de aplicación manual, de origen español, y se ha aplicado con un espesor de 2 centímetros. Para la capa intermedia de puente de adherencia y siguiendo la recomendación del fabricante, se ha añadido un látex de SBR (con relación látex/agua de 1/2) al revestimiento de yeso. Otra experimentación realizada ha sido la adición del látex SBR al revestimiento de yeso y su aplicación directamente sobre cada una de las capas impermeables al vapor, y a cada una de las capas intermedias aplicadas sobre las capas impermeables al vapor. XLI La aplicación del látex en las proporciones de 1/2, de relación látex/agua, puede cambiar algunas propiedades del revestimiento de yeso en pasta, en relación a su aplicación, o tiempo de inicio o fin de fraguado, e incluso tener influencia en el costo final del revestimiento. Puesto que la adherencia del revestimiento de yeso con adición del látex a la capa intermedia de puente de adherencia ha sido muy superior a las exigencias más estrictas, se ha realizado un ensayo, pero sin la adición del látex. Este ensayo se ha realizado aplicando el revestimiento de yeso sobre las capas de puente de adherencia anteriormente aplicadas sobre las capas impermeables al vapor, descritas con anterioridad. Se ha aplicado ahora un revestimiento de yeso predosificado también de aplicación manual, pero de origen portugués. Para garantizar el cumplimiento integral de la exigencia de adherencia de 0,5 MPa, se ha hecho otro ensayo con una menor adición de látex de SBR al yeso predosificado. Se ha aplicado el látex con una relación látex/agua de 1/3 y 1/4. 2 Resultados y discusión I. Permeabilidad al vapor y capacidad higroscópica de materiales y productos En el primer ensayo de permeabilidad al vapor se concluyó que ninguno de los productos ensayados puede constituir barrera de vapor en espesores hasta 2 cm. y que lo que ha presentado mayor resistividad al vapor ha sido el mortero impermeabilizante de capa fina. Tendría que tener un espesor próximo a los 14,12 cm para poder constituir barrera de vapor. En los ensayos de capacidad higroscópica, realizados solamente para humedades relativas del 50% y 95% a temperaturas de 23ºC, el mortero de escayola y cal aérea y el yeso de proyectar han presentado una capacidad higroscópica bastante elevada, pero como el secado ha sido realizado a 100º C (lo que no es la temperatura adecuada para los productos a base de yeso por poder éstos sufrir una deshidratación y un cambio en su constitución) los resultados no pueden ser considerados. El mortero de impermeabilización de capa fina también ha presentado una buena capacidad higroscópica, mejor que el mortero de cemento y arena, y éste mejor que el mortero de cal hidráulica y arena, y éste mejor que el mortero de cal aérea y arena. La adición de aditivos impermeabilizantes no ha cambiado significativamente esta característica. Como resultado de los segundos ensayos se ha concluido que existen diferentes materiales y productos que pueden constituir barrera de vapor con diferentes espesores. Los productos estuco acrílico de relleno, estuco sintético de acabado, mortero sintético de acabado para exterior, mortero epoxi de relleno y acabado, han presentado características de barrera de vapor con espesores hasta 2 cm, sin embargo, son espesores superiores a los recomendados por los fabricantes de los productos. De los productos peliculares, han constituido barrera de vapor, el aceite de linaza hervido (con valores muy próximos), la emulsión bituminosa sin polímero, la imprimación epoxídica con cemento, la pintura epoxídica y la impermeabilización líquida. Todos los demás productos ensayados no han presentado esa característica cuando aplicados en tres manos. Los yesos puros con adiciones naturales y los yesos de proyectar con adiciones sintéticas no han presentado características de barrera de vapor en espesores hasta dos centímetros. El mejor resultado ha sido el del yeso puro con adición de cola de pescado, que ha presentado característica de barrera de vapor con espesor de 16,32 cm. En cuanto a la capacidad higroscópica de los materiales y productos, el ensayo ha sido repetido recientemente con las mismas muestras, porque en el ensayo realizado para el Trabajo Tutelado no fue posible una correcta caracterización. En ese ensayo solo se han obtenido los valores de capacidad higroscópica para valores de humedad del 50 % ± 3 a temperatura de 23 ºC ± 2 por no disponerse de los medios necesarios para un estudio más completo. En el ensayo realizado recientemente en el Laboratório Nacional de Engenharia Civil de Portugal (LNEC), se ha utilizado una cámara climática, con control de temperatura y humedad relativa, y se han obtenido los valores de capacidad higroscópica para valores de humedad relativa del 25%, 50%, 75% y 95% a temperatura constante de 23º C. XLIII En ese último ensayo se ha verificado que para humedades relativas del 50 %, los yesos predosificados de aplicación manual, portugueses y españoles, tienen diferentes capacidades higroscópicas. Los yesos españoles han presentado una capacidad higroscópica de 0,2 % y el portugués de 0,05 %. La adición de látex de SRB no ha reducido la capacidad higroscópica del yeso predosificado español. Los valores se han mantenido próximos para las relaciones látex/agua de 1/4, 1/3 y 1/2, con 0,2 %. Para valores de capacidad higroscópica por volumen se ha verificado que la adición de látex incrementa la capacidad higroscópica, estableciéndose que los valores para el yeso español sin látex han sido de 2,2 g/dm3 y para los yesos con adición de látex han sido de cerca de 2,5 g/dm3. Para este valor de humedad relativa otros productos han presentado mayor capacidad higroscópica, como el yeso puro con cola de pescado con 5,1 g/dm3.Para morteros ensayados con espesores de 0,6 cm, el mortero de reparación de yeso ha presentado un valor de capacidad higroscópica de 4,1 g/dm3 y el mortero de agarre (BASF) ha presentado el valor de 4,6 g/dm3. Para valores de humedad relativa del 95 %, la capacidad higroscópica presentada por el yeso predosificado español ha sido de 1 % y por el portugués ha sido de 0,27 %. La adición de látex tampoco aquí ha alterado la capacidad higroscópica. Las pequeñas diferencia registradas pueden deberse al diferente tiempo en que se han realizado los pesajes, por existir ya mucha agua libre. Para valores de capacidad higroscópica por volumen se ha verificado que la adición de látex incrementa la capacidad higroscópica, estableciéndose que los valores para el yeso español sin látex han sido de 10,6 g/dm3 y para los yesos con adición de látex han sido de cerca de 11,60 g/dm3 para látex/agua de 1/4, 13,77 g/dm3 para látex/agua de 1/3 y 12,20 g/dm3 para látex/agua de 1/2. Para este valor de humedad relativa, otros productos han presentado mayor capacidad higroscópica, y superiores al yeso predosificado de aplicación manual español. El yeso predosificado de proyectar con adición de látex acrílico (Weber), con 14,1 g/dm3, el yeso puro con cola de pescado con 17,8 g/dm3, el yeso puro cal aérea hidratada con 18,3 g/dm3. Para los morteros ensayados con espesores de 0,6 cm, el mortero de agarre Matesica con valor 17,7 g/dm3, el mortero de reparación de yeso con valores de 31,2 g/dm3 y el mortero de agarre BASF con valores de 48,8 g/dm3. Este ultimo valor debería ser verificado por haberse podido producir un error en la cantidad de agua suministrada. XLIV II Adherencia de revestimientos predosificados de yeso a capas impermeables al vapor Realizado el ensayo de adherencia del revestimiento de yeso predosificado aplicado sobre las capas que han constituido barrera de vapor con espesor hasta 6 mm, se ha verificado que los valores requeridos por la norma europea EN 13279 de 2005, con valores de adherencia ≥ 0,1 MPa o rotura cohesiva por el soporte, solo no han sido satisfechos por la pintura epoxídica y por el revestimiento sintético de acabado. Todavía los valores de adherencia no han alcanzado los valores exigidos por las exigencias complementarias del Laboratório Nacional de Engenharia de Portugal (LNEC) o las exigencias españolas. Las exigencias del LNEC, determinan una adherencia ≥ 0,5 MPa, o una ruptura cohesiva. Las exigencias españolas determinan que la adherencia debe ser determinada por la rotura del revestimiento. La solución de revestimiento que mejor resultado ha presentado ha sido la del revestimiento predosificado de yeso aplicado sobre la capa de aceite de linaza hervido, con una adherencia de 0,324 MPa. También se ha ensayado la aplicación de una capa intermedia de mortero de agarre entre las capas impermeables al vapor de imprimación epoxídica y pintura epoxídica. Los resultados obtenidos han sido de 0,21 MPa y de 0,25 MPa respectivamente. De los valores obtenidos en el ensayo de adherencia del revestimiento de yeso predosificado a las capas peliculares elegidas que han constituido barrera de vapor cuando aplicadas en tres manos, solo algunas de las soluciones con adición de látex al yeso han cumplido las exigencias más estrictas. Éstas han sido las capas impermeables al vapor constituidas por emulsión bituminosa e imprimación epoxi con cemento. Las capas intermedias de arena de sílice sobre la emulsión bituminosa y sobre la imprimación epoxi también han cumplido. Las capas intermedias de mortero de cemento sobre emulsión bituminosa, y mortero de agarre sobre imprimación epoxi con cemento también han cumplido. El puente de adherencia sobre emulsión bituminosa e imprimación epoxídica con cemento, han presentado valores muy elevados de adherencia del revestimiento de XLV yeso. Los valores obtenidos han sido tres veces superiores a las exigencias más estrictas. Los valores obtenidos en el ensayo de adherencia del revestimiento de yeso predosificado sobre el puente adherencia aplicado sobre las capas peliculares impermeables al vapor han sido muy cercanos a la exigencia del Laboratório Nacional de Engenharia Civil de Portugal. Presentan una media de 0,456 MPa. Los valores más bajos han sido para la solución de capa impermeable al vapor constituida por aceite de linaza hervido, con el valor de 0,418 MPa. El valor más elevado ha sido para la solución de capa impermeable al vapor constituida por imprimación epoxídica con cemento, con el valor de adherencia de 0,484 MPa. Los valores obtenidos con las capas impermeables al vapor constituidas por aceite de linaza hervido han presentado roturas siempre adhesivas, o en su capa, pero con valores muy diferentes. Los valores de mayor adherencia se han producido con las capas de aceite con mayor tiempo de secado. En el ensayo de adherencia del revestimiento de yeso predosificado con adición de látex con relación agua/látex de 1/3 y 1/4, aplicado sobre el puente de adherencia, aplicado sobre la capa de imprimación epoxi se ha verificado que la solución con relación látex/agua de 1/4 ha superado la exigencia de 0,5 MPa en un 50 %. Esto resultado quiere decir que es posible aplicar una relación de látex/agua aún inferior. PRINCIPALES CONCLUSIONES Como principales conclusiones del estudio experimental podemos decir que es posible obtener un revestimiento continuo interior impermeable al vapor e higroscópico. Se pueden obtener con capas impermeables al vapor de aceite de linaza hervido (debidamente seco), emulsión bituminosa o con imprimación epoxídica con cemento, aplicadas directamente sobre el ladrillo. Como capa higroscópica se puede aplicar un revestimiento de yeso predosificado, no obstante sea menos higroscópico que un revestimiento de mortero de cemento y arena (hasta humedades relativas del 95%). La adherencia entre la capa impermeable al vapor y el revestimiento de yeso predosificado, puede conseguirse con un puente de adherencia entre las dos capas anteriormente descritas. Si la adherencia del yeso no fuera capaz de cumplir las exigencias más estrictas (0,5 MPa) puede añadirse un látex de SBR al yeso en una relación de látex agua de 1/4. Esa adición permite una adherencia un 50 % superior a las exigencias más estrictas, por lo que se pueden ensayar relaciones aún menores de L/A. Estas adiciones no restan capacidad higroscópica al revestimiento, pudiendo incluso incrementarla (para humedades relativas del 25% al 95%) con beneficio para la inercia higroscópica del edificio donde fuese aplicado. Con respecto a la influencia de la solución de revestimiento propuesta en el riesgo de condensaciones intersticiales, se puede decir que no ha sido posible observar una diferencia significativa en las simulaciones realizadas, entre la aplicación del revestimiento y su no aplicación. Las simulaciones han sido realizadas con la aplicación informática Wufi 5 Pro, que respeta la normativa más reciente relativa a las condensaciones intersticiales. Comparando con la solución tradicional de aplicación de barrera de vapor en la cámara de aire, tampoco se han verificado grandes diferencias. Cabe destacar que esta solución tradicional no ha presentado diferencias en relación a la no aplicación de barrera de vapor. Estas simulaciones contradicen lo comúnmente establecido hasta ahora, que es considerar que la aplicación de barreras de vapor en la parte caliente del cerramiento reduce considerablemente el riesgo de condensaciones intersticiales. Estas simulaciones han sido realizadas considerando que la fracción de lluvia adherida al cerramiento seria la correspondiente a la solución constructiva y a su inclinación. En la definición del componente pared del cerramiento no existe la posibilidad de colocar la capa de pintura exterior. Considerando la hipótesis de que con la capa de pintura exterior, no existe absorción de agua de lluvia, en esta solución constructiva, los valores obtenidos han cambiado considerablemente. El contenido total de agua en el elemento ha sido menor en la solución con barrera de vapor en el revestimiento (pico máximo de 1 Kg/m2), seguido de la solución de barrera de vapor en la cámara de aire (pico máximo de 1,4 Kg/m2) y esto menor que la solución sin barrera de vapor (pico máximo de 1,8 Kg/m2). El contenido de agua en la lana de roca también ha sido menor en la solución con barrera de vapor en el revestimiento interior (pico máximo de 1,15 %), seguido de la solución con barrera de vapor en la cámara de aire (pico máximo de 1,5 %). y esto menor que la solución sin barrera de vapor (pico máximo de 1,62 %).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal del presente trabajo es estudiar y explotar estructuras que presentan un gas bidimensional de electrones (2DEG) basadas en compuestos nitruros con alto contenido de indio. Existen muchas preguntas abiertas, relacionadas con el nitruro de indio y sus aleaciones, algunas de las cuales se han abordado en este estudio. En particular, se han investigado temas relacionados con el análisis y la tecnología del material, tanto para el InN y heteroestructuras de InAl(Ga)N/GaN como para sus aplicaciones a dispositivos avanzados. Después de un análisis de la dependencia de las propiedades del InN con respecto a tratamientos de procesado de dispositivos (plasma y térmicos), el problema relacionado con la formación de un contacto rectificador es considerado. Concretamente, su dificultad es debida a la presencia de acumulación de electrones superficiales en la forma de un gas bidimensional de electrones, debido al pinning del nivel de Fermi. El uso de métodos electroquímicos, comparados con técnicas propias de la microelectrónica, ha ayudado para la realización de esta tarea. En particular, se ha conseguido lamodulación de la acumulación de electrones con éxito. En heteroestructuras como InAl(Ga)N/GaN, el gas bidimensional está presente en la intercara entre GaN y InAl(Ga)N, aunque no haya polarización externa (estructuras modo on). La tecnología relacionada con la fabricación de transistores de alta movilidad en modo off (E-mode) es investigada. Se utiliza un método de ataque húmedo mediante una solución de contenido alcalino, estudiando las modificaciones estructurales que sufre la barrera. En este sentido, la necesidad de un control preciso sobre el material atacado es fundamental para obtener una estructura recessed para aplicaciones a transistores, con densidad de defectos e inhomogeneidad mínimos. La dependencia de la velocidad de ataque de las propiedades de las muestras antes del tratamiento es observada y comentada. Se presentan también investigaciones relacionadas con las propiedades básicas del InN. Gracias al uso de una puerta a través de un electrolito, el desplazamiento de los picos obtenidos por espectroscopia Raman es correlacionado con una variación de la densidad de electrones superficiales. En lo que concierne la aplicación a dispositivos, debido al estado de la tecnología actual y a la calidad del material InN, todavía no apto para dispositivos, la tesis se enfoca a la aplicación de heteroestructuras de InAl(Ga)N/GaN. Gracias a las ventajas de una barrera muy fina, comparada con la tecnología de AlGaN/GaN, el uso de esta estructura es adecuado para aplicaciones que requieren una elevada sensibilidad, estando el canal 2DEG más cerca de la superficie. De hecho, la sensibilidad obtenida en sensores de pH es comparable al estado del arte en términos de variaciones de potencial superficial, y, debido al poco espesor de la barrera, la variación de la corriente con el pH puede ser medida sin necesidad de un electrodo de referencia externo. Además, estructuras fotoconductivas basadas en un gas bidimensional presentan alta ganancia debida al elevado campo eléctrico en la intercara, que induce una elevada fuerza de separación entre hueco y electrón generados por absorción de luz. El uso de metalizaciones de tipo Schottky (fotodiodos Schottky y metal-semiconductormetal) reduce la corriente de oscuridad, en comparación con los fotoconductores. Además, la barrera delgada aumenta la eficiencia de extracción de los portadores. En consecuencia, se obtiene ganancia en todos los dispositivos analizados basados en heteroestructuras de InAl(Ga)N/GaN. Aunque presentando fotoconductividad persistente (PPC), los dispositivos resultan más rápidos con respeto a los valores que se dan en la literatura acerca de PPC en sistemas fotoconductivos. ABSTRACT The main objective of the present work is to study and exploit the two-dimensionalelectron- gas (2DEG) structures based on In-related nitride compounds. Many open questions are analyzed. In particular, technology and material-related topics are the focus of interest regarding both InNmaterial and InAl(Ga)N/GaNheterostructures (HSs) as well as their application to advanced devices. After the analysis of the dependence of InN properties on processing treatments (plasma-based and thermal), the problemof electrical blocking behaviour is taken into consideration. In particular its difficulty is due to the presence of a surface electron accumulation (SEA) in the form of a 2DEG, due to Fermi level pinning. The use of electrochemical methods, compared to standard microelectronic techniques, helped in the successful realization of this task. In particular, reversible modulation of SEA is accomplished. In heterostructures such as InAl(Ga)N/GaN, the 2DEGis present at the interface between GaN and InAl(Ga)N even without an external bias (normally-on structures). The technology related to the fabrication of normally off (E-mode) high-electron-mobility transistors (HEMTs) is investigated in heterostructures. An alkali-based wet-etching method is analysed, standing out the structural modifications the barrier underwent. The need of a precise control of the etched material is crucial, in this sense, to obtain a recessed structure for HEMT application with the lowest defect density and inhomogeneity. The dependence of the etch rate on the as-grown properties is observed and commented. Fundamental investigation related to InNis presented, related to the physics of this degeneratematerial. With the help of electrolyte gating (EG), the shift in Raman peaks is correlated to a variation in surface eletron density. As far as the application to device is concerned, due to the actual state of the technology and material quality of InN, not suitable for working devices yet, the focus is directed to the applications of InAl(Ga)N/GaN HSs. Due to the advantages of a very thin barrier layer, compared to standard AlGaN/GaN technology, the use of this structure is suitable for high sensitivity applications being the 2DEG channel closer to the surface. In fact, pH sensitivity obtained is comparable to the state-of-the-art in terms of surface potential variations, and, due to the ultrathin barrier, the current variation with pH can be recorded with no need of the external reference electrode. Moreover, 2DEG photoconductive structures present a high photoconductive gain duemostly to the high electric field at the interface,and hence a high separation strength of photogenerated electron and hole. The use of Schottky metallizations (Schottky photodiode and metal-semiconductor-metal) reduce the dark current, compared to photoconduction, and the thin barrier helps to increase the extraction efficiency. Gain is obtained in all the device structures investigated. The devices, even if they present persistent photoconductivity (PPC), resulted faster than the standard PPC related decay values.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de este trabajo experimental, es evaluar el uso de paneles solares como opción de elemento de sombreo en viveros, tanto de gran escala como de pequeña superficie. Esta opción podría elegirse tanto en el caso de no disponer de red de suministro eléctrico cercano así como en el caso de preferir no depender de una fuente de energía eléctrica exterior. Como hecho novedoso, se ha elegido paneles solares flexibles de capa fina y poco peso, que serían situados en la cubierta del invernadero. Dicha elección permite que los paneles se adapten a la forma de la cubierta, sea cual fuere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El yacimiento Holguinera forma parte del campo metalogénico de Aguas Claras, ubicado aproximadamente a 10,5 kilómetros al norte de la ciudad de Holguín, principal núcleo poblacional de la provincia a la que da nombre. Las coordenadas del punto medio del yacimiento son 20º56’18,81’’N y 76º16’59,18’’O; mientras la cota es de 151 metros. Desde el punto de vista geográfico-administrativo, se encuentra al suroeste de la localidad Aguas Claras y colinda al oeste con el caserío de Guajabales. Este yacimiento se ubica en el extremo oriental del conocido yacimiento Reina Victoria, con el cual se conecta mediante pequeñas manifestaciones e indicios auríferos entre los que se mencionan Santiago, Casualidad, Milagro, Relámpago y Nené El yacimiento La Holguinera es uno de los más antiguos de los que se conocen en esta región. Según los informes que aún se conservan en la Oficina Nacional de Recursos Minerales de Cuba. El yacimiento La Holguinera se integra regionalmente en la mega formación conocida como Zona Estructuro-Facial Auras y representa en sí misma una alternancia de formaciones litológicas plegadas y deformadas que proceden del Complejo Ofiolítico y del Arco Volcánico Cretácico. La cobertera que yace sobre ellas consiste en materiales volcánicos y volcano-sedimentarios, que son los productos de la erosión y sedimentación de las principales unidades litológicas. La aflorabilidad del yacimiento La Holguinera y sus flancos es buena, pero se debe más bien a la actividad minera tradicional, gracias a la cual ha quedado al descubierto en superficie gran parte de las menas oxidadas. En la actualidad se observa una gran profusión de trincheras, cortas, sondeos, pozos mineros, desagües, portalones y cortes, que son los testigos de la frenética actividad minera de esos años. Los estudios mineragráficos y petrográficos de las texturas volcánicas relícticas sugieren que la mineralización aurífera del yacimiento La Holguinera se encuentra encajada en una roca de composición andesítica de textura fina microporfirítica, y de forma secundaria en la roca encajante del tipo harzburguita, alterada a listvenitas. Los mismos fluidos que alteraron a los cuerpos intrusivos difundieron hacia el encajante ultramáfico, originando una variedad litológica secundaria conocida como listvenita, compuesta por productos de alteración metasomática del tipo talco-carbonato-cuarzo-sulfuro, con mineralización aurífera acompañante (listvenitas). Las menas de este yacimiento son sulfurosas, sulfuro-polimetálicas, pirítica, cromítica y sulfurosas de hierro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La inferencia del rendimiento final que los sistemas fotovoltaicos multifunción para edificación, más conocidos como Buiding Integrated PhotoVoltaics (BIPV), es decir, su funcionamiento y la viabilidad de los mismos, es hoy posible gracias a las herramientas de simulación disponibles. Estas requieren del conocimiento previo de los parámetros característicos de dichos elementos fotovoltaicos. Unos son obtenidos por mediciones directas o indirectas en el laboratorio, y otros mediante su monitorización en condiciones de funcionamiento reales. En este trabajo se ha abordado la caracterización óptica de los módulos fotovoltaicos comerciales de capa fina (a-Si) que están siendo utilizados en un proyecto propio del IES, en el cual se estudian estos aspectos. La característica más destacada de estos módulos es la gradación en su transparencia para adecuarlos a la integración como envolventes tipo muro cortina en edificios del sector terciario. En particular, el objetivo de este trabajo ha sido la medición de la transmitancia y la reflectancia espectrales, en los rangos UV/Vis/NIR, tanto en incidencia normal como bajo otros ángulos más próximos a los de operación. Con los resultados obtenidos, se han calculado los valores de la radiación reflejada y la transmitida, totales y por rangos UV, Vis y NIR, lo que permite la correcta caracterización de los módulos fotovoltaicos integrados en fachadas y la posterior evaluación de su impacto sobre el rendimiento eléctrico, térmico y la iluminación en un edificio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis estudia el comportamiento de la región exterior de una capa límite turbulenta sin gradientes de presiones. Se ponen a prueba dos teorías relativamente bien establecidas. La teoría de semejanza para la pared supone que en el caso de haber una pared rugosa, el fluido sólo percibe el cambio en la fricción superficial que causa, y otros efectos secundarios quedarán confinados a una zona pegada a la pared. El consenso actual es que dicha teoría es aproximadamente cierta. En el extremo exterior de la capa límite existe una región producida por la interacción entre las estructuras turbulentas y el flujo irrotacional de la corriente libre llamada interfaz turbulenta/no turbulenta. La mayoría de los resultados al respecto sugieren la presencia de fuerzas de cortadura ligeramente más intensa, lo que la hace distinta al resto del flujo turbulento. Las propiedades de esa región probablemente cambien si la velocidad de crecimiento de la capa límite aumenta, algo que puede conseguirse aumentando la fricción en la pared. La rugosidad y la ingestión de masa están entonces relacionadas, y el comportamiento local de la interfaz turbulenta/no turbulenta puede explicar el motivo por el que las capas límite sobre paredes rugosas no se comportan como en el caso de tener paredes lisas precisamente en la zona exterior. Para estudiar las capas límite a números de Reynolds lo suficientemente elevados, se ha desarrollado un nuevo código de alta resolución para la simulación numérica directa de capas límite turbulentas sin gradiente de presión. Dicho código es capaz de simular capas límite en un intervalo de números de Reynolds entre ReT = 100 — 2000 manteniendo una buena escalabilidad hasta los dos millones de hilos en superordenadores de tipo Blue Gene/Q. Se ha guardado especial atención a la generación de condiciones de contorno a la entrada correctas. Los resultados obtenidos están en concordancia con los resultados previos, tanto en el caso de simulaciones como de experimentos. La interfaz turbulenta/no turbulenta de una capa límite se ha analizado usando un valor umbral del módulo de la vorticidad. Dicho umbral se considera un parámetro para analizar cada superficie obtenida de un contorno del módulo de la vorticidad. Se han encontrado dos regímenes distintos en función del umbral escogido con propiedades opuestas, separados por una transición topológica gradual. Las características geométricas de la zona escalan con o99 cuando u^/isdgg es la unidad de vorticidad. Las propiedades del íluido relativas a la posición del contorno de vorticidad han sido analizados para una serie de umbrales utilizando el campo de distancias esféricas, que puede obtenerse con independencia de la complejidad de la superficie de referencia. Las propiedades del fluido a una distancia dada del inerfaz también dependen del umbral de vorticidad, pero tienen características parecidas con independencia del número de Reynolds. La interacción entre la turbulencia y el flujo no turbulento se restringe a una zona muy fina con un espesor del orden de la escala de Kolmogorov local. Hacia el interior del flujo turbulento las propiedades son indistinguibles del resto de la capa límite. Se ha simulado una capa límite sin gradiente de presiones con una fuerza volumétrica cerca de la pared. La el forzado ha sido diseñado para aumentar la fricción en la pared sin introducir ningún efecto geométrico obvio. La simulación consta de dos dominios, un primer dominio más pequeño y a baja resolución que se encarga de generar condiciones de contorno correctas, y un segundo dominio mayor y a alta resolución donde se aplica el forzado. El estudio de los perfiles y los coeficientes de autocorrelación sugieren que los dos casos, el liso y el forzado, no colapsan más allá de la capa logarítmica por la complejidad geométrica de la zona intermitente, y por el hecho que la distancia a la pared no es una longitud característica. Los efectos causados por la geometría de la zona intermitente pueden evitarse utilizando el interfaz como referencia, y la distancia esférica para el análisis de sus propiedades. Las propiedades condicionadas del flujo escalan con 5QQ y u/uT, las dos únicas escalas contenidas en el modelo de semejanza de pared de Townsend, consistente con estos resultados. ABSTRACT This thesis studies the characteristics of the outer region of zero-pressure-gradient turbulent boundary layers at moderate Reynolds numbers. Two relatively established theories are put to test. The wall similarity theory states that with the presence of roughness, turbulent motion is mostly affected by the additional drag caused by the roughness, and that other secondary effects are restricted to a region very close to the wall. The consensus is that this theory is valid, but only as a first approximation. At the edge of the boundary layer there is a thin layer caused by the interaction between the turbulent eddies and the irroational fluid of the free stream, called turbulent/non-turbulent interface. The bulk of results about this layer suggest the presence of some localized shear, with properties that make it distinguishable from the rest of the turbulent flow. The properties of the interface are likely to change if the rate of spread of the turbulent boundary layer is amplified, an effect that is usually achieved by increasing the drag. Roughness and entrainment are therefore linked, and the local features of the turbulent/non-turbulent interface may explain the reason why rough-wall boundary layers deviate from the wall similarity theory precisely far from the wall. To study boundary layers at a higher Reynolds number, a new high-resolution code for the direct numerical simulation of a zero pressure gradient turbulent boundary layers over a flat plate has been developed. This code is able to simulate a wide range of Reynolds numbers from ReT =100 to 2000 while showing a linear weak scaling up to around two million threads in the BG/Q architecture. Special attention has been paid to the generation of proper inflow boundary conditions. The results are in good agreement with existing numerical and experimental data sets. The turbulent/non-turbulent interface of a boundary layer is analyzed by thresholding the vorticity magnitude field. The value of the threshold is considered a parameter in the analysis of the surfaces obtained from isocontours of the vorticity magnitude. Two different regimes for the surface can be distinguished depending on the threshold, with a gradual topological transition across which its geometrical properties change significantly. The width of the transition scales well with oQg when u^/udgg is used as a unit of vorticity. The properties of the flow relative to the position of the vorticity magnitude isocontour are analyzed within the same range of thresholds, using the ball distance field, which can be obtained regardless of the size of the domain and complexity of the interface. The properties of the flow at a given distance to the interface also depend on the threshold, but they are similar regardless of the Reynolds number. The interaction between the turbulent and the non-turbulent flow occurs in a thin layer with a thickness that scales with the Kolmogorov length. Deeper into the turbulent side, the properties are undistinguishable from the rest of the turbulent flow. A zero-pressure-gradient turbulent boundary layer with a volumetric near-wall forcing has been simulated. The forcing has been designed to increase the wall friction without introducing any obvious geometrical effect. The actual simulation is split in two domains, a smaller one in charge of the generation of correct inflow boundary conditions, and a second and larger one where the forcing is applied. The study of the one-point and twopoint statistics suggest that the forced and the smooth cases do not collapse beyond the logarithmic layer may be caused by the geometrical complexity of the intermittent region, and by the fact that the scaling with the wall-normal coordinate is no longer present. The geometrical effects can be avoided using the turbulent/non-turbulent interface as a reference frame, and the minimum distance respect to it. The conditional analysis of the vorticity field with the alternative reference frame recovers the scaling with 5QQ and v¡uT already present in the logarithmic layer, the only two length-scales allowed if Townsend’s wall similarity hypothesis is valid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las enfermedades arteriales vienen presididas por la aterosclerosis, que es un proceso crónico de degeneración, que evoluciona hacia la obstrucción de la luz arterial. La pared de la arteria se engrosa debido al depósito de elementos grasos tales como el colesterol. Los stents intraluminales son diminutas estructuras tubulares autoexpandibles de malla de metal, que se colocan dentro de la arteria coronaria después de una angioplastia con balón para prevenir el cierre de dicha arteria. A pesar de estar diseñados para ser compatibles con el tejido humano, a menudo se da una reacción en cadena de consecuencias indeseables. La reestenosis intra-stent es un problema creciente debido al importante incremento que se ha producido en la utilización del stent intracoronario como forma de revascularización percutánea. Se habla de una incidencia global del 28%, siendo la causa principal de su aparición la proliferación neointimal a través de una compleja cascada de sucesos que pueden tardar meses en desarrollarse. Una de las reacciones más importantes es la trombosis o la formación de una fina capa de coágulo como respuesta a la presencia de un material extraño. Este proceso es multifactorial, y en él intervienen la regresión de la pared como consecuencia del estiramiento previo, la denudación endotelial, lo que permite la agregación plaquetaria, la proliferación neointimal, lo que facilita a los receptores de membrana desencadenar un proceso de agregación posterior y, por último, el remodelado negativo inadecuado de la pared, lo que produce pérdida de luz arterial. Se ha observado frecuentemente que el depósito de ateroma en la pared arterial está relacionado con el valor de los esfuerzos cortantes en la misma. Hay mayores probabilidades de engrosamiento de la pared en las zonas donde son bajos los esfuerzos cortantes, quizá por el mayor tiempo de residencia de las partículas circulantes por el torrente sanguíneo. Si nos centramos en la afirmación anterior, el siguiente paso sería buscar las zonas susceptibles de presentar un valor bajo de dichos esfuerzos. Las zonas potencialmente peligrosas son los codos y bifurcaciones, entre otras. Nos hemos centrado en una bifurcación coronaria, ya que los patrones de flujo que se suelen presentar, tales como recirculación y desprendimiento de vórtices están íntimamente relacionados con las técnicas de implantación de stents en esta zona. Proyectamos nuestros esfuerzos en el estudio de dos técnicas de implante, utilizando un único stent y una tercera a través de una configuración de culotte con el uso de dos stents. El primer caso trata de una bifurcación con un único stent en la rama principal cuyos struts cierran el orificio lateral que da salida a la rama secundaria de la bifurcación, es decir sería un stent sin orificio. El segundo consiste en un único stent también, pero con la diferencia de que éste presenta un orificio de comunicación con la rama lateral. Todas estas técnicas se aplicaron a bifurcaciones de 45º y de 90º. Introdujimos las geometrías -una vez confeccionadas con el código comercial Gambit- en el programa Ansys-Fluent contemplando régimen estacionario. Los resultados obtenidos fueron cotejados con los experimentales, que se realizaron paralelamente, con el fin de corroborarlos. Una vez validados, el estudio computacional ya contó con la fiabilidad suficiente como para abordar el régimen no estacionario, tanto en la versión de reposo como en la de ejercicio –hiperemia- El comportamiento reológico de la sangre para régimen no estacionario en estado de reposo es otra de las tareas abordadas, realizando una comparativa de los modelos Newtoniano, Carreau y Ley de Potencias. Finalmente, en una última etapa, debido a la reciente incursión de los stents diseñados específicamente frente a los convencionales, se aborda el comportamiento hemodinámico de los mismos. Concretamente, se comparó el patrón de flujo en un modelo de bifurcación coronaria con los nuevos stents (Stentys) y los convencionales. Se estudiaron cuatro modelos, a saber, stent simple en la rama principal, stent simple en la rama secundaria, culotte desplegando el primer stent en la rama principal y culotte desplegando el primer stent en la rama secundaria. La bifurcación estudiada presenta un ángulo de apertura de 45º y la relación de diámetros de las ramas hija se ajustaron de acuerdo a la ley de Finet. Se recogieron resultados experimentales en el laboratorio y se corrieron simulaciones numéricas con Ansys Fluent paralelamente. Las magnitudes que se tuvieron en cuenta con el fin de ubicar las regiones potencialmente ateroscleróticas fueron los esfuerzos cortantes, vorticidad y caída de presión. ABSTRACT Nowadays, restenosis after percutaneous dilation is the major drawback of coronary angioplasty. It represents a special form of atherosclerosis due to the healing process secondary to extensive vessel trauma induced after intracoronary balloon inflation. The use of coronary stents may decrease the incidence of this phenomenon. Unfortunately, intra-stent restenosis still occurs in 20-30% of the cases following the stent implantation. Most experiments suggest a correlation between low wall shear stress and wall thickness. The preferential locations for the atherosclerotic plaque are bifurcations. The objective of this work is to analyze the local hemodynamic changes caused in a coronary bifurcation by three different stenting techniques: simple stenting of the main vessel, simple stenting of the main vessel with kissing balloon in the side branch and culotte. To carry out this study an idealized geometry of a coronary bifurcation is used, and two bifurcation angles, 45º and 90º, are chosen as representative of the wide variety of real configurations. Both numerical simulations and experimental measurements are performed. First, steady simulations are carried out with the commercial code Ansys-Fluent, then, experimental measurements with PIV (Particle Image Velocimetry), obtained in the laboratory, are used to validate the numerical simulations. The steady computational simulations show a good overall agreement with the experimental data. Then, pulsatile flow is considered to take into account the transient effects. The time averaged wall shear stress, oscillatory shear index and pressure drop obtained numerically are used to compare the behavior of the stenting techniques. In a second step, the rheologic behavior of blood was considered comparing Newtonian, Carreau and Power Law models. Finally, as a result of previous investigations with conventional stents and after the recent emergence of several devices specifically designed for coronary bifurcations angioplasty, the hemodynamic performance of these new devices (Stentys) was compared to conventional ones and techniques in a coronary bifurcation model. Four different stenting techniques: simple stenting of the main vessel, simple stenting of the side vessel, culotte deploying the first stent in the main vessel and culotte deploying the first stent in the side vessel have been considered. To carry out this study an idealized geometry of a coronary bifurcation is used. A 45 degrees bifurcation angle is considered and the daughter branches diameters are obtained according to the Finet law. Both experiments in the laboratory and numerical simulations were used , focusing on important factors for the atherosclerosis development, like the wall shear stress, the oscillation shear index, the pressure loss and the vorticity.