146 resultados para condensación cromática


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito del presente Proyecto de Fin de Carrera consiste en la elaboración de un modelo metodológico y cartográfico sobre vulnerabilidad urbana aplicado al caso del entorno histórico-artístico del municipio madrileño de Nuevo Baztán, pero extensible y aplicable a cualquier otro municipio de características similares en cuanto a extensión e historia se refiere. El trabajo consta de dos partes bien diferenciadas: una primera topográfica, mientras que la segunda se centra en el propósito capital de este proyecto, esto es, el estudio de vulnerabilidad urbana. En efecto, la primera fase de este trabajo se centra en la realización de un levantamiento topográfico, cuyo grado de detalle a la hora de dar coordenadas a puntos tendrá como finalidad la obtención de un plano a escala 1/500. Dicho levantamiento se lleva a cabo por medio de una doble poligonal encuadrada, sirviendo como canevás para a continuación efectuar, a partir de ella, una radiación a partir de las mismas, donde se obtienen las coordenadas de la nube de puntos que integrarán este primer objetivo de carácter topográfico, pero sobre todo cartográfico. Obtenida esa base cartográfica a partir de su procesamiento y edición en AutoCAD, se procede a implementar la segunda y principal fase de este Proyecto, el estudio de vulnerabilidad urbana. Este estudio se focaliza en dos aspectos fundamentales: la conservación y grado de deterioro de los materiales que integran el elemento a estudiar, y el grado de adecuación o impacto en el paisaje urbano que tiene dicho elemento digno de estudio. A su vez, los elementos que se proceden a estudiar se clasifican en tres categorías: edificaciones, mobiliario urbano y pavimentación. Con arreglo a esto, se preestablecen las escalas de valoración, y justamente a continuación se implementa el proceso de evaluación en todo el entorno histórico-artístico del municipio. La culminación de este trabajo tiene como objetivo reflejar esa evaluación de vulnerabilidad en la cartografía preexistente. Para ello, se diseñan dos escalas de color, una cromática y otra de intensidad (niveles de gris), reflejando la conservación y la adecuación respectivamente. La combinación de ambas dará como resultado final un plano donde se reflejarán todos los aspectos de la evaluación de forma temática, con diferentes tonalidades e intensidades de colores, dando una idea de la vulnerabilidad urbana, como concepto general, en la totalidad del entorno histórico-artístico de Nuevo Baztán. Como trabajo añadido, se procede a elaborar también una cartografía donde quedan reflejadas las mejores visuales a los elementos arquitectónicos de mayor interés, en el contexto de un itinerario turístico considerado como el más idóneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente proyecto final de carrera se lleva a cabo un estudio de los sistemas de comunicaciones ópticas de 100 Gb/s. En la primera parte del proyecto se repasan las principales técnicas de modulación y de recepción de la portadora óptica, se presentan los diferentes formatos avanzados de modulación digital empleados para transmisiones de banda ancha y se discute por qué las modulaciones QPSK y DQPSK ofrecen mejores prestaciones que el resto a 100 Gb/s. La segunda parte compone el grueso del proyecto. Se centra en el estudio y la optimización de los sistemas ópticos de 100 Gb/s que hacen uso de los formatos de fase en cuadratura anteriores. De dicho análisis se pretende conocer cómo se degradan este tipo de señales a medida que se propagan por la fibra a estas velocidades. Intentaremos descubrir además cómo controlar ciertos parámetros de diseño como el ciclo de trabajo de la portadora óptica, el mapa de dispersión del enlace, la potencia inyectada a la fibra, la longitud de los vanos de amplificación …, para conseguir reducir la penalización sufrida por las limitaciones anteriores. La detección óptica coherente, la multiplexación en polarización, fibras de gran área efectiva y elevado coeficiente de dispersión cromática, unidas al uso de los formatos de fase en cuadratura, componen la mejor solución tecnológica para conseguir hacer realidad las transmisiones ópticas a 100 Gb/s de larga y ultra-larga distancia. Con el objetivo de completar el estudio teórico anterior, se diseñará una red óptica de banda ancha sobre la que se aplicarán las técnicas de diseño desarrolladas a lo largo del proyecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente proyecto final de carrera se lleva a cabo un estudio de los sistemas de comunicaciones ópticas de 100 Gb/s. En la primera parte del proyecto se repasan las principales técnicas de modulación y de recepción de la portadora óptica, se presentan los diferentes formatos avanzados de modulación digital empleados para transmisiones de banda ancha y se discute por qué las modulaciones QPSK y DQPSK ofrecen mejores prestaciones que el resto a 100 Gb/s. La segunda parte compone el grueso del proyecto. Se centra en el estudio y la optimización de los sistemas ópticos de 100 Gb/s que hacen uso de los formatos de fase en cuadratura anteriores. De dicho análisis se pretende conocer cómo se degradan este tipo de señales a medida que se propagan por la fibra a estas velocidades. Intentaremos descubrir además cómo controlar ciertos parámetros de diseño como el ciclo de trabajo de la portadora óptica, el mapa de dispersión del enlace, la potencia inyectada a la fibra, la longitud de los vanos de amplificación …, para conseguir reducir la penalización sufrida por las limitaciones anteriores. La detección óptica coherente, la multiplexación en polarización, fibras de gran área efectiva y elevado coeficiente de dispersión cromática, unidas al uso de los formatos de fase en cuadratura, componen la mejor solución tecnológica para conseguir hacer realidad las transmisiones ópticas a 100 Gb/s de larga y ultra-larga distancia. Con el objetivo de completar el estudio teórico anterior, se diseñará una red óptica de banda ancha sobre la que se aplicarán las técnicas de diseño desarrolladas a lo largo del proyecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El aumento progresivo de la temperatura media anual y el déficit hídrico están provocando importantes cambios en la composición y la maduración de la uva, que repercuten directamente sobre el proceso fermentativo y, por ende, sobre la calidad del vino elaborado. En este trabajo se evalúan diferentes estrategias para la reducción del grado alcohólico, la mejora del color del vino y su estabilidad, y el incremento y la persistencia aromática. Mediante el empleo de levaduras con ineficiencia glicolítica se lograron reducciones medias en el grado alcohólico de entre 0.3 y 1.7 % v/v, mientras que con las fermentaciones secuenciales la máxima reducción lograda fue de 3.3 y 3.4 % v/v al combinar las cepas 938 (Schizosaccharomyces pombe) y 7013 (Torulaspora delbrueckii) con la 7VA (Saccharomyces cerevisiae). Al aplicar un tratamiento térmico sobre el inóculo, la TP2A(16) mostró una reducción media significativa en el grado alcohólico de 1 % v/v. El principal inconveniente en todas las técnicas empleadas para reducir el grado alcohólico fue la falta de repetibilidad en los resultados obtenidos. Por otra parte, la aplicación de altas presiones sobre uva despalillada resultó efectiva como tratamiento de pasteurización y como potenciador de la extracción de polifenoles, logrando un incremento en el contenido medio de antocianos totales del 12.4-18.5 %. La adición de flavonoides al mosto estimuló la formación de pigmentos estables como resultado de su condensación con antocianos mediada por acetaldehído. Con el empleo de Torulaspora delbrueckii en fermentación secuencial fue posible incrementar la producción de diacetilo y acetato de 2-feniletilo, además de la síntesis de un nuevo compuesto, el 3-etoxi-1-propanol. Sin embargo, su aportación sobre el color fue nula, así que debería combinarse con una cepa de Saccharomyces cerevisiae con buena formación de pigmentos piranoantociánicos. El empleo de Schizosaccharomyces pombe (938, V1) y Torulaspora delbrueckii (1880) en fermentaciones secuenciales y mixtas con Saccharomyces cerevisiae permitió mejorar el perfil sensorial del vino tinto mediante la mayor síntesis de polioles y la potenciación de aromas frutales, florales y herbáceos, e incrementar la estabilidad de la materia colorante al favorecer la formación de vitisinas y piranoantocianos vinilfenólicos. La crianza sobre lías en barrica a partir de levaduras seleccionadas, puede mejorar la complejidad y persistencia aromática del vino tinto, aunque sin grandes cambios en el color. ABSTRACT The progressive increase in annual average temperature, along with water deficit, is causing significant changes in grape composition and in its maturation, which directly affects the fermentative process and hence alters wine quality. In this work, different strategies for reducing the alcoholic strength, improve wine color and its stability, and increase aromatic complexity and its persistence, are evaluated. By using yeasts with glycolytic inefficiency, it was possible to achieve mean reductions between 0.3 and 1.7 % v/v in the alcoholic strength, while sequential fermentations allowed a maximum reduction of 3.3 and 3.4 % v/v by combining strains 938 (Schizosaccharomyces pombe) and 7013 (Torulaspora delbrueckii) with 7VA (Saccharomyces cerevisiae). When applying a heat shock treatment on the inoculum, only TP2A(16) strain showed a significant mean reduction of 1 % v/v in the alcohol content, compared with the control. The main drawback in all the techniques used to reduce the alcohol content was the lack of repeatability in the results. Moreover, the application of high pressures on destemmed grapes was effective as pasteurization treatment and also as enhancer of polyphenol extraction, achieving an increase of 12.4-18.5% in the average content of total anthocyanins. As expected, addition of flavonoids to the must, stimulated the formation of stable pigments, mainly as a result of condensation reactions between anthocyanins and flavanols mediated by acetaldehyde. With the use of Torulaspora delbrueckii strains in sequential fermentation with Saccharomyces cerevisiae, it was possible to increase the production of diacetyl and 2-phenylethyl acetate, besides the synthesis of a new compound: 3-ethoxy-1-propanol. The use of Schizosaccharomyces pombe (938, V1) and Torulaspora delbrueckii (1880) strains in sequential and mixed fermentations with Saccharomyces cerevisiae improved the sensory profile of red wine by increasing polyols synthesis and enhancing fruity, floral and herbaceous aromas, and it also increased the stability of the coloring matter by favouring vitisins and vinylphenolic pyranoanthocyanins formation. Ageing on lees in barrels from selected yeasts can improve the complexity and aromatic persistence of red wine, without major changes in the color.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un caloducto en bucle cerrado o Loop Heat Pipe (LHP) es un dispositivo de transferencia de calor cuyo principio de operación se basa en la evaporación/condensación de un fluido de trabajo, que es bombeado a través de un circuito cerrado gracias a fuerzas de capilaridad. Gracias a su flexibilidad, su baja masa y su mínimo (incluso nulo) consumo de potencia, su principal aplicación ha sido identificada como parte del subsistema de control térmico de vehículos espaciales. En el presente trabajo se ha desarrollado un LHP capaz de funcionar eficientemente a temperaturas de hasta 125 oC, siguiendo la actual tendencia de los equipos a bordo de satélites de incrementar su temperatura de operación. En la selección del diseño optimo para dicho LHP, la compatibilidad entre materiales y fluido de trabajo se identificó como uno de los puntos clave. Para seleccionar la mejor combinación, se llevó a cabo una exhaustiva revisión del estado del arte, además de un estudio especifico que incluía el desarrollo de un banco de ensayos de compatibilidad. Como conclusión, la combinación seleccionada como la candidata idónea para ser integrada en el LHP capaz de operar hasta 125 oC fue un evaporador de acero inoxidable, líneas de titanio y amoniaco como fluido de trabajo. En esa línea se diseñó y fabricó un prototipo para ensayos y se desarrolló un modelo de simulación con EcosimPro para evaluar sus prestaciones. Se concluyó que el diseño era adecuado para el rango de operación definido. La incompatibilidad entre el fluido de trabajo y los materiales del LHP está ligada a la generación de gases no condensables. Para un estudio más detallado de los efectos de dichos gases en el funcionamiento del LHP se analizó su comportamiento con diferentes cantidades de nitrógeno inyectadas en su cámara de compensación, simulando un gas no condensable formado en el interior del dispositivo. El estudio se basó en el análisis de las temperaturas medidas experimentalmente a distintos niveles de potencia y temperatura de sumidero o fuente fría. Adicionalmente, dichos resultados se compararon con las predicciones obtenidas por medio del modelo en EcosimPro. Las principales conclusiones obtenidas fueron dos. La primera indica que una cantidad de gas no condensable más de dos veces mayor que la cantidad generada al final de la vida de un satélite típico de telecomunicaciones (15 años) tiene efectos casi despreciables en el funcionamiento del LHP. La segunda es que el principal efecto del gas no condensable es una disminución de la conductancia térmica, especialmente a bajas potencias y temperaturas de sumidero. El efecto es más significativo cuanto mayor es la cantidad de gas añadida. Asimismo, durante la campaña de ensayos se observó un fenómeno no esperado para grandes cantidades de gas no condensable. Dicho fenómeno consiste en un comportamiento oscilatorio, detectado tanto en los ensayos como en la simulación. Este efecto es susceptible de una investigación más profunda y los resultados obtenidos pueden constituir la base para dicha tarea. ABSTRACT Loop Heat Pipes (LHPs) are heat transfer devices whose operating principle is based on the evaporation/condensation of a working fluid, and which use capillary pumping forces to ensure the fluid circulation. Thanks to their flexibility, low mass and minimum (even null) power consumption, their main application has been identified as part of the thermal control subsystem in spacecraft. In the present work, an LHP able to operate efficiently up to 125 oC has been developed, which is in line with the current tendency of satellite on-board equipment to increase their operating temperatures. In selecting the optimal LHP design for the elevated temperature application, the compatibility between the materials and working fluid has been identified as one of the main drivers. An extensive literature review and a dedicated trade-off were performed, in order to select the optimal combination of fluids and materials for the LHP. The trade-off included the development of a dedicated compatibility test stand. In conclusion, the combination of stainless steel evaporator, titanium piping and ammonia as working fluid was selected as the best candidate to operate up to 125 oC. An LHP prototype was designed and manufactured and a simulation model in EcosimPro was developed to evaluate its performance. The first conclusion was that the defined LHP was suitable for the defined operational range. Incompatibility between the working fluid and LHP materials is linked to Non Condensable Gas (NCG) generation. Therefore, the behaviour of the LHP developed with different amounts of nitrogen injected in its compensation chamber to simulate NCG generation, was analyzed. The LHP performance was studied by analysis of the test results at different temperatures and power levels. The test results were also compared to simulations in EcosimPro. Two additional conclusions can be drawn: (i) the effects of an amount of more than two times the expected NCG at the end of life of a typical telecommunications satellite (15 years) is almost negligible on the LHP operation, and (ii) the main effect of the NCG is a decrease in the LHP thermal conductance, especially at low temperatures and low power levels. This decrease is more significant with the progressive addition of NCG. An unexpected phenomenon was observed in the LHP operation with large NCG amounts. Namely, an oscillatory behaviour, which was observed both in the tests and the simulation. This effect provides the basis for further studies concerning oscillations in LHPs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El yacimiento Holguinera forma parte del campo metalogénico de Aguas Claras, ubicado aproximadamente a 10,5 kilómetros al norte de la ciudad de Holguín, principal núcleo poblacional de la provincia a la que da nombre. Las coordenadas del punto medio del yacimiento son 20º56’18,81’’N y 76º16’59,18’’O; mientras la cota es de 151 metros. Desde el punto de vista geográfico-administrativo, se encuentra al suroeste de la localidad Aguas Claras y colinda al oeste con el caserío de Guajabales. Este yacimiento se ubica en el extremo oriental del conocido yacimiento Reina Victoria, con el cual se conecta mediante pequeñas manifestaciones e indicios auríferos entre los que se mencionan Santiago, Casualidad, Milagro, Relámpago y Nené El yacimiento La Holguinera es uno de los más antiguos de los que se conocen en esta región. Según los informes que aún se conservan en la Oficina Nacional de Recursos Minerales de Cuba. El yacimiento La Holguinera se integra regionalmente en la mega formación conocida como Zona Estructuro-Facial Auras y representa en sí misma una alternancia de formaciones litológicas plegadas y deformadas que proceden del Complejo Ofiolítico y del Arco Volcánico Cretácico. La cobertera que yace sobre ellas consiste en materiales volcánicos y volcano-sedimentarios, que son los productos de la erosión y sedimentación de las principales unidades litológicas. La aflorabilidad del yacimiento La Holguinera y sus flancos es buena, pero se debe más bien a la actividad minera tradicional, gracias a la cual ha quedado al descubierto en superficie gran parte de las menas oxidadas. En la actualidad se observa una gran profusión de trincheras, cortas, sondeos, pozos mineros, desagües, portalones y cortes, que son los testigos de la frenética actividad minera de esos años. Los estudios mineragráficos y petrográficos de las texturas volcánicas relícticas sugieren que la mineralización aurífera del yacimiento La Holguinera se encuentra encajada en una roca de composición andesítica de textura fina microporfirítica, y de forma secundaria en la roca encajante del tipo harzburguita, alterada a listvenitas. Los mismos fluidos que alteraron a los cuerpos intrusivos difundieron hacia el encajante ultramáfico, originando una variedad litológica secundaria conocida como listvenita, compuesta por productos de alteración metasomática del tipo talco-carbonato-cuarzo-sulfuro, con mineralización aurífera acompañante (listvenitas). Las menas de este yacimiento son sulfurosas, sulfuro-polimetálicas, pirítica, cromítica y sulfurosas de hierro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las proyecciones muestran un incremento en la demanda de energía primaria a nivel global para los próximos diez años. Para disminuir los efectos adversos sobre el medio ambiente del uso de combustibles fósiles, las políticas energéticas de España y la Unión Europea tienen como uno de sus objetivos principales incrementar el uso fuentes renovables en la producción energética para el año 2020.La biomasa es una de las principales fuentes renovables para la generación de energía primaria en España. Sin embargo su alto contenido en humedad y su baja densidad energética entre otras características de este material, suponen desventajas para su uso directo como combustible. Los procesos de conversión termoquímica son una alternativa para la obtención de productos sólidos, líquidos y gases de mejor potencial energético utilizando biomasa como materia prima. Esta tesis doctoral tiene como objetivo general el estudio y la optimización de procesos de conversión termoquímica de biomasa. Para cumplir con este objetivo el trabajo combina análisis experimentales y de simulación de distintas tecnologías de transformación termoquímica de biomasa. Antes de iniciar los estudios experimentales de los procesos de transformación termoquímica, se realiza una caracterización química, física y combustible de ocho de biomasas de naturaleza lignocelulósica y amilácea. Esta caracterización incluye el análisis del comportamiento termoquímico utilizando las técnicas de termogravimetría (TG-DTG), TG-FTir y pirólisis analítica (Py-GC/MS). Después de la caracterización se seleccionan tres tipos de biomasas (madera de pino, hueso de aceituna y hueso de aguacate) que son utilizadas como materia prima en el estudio experimental de procesos de gasificación, torrefacción y pirólisis en distintos sistemas de reacción de escala de laboratorio. Estos estudios se realizan para optimizar las condiciones de operación de cada uno de los procesos y caracterizar los productos obtenidos. El trabajo realizado incluye el rediseño y puesta en marcha de un sistema de gasificación de lecho fluidizado así como de un sistema de torrefacción y pirólisis en horno rotatorio. Los estudios experimentales incluyen un análisis de distintas condiciones de operación (temperatura, composición atmosférica, tiempo de residencia, condiciones fluidomecánicas, tamaño de partícula del combustible, condiciones de condensación) con el objetivo de determinar las condiciones óptimas de operación de cada uno de los procesos analizados respecto de las características químicas, físicas y combustibles de los productos. Para la optimización de las condiciones de operación del sistema de gasificación de lecho fluidizado se realiza un análisis complementario del comportamiento hidrodinámico utilizando la metodología de análisis computacional fluidodinámico o mecánica de fluidos computacional (CFD). Los resultados obtenidos permiten determinar las condiciones óptimas de operación del sistema de reacción de lecho fluidizado. Finalmente, la tesis incluye el análisis de una planta comercial de gasificación localizada en Júndiz (Álava, España), centrándose en la caracterización del material particulado eliminado de la corriente de gas generado, con el objetivo de determinar su proceso de formación, características y establecer posibles aplicaciones comerciales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La iluminación con diodos emisores de luz (LED) está reemplazando cada vez en mayor medida a las fuentes de luz tradicionales. La iluminación LED ofrece ventajas en eficiencia, consumo de energía, diseño, tamaño y calidad de la luz. Durante más de 50 años, los investigadores han estado trabajando en mejoras LED. Su principal relevancia para la iluminación está aumentando rápidamente. Esta tesis se centra en un campo de aplicación importante, como son los focos. Se utilizan para enfocar la luz en áreas definidas, en objetos sobresalientes en condiciones profesionales. Esta iluminación de alto rendimiento requiere una calidad de luz definida, que incluya temperaturas ajustables de color correlacionadas (CCT), de alto índice de reproducción cromática (CRI), altas eficiencias, y colores vivos y brillantes. En el paquete LED varios chips de diferentes colores (rojo, azul, fósforo convertido) se combinan para cumplir con la distribución de energía espectral con alto CRI. Para colimar la luz en los puntos concretos deseados con un ángulo de emisión determinado, se utilizan blancos sintonizables y diversos colores de luz y ópticas secundarias. La combinación de una fuente LED de varios colores con elementos ópticos puede causar falta de homogeneidad cromática en la distribución espacial y angular de la luz, que debe resolverse en el diseño óptico. Sin embargo, no hay necesidad de uniformidad perfecta en el punto de luz debido al umbral en la percepción visual del ojo humano. Por lo tanto, se requiere una descripción matemática del nivel de uniformidad del color con respecto a la percepción visual. Esta tesis está organizada en siete capítulos. Después de un capítulo inicial que presenta la motivación que ha guiado la investigación de esta tesis, en el capítulo 2 se presentan los fundamentos científicos de la uniformidad del color en luces concentradas, como son: el espacio de color aplicado CIELAB, la percepción visual del color, los fundamentos de diseño de focos respecto a los motores de luz y ópticas no formadoras de imágenes, y los últimos avances en la evaluación de la uniformidad del color en el campo de los focos. El capítulo 3 desarrolla diferentes métodos para la descripción matemática de la distribución espacial del color en un área definida, como son la diferencia de color máxima, la desviación media del color, el gradiente de la distribución espacial de color, así como la suavidad radial y axial. Cada función se refiere a los diferentes factores que influyen en la visión, los cuales necesitan un tratamiento distinto que el de los datos que se tendrán en cuenta, además de funciones de ponderación que pre- y post-procesan los datos simulados o medidos para la reducción del ruido, la luminancia de corte, la aplicación de la ponderación de luminancia, la función de sensibilidad de contraste, y la función de distribución acumulativa. En el capítulo 4, se obtiene la función de mérito Usl para la estimación de la uniformidad del color percibida en focos. Se basó en los resultados de dos conjuntos de experimentos con factor humano realizados para evaluar la percepción visual de los sujetos de los patrones de focos típicos. El primer experimento con factor humano dio lugar al orden de importancia percibida de los focos. El orden de rango percibido se utilizó para correlacionar las descripciones matemáticas de las funciones básicas y la función ponderada sobre la distribución espacial del color, que condujo a la función Usl. El segundo experimento con factor humano probó la percepción de los focos bajo condiciones ambientales diversas, con el objetivo de proporcionar una escala absoluta para Usl, para poder así sustituir la opinión subjetiva personal de los individuos por una función de mérito estandarizada. La validación de la función Usl se presenta en relación con el alcance de la aplicación y condiciones, así como las limitaciones y restricciones que se realizan en el capítulo 5. Se compararon los datos medidos y simulados de varios sistemas ópticos. Se discuten los campos de aplicación , así como validaciones y restricciones de la función. El capítulo 6 presenta el diseño del sistema de focos y su optimización. Una evaluación muestra el análisis de sistemas basados en el reflector y la lente TIR. Los sistemas ópticos simulados se comparan en la uniformidad del color Usl, sensibilidad a las sombras coloreadas, eficiencia e intensidad luminosa máxima. Se ha comprobado que no hay un sistema único que obtenga los mejores resultados en todas las categorías, y que una excelente uniformidad de color se pudo alcanzar por la conjunción de dos sistemas diferentes. Finalmente, el capítulo 7 presenta el resumen de esta tesis y la perspectiva para investigar otros aspectos. ABSTRACT Illumination with light-emitting diodes (LED) is more and more replacing traditional light sources. They provide advantages in efficiency, energy consumption, design, size and light quality. For more than 50 years, researchers have been working on LED improvements. Their main relevance for illumination is rapidly increasing. This thesis is focused on one important field of application which are spotlights. They are used to focus light on defined areas, outstanding objects in professional conditions. This high performance illumination required a defined light quality including tunable correlated color temperatures (CCT), high color rendering index (CRI), high efficiencies and bright, vivid colors. Several differently colored chips (red, blue, phosphor converted) in the LED package are combined to meet spectral power distribution with high CRI, tunable white and several light colors and secondary optics are used to collimate the light into the desired narrow spots with defined angle of emission. The combination of multi-color LED source and optical elements may cause chromatic inhomogeneities in spatial and angular light distribution which needs to solved at the optical design. However, there is no need for perfect uniformity in the spot light due to threshold in visual perception of human eye. Therefore, a mathematical description of color uniformity level with regard to visual perception is required. This thesis is organized seven seven chapters. After an initial one presenting the motivation that has guided the research of this thesis, Chapter 2 introduces the scientific basics of color uniformity in spot lights including: the applied color space CIELAB, the visual color perception, the spotlight design fundamentals with regards to light engines and nonimaging optics, and the state of the art for the evaluation of color uniformity in the far field of spotlights. Chapter 3 develops different methods for mathematical description of spatial color distribution in a defined area, which are the maximum color difference, the average color deviation, the gradient of spatial color distribution as well as the radial and axial smoothness. Each function refers to different visual influencing factors, and they need different handling of data be taken into account, along with weighting functions which pre- and post-process the simulated or measured data for noise reduction, luminance cutoff, the implementation of luminance weighting, contrast sensitivity function, and cumulative distribution function. In chapter 4, the merit function Usl for the estimation of the perceived color uniformity in spotlights is derived. It was based on the results of two sets of human factor experiments performed to evaluate the visual perception of typical spotlight patterns by subjects. The first human factor experiment resulted in the perceived rank order of the spotlights. The perceived rank order was used to correlate the mathematical descriptions of basic functions and weighted function concerning the spatial color distribution, which lead to the Usl function. The second human factor experiment tested the perception of spotlights under varied environmental conditions, with to objective to provide an absolute scale for Usl, so the subjective personal opinion of individuals could be replaced by a standardized merit function. The validation of the Usl function is presented concerning the application range and conditions as well as limitations and restrictions in carried out in chapter 5. Measured and simulated data of various optical several systems were compared. Fields of applications are discussed as well as validations and restrictions of the function. Chapter 6 presents spotlight system design and their optimization. An evaluation shows the analysis of reflector-based and TIR lens systems. The simulated optical systems are compared in color uniformity Usl , sensitivity to colored shadows, efficiency, and peak luminous intensity. It has been found that no single system which performed best in all categories, and that excellent color uniformity could be reached by two different system assemblies. Finally, chapter 7 summarizes the conclusions of the present thesis and an outlook for further investigation topics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de esta tesis ha sido el diseño y la optimización de receptores implementados con fibra óptica, para ser usados en redes ópticas de alta velocidad que empleen formatos de modulación de fase. En los últimos años, los formatos de modulación de fase (Phase Shift keying, PSK) han captado gran atención debido a la mejora de sus prestaciones respecto a los formatos de modulación convencionales. Principalmente, presentan una mejora de la eficiencia espectral y una mayor tolerancia a la degradación de la señal causada por la dispersión cromática, la dispersión por modo de polarización y los efectos no-lineales en la fibra óptica. En este trabajo, se analizan en detalle los formatos PSK, incluyendo sus variantes de modulación de fase diferencial (Differential Phase Shift Keying, DPSK), en cuadratura (Differential Quadrature Phase Shift Keying, DQPSK) y multiplexación en polarización (Polarization Multiplexing Differential Quadrature Phase Shift Keying, PM-DQPSK), con la finalidad de diseñar y optimizar los receptores que permita su demodulación. Para ello, se han analizado y desarrollado nuevas estructuras que ofrecen una mejora en las prestaciones del receptor y una reducción de coste comparadas con las actualmente disponibles. Para la demodulación de señales DPSK, en esta tesis, se proponen dos nuevos receptores basados en un interferómetro en línea Mach-Zehnder (MZI) implementado con tecnología todo-fibra. El principio de funcionamiento de los MZI todo-fibra propuestos se asienta en la interferencia modal que se produce en una fibra multimodo (MMF) cuando se situada entre dos monomodo (SMF). Este tipo de configuración (monomodo-multimodo-monomodo, SMS) presenta un buen ratio de extinción interferente si la potencia acoplada en la fibra multimodo se reparte, principal y equitativamente, entre dos modos dominantes. Con este objetivo, se han estudiado y demostrado tanto teórica como experimentalmente dos nuevas estructuras SMS que mejoran el ratio de extinción. Una de las propuestas se basa en emplear una fibra multimodo de índice gradual cuyo perfil del índice de refracción presenta un hundimiento en su zona central. La otra consiste en una estructura SMS con las fibras desalineadas y donde la fibra multimodo es una fibra de índice gradual convencional. Para las dos estructuras, mediante el análisis teórico desarrollado, se ha demostrado que el 80 – 90% de la potencia de entrada se acopla a los dos modos dominantes de la fibra multimodo y se consigue una diferencia inferior al 10% entre ellos. También se ha demostrado experimentalmente que se puede obtener un ratio de extinción de al menos 12 dB. Con el objeto de demostrar la capacidad de estas estructuras para ser empleadas como demoduladores de señales DPSK, se han realizado numerosas simulaciones de un sistema de transmisión óptico completo y se ha analizado la calidad del receptor bajo diferentes perspectivas, tales como la sensibilidad, la tolerancia a un filtrado óptico severo o la tolerancia a las dispersiones cromática y por modo de polarización. En todos los casos se ha concluido que los receptores propuestos presentan rendimientos comparables a los obtenidos con receptores convencionales. En esta tesis, también se presenta un diseño alternativo para la implementación de un receptor DQPSK, basado en el uso de una fibra mantenedora de la polarización (PMF). A través del análisi teórico y del desarrollo de simulaciones numéricas, se ha demostrado que el receptor DQPSK propuesto presenta prestaciones similares a los convencionales. Para complementar el trabajo realizado sobre el receptor DQPSK basado en PMF, se ha extendido el estudio de su principio de demodulación con el objeto de demodular señales PM-DQPSK, obteniendo como resultado la propuesta de una nueva estructura de demodulación. El receptor PM-DQPSK propuesto se basa en la estructura conjunta de una única línea de retardo junto con un rotador de polarización. Se ha analizado la calidad de los receptores DQPSK y PM-DQPSK bajo diferentes perspectivas, tales como la sensibilidad, la tolerancia a un filtrado óptico severo, la tolerancia a las dispersiones cromática y por modo de polarización o su comportamiento bajo condiciones no-ideales. En comparación con los receptores convencionales, nuestra propuesta exhibe prestaciones similares y además permite un diseño más simple que redunda en un coste potencialmente menor. En las redes de comunicaciones ópticas actuales se utiliza la tecnología de multimplexación en longitud de onda (WDM) que obliga al uso de filtros ópticos con bandas de paso lo más estrechas posibles y a emplear una serie de dispositivos que incorporan filtros en su arquitectura, tales como los multiplexores, demultiplexores, ROADMs, conmutadores y OXCs. Todos estos dispositivos conectados entre sí son equivalentes a una cadena de filtros cuyo ancho de banda se va haciendo cada vez más estrecho, llegando a distorsionar la forma de onda de las señales. Por esto, además de analizar el impacto del filtrado óptico en las señales de 40 Gbps DQPSK y 100 Gbps PM-DQPSK, este trabajo de tesis se completa estudiando qué tipo de filtro óptico minimiza las degradaciones causadas en la señal y analizando el número máximo de filtros concatenados que permiten mantener la calidad requerida al sistema. Se han estudiado y simulado cuatro tipos de filtros ópticos;Butterworth, Bessel, FBG y F-P. ABSTRACT The objective of this thesis is the design and optimization of optical fiber-based phase shift keying (PSK) demodulators for high-bit-rate optical networks. PSK modulation formats have attracted significant attention in recent years, because of the better performance with respect to conventional modulation formats. Principally, PSK signals can improve spectrum efficiency and tolerate more signal degradation caused by chromatic dispersion, polarization mode dispersion and nonlinearities in the fiber. In this work, many PSK formats were analyzed in detail, including the variants of differential phase modulation (Differential Phase Shift Keying, DPSK), in quadrature (Differential Quadrature Phase Shift Keying, DQPSK) and polarization multiplexing (Polarization Multiplexing Differential Quadrature Phase Shift Keying, PM-DQPSK), in order to design and optimize receivers enabling demodulations. Therefore, novel structures, which offer good receiver performances and a reduction in cost compared to the current structures, have been analyzed and developed. Two novel receivers based on an all-fiber in-line Mach-Zehnder interferometer (MZI) were proposed for DPSK signal demodulation in this thesis. The operating principle of the all-fiber MZI is based on the modal interference that occurs in a multimode fiber (MMF) when it is located between two single-mode fibers (SMFs). This type of configuration (Single-mode-multimode-single-mode, SMS) can provide a good extinction ratio if the incoming power from the SMF could be coupled equally into two dominant modes excited in the MMF. In order to improve the interference extinction ratio, two novel SMS structures have been studied and demonstrated, theoretically and experimentally. One of the two proposed MZIs is based on a graded-index multimode fiber (MMF) with a central dip in the index profile, located between two single-mode fibers (SMFs). The other one is based on a conventional graded-index MMF mismatch spliced between two SMFs. Theoretical analysis has shown that, in these two schemes, 80 – 90% of the incoming power can be coupled into the two dominant modes exited in the MMF, and the power difference between them is only ~10%. Experimental results show that interference extinction ratio of 12 dB could be obtained. In order to demonstrate the capacity of these two structures for use as DPSK signal demodulators, numerical simulations in a completed optical transmission system have been carried out, and the receiver quality has been analyzed under different perspectives, such as sensitivity, tolerance to severe optical filtering or tolerance to chromatic and polarization mode dispersion. In all cases, from the simulation results we can conclude that the two proposed receivers can provide performances comparable to conventional ones. In this thesis, an alternative design for the implementation of a DQPSK receiver, which is based on a polarization maintaining fiber (PMF), was also presented. To complement the work made for the PMF-based DQPSK receiver, the study of the demodulation principle has been extended to demodulate PM-DQPSK signals, resulting in the proposal of a novel demodulation structure. The proposed PM-DQPSK receiver is based on only one delay line and a polarization rotator. The quality of the proposed DQPSK and PM-DQPSK receivers under different perspectives, such as sensitivity, tolerance to severe optical filtering, tolerance to chromatic dispersion and polarization mode dispersion, or behavior under non-ideal conditions. Compared with the conventional receivers, our proposals exhibit similar performances but allow a simpler design which can potentially reduce the cost. The wavelength division multiplexing (WDM) technology used in current optical communications networks requires the use of optical filters with a passband as narrow as possible, and the use of a series of devices that incorporate filters in their architecture, such as multiplexers, demultiplexers, switches, reconfigurable add-drop multiplexers (ROADMs) and optical cross-connects (OXCs). All these devices connected together are equivalent to a chain of filters whose bandwidth becomes increasingly narrow, resulting in distortion to the waveform of the signals. Therefore, in addition to analyzing the impact of optical filtering on signal of 40 Gbps DQPSK and 100 Gbps PM-DQPSK, we study which kind of optical filter minimizes the signal degradation and analyze the maximum number of concatenated filters for maintaining the required quality of the system. Four types of optical filters, including Butterworth, Bessel, FBG and FP, have studied and simulated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de este trabajo es profundizar en el conocimiento del fenómeno de la corrosión subpelicular inducida por contaminantes hidrosolubles en la intercara metal/pintura. La contaminación salina del substrato es una situación común en la práctica: la superficie metálica suele estar expuesta a atmósferas contaminadas antes de ser recubierta, limpieza previa del metal con abrasivos contaminados, etc. La eliminación total de estos contaminantes resulta muy difícil de conseguir incluso con las técnicas más sofisticadas de limpieza. Esta investigación se centra en la determinación del efecto de la naturaleza del contaminante y la naturaleza y espesor del recubrimiento en el proceso de corrosión subpelicular del acero. En la investigación se utilizaron dos barnices de naturaleza diferente: poliuretano y vinílico; y se aplicaron a tres espesores diferentes. Los contaminantes empleados en este trabajo fueron: NaCl, NH4C1, CaCl2, Na2S04, (NH4)2S04, NaN03, NH4N03, Ca(N03)2. Los ensayos se realizaron en una cámara de condensación de humedad permanente. Los tiempos de exposición fueron 100, 300 y 600 horas. La velocidad de corrosión se evaluó gravimétricamente, mediante la técnica de pérdida de peso. Se realizaron estudios de permeabilidad al oxígeno y al agua de películas libres de substrato, evaluación de la velocidad de corrosión de probetas sin pintar inmersas en soluciones salinas de los contaminantes seleccionados, conductividad de dichas soluciones salinas, solubilidad del oxígeno en las soluciones salinas, adherencia en seco y en húmedo a diferentes tiempos de exposición. Se aporta evidencia respecto al control ejercido en el proceso corrosivo por el oxígeno que permea a través de la película, mientras que la permeación de agua controla la pérdida de adherencia del recubrimiento. Ambas permeabilidades dependen de la naturaleza del recubrimiento y de su espesor. Se ha investigado la influencia de la naturaleza del contaminante en la intercara metal/pintura. La naturaleza del catión parece quedar enmascarada por el efecto definitivo del anión. La concentración salina ejerce asimismo un efecto importante en la corrosión subpelicular. ABSTRACT The main aim of this work is to study in depth the knowledge of underfilm corrosión induced by hydrosoluble contaminants at the metal/paint Ínterface. The saline contamination of the substrate is a common situation in practice: metallic surfaces use to be exposed to polluted atmospheres, previous cleaning of the metal with contaminated abrasives, etc. Total elimination of these contaminants is hard to obtain even with modern cleaning techniques. This research is focused in determining the effect of contaminant nature, coating nature and its thickness on the steel underfilm corrosión process. In this work we used two varnishes with different nature: polyurethane and vinyl; they were applied in three different thicknesses. The saline contaminants employed were: NaCl, NH4C1, CaCl2, Na2S04, (NH4)2S04, NaN03, NH4N03/ Ca(N03)2. The tests were carried out in a condensation humidity chamber. The period of exposure were 100, 300 and 600 hours. Corrosión rate was assessed by weight loss. Simultaneously, studies on oxygen and water permeability of free films, assessing on corrosión rate of uncoated samples immersed in saline solutions of the selected contaminants, conductivity of these solutions, oxygen solubility in saline solutions, wet and dry adhesión of the polyurethane varnish at different periods of exposure, were carried out. There is clear evidence about control on corrosión process of oxygen that passes through the coating, while the passing of water controls the loss of adhesión of the coating. Both, water and oxygen permeation, depend on the nature and thickness of the coating. It has been researched the inf luence of the nature of contaminant at the metal/paint interface. The nature of the catión seems to be "masked" by the definitive effect of the nature of anión. The saline concentration also exerts an important effect on underfilm corrosión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El planteamiento fundamental del trabajo ha consistido en explorar las posibilidades existentes para establecer una metodología basada en un modelo cuantitativo para la condensación de indicadores relacionados con los sistemas de calidad en el ámbito universitario público. El modelo incluye tanto la evaluación de activos tangibles como intangibles. Se ha seguido una metodología adaptada al planteamiento: - Realizando un estudio tipo DELPHI (DELPHI 1) entre las Unidades Técnicas de Calidad de las universidades de la Comunidad de Madrid, para conocer la situación de la implantación de metodologías de planificación estratégica en la universidad. - Definiendo tres niveles de gestión (bases, activos e indicadores) para la construcción del modelo cuantitativo. - Realizando una propuesta inicial de bases, activos e indicadores, incluyendo activos intangibles. - Realizando un segundo estudio tipo DELPHI (DELPHI 2) entre expertos con responsabilidad directiva en universidades, para debatir y revisar la propuesta. - Por último diseñando una metodología y la correspondiente herramienta para la condensación de los indicadores. En resumen, se ha generado una propuesta consolidada y actualizada de las bases estratégicas, los activos tangibles e intangibles y los indicadores en ambos casos, diseñándose una metodología (herramienta) que permite implementar la definición de los tres niveles de control, establecer una ponderación de cada uno de los elementos en los tres niveles y establecer una cuantificación de la importancia o contribución de cada elemento para la propia institución, y sirve para facilitar la toma de decisiones por priorización de actuaciones, establecer objetivos para los indicadores, valorar el grado de cumplimiento y modificar la estrategia de una institución universitaria. ABSTRACT The fundamental approach of the work has been to explore the possibilities to establish a methodology based on a quantitative model for condensing indicators related to quality assurance systems in Higher Education Institutions (HEI), particularly public universities. The model includes both assessment of tangible and intangible assets. A methodology adapted to the approach has been followed: - Performing a type DELPHI study (DELPHI 1) between the Technical Quality Units of the universities of the Community of Madrid, to know the level of implementation of strategic planning methodologies in HEI. - Defining three levels of management (bases, assets and indicators) to build the quantitative model. - Performing an initial proposal bases, assets and indicators, including intangible assets. - Making a second study type DELPHI (DELPHI 2) between experts with managerial responsibility in universities, to discuss and review the proposal. - Finally designing a methodology and related tool for condensing indicators. In short, a proposal consolidated and updated for strategic bases, the tangible and intangible assets and indicators of both types of assets has been performed. A methodology (tool) that allows to implement the definition of the three levels of control, establish a weighting each of the elements on three levels and establish a quantification of the importance and contribution of each element to the institution itself, has been designed. The methodology serves: - To facilitate decision-making by prioritizing activities. - To set targets for indicators. - To assess the degree of compliance and - To modify the strategy of the HEI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dinámica estructural estudia la respuesta de una estructura ante cargas o fenómenos variables en el tiempo. En muchos casos, estos fenómenos requieren realizar análisis paramétricos de la estructura considerando una gran cantidad de configuraciones de diseño o modificaciones de la estructura. Estos cambios, ya sean en fases iniciales de diseño o en fases posteriores de rediseño, alteran las propiedades físicas de la estructura y por tanto del modelo empleado para su análisis, cuyo comportamiento dinámico se modifica en consecuencia. Un caso de estudio de este tipo de modificaciones es la supervisión de la integridad estructural, que trata de identificar la presencia de daño estructural y prever el comportamiento de la estructura tras ese daño, como puede ser la variación del comportamiento dinámico de la estructura debida a una delaminación, la aparición o crecimiento de grieta, la debida a la pérdida de pala sufrida por el motor de un avión en vuelo, o la respuesta dinámica de construcciones civiles como puentes o edificios frente a cargas sísmicas. Si a la complejidad de los análisis dinámicos requeridos en el caso de grandes estructuras se añade la variación de determinados parámetros en busca de una respuesta dinámica determinada o para simular la presencia de daños, resulta necesario la búsqueda de medios de simplificación o aceleración del conjunto de análisis que de otra forma parecen inabordables tanto desde el punto de vista del tiempo de computación, como de la capacidad requerida de almacenamiento y manejo de grandes volúmenes de archivos de datos. En la presente tesis doctoral se han revisado los métodos de reducción de elementos .nitos más habituales para análisis dinámicos de grandes estructuras. Se han comparado los resultados de casos de estudio de los métodos más aptos, para el tipo de estructuras y modificaciones descritas, con los resultados de aplicación de un método de reducción reciente. Entre los primeros están el método de condensación estática de Guyan extendido al caso con amortiguamiento no proporcional y posteriores implementaciones de condensaciones dinámicas en diferentes espacios vectoriales. El método de reducción recientemente presentado se denomina en esta tesis DACMAM (Dynamic Analysis in Complex Modal space Acceleration Method), y consiste en el análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura, calculada en el espacio modal complejo y que admite modificaciones estructurales. El método DACMAM permite seleccionar un número reducido de grados de libertad significativos para la dinámica del fenómeno que se quiere estudiar como son los puntos de aplicación de la carga, localizaciones de los cambios estructurales o puntos donde se quiera conocer la respuesta, de forma que al implementar las modificaciones estructurales, se ejecutan los análisis necesarios sólo de dichos grados de libertad sin pérdida de precisión. El método permite considerar alteraciones de masa, rigidez, amortiguamiento y la adición de nuevos grados de libertad. Teniendo en cuenta la dimensión del conjunto de ecuaciones a resolver, la parametrización de los análisis no sólo resulta posible, sino que es también manejable y controlable gracias a la sencilla implementación del procedimiento para los códigos habituales de cálculo mediante elementos .nitos. En el presente trabajo se muestra la bondad y eficiencia del método en comparación con algunos de los métodos de reducción de grandes modelos estructurales, verificando las diferencias entre sí de los resultados obtenidos y respecto a la respuesta real de la estructura, y comprobando los medios empleados en ellos tanto en tiempo de ejecución como en tamaño de ficheros electrónicos. La influencia de los diversos factores que se tienen en cuenta permite identificar los límites y capacidades de aplicación del método y su exhaustiva comparación con los otros procedimientos. ABSTRACT Structural dynamics studies the response of a structure under loads or phenomena which vary over time. In many cases, these phenomena require the use of parametric analyses taking into consideration several design configurations or modifications of the structure. This is a typical need in an engineering o¢ ce, no matter the structural design is in early or final stages. These changes modify the physical properties of the structure, and therefore, the finite element model to analyse it. A case study, that exempli.es this circumstance, is the structural health monitoring to predict the variation of the dynamical behaviour after damage, such as a delaminated structure, a crack onset or growth, an aircraft that suffers a blade loss event or civil structures (buildings or bridges) under seismic loads. Not only large structures require complex analyses to appropriately acquire an accurate solution, but also the variation of certain parameters. There is a need to simplify the analytical process, in order to bring CPU time, data .les, management of solutions to a reasonable size. In the current doctoral thesis, the most common finite element reduction methods for large structures are reviewed. Results of case studies are compared between a recently proposed method, herein named DACMAM (Dynamic Analysis in Complex Modal space Acceleration Method), and different condensation methods, namely static or Guyan condensation and dynamic condensation in different vectorial spaces. All these methods are suitable for considering non-classical damping. The reduction method DACMAM consist of a structural modification in the complex modal domain which provides a dynamic response solution for the reduced models. This process allows the selection of a few degrees of freedom that are relevant for the dynamic response of the system. These d.o.f. are the load application points, relevant structural points or points in which it is important to know the response. Consequently, an analysis with structural modifications implies only the calculation of the dynamic response of the selected degrees of freedom added, but with no loss of information. Therefore, mass, stiffness or damping modifications are easily considered as well as new degrees of freedom. Taking into account the size of the equations to be solved, the parameterization of the dynamic solutions is not only possible, but also manageable and controllable due to the easy implementation of the procedure in the standard finite element solvers. In this thesis, the proposed reduction method for large structural models is compared with other published model order reduction methods. The comparison shows and underlines the efficiency of the new method, and veri.es the differences in the response when compared with the response of the full model. The CPU time, the data files and the scope of the parameterization are also addressed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentro del análisis y diseño estructural surgen frecuentemente problemas de ingeniería donde se requiere el análisis dinámico de grandes modelos de elementos finitos que llegan a millones de grados de libertad y emplean volúmenes de datos de gran tamaño. La complejidad y dimensión de los análisis se dispara cuando se requiere realizar análisis paramétricos. Este problema se ha abordado tradicionalmente desde diversas perspectivas: en primer lugar, aumentando la capacidad tanto de cálculo como de memoria de los sistemas informáticos empleados en los análisis. En segundo lugar, se pueden simplificar los análisis paramétricos reduciendo su número o detalle y por último se puede recurrir a métodos complementarios a los elementos .nitos para la reducción de sus variables y la simplificación de su ejecución manteniendo los resultados obtenidos próximos al comportamiento real de la estructura. Se propone el empleo de un método de reducción que encaja en la tercera de las opciones y consiste en un análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura en el subespacio modal complejo empleando un volumen de datos muy reducido. De este modo se pueden realizar análisis paramétricos variando múltiples parámetros, para obtener una solución muy aproximada al objetivo buscado. Se propone no solo la variación de propiedades locales de masa, rigidez y amortiguamiento sino la adición de grados de libertad a la estructura original para el cálculo de la respuesta tanto permanente como transitoria. Adicionalmente, su facilidad de implementación permite un control exhaustivo sobre las variables del problema y la implementación de mejoras como diferentes formas de obtención de los autovalores o la eliminación de las limitaciones de amortiguamiento en la estructura original. El objetivo del método se puede considerar similar a los que se obtienen al aplicar el método de Guyan u otras técnicas de reducción de modelos empleados en dinámica estructural. Sin embargo, aunque el método permite ser empleado en conjunción con otros para obtener las ventajas de ambos, el presente procedimiento no realiza la condensación del sistema de ecuaciones, sino que emplea la información del sistema de ecuaciones completa estudiando tan solo la respuesta en las variables apropiadas de los puntos de interés para el analista. Dicho interés puede surgir de la necesidad de obtener la respuesta de las grandes estructuras en unos puntos determinados o de la necesidad de modificar la estructura en zonas determinadas para cambiar su comportamiento (respuesta en aceleraciones, velocidades o desplazamientos) ante cargas dinámicas. Por lo tanto, el procedimiento está particularmente indicado para la selección del valor óptimo de varios parámetros en grandes estructuras (del orden de cientos de miles de modos) como pueden ser la localización de elementos introducidos, rigideces, masas o valores de amortiguamientos viscosos en estudios previos en los que diversas soluciones son planteadas y optimizadas, y que en el caso de grandes estructuras, pueden conllevar un número de simulaciones extremadamente elevado para alcanzar la solución óptima. Tras plantear las herramientas necesarias y desarrollar el procedimiento, se propone un caso de estudio para su aplicación al modelo de elementos .nitos del UAV MILANO desarrollado por el Instituto Nacional de Técnica Aeroespacial. A dicha estructura se le imponen ciertos requisitos al incorporar un equipo en aceleraciones en punta de ala izquierda y desplazamientos en punta de ala derecha en presencia de la sustentación producida por una ráfaga continua de viento de forma sinusoidal. La modificación propuesta consiste en la adición de un equipo en la punta de ala izquierda, bien mediante un anclaje rígido, bien unido mediante un sistema de reducción de la respuesta dinámica con propiedades de masa, rigidez y amortiguamiento variables. El estudio de los resultados obtenidos permite determinar la optimización de los parámetros del sistema de atenuación por medio de múltiples análisis dinámicos de forma que se cumplan de la mejor forma posible los requisitos impuestos con la modificación. Se comparan los resultados con los obtenidos mediante el uso de un programa comercial de análisis por el método de los elementos .nitos lográndose soluciones muy aproximadas entre el modelo completo y el reducido. La influencia de diversos factores como son el amortiguamiento modal de la estructura original, el número de modos retenidos en la truncatura o la precisión proporcionada por el barrido en frecuencia se analiza en detalle para, por último, señalar la eficiencia en términos de tiempo y volumen de datos de computación que ofrece el método propuesto en comparación con otras aproximaciones. Por lo tanto, puede concluirse que el método propuesto se considera una opción útil y eficiente para el análisis paramétrico de modificaciones locales en grandes estructuras. ABSTRACT When developing structural design and analysis some projects require dynamic analysis of large finite element models with millions of degrees of freedom which use large size data .les. The analysis complexity and size grow if a parametric analysis is required. This problem has been approached traditionally in several ways: one way is increasing the power and the storage capacity of computer systems involved in the analysis. Other obvious way is reducing the total amount of analyses and their details. Finally, complementary methods to finite element analysis can also be employed in order to limit the number of variables and to reduce the execution time keeping the results as close as possible to the actual behaviour of the structure. Following this third option, we propose a model reduction method that is based in a simplified analysis that supplies a solution for the dynamic response of the structure in the complex modal space using few data. Thereby, parametric analysis can be done varying multiple parameters so as to obtain a solution which complies with the desired objetive. We propose not only mass, stiffness and damping variations, but also addition of degrees of freedom to the original structure in order to calculate the transient and steady-state response. Additionally, the simple implementation of the procedure allows an in-depth control of the problem variables. Furthermore, improvements such as different ways to obtain eigenvectors or to remove damping limitations of the original structure are also possible. The purpose of the procedure is similar to that of using the Guyan or similar model order reduction techniques. However, in our method we do not perform a true model order reduction in the traditional sense. Furthermore, additional gains, which we do not explore herein, can be obtained through the combination of this method with traditional model-order reduction procedures. In our procedure we use the information of the whole system of equations is used but only those nodes of interest to the analyst are processed. That interest comes from the need to obtain the response of the structure at specific locations or from the need to modify the structure at some suitable positions in order to change its behaviour (acceleration, velocity or displacement response) under dynamic loads. Therefore, the procedure is particularly suitable for parametric optimization in large structures with >100000 normal modes such as position of new elements, stiffness, mass and viscous dampings in previous studies where different solutions are devised and optimized, and in the case of large structures, can carry an extremely high number of simulations to get the optimum solution. After the introduction of the required tools and the development of the procedure, a study case is proposed with use the finite element model (FEM) of the MILANO UAV developed by Instituto Nacional de Técnica Aeroespacial. Due to an equipment addition, certain acceleration and displacement requirements on left wing tip and right wing tip, respectively, are imposed. The structure is under a continuous sinusoidal wind gust which produces lift. The proposed modification consists of the addition of an equipment in left wing tip clamped through a rigid attachment or through a dynamic response reduction system with variable properties of mass, stiffness and damping. The analysis of the obtained results allows us to determine the optimized parametric by means of multiple dynamic analyses in a way such that the imposed requirements have been accomplished in the best possible way. The results achieved are compared with results from a commercial finite element analysis software, showing a good correlation. Influence of several factors such as the modal damping of the original structure, the number of modes kept in the modal truncation or the precission given by the frequency sweep is analyzed. Finally, the efficiency of the proposed method is addressed in tems of computational time and data size compared with other approaches. From the analyses performed, we can conclude that the proposed method is a useful and efficient option to perform parametric analysis of possible local modifications in large structures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo tiene dos objetivos diferenciados. El primero de ellos tiene un punto de vista más ingenieril que es el de obtener una gama cromática extensa y parametrizar los colores para su reproducción en aplicaciones industriales. El segundo, desarrollar y proponer un modelo numérico óptico de interferencia en láminas delgadas que describa y relacione el espesor de la capa de óxido obtenida por marcado láser con el color obtenido en la superficie procesada. Para desarrollar ambos estudios ha sido necesaria una extensa búsqueda bibliográfica para comprender el proceso de formación de la capa de óxido y los compuestos que se generaban en la misma. Como objetivo para la gama cromática se buscaba obtener un total de doce colores. No se han obtenido dos de los colores primarios considerados pero sí una extensa gama de colores intermedios, muy superior en número objetivo, que evidencian el potencial que tiene el procesado láser para la obtención de colores en la superficie de acero inoxidable. Para conseguir obtener la gama cromática ha sido necesaria la realización de ensayos para parametrizar el haz láser. Se ha estudiado la estabilidad de la potencia media de pulso, se ha calculado indirectamente la cintura del haz y se ha medido el tamaño del spot láser a distintas cotas respecto del plano focal. El modelo óptico de interferencia en capa delgada ha sido comparado con un ensayo en el que se midieron las reflectancias en muestras de acero procesadas con láser. Este ensayo ha permitido dilucidar que la composición de la capa de óxido introducida en el modelo que más se aproxima a los resultados, entre las tres composiciones consideradas, se compone de un 50% de cromita y 50% de magnetita, considerando una relación lineal y directamente proporcional entre la proporción de los mismos y sus propiedades ópticas. A nivel cualitativo, se pueden relacionar los colores encontrados en los aceros con el modelo óptico en función de las reflectancias predominantes para cada espesor de capa de óxido de forma que exista una relación directa entre tamaño de la capa de óxido y densidad de energía depositada en la muestra. Aunque ajustar y validar un modelo óptico está fuera del alcance del proyecto, el resultado anterior permite justificar y afirmar que el fenómeno de interferencia óptica está presente entre los fenómenos que generan el color en la superficie del acero tras procesado láser. También se comprueba en el trabajo, a través de un ensayo que mide la rugosidad superficial de las muestras obtenidas, que la rugosidad es un parámetro que afecta en gran medida al resultado que se obtiene tras el procesado láser. El presente trabajo tiene un gran interés industrial. El marcado láser presenta una gran versatilidad por las distintas aplicaciones en las que puede emplearse. Es muy utilizado para crear métodos de identificación por su flexibilidad y rapidez y su carácter indeleble, económico y prácticamente ausente de mantenimiento. La alta inversión inicial es rentable para grandes niveles de producción por su velocidad de producción, repetitividad y facilidad de automatización. Puede ejercer una influencia importante en el control del stocks y en el seguimiento del ciclo de vida del producto. La amplia gama cromática obtenida en este trabajo amplía las posibilidades de este proceso en la práctica industrial y, por tanto, su valor como proceso.