19 resultados para Modelos físicos reduzidos

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral está encuadrada dentro del marco general de la ingeniería biomédica aplicada al tratamiento de las enfermedades cardiovasculares, enfermedades que provocan alrededor de 1.9 millones (40%) de muertes al año en la Unión Europea. En este contexto surge el proyecto europeo SCATh-Smart Catheterization, cuyo objetivo principal es mejorar los procedimientos de cateterismo aórtico introduciendo nuevas tecnologías de planificación y navegación quirúrgica y minimizando el uso de fluoroscopía. En particular, esta tesis aborda el modelado y diagnóstico de aneurismas aórticos abdominales (AAA) y del trombo intraluminal (TIL), allí donde esté presente, así como la segmentación de estas estructuras en imágenes preoperatorias de RM. Los modelos físicos específicos del paciente, construidos a partir de imágenes médicas preoperatorias, tienen múltiples usos, que van desde la evaluación preoperatoria de estructuras anatómicas a la planificación quirúrgica para el guiado de catéteres. En el diagnóstico y tratamiento de AAA, los modelos físicos son útiles a la hora de evaluar diversas variables biomecánicas y fisiológicas de las estructuras vasculares. Existen múltiples técnicas que requieren de la generación de modelos físicos que representen la anatomía vascular. Una de las principales aplicaciones de los modelos físicos es el análisis de elementos finitos (FE). Las simulaciones de FE para AAA pueden ser específicas para el paciente y permiten modelar estados de estrés complejos, incluyendo los efectos provocados por el TIL. La aplicación de métodos numéricos de análisis tiene como requisito previo la generación de una malla computacional que representa la geometría de interés mediante un conjunto de elementos poliédricos, siendo los hexaédricos los que presentan mejores resultados. En las estructuras vasculares, generar mallas hexaédricas es un proceso especialmente exigente debido a la compleja anatomía 3D ramificada. La mayoría de los AAA se encuentran situados en la bifurcación de la arteria aorta en las arterias iliacas y es necesario modelar de manera fiel dicha bifurcación. En el caso de que la sangre se estanque en el aneurisma provocando un TIL, éste forma una estructura adyacente a la pared aórtica. De este modo, el contorno externo del TIL es el mismo que el contorno interno de la pared, por lo que las mallas resultantes deben reflejar esta particularidad, lo que se denomina como "mallas conformadas". El fin último de este trabajo es modelar las estructuras vasculares de modo que proporcionen nuevas herramientas para un mejor diagnóstico clínico, facilitando medidas de riesgo de rotura de la arteria, presión sistólica o diastólica, etc. Por tanto, el primer objetivo de esta tesis es diseñar un método novedoso y robusto para generar mallas hexaédricas tanto de la pared aórtica como del trombo. Para la identificación de estas estructuras se utilizan imágenes de resonancia magnética (RM). Deben mantenerse sus propiedades de adyacencia utilizando elementos de alta calidad, prestando especial atención al modelado de la bifurcación y a que sean adecuadas para el análisis de FE. El método tiene en cuenta la evolución de la línea central del vaso en el espacio tridimensional y genera la malla directamente a partir de las imágenes segmentadas, sin necesidad de reconstruir superficies triangulares. Con el fin de reducir la intervención del usuario en el proceso de generación de las mallas, es también objetivo de esta tesis desarrollar un método de segmentación semiautomática de las distintas estructuras de interés. Las principales contribuciones de esta tesis doctoral son: 1. El diseño, implementación y evaluación de un algoritmo de generación de mallas hexaédricas conformadas de la pared y el TIL a partir de los contornos segmentados en imágenes de RM. Se ha llevado a cabo una evaluación de calidad que determine su aplicabilidad a métodos de FE. Los resultados demuestran que el algoritmo desarrollado genera mallas conformadas de alta calidad incluso en la región de la bifurcación, que son adecuadas para su uso en métodos de análisis de FE. 2. El diseño, implementación y evaluación de un método de segmentación automático de las estructuras de interés. La luz arterial se segmenta de manera semiautomática utilizando un software disponible a partir de imágenes de RM con contraste. Los resultados de este proceso sirven de inicialización para la segmentación automática de las caras interna y externa de la pared aórtica utilizando métodos basado en modelos de textura y forma a partir de imágenes de RM sin contraste. Los resultados demuestran que el algoritmo desarrollado proporciona segmentaciones fieles de las distintas estructuras de interés. En conclusión, el trabajo realizado en esta tesis doctoral corrobora las hipótesis de investigación postuladas, y pretende servir como aportación para futuros avances en la generación de modelos físicos de geometrías biológicas. ABSTRACT The frame of this PhD Thesis is the biomedical engineering applied to the treatment of cardiovascular diseases, which cause around 1.9 million deaths per year in the European Union and suppose about 40% of deaths per year. In this context appears the European project SCATh-Smart Catheterization. The main objective of this project is creating a platform which improves the navigation of catheters in aortic catheterization minimizing the use of fluoroscopy. In the framework of this project, the specific field of this PhD Thesis is the diagnosis and modeling of abdominal aortic aneurysm (AAAs) and the intraluminal thrombus (ILT) whenever it is present. Patient-specific physical models built from preoperative imaging are becoming increasingly important in the area of minimally invasive surgery. These models can be employed for different purposes, such as the preoperatory evaluation of anatomic structures or the surgical planning for catheter guidance. In the specific case of AAA diagnosis and treatment, physical models are especially useful for evaluating pressures over vascular structures. There are multiple techniques that require the generation of physical models which represent the target anatomy. Finite element (FE) analysis is one the principal applications for physical models. FE simulations for AAA may be patient-specific and allow modeling biomechanical and physiological variables including those produced by ILT, and also the segmentation of those anatomical structures in preoperative MR images. Applying numeric methods requires the generation of a proper computational mesh. These meshes represent the patient anatomy using a set of polyhedral elements, with hexahedral elements providing better results. In the specific case of vascular structures, generating hexahedral meshes is a challenging task due to the complex 3D branching anatomy. Each patient’s aneurysm is unique, characterized by its location and shape, and must be accurately represented for subsequent analyses to be meaningful. Most AAAs are located in the region where the aorta bifurcates into the iliac arteries and it is necessary to model this bifurcation precisely and reliably. If blood stagnates in the aneurysm and forms an ILT, it exists as a conforming structure with the aortic wall, i.e. the ILT’s outer contour is the same as the wall’s inner contour. Therefore, resulting meshes must also be conforming. The main objective of this PhD Thesis is designing a novel and robust method for generating conforming hexahedral meshes for the aortic wall and the thrombus. These meshes are built using largely high-quality elements, especially at the bifurcation, that are suitable for FE analysis of tissue stresses. The method accounts for the evolution of the vessel’s centerline which may develop outside a single plane, and generates the mesh directly from segmented images without the requirement to reconstruct triangular surfaces. In order to reduce the user intervention in the mesh generation process is also a goal of this PhD. Thesis to develop a semiautomatic segmentation method for the structures of interest. The segmentation is performed from magnetic resonance image (MRI) sequences that have tuned to provide high contrast for the arterial tissue against the surrounding soft tissue, so that we determine the required information reliably. The main contributions of this PhD Thesis are: 1. The design, implementation and evaluation of an algorithm for generating hexahedral conforming meshes of the arterial wall and the ILT from the segmented contours. A quality inspection has been applied to the meshes in order to determine their suitability for FE methods. Results show that the developed algorithm generates high quality conforming hexahedral meshes even at the bifurcation region. Thus, these meshes are suitable for FE analysis. 2. The design, implementation and evaluation of a semiautomatic segmentation method for the structures of interest. The lumen is segmented in a semiautomatic way from contrast filled MRI using an available software. The results obtained from this process are used to initialize the automatic segmentation of the internal and external faces of the aortic wall. These segmentations are performed by methods based on texture and shape models from MRI with no contrast. The results show that the algorithm provides faithful segmentations of the structures of interest requiring minimal user intervention. In conclusion, the work undertaken in this PhD. Thesis verifies the investigation hypotheses. It intends to serve as basis for future physical model generation of proper biological anatomies used by numerical methods.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La presente tesis estudia, analiza y explora la problemática de la conversión electromecánica a baja velocidad y propone soluciones para mejorarla en términos de prestaciones y coste. La baja velocidad es una característica común de la mayor parte de sistemas de conversión de fuentes renovables. Dicha baja velocidad se debe a la manera en que se establece la interacción entre la fuente y el sistema de generación. Se aborda la problemática del accionamiento directo entre el absorbedor y el generador eléctrico en los casos de energía eólica y energía con olas. A continuación se profundiza en las máquinas de imanes permanentes, las cuales son de gran interés en este caso por las prestaciones que permiten en términos de eficiencia y densidad de potencia. Se presentan los modelos físicos empleados y en base a ellos se proponen metodologías de diseño, una de las cuales maximiza el par en relación a las pérdidas, y otra que minimiza el efecto de la incertidumbre existente sobre el precio de los imanes permanentes, problemática enorme en el caso de las tierras raras. Adicionalmente, y como contribución a la técnica más importante de esta tesis, se propone y justifica el uso en aplicaciones de accionamiento directo de una configuración de máquina que mejora las características de las ya existentes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La formación matemática que se imparte en los diferentes títulos de la ETSI Agrónomos presenta características comunes a otras ingenierías pero también algunos rasgos específicos. Como en otras ingenierías, esta formación está vinculada en parte a la utilización de modelos físicos altamente matematizados. Además, el ingeniero agrónomo debe dar respuesta a desafíos que ponen en juego otras disciplinas, como las ciencias biológicas o las ciencias de la naturaleza. Estas ciencias muchas veces requieren de nuevas teorías matemáticas para alcanzar sus objetivos, lo que representa nuevos retos para las matemáticas tanto en el campo de la docencia como en el de la investigación. A modo de ejemplo, vamos a centrarnos aquí en el uso de una teoría matemática con importantes aplicaciones a los sistemas agroambientales. Esta teoría matemática es la geometría fractal, nacida a principios del siglo pasado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La perspicacia de Torroja aparece también cuando se analiza su dominio de los métodos de cálculo y sus contribuciones a la ordenación de su enseñanza según un esquema que ha sido seguido hasta hoy por la mayoría de las escuelas de ingeniería españolas. El enfoque científico de los problemas constructivos surge con el famoso "Diálogo y demostración matemática" de Galileo sobre "las dos nuevas ciencias" publicado en Leiden en 1638, donde el sabio toscano se planteaba problemas típicos de la Resistencia de Materiales (que era una de las dos nuevas ciencias que anunciaba el título). Con este progenitor no es de extrañar que el método ingenieril siga un proceso semejante al de la ciencia positiva: tras una primera etapa de observación de la naturaleza o de las construcciones existentes se detectan fenómenos curiosos que se intentan reproducir en modelos físicos o abstractos. El estudio de la respuesta de estos modelos a las acciones debidas al medio ambiente permite una comprensión de su funcionamiento y la construcción de un artefacto (sea una maquina, una edificación o un detalle constructivo) que cumple los requisitos que se desean. Este prototipo es sometido a las acciones reales y de su observación, repitiendo el proceso, se adquieren enseñanzas que permiten mejorar la solución. En el mundo de la producción industrializada, la etapa siguiente es la fabricación en serie y, en el de la construcción, el establecimiento de un "estado del arte" que se recoge en Códigos o Normas de buena práctica, que se van actualizando de acuerdo con los nuevos conocimientos adquiridos o con las exigencias sociales. En estas páginas, tras un somero recuerdo de la evolución de los métodos de cálculo en la Mecánica estructural, se describe la línea que él decidió escoger, así como las características de su entorno, lo que aclara sus posibles fuentes de inspiración. Siguiendo la línea reflexiva de esta conmemoración, se recuerda la evolución de los acontecimientos posteriores a su muerte, así como algunas líneas de investigación actualmente abiertas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los incendios registrados en los últimos años en túneles de carretera y ferrocarril han ocasionado un número de víctimas que dobla el registrado hasta 1999, así como numerosos perjuicios materiales y económicos. En la lección tras unas consideraciones sobre los enfoques ingenieril, psicológico y sociológico del concepto de riesgo en las infraestructuras se pasa revista a los motivos que pueden haber dado lugar a los accidentes y en particular se comentan los posibles errores cometidos en la elaboración de proyectos, en la construcción de las obras y en su explotación y control. Se analizan a continuación los experimentos en modelos físicos tanto a escala real como reducida así como los modelos numéricos de que se dispone para estudios y proyectos. Se comenta también la instrumentación admonitoria, y en ocasiones cognoscitiva, que se coloca en las obras así como el avance en los procedimientos de control destinados a mantener la seguridad tanto en condiciones de servicio como de accidente. Se dedica un apartado especial al importantísimo tema del reacondicionamiento de túneles existentes para dotarlos de los mismos niveles de seguridad que los de nueva planta. Finalmente se comentan los estudios de Naciones Unidas sobre la actuación de los gobiernos en los campos de formación de usuarios, control de vehículos, dotación de infraestructuras y criterios de explotación que hacen hincapié en la necesidad de mejorar ciertos aspectos que se resumen en un Apéndice a la lección y que darán origen en el futuro a una Directiva de la Unión Europea.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este capítulo se reflexiona sobre la evolución en el siglo XIX de lo que en Italia solían llamar scienza delle construzioni. En dos palabras: se trata de la aplicación de modelos de cálculo basados en la mecánica racional para determinar la seguridad de las construcciones. En este sentido, el XIX ofrece un cambio radical respecto al panorama de siglos anteriores, en los que lo fundamental era la experiencia constructiva y el proceso lento; lento tanto en la formación de técnicos como en la materialización de obras, donde la falta de herramientas de cálculo para prever comportamientos condujo en ocasiones al uso de modelos físicos a escala reducida para demostrar la seguridad de las construcciones o la factibilidad de su proceso edilicio. El capítulo se refiere exclusivamente a modelos abstractos (ni siquiera a los ensayos de laboratorio que pusieron de manifiesto nuevos fenómenos), a pesar de lo cual conviene arrancar con cuatro ejemplos reales, uno por cada cuarto de siglo que pongan de manifiesto los cambios de enfoques producidos en la construcción El primero es una celebrada estructura de madera cuya seguridad fue comprobada mediante ensayos sobre elementos a escala real. Insuperable en la elegancia de su diseño, el segundo, el viaducto de las Cabrillas (1851), fue proyectado y construido en piedra por Lucio del Valle en la cuesta de Contreras. El tercer ejemplo podría ser un puente colgante o «colgado», como se denominaban en la época, de los numerosos que se construyeron en España en la segunda mitad de siglo, pero, por su envergadura y tipología, se ha decidido escoger un caso más tardío: el viaducto del Salado, en la línea de ferrocarril Linares-Almería, proyecto de José Olano (1897) llevado a cabo por la compañía Fives-Lille. El proceso de lanzamiento por empuje hasta entroncar con el túnel del estribo izquierdo fue presenciado en enero de 1899 por un grupo de alumnos de la Escuela de Caminos encabezados por su director, Rogelio Inchaurrandieta, y diferentes profesores, entre los que se encontraban Serafín Freart, encargado de Mecánica Aplicada, y Luis Gaztelu, profesor de Puentes. Con sus pilas de alrededor de 110 m de altura y sus vanos de otro tanto, es un buen ejemplo de lo que] avier Mantero la llama «la gran invención de todo el siglo XIX: la viga en celosía, invención de tanta o mayor trascendencia que la bóveda de piedra para el arco" (Manterola, 2006. Aunque las cerchas de bronce del Panteón de Roma, debidas a Apolodoro de Damasco, o los esquemas de Palladio y las cubiertas de inglesias góticas son precursores de esta tipología (Mainstone, 1975), está laro que sólo en el siglo XIX el cálculo permitió racionalizar los diseños y alcanzar la simplicidad y efectividad que Manterola reconoce como invención. Finalmente, se hace referencia al puente de Golbardo en Santander, uno de los primeros de hormigón armado en España (1900). Este material llegará a su pleno desarrollo en el siglo XX, no sin vencer la desconfianza de sucesivas generaciones. En resumen, a los materiales clásicos, madera y piedra, se añaden en el siglo XIX los hierros y aceros, así como finalmente, el hormigón. Ello motiva una reconsideración de la tipología, de las ideas sobre seguridad estructural, sobre los métodos constructivos y sobre el cálculo que produce la gran eclosión en la representación abstracta del comportamiento de las construcciones, lo cual sólo es posible gracias al progreso de las ciencias. En este capítulo se intentará, en un primer apartado, resumir la experiencia teórica hasta que Coulomb escribe su magistral ensayo. A continuación se tratarán someramente las diferentes líneas de trabajo generadas en países extranjeros y, finalmente, se dará una visión personal de los esfuerzos llevados a cabo en España, que, aún disponiendo de centros docentes perfectamente conectados con lo que sucedía en el extranjero, no fue capaz de generar ninguna aportación original al debate internacional.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las conferencias presentadas durante la Jornada Técnica sobre Avances en investigación aplicada en seguridad hidráulica de presas organizada por el Centro de Estudios Hidrográficos del CEDEX y la Universidad Politécnica de Madrid el mes de junio de 2013 versan sobre la mejora de la seguridad hidráulica de las presas, una materia de especial importancia en nuestro país (habida cuenta del elevado número de infraestructuras de regulación en servicio y de su antigüedad media) y constituye una tarea en la que tanto el CEDEX como la Universidad Politécnica de Madrid han trabajado activamente en los últimos años. El Departamento de presas de la ETSICCP, el Centro de Estudios Hidrográficos del CEDEX el Centro Internacional de Modelación Numérica (CIMNE), la empresa VEMSA y la compañía de ingeniería JESÚS GRANELL Ingenieros Consultores viene acometiendo un proyecto de investigación en materia de vertederos tipo laberinto. El objetivo principal de la investigación es la obtención de conocimientos y herramientas que permitan un diseño razonado de este tipo de estructuras hidráulicas. Además, se estudian otros efectos en su comportamiento, como son las condiciones hidráulicas de aproximación a la embocadura. La investigación se basa en el ensayo hidráulico en modelos físicos complementado por modelos numéricos mediante aplicaciones de última generación. Descripción del proceso de diseño y construcción del modelo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El remonte extremo o remonte del 2% es un parámetro clave en la ingeniería costera dado que permite acometer actuaciones en las playas bajo criterios de sostenibilidad económico y socioambiental. Estas actuaciones van desde el diseño de estructuras en el trasdós de la playa a planes de actuación urbanística en la costa tal que se determine adecuadamente los límites de dominio público. El adecuado diseño de estas actuaciones adquiere más relevancia hoy en día debido a las nuevas amenazas que se ponen de relieve debido al cambio climático, y que en el caso concreto de la costa se materializa en inundaciones que provocan pérdidas económicas. Estudios precedentes han realizado ensayos in situ o en modelo físico para la determinación del remonte extremo en playas. Al comparar estas formulaciones la dispersión es alta lo que implica que la precisión en la obtención del remonte no sea suficiente. Esta dispersión se justifica debido al amplio espectro de playas existentes y la alta variabilidad del clima marítimo. Este problema cobra más relevancia debido a las actuaciones preventivas o correctivas a acometer frente al cambio climático bajo un criterio de sostenibilidad. Con el fin de realizar actuaciones sostenibles bajo el contexto actual del probable aumento de inundaciones costeras por cambio climático no deben obtenerse ni magnitudes sobredimensionadas con el consecuente consumo de recursos y afección a las actividades económicas, ni magnitudes subestimadas que pongan en riesgo la estabilidad y/o la funcionalidad de las actuaciones para un periodo de diseño. El principal objetivo de esta tesis es proponer una formulación de aplicación en la obtención del remonte extremo tal que se cumplan los criterios de seguridad para el servicio y funcionalidad de la obra y los criterios de sostenibilidad económico y socio-ambiental que se requieren hoy en día. Es decir, una fórmula que no sobredimensione el cálculo de este valor pero que pueda cubrir la casuística que acontece en las distintas tipologías de playas. Complementariamente a este objetivo se ejemplifica la aplicación de estas formulaciones en casos reales tal que se reduzca la incertidumbre y ambigüedad en la obtención de las variables independientes de las formulaciones. Para la consecución de estos objetivos se realiza un estado del arte en el que se estudia tanto los estudios estadísticos en la obtención de este parámetro como los modelos numéricos propuestos para ello, tal que se deduzca la mejor línea de investigación en la consecución del fin de esta tesis. Tras este estudio del arte se concluye que la mejor línea de investigación sigue la vía estadística y se diseña un modelo físico con fondo de arena en contraste con modelos físicos con fondo impermeable fijo. Los resultados de dicho modelo se han comparado con las formulaciones precedentes y se proponen las fórmulas de aplicación más convenientes para la obtención del remonte extremo. Complementariamente a la propuesta de formulaciones se desarrolla una metodología de aplicación de dichas formulaciones a casos de la costa española que ejemplifican convenientemente su uso para una adecuada predicción de este valor en las playas. The extreme runup is a key parameter in coastal management. This parameter allows to develop sustainability actions at the coast that meet economical and environmental criteria. At the coast the actions can be either design of structures at the shore or actions plans delimiting reclamation areas. The climate change has given more relevance to accomplish an appropriate design for the coastal management actions. At the coast the threaten are mainly focused on more frequent floods that cause economic losses. Previous studies have carried out field or physical model experiments to accomplish an equation for the extreme runup prediction. Although dispersion remains high when comparing the different proposals so the accuracy in the prediction might be risky. This scattering comes from the wide sort of beaches and the high variability of the maritime climate. The new actions that are needed to develop to counteract the effects of the climate change need a more efficient criteria. Hence formulations should not overestimate or underestimate the values of the extreme runup. The overestimation implies to consume resources that are not needed and the underestimation means in a structure risk to support safely the loads. The main goal of this thesis is to propose a formulation for the extreme runup prediction so the safety of the structure can be accomplished but at the same time the sustainability of the action is ensured under economical and environmental criteria that are demanded nowadays. So the formulation does not overestimate the extreme value but cover with enough confidence the different sort of beaches. The application of the formulation is also explained in order to reduce uncertainty when the input values are obtained. In order to accomplish the goal of this research firstly a literature review is done. Statistical and numerical models are studied. The statistical model is selected as the most convenient research guideline. In order to obtain runup results a physical model with sand bed is carried out. The bed differs from those that used impermeable slope in previous experiments. Once the results are obtained they are compared with the previous equations and a final formulation is proposed. Finally a methodology to apply the deduced formulation to the Spanish beaches is addressed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El control del estado en el que se encuentran las estructuras ha experimentado un gran auge desde hace varias décadas, debido a que los costes de rehabilitación de estructuras tales como los oleoductos, los puentes, los edificios y otras más son muy elevados. En las últimas dos décadas, se han desarrollado una gran cantidad de métodos que permiten identificar el estado real de una estructura, basándose en modelos físicos y datos de ensayos. El ensayo modal es el más común; mediante el análisis modal experimental de una estructura se pueden determinar parámetros como la frecuencia, los modos de vibración y la amortiguación y también la función de respuesta en frecuencia de la estructura. Mediante estos parámetros se pueden implementar diferentes indicadores de daño. Sin embargo, para estructuras complejas y grandes, la implementación de metodologías basadas en la función de respuesta en frecuencia requeriría realizar hipótesis sobre la fuerza utilizada para excitar la estructura. Dado que el análisis modal operacional utiliza solamente las señales de respuesta del sistema para extraer los parámetros dinámicos estructurales y, por tanto, para evaluar el estado de una estructura, el uso de la transmisibilidad sería posible. En este sentido, dentro del análisis modal operacional, la transmisibilidad ha concentrado mucha atención en el mundo científico en la última década. Aunque se han publicado muchos trabajos sobre el tema, en esta Tesis se proponen diferentes técnicas para evaluar el estado de una estructura basándose exclusivamente en la transmisibilidad. En primer lugar, se propone un indicador de daño basado en un nuevo parámetro, la coherencia de transmisibilidad; El indicador se ha valido mediante resultados numéricos y experimentales obtenidos sobre un pórtico de tres pisos. En segundo lugar, la distancia de Mahalanobis se aplica sobre la transmisibilidad como procedimiento para detectar variaciones estructurales provocadas por el daño. Este método se ha validado con éxito sobre una viga libre-libre ensayada experimentalmente. En tercer lugar, se ha implementado una red neuronal basada en medidas de transmisibilidad como metodología de predicción de daño sobre una viga simulada numéricamente. ABSTRACT Structural health monitoring has experienced a huge development from several decades ago since the cost of rehabilitation of structures such as oil pipes, bridges and tall buildings is very high. In the last two decades, a lot of methods able to identify the real stage of a structure have been developed basing on both models and experimental data. Modal testing is the most common; by carrying out the experimental modal analysis of a structure, some parameters, such as frequency, mode shapes and damping, as well as the frequency response function of the structure can be obtained. From these parameters, different damage indicators have been proposed. However, for complex and large structures, any frequency domain approach that relies on frequency response function estimation would be of difficult application since an assumption of the input excitations to the system should be carried out. Operational modal analysis uses only output signals to extract the structural dynamic parameters and, therefore, to identify the structural stage. In this sense, within operational modal analysis, transmissibility has attracted a lot of attention in the scientific field in the last decade. In this work new damage detection approaches based on transmissibility are developed. Firstly, a new theory of transmissibility coherence is developed and it is tested with a three-floor-structure both in simulation and in experimental data analysis; secondly, Mahalanobis distance is taken into use with the transmissibility, and a free-free beam is used to test the approach performance; thirdly, neural networks are used in transmissibility for structural health monitoring; a simulated beam is used to validate the proposed method.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El rebase se define como el transporte de una cantidad importante de agua sobre la coronación de una estructura. Por tanto, es el fenómeno que, en general, determina la cota de coronación del dique dependiendo de la cantidad aceptable del mismo, a la vista de condicionantes funcionales y estructurales del dique. En general, la cantidad de rebase que puede tolerar un dique de abrigo desde el punto de vista de su integridad estructural es muy superior a la cantidad permisible desde el punto de vista de su funcionalidad. Por otro lado, el diseño de un dique con una probabilidad de rebase demasiado baja o nula conduciría a diseños incompatibles con consideraciones de otro tipo, como son las estéticas o las económicas. Existen distintas formas de estudiar el rebase producido por el oleaje sobre los espaldones de las obras marítimas. Las más habituales son los ensayos en modelo físico y las formulaciones empíricas o semi-empíricas. Las menos habituales son la instrumentación en prototipo, las redes neuronales y los modelos numéricos. Los ensayos en modelo físico son la herramienta más precisa y fiable para el estudio específico de cada caso, debido a la complejidad del proceso de rebase, con multitud de fenómenos físicos y parámetros involucrados. Los modelos físicos permiten conocer el comportamiento hidráulico y estructural del dique, identificando posibles fallos en el proyecto antes de su ejecución, evaluando diversas alternativas y todo esto con el consiguiente ahorro en costes de construcción mediante la aportación de mejoras al diseño inicial de la estructura. Sin embargo, presentan algunos inconvenientes derivados de los márgenes de error asociados a los ”efectos de escala y de modelo”. Las formulaciones empíricas o semi-empíricas presentan el inconveniente de que su uso está limitado por la aplicabilidad de las fórmulas, ya que éstas sólo son válidas para una casuística de condiciones ambientales y tipologías estructurales limitadas al rango de lo reproducido en los ensayos. El objetivo de la presente Tesis Doctoral es el contrate de las formulaciones desarrolladas por diferentes autores en materia de rebase en distintas tipologías de diques de abrigo. Para ello, se ha realizado en primer lugar la recopilación y el análisis de las formulaciones existentes para estimar la tasa de rebase sobre diques en talud y verticales. Posteriormente, se llevó a cabo el contraste de dichas formulaciones con los resultados obtenidos en una serie de ensayos realizados en el Centro de Estudios de Puertos y Costas. Para finalizar, se aplicó a los ensayos de diques en talud seleccionados la herramienta neuronal NN-OVERTOPPING2, desarrollada en el proyecto europeo de rebases CLASH (“Crest Level Assessment of Coastal Structures by Full Scale Monitoring, Neural Network Prediction and Hazard Analysis on Permissible Wave Overtopping”), contrastando de este modo la tasa de rebase obtenida en los ensayos con este otro método basado en la teoría de las redes neuronales. Posteriormente, se analizó la influencia del viento en el rebase. Para ello se han realizado una serie de ensayos en modelo físico a escala reducida, generando oleaje con y sin viento, sobre la sección vertical del Dique de Levante de Málaga. Finalmente, se presenta el análisis crítico del contraste de cada una de las formulaciones aplicadas a los ensayos seleccionados, que conduce a las conclusiones obtenidas en la presente Tesis Doctoral. Overtopping is defined as the volume of water surpassing the crest of a breakwater and reaching the sheltered area. This phenomenon determines the breakwater’s crest level, depending on the volume of water admissible at the rear because of the sheltered area’s functional and structural conditioning factors. The ways to assess overtopping processes range from those deemed to be most traditional, such as semi-empirical or empirical type equations and physical, reduced scale model tests, to others less usual such as the instrumentation of actual breakwaters (prototypes), artificial neural networks and numerical models. Determining overtopping in reduced scale physical model tests is simple but the values obtained are affected to a greater or lesser degree by the effects of a scale model-prototype such that it can only be considered as an approximation to what actually happens. Nevertheless, physical models are considered to be highly useful for estimating damage that may occur in the area sheltered by the breakwater. Therefore, although physical models present certain problems fundamentally deriving from scale effects, they are still the most accurate, reliable tool for the specific study of each case, especially when large sized models are adopted and wind is generated Empirical expressions obtained from laboratory tests have been developed for calculating the overtopping rate and, therefore, the formulas obtained obviously depend not only on environmental conditions – wave height, wave period and water level – but also on the model’s characteristics and are only applicable in a range of validity of the tests performed in each case. The purpose of this Thesis is to make a comparative analysis of methods for calculating overtopping rates developed by different authors for harbour breakwater overtopping. First, existing equations were compiled and analysed in order to estimate the overtopping rate on sloping and vertical breakwaters. These equations were then compared with the results obtained in a number of tests performed in the Centre for Port and Coastal Studies of the CEDEX. In addition, a neural network model developed in the European CLASH Project (“Crest Level Assessment of Coastal Structures by Full Scale Monitoring, Neural Network Prediction and Hazard Analysis on Permissible Wave Overtopping“) was also tested. Finally, the wind effects on overtopping are evaluated using tests performed with and without wind in the physical model of the Levante Breakwater (Málaga).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El control del estado en el que se encuentran las estructuras ha experimentado un gran auge desde hace varias décadas, debido a que los costes de rehabilitación de estructuras tales como los oleoductos, los puentes, los edificios y otras más son muy elevados. En las últimas dos décadas, se han desarrollado una gran cantidad de métodos que permiten identificar el estado real de una estructura, basándose en modelos físicos y datos de ensayos. El ensayo modal es el más común; mediante el análisis modal experimental de una estructura se pueden determinar parámetros como la frecuencia, los modos de vibración y la amortiguación y también la función de respuesta en frecuencia de la estructura. Mediante estos parámetros se pueden implementar diferentes indicadores de daño. Sin embargo, para estructuras complejas y grandes, la implementación de metodologías basadas en la función de respuesta en frecuencia requeriría realizar hipótesis sobre la fuerza utilizada para excitar la estructura. Dado que el análisis modal operacional utiliza solamente las señales de respuesta del sistema para extraer los parámetros dinámicos estructurales y, por tanto, para evaluar el estado de una estructura, el uso de la transmisibilidad sería posible. En este sentido, dentro del análisis modal operacional, la transmisibilidad ha concentrado mucha atención en el mundo científico en la última década. Aunque se han publicado muchos trabajos sobre el tema, en esta Tesis se proponen diferentes técnicas para evaluar el estado de una estructura basándose exclusivamente en la transmisibilidad. En primer lugar, se propone un indicador de daño basado en un nuevo parámetro, la coherencia de transmisibilidad; El indicador se ha valido mediante resultados numéricos y experimentales obtenidos sobre un pórtico de tres pisos. En segundo lugar, la distancia de Mahalanobis se aplica sobre la transmisibilidad como procedimiento para detectar variaciones estructurales provocadas por el daño. Este método se ha validado con éxito sobre una viga libre-libre ensayada experimentalmente. En tercer lugar, se ha implementado una red neuronal basada en medidas de transmisibilidad como metodología de predicción de daño sobre una viga simulada numéricamente. ABSTRACT Structural health monitoring has experienced a huge development from several decades ago since the cost of rehabilitation of structures such as oil pipes, bridges and tall buildings is very high. In the last two decades, a lot of methods able to identify the real stage of a structure have been developed basing on both models and experimental data. Modal testing is the most common; by carrying out the experimental modal analysis of a structure, some parameters, such as frequency, mode shapes and damping, as well as the frequency response function of the structure can be obtained. From these parameters, different damage indicators have been proposed. However, for complex and large structures, any frequency domain approach that relies on frequency response function estimation would be of difficult application since an assumption of the input excitations to the system should be carried out. Operational modal analysis uses only output signals to extract the structural dynamic parameters and, therefore, to identify the structural stage. In this sense, within operational modal analysis, transmissibility has attracted a lot of attention in the scientific field in the last decade. In this work new damage detection approaches based on transmissibility are developed. Firstly, a new theory of transmissibility coherence is developed and it is tested with a three-floor-structure both in simulation and in experimental data analysis; secondly, Mahalanobis distance is taken into use with the transmissibility, and a free-free beam is used to test the approach performance; thirdly, neural networks are used in transmissibility for structural health monitoring; a simulated beam is used to validate the proposed method.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las comunicaciones por satélite tienen cada vez mayores necesidades de espectro, con el objetivo de ofrecer servicios de banda ancha, tanto de comunicación de datos como de radiodifusión. En esta línea, se está incrementando de manera importante el uso de frecuencias en la banda Ka (20 y 30 GHz), que se verá complementada en el futuro por la banda Q/V (40 y 50 GHz) y por frecuencias en la banda W (por encima de 60 GHz). En estas frecuencias, microondas y ondas milimétricas, la troposfera produce importantes efectos de propagación. El más estudiado es el efecto de la lluvia, que produce desvanecimientos muy profundos. Sin embargo, la lluvia está presente en porcentajes de tiempo pequeños, típicamente inferiores al 5% en los climas templados. El resto del tiempo, más del 95% por ejemplo en los climas mencionados, los gases y las nubes pueden causar niveles importantes de atenuación en estas frecuencias. La Tesis aporta un nuevo modelo (Modelo Lucas-Riera), consistente en un conjunto de polinomios de aproximación para realizar, en ausencia de lluvia, la estimación de determinados parámetros de propagación, partiendo de otros datos que se suponen disponibles. El modelo está basado en datos obtenidos de radiosondeos meteorológicos y modelos físicos de atenuación por gases y nubes, que son los fenómenos más relevantes en ausencia de lluvia, y tiene en cuenta las características climatológicas del emplazamiento de interés, utilizando la clasificación climática de Köppen. Este modelo es aplicable en las bandas de frecuencias entre 12 y 100 GHz (exceptuando 60 GHz), donde se aproximarían los mencionados parámetros de propagación en una frecuencia a partir de los obtenidos en otra, en el caso de la atenuación y la temperatura de brillo, o bien se estimaría la temperatura media de radiación a una determinada frecuencia partiendo de la temperatura de superficie. Con este modelo se puede obtener una aproximación razonable si se conoce la Zona Climática de Köppen de la localización terrestre para la que queremos calcular las aproximaciones y en caso de que ésta se desconozca se aporta una Zona Global, que representa toda la superficie terrestre. La aproximación que se propone para realizar el escalado en frecuencia puede ser útil en los enlaces de comunicaciones por satélite, en los que a menudo se dispone de información en relación a los parámetros de propagación a una determinada frecuencia, por ejemplo en el enlace descendente, y sería de utilidad conocer esos mismos parámetros en el enlace ascendente de cara a poder mitigar los efectos que tiene la atmósfera sobre la señal emitida (atenuación, desvanecimiento, etc). En el caso de la temperatura media de radiación, la aproximación que se propone podría ser útil de cara a la realización de medidas de radiometría, diseño de equipamiento de instrumentación o comunicaciones por satélite.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La presente Tesis analiza y desarrolla metodología específica que permite la caracterización de sistemas de transmisión acústicos basados en el fenómeno del array paramétrico. Este tipo de estructuras es considerado como uno de los sistemas más representativos de la acústica no lineal con amplias posibilidades tecnológicas. Los arrays paramétricos aprovechan la no linealidad del medio aéreo para obtener en recepción señales en el margen sónico a partir de señales ultrasónicas en emisión. Por desgracia, este procedimiento implica que la señal transmitida y la recibida guardan una relación compleja, que incluye una fuerte ecualización así como una distorsión apreciable por el oyente. Este hecho reduce claramente la posibilidad de obtener sistemas acústicos de gran fidelidad. Hasta ahora, los esfuerzos tecnológicos dirigidos al diseño de sistemas comerciales han tratado de paliar esta falta de fidelidad mediante técnicas de preprocesado fuertemente dependientes de los modelos físicos teóricos. Estos están basados en la ecuación de propagación de onda no lineal. En esta Tesis se propone un nuevo enfoque: la obtención de una representación completa del sistema mediante series de Volterra que permita inferir un sistema de compensación computacionalmente ligero y fiable. La dificultad que entraña la correcta extracción de esta representación obliga a desarrollar una metodología completa de identificación adaptada a este tipo de estructuras. Así, a la hora de aplicar métodos de identificación se hace indispensable la determinación de ciertas características iniciales que favorezcan la parametrización del sistema. En esta Tesis se propone una metodología propia que extrae estas condiciones iniciales. Con estos datos, nos encontramos en disposición de plantear un sistema completo de identificación no lineal basado en señales pseudoaleatorias, que aumenta la fiabilidad de la descripción del sistema, posibilitando tanto la inferencia de la estructura basada en bloques subyacente, como el diseño de mecanismos de compensación adecuados. A su vez, en este escenario concreto en el que intervienen procesos de modulación, factores como el punto de trabajo o las características físicas del transductor, hacen inviables los algoritmos de caracterización habituales. Incluyendo el método de identificación propuesto. Con el fin de eliminar esta problemática se propone una serie de nuevos algoritmos de corrección que permiten la aplicación de la caracterización. Las capacidades de estos nuevos algoritmos se pondrán a prueba sobre un prototipo físico, diseñado a tal efecto. Para ello, se propondrán la metodología y los mecanismos de instrumentación necesarios para llevar a cabo el diseño, la identificación del sistema y su posible corrección, todo ello mediante técnicas de procesado digital previas al sistema de transducción. Los algoritmos se evaluarán en términos de error de modelado a partir de la señal de salida del sistema real frente a la salida sintetizada a partir del modelo estimado. Esta estrategia asegura la posibilidad de aplicar técnicas de compensación ya que éstas son sensibles a errores de estima en módulo y fase. La calidad del sistema final se evaluará en términos de fase, coloración y distorsión no lineal mediante un test propuesto a lo largo de este discurso, como paso previo a una futura evaluación subjetiva. ABSTRACT This Thesis presents a specific methodology for the characterization of acoustic transmission systems based on the parametric array phenomenon. These structures are well-known representatives of the nonlinear acoustics field and display large technological opportunities. Parametric arrays exploit the nonlinear behavior of air to obtain sonic signals at the receptors’side, which were generated within the ultrasonic range. The underlying physical process redunds in a complex relationship between the transmitted and received signals. This includes both a strong equalization and an appreciable distortion for a human listener. High fidelity, acoustic equipment based on this phenomenon is therefore difficult to design. Until recently, efforts devoted to this enterprise have focused in fidelity enhancement based on physically-informed, pre-processing schemes. These derive directly from the nonlinear form of the wave equation. However, online limited enhancement has been achieved. In this Thesis we propose a novel approach: the evaluation of a complete representation of the system through its projection onto the Volterra series, which allows the posterior inference of a computationally light and reliable compensation scheme. The main difficulty in the derivation of such representation strives from the need of a complete identification methodology, suitable for this particular type of structures. As an example, whenever identification techniques are involved, we require preliminary estimates on certain parameters that contribute to the correct parameterization of the system. In this Thesis we propose a methodology to derive such initial values from simple measures. Once these information is made available, a complete identification scheme is required for nonlinear systems based on pseudorandom signals. These contribute to the robustness and fidelity of the resulting model, and facilitate both the inference of the underlying structure, which we subdivide into a simple block-oriented construction, and the design of the corresponding compensation structure. In a scenario such as this where frequency modulations occur, one must control exogenous factors such as devices’ operation point and the physical properties of the transducer. These may conflict with the principia behind the standard identification procedures, as it is the case. With this idea in mind, the Thesis includes a series of novel correction algorithms that facilitate the application of the characterization results onto the system compensation. The proposed algorithms are tested on a prototype that was designed and built for this purpose. The methodology and instrumentation required for its design, the identification of the overall acoustic system and its correction are all based on signal processing techniques, focusing on the system front-end, i.e. prior to transduction. Results are evaluated in terms of input-output modelling error, considering a synthetic construction of the system. This criterion ensures that compensation techniques may actually be introduced, since these are highly sensible to estimation errors both on the envelope and the phase of the signals involved. Finally, the quality of the overall system will be evaluated in terms of phase, spectral color and nonlinear distortion; by means of a test protocol specifically devised for this Thesis, as a prior step for a future, subjective quality evaluation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La presente investigación analiza la capacidad del color de cualificar los espacios y propone una clasificación que ordene los diferentes dispositivos que actúan en este proceso. El objetivo de esta tesis es describir estos dispositivos estableciéndolos como parte inequívoca de cualquier proceso desencadenado por la presencia del binomio luz y color. El color ha sido objeto de estudio y experimentación a lo largo de la historia, en todas las artes y las distintas disciplinas relacionadas con la física, la percepción y la interacción. De este modo se realiza una aproximación teórica e histórica al color desde puntos de vista interdisciplinares, para llegar a comprender el modo en el que el color se acaba separando de la forma para pasar a formar parte de la configuración del espacio. Con el propósito de alcanzar este objetivo, se ha realizado un recorrido a través de diferentes teorías y manifestaciones artísticas realizadas en torno al color a lo largo de la Historia, para encontrar las claves de la relación del color con el espacio. Tomando de base este primer acercamiento al tema, se realiza un estudio empírico exhaustivo con modelos físicos con el fin de aislar los dispositivos que intervienen el este proceso en el que el color se pone en relación con el espacio; se analiza su variación a medida que fluctúan las características de los elementos que desencadenan los dispositivos. El objetivo es descubrir un orden, una taxonomía, que permita interpretar cualquier transformación producida por el color en el espacio. Posteriormente, se verifica la validez de esta clasificación estudiando siete espacios modelo en los que el color transfigura el espacio mediante la activación conjunta de varios de los dispositivos analizados. Se ha elegido este grupo de siete espacios debido a que, al tomarlos como suma, sus interiores engloban todos los fenómenos encontrados en el análisis previo. El conjunto de los dispositivos que actúan en cada espacio forma un sistema único e irrepetible que tiene que ver con su transfiguración espacial mediante la luz y el color. Estos sistemas constituyen parte de la génesis propia de cada espacio a través de una secuencia de dispositivos de transformación y configuración espacial que lo hace singular. Los dispositivos clasificados en esta investigación se encuentran en cualquier espacio en el que intervengan la luz y el color, agrupándose secuencialmente en sistemas determinados que cualifican el espacio arquitectónico. ABSTRACT This research analyzes the ability of the colour to qualify the spaces and proposes a classification to arrange the different devices that act in this process. The aim of this thesis is to describe these devices, unequivocally established as part of any process triggered by the presence of light and color pairing. Colour has been the subject of study and experimentation throughout history, in all the arts and disciplines related to physics, perception and interaction. Thus a theoretical and historical approach to the colour is developed from interdisciplinary points of view, in order to understand the way that colour separates from the form and is part of the space configuration. With the purpose of reaching this target, there has been a journey through the artistic movements and theories on colour throughout history, seeking for the key points of its relation with the space. Based on these first intuitions as a starting point, an exhaustive empirical study is made with physical models with the purpose of isolating the devices that participate in this process where colour is related with the space as well as analyzing their variation to the extent that the characteristics of the elements which cause them fluctuate. The objective is to discover an order, a taxonomy that allows to performing any transformation produced by the colour in the space. Afterwards, the validity of this classification is verified by studying seven model spaces in which the colour transfigures the space by the combined activation of several analyzed devices. These seven spaces were chosen due to all the phenomenon set in the previous analysis are included in their interior space. The group of devices that act on each space creates an unrepeatable and unique system that has to do with its spatial transfiguration by means of light and colour. These systems form part of the origin itself of each space through a sequence of devices of spatial transformation and configuration that make this space unique. The devices sorted in this research transform and configure any space in which light and colour participate, sequentially grouping together in determined systems that qualify the architectonic space.