9 resultados para formalismo

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ideas básicas: reducción del medio contínuo a discreto (elementos, nodos y funciones de forma); definición de un estado "elemental" relacionado con otro "general", mediante el formalismo "matriz de rigidez" y vectores consistentes; método de síntesis de propiedades generales: método directo de la rigidez. Posibilidades de estudio: derivación de la teoría, modelización de problemas reales con F.E.M., desarrollo de programas de ordenador, estudio de métodos numéricos (sistemas ecuacionales, autovalores, convergencia, integración etc.). Contrariamente a lo que se diga el F.E.M. no elimina la necesidad de profundizar en el estudio de la elasticidad, matemáticas, etc. Se trata tan sólo de un instrumento potentísimo que, en principio, permite abordar cualquier problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de la tesis es investigar los beneficios que el atrapamiento de la luz mediante fenómenos difractivos puede suponer para las células solares de silicio cristalino y las de banda intermedia. Ambos tipos de células adolecen de una insuficiente absorción de fotones en alguna región del espectro solar. Las células solares de banda intermedia son teóricamente capaces de alcanzar eficiencias mucho mayores que los dispositivos convencionales (con una sola banda energética prohibida), pero los prototipos actuales se resienten de una absorción muy débil de los fotones con energías menores que la banda prohibida. Del mismo modo, las células solares de silicio cristalino absorben débilmente en el infrarrojo cercano debido al carácter indirecto de su banda prohibida. Se ha prestado mucha atención a este problema durante las últimas décadas, de modo que todas las células solares de silicio cristalino comerciales incorporan alguna forma de atrapamiento de luz. Por razones de economía, en la industria se persigue el uso de obleas cada vez más delgadas, con lo que el atrapamiento de la luz adquiere más importancia. Por tanto aumenta el interés en las estructuras difractivas, ya que podrían suponer una mejora sobre el estado del arte. Se comienza desarrollando un método de cálculo con el que simular células solares equipadas con redes de difracción. En este método, la red de difracción se analiza en el ámbito de la óptica física, mediante análisis riguroso con ondas acopladas (rigorous coupled wave analysis), y el sustrato de la célula solar, ópticamente grueso, se analiza en los términos de la óptica geométrica. El método se ha implementado en ordenador y se ha visto que es eficiente y da resultados en buen acuerdo con métodos diferentes descritos por otros autores. Utilizando el formalismo matricial así derivado, se calcula el límite teórico superior para el aumento de la absorción en células solares mediante el uso de redes de difracción. Este límite se compara con el llamado límite lambertiano del atrapamiento de la luz y con el límite absoluto en sustratos gruesos. Se encuentra que las redes biperiódicas (con geometría hexagonal o rectangular) pueden producir un atrapamiento mucho mejor que las redes uniperiódicas. El límite superior depende mucho del periodo de la red. Para periodos grandes, las redes son en teoría capaces de alcanzar el máximo atrapamiento, pero sólo si las eficiencias de difracción tienen una forma peculiar que parece inalcanzable con las herramientas actuales de diseño. Para periodos similares a la longitud de onda de la luz incidente, las redes de difracción pueden proporcionar atrapamiento por debajo del máximo teórico pero por encima del límite Lambertiano, sin imponer requisitos irrealizables a la forma de las eficiencias de difracción y en un margen de longitudes de onda razonablemente amplio. El método de cálculo desarrollado se usa también para diseñar y optimizar redes de difracción para el atrapamiento de la luz en células solares. La red propuesta consiste en un red hexagonal de pozos cilíndricos excavados en la cara posterior del sustrato absorbente de la célula solar. La red se encapsula en una capa dieléctrica y se cubre con un espejo posterior. Se simula esta estructura para una célula solar de silicio y para una de banda intermedia y puntos cuánticos. Numéricamente, se determinan los valores óptimos del periodo de la red y de la profundidad y las dimensiones laterales de los pozos para ambos tipos de células. Los valores se explican utilizando conceptos físicos sencillos, lo que nos permite extraer conclusiones generales que se pueden aplicar a células de otras tecnologías. Las texturas con redes de difracción se fabrican en sustratos de silicio cristalino mediante litografía por nanoimpresión y ataque con iones reactivos. De los cálculos precedentes, se conoce el periodo óptimo de la red que se toma como una constante de diseño. Los sustratos se procesan para obtener estructuras precursoras de células solares sobre las que se realizan medidas ópticas. Las medidas de reflexión en función de la longitud de onda confirman que las redes cuadradas biperiódicas consiguen mejor atrapamiento que las uniperiódicas. Las estructuras fabricadas se simulan con la herramienta de cálculo descrita en los párrafos precedentes y se obtiene un buen acuerdo entre la medida y los resultados de la simulación. Ésta revela que una fracción significativa de los fotones incidentes son absorbidos en el reflector posterior de aluminio, y por tanto desaprovechados, y que este efecto empeora por la rugosidad del espejo. Se desarrolla un método alternativo para crear la capa dieléctrica que consigue que el reflector se deposite sobre una superficie plana, encontrándose que en las muestras preparadas de esta manera la absorción parásita en el espejo es menor. La siguiente tarea descrita en la tesis es el estudio de la absorción de fotones en puntos cuánticos semiconductores. Con la aproximación de masa efectiva, se calculan los niveles de energía de los estados confinados en puntos cuánticos de InAs/GaAs. Se emplea un método de una y de cuatro bandas para el cálculo de la función de onda de electrones y huecos, respectivamente; en el último caso se utiliza un hamiltoniano empírico. La regla de oro de Fermi permite obtener la intensidad de las transiciones ópticas entre los estados confinados. Se investiga el efecto de las dimensiones del punto cuántico en los niveles de energía y la intensidad de las transiciones y se obtiene que, al disminuir la anchura del punto cuántico respecto a su valor en los prototipos actuales, se puede conseguir una transición más intensa entre el nivel intermedio fundamental y la banda de conducción. Tomando como datos de partida los niveles de energía y las intensidades de las transiciones calculados como se ha explicado, se desarrolla un modelo de equilibrio o balance detallado realista para células solares de puntos cuánticos. Con el modelo se calculan las diferentes corrientes debidas a transiciones ópticas entre los numerosos niveles intermedios y las bandas de conducción y de valencia bajo ciertas condiciones. Se distingue de modelos de equilibrio detallado previos, usados para calcular límites de eficiencia, en que se adoptan suposiciones realistas sobre la absorción de fotones para cada transición. Con este modelo se reproducen datos publicados de eficiencias cuánticas experimentales a diferentes temperaturas con un acuerdo muy bueno. Se muestra que el conocido fenómeno del escape térmico de los puntos cuánticos es de naturaleza fotónica; se debe a los fotones térmicos, que inducen transiciones entre los estados excitados que se encuentran escalonados en energía entre el estado intermedio fundamental y la banda de conducción. En el capítulo final, este modelo realista de equilibrio detallado se combina con el método de simulación de redes de difracción para predecir el efecto que tendría incorporar una red de difracción en una célula solar de banda intermedia y puntos cuánticos. Se ha de optimizar cuidadosamente el periodo de la red para equilibrar el aumento de las diferentes transiciones intermedias, que tienen lugar en serie. Debido a que la absorción en los puntos cuánticos es extremadamente débil, se deduce que el atrapamiento de la luz, por sí solo, no es suficiente para conseguir corrientes apreciables a partir de fotones con energía menor que la banda prohibida en las células con puntos cuánticos. Se requiere una combinación del atrapamiento de la luz con un incremento de la densidad de puntos cuánticos. En el límite radiativo y sin atrapamiento de la luz, se necesitaría que el número de puntos cuánticos de una célula solar se multiplicara por 1000 para superar la eficiencia de una célula de referencia con una sola banda prohibida. En cambio, una célula con red de difracción precisaría un incremento del número de puntos en un factor 10 a 100, dependiendo del nivel de la absorción parásita en el reflector posterior. Abstract The purpose of this thesis is to investigate the benefits that diffractive light trapping can offer to quantum dot intermediate band solar cells and crystalline silicon solar cells. Both solar cell technologies suffer from incomplete photon absorption in some part of the solar spectrum. Quantum dot intermediate band solar cells are theoretically capable of achieving much higher efficiencies than conventional single-gap devices. Present prototypes suffer from extremely weak absorption of subbandgap photons in the quantum dots. This problem has received little attention so far, yet it is a serious barrier to the technology approaching its theoretical efficiency limit. Crystalline silicon solar cells absorb weakly in the near infrared due to their indirect bandgap. This problem has received much attention over recent decades, and all commercial crystalline silicon solar cells employ some form of light trapping. With the industry moving toward thinner and thinner wafers, light trapping is becoming of greater importance and diffractive structures may offer an improvement over the state-of-the-art. We begin by constructing a computational method with which to simulate solar cells equipped with diffraction grating textures. The method employs a wave-optical treatment of the diffraction grating, via rigorous coupled wave analysis, with a geometric-optical treatment of the thick solar cell bulk. These are combined using a steady-state matrix formalism. The method has been implemented computationally, and is found to be efficient and to give results in good agreement with alternative methods from other authors. The theoretical upper limit to absorption enhancement in solar cells using diffractions gratings is calculated using the matrix formalism derived in the previous task. This limit is compared to the so-called Lambertian limit for light trapping with isotropic scatterers, and to the absolute upper limit to light trapping in bulk absorbers. It is found that bi-periodic gratings (square or hexagonal geometry) are capable of offering much better light trapping than uni-periodic line gratings. The upper limit depends strongly on the grating period. For large periods, diffraction gratings are theoretically able to offer light trapping at the absolute upper limit, but only if the scattering efficiencies have a particular form, which is deemed to be beyond present design capabilities. For periods similar to the incident wavelength, diffraction gratings can offer light trapping below the absolute limit but above the Lambertian limit without placing unrealistic demands on the exact form of the scattering efficiencies. This is possible for a reasonably broad wavelength range. The computational method is used to design and optimise diffraction gratings for light trapping in solar cells. The proposed diffraction grating consists of a hexagonal lattice of cylindrical wells etched into the rear of the bulk solar cell absorber. This is encapsulated in a dielectric buffer layer, and capped with a rear reflector. Simulations are made of this grating profile applied to a crystalline silicon solar cell and to a quantum dot intermediate band solar cell. The grating period, well depth, and lateral well dimensions are optimised numerically for both solar cell types. This yields the optimum parameters to be used in fabrication of grating equipped solar cells. The optimum parameters are explained using simple physical concepts, allowing us to make more general statements that can be applied to other solar cell technologies. Diffraction grating textures are fabricated on crystalline silicon substrates using nano-imprint lithography and reactive ion etching. The optimum grating period from the previous task has been used as a design parameter. The substrates have been processed into solar cell precursors for optical measurements. Reflection spectroscopy measurements confirm that bi-periodic square gratings offer better absorption enhancement than uni-periodic line gratings. The fabricated structures have been simulated with the previously developed computation tool, with good agreement between measurement and simulation results. The simulations reveal that a significant amount of the incident photons are absorbed parasitically in the rear reflector, and that this is exacerbated by the non-planarity of the rear reflector. An alternative method of depositing the dielectric buffer layer was developed, which leaves a planar surface onto which the reflector is deposited. It was found that samples prepared in this way suffered less from parasitic reflector absorption. The next task described in the thesis is the study of photon absorption in semiconductor quantum dots. The bound-state energy levels of in InAs/GaAs quantum dots is calculated using the effective mass approximation. A one- and four- band method is applied to the calculation of electron and hole wavefunctions respectively, with an empirical Hamiltonian being employed in the latter case. The strength of optical transitions between the bound states is calculated using the Fermi golden rule. The effect of the quantum dot dimensions on the energy levels and transition strengths is investigated. It is found that a strong direct transition between the ground intermediate state and the conduction band can be promoted by decreasing the quantum dot width from its value in present prototypes. This has the added benefit of reducing the ladder of excited states between the ground state and the conduction band, which may help to reduce thermal escape of electrons from quantum dots: an undesirable phenomenon from the point of view of the open circuit voltage of an intermediate band solar cell. A realistic detailed balance model is developed for quantum dot solar cells, which uses as input the energy levels and transition strengths calculated in the previous task. The model calculates the transition currents between the many intermediate levels and the valence and conduction bands under a given set of conditions. It is distinct from previous idealised detailed balance models, which are used to calculate limiting efficiencies, since it makes realistic assumptions about photon absorption by each transition. The model is used to reproduce published experimental quantum efficiency results at different temperatures, with quite good agreement. The much-studied phenomenon of thermal escape from quantum dots is found to be photonic; it is due to thermal photons, which induce transitions between the ladder of excited states between the ground intermediate state and the conduction band. In the final chapter, the realistic detailed balance model is combined with the diffraction grating simulation method to predict the effect of incorporating a diffraction grating into a quantum dot intermediate band solar cell. Careful optimisation of the grating period is made to balance the enhancement given to the different intermediate transitions, which occur in series. Due to the extremely weak absorption in the quantum dots, it is found that light trapping alone is not sufficient to achieve high subbandgap currents in quantum dot solar cells. Instead, a combination of light trapping and increased quantum dot density is required. Within the radiative limit, a quantum dot solar cell with no light trapping requires a 1000 fold increase in the number of quantum dots to supersede the efficiency of a single-gap reference cell. A quantum dot solar cell equipped with a diffraction grating requires between a 10 and 100 fold increase in the number of quantum dots, depending on the level of parasitic absorption in the rear reflector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El libro que presentamos responde a esta llamada, puesto que se ocupa de algunas de las raíces o fundamentos de la informática. Lo hemos escrito pensando en los estudiantes universitarios de las ramas de informática, así como en los profesionales antes mencionados. Estos últimos encontrarán un texto autocontenido,desprovisto en lo posible del aparato teórico habitual y preocupado permanentemente en la tarea de desarrollar aperturas a cuestiones de la más viva actualidad, como los sistemas borrosos o la complejidad del software, y a cuestiones en las que parece vislumbrarse un futuro. En cuanto a los estudiantes,nuestra experiencia nos dice que, por un cúmulo de circunstancias que no hacen al caso, se ven obligados con frecuencia a estudiar las materias objeto de nuestro libro, tal vez, sí, con mayor extensión y formalismo matemático, pero no siempre bajo condiciones óptimas: apuntes improvisados, textos en lenguas extranjeras, dispersión de estas mismas materias en distintas asignaturas y por tanto fragmentación de su sentido radical (raíces), o desapego del sentido de su aplicación. Sin poner en tela de juicio la necesidad científica del mejor formalismo posible, está constatado que dosis excesivas y exclusivas de esa medicina conducen en el plano educativo a un estéril desánimo de los estudiantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo fin de grado, que, a partir de ahora, denominaré TFG, consiste en elaborar una monitorización de programas concurrentes en lenguaje Java, para que se visualicen los eventos ocurridos durante la ejecución de los dichos programas. Este trabajo surge en el marco de la asignatura “Concurrencia” de la Escuela Técnica Superior de Ingeniería Informática de la Universidad Politécnica de Madrid, impartida por D. Julio Mariño y D. Ángel Herranz. El objetivo principal de este proyecto es crear una herramienta para el aprendizaje de la asignatura de concurrencia, facilitando la comprensión de los conceptos teóricos, de modo que puedan corregir los posibles errores que haya en sus prácticas. en este proyecto se expone el desarrollo de una librería de visualización de programas concurrentes programados en Java usando un formalismo gráfico similar al empleado en la asignatura. Además esta librería da soporte a los mecanismos de sincronización usados en las prácticas de la asignatura: la librería Monitor (desarrollada por los profesores de la asignatura, D. Ángel Herranz y D. Julio Mariño) y la librería JCSP (Universidad de Kent). ---ABSTRACT---This Bachelor Thesis addresses the problem of monitoring a Java program in order to trace and visualize a certain set of events produced during the execution of concurrent Java programs. This work originates in the subject "Concurrency" of the Computer Science and Engineering degree of our University. The main goal of this work is to have a tool that helps students learning the subject, so they can better understand the core concepts and correct common mistakes in the course practical work. We have implemented a library for visualizing concurrent Java programsusing a graphical notation similar to the one used in class, which supports the design of concurrent programs whose synchronization mechanisms are either monitors(using the Monitor package) or CSP(as implemented in the JCSP library from Kent University).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta Tesis es crear un Modelo de Diseño Orientado a Marcos que, intermedio entre el Mundo Externo y el Modelo Interno del Mundo que supone el sistema ímplementado, disminuya la pérdida de conocimiento que se produce al formalizar la realidad en Bases de Conocimientos. El modelo disminuye la pérdida de conocimiento al formalizar Bases de Conocimiento, acercando el formalismo de Marcos al Mundo Externo, porque: 1. Crea una base teórica que uniformiza el concepto de Marco en el plano de la Formalización, estableciendo un conjunto de restricciones sintácticas y semánticas que impedirán, al Ingeniero del Conocimiento (IC) cuando formaliza, definir elementos no permitidos o el uso indebido de ellos. 2. Se incrementa la expresividad del formalismo al asociar a cada una de las propiedades de un marco clase un parámetro adicional que simboliza la representatividad de la propiedad en el concepto. Este parámetro, y las técnicas de inferencia que trabajan con él, permitirán al IC introducir en el Modelo Formalizado conocimiento que antes no introducía al construir la base de conocimientos y que, sin embargo, sí existía en la realidad. 3. Se propone una técnica de equiparación que trabaja con el conocimiento incierto presente en el dominio. Esta técnica de equiparación, utiliza la representatividad de las propiedades en los marcos clase y el grado de certeza de las propiedades de las entidades para calcular el valor de equiparación y, así, determinar en qué medida los marcos clase seleccionados son consistentes con la descripción de la situación actual dada por una entidad. 4. Proporciona nuevas técnicas de inferencia basadas en la transferencia de propiedades y modifica las ya existentes. Las transferencias de propiedades realizadas sobre relaciones "ad hoc" definidas por el IC al construir el sistema, es una nueva técnica de inferencia independiente y complementaria a la transferencia de propiedades llamada tradicionalmente Herencia (cesión de propiedades entre padres e hijos). A esta nueva técnica, se le ha llamado Donación, es decir, cesión de propiedades entre marcos sin parentesco. Como aportación práctica, se ha construido un entorno de construcción de Sistemas Basados en el Conocimiento formalizados en Marcos, donde se han introducido todos los nuevos conceptos del Modelo Teórico de la Tesis. Se trata de una cierta anidación. Es decir, son marcos que permiten formalizar cualquier SBC en marcos. El entorno permitirá al IC formalizar bases de conocimientos automáticamente y éste podrá validar el conocimiento del dominio en la fase de formalización en lugar de tener que esperar a que la BC esté implementada. Todo ello lleva a describir el Modelo de Diseño Orientado a Marcos como un puente que aproxima y comunica el Mundo Externo con el Modelo Interno asociado a la realidad e implementado en una computadora, disminuyendo así las diversas pérdidas de conocimiento que si bien no ocurren simultáneamente al construir Sistemas Basados en el Conocimiento, sí coexisten en él.---ABSTRACT---The goal of this thesis is to créate a Frame-Orlented Deslgn Model that, bridging the Outside World and the implemented system's Internal Model of the World, reduces the amount of knowledge lost when reality is formalized in Knowledge Bases (KB). The model diminishes the loss of knowledge when formalizing a KB and brings the Frame-formalized Model closer to the Outside World because: 1. It creates a theory that standardizes the concept of trame at the formalization level to establish a set of syntactic and semantic constraints that will prevent the Knowledge Engineer (KE) from defining forbidden elements or their undue use in the formalization process. 2. The formalism's expressiveness is increased by associating an additional parameter to each of the properties of a class frame to symbolize the representativeness of the concept property. This parameter and the related inference techniques will allow the KE to enter knowledge into the Formalized Model that actually existed but that was not used previously when building the KB. 3. The proposed technique involves matching and works with uncertain knowledge present in the domain. This matching technique takes the representativeness of the properties in the class frame and the degree of certainty of the properties of the entities to calcúlate the matching valué and thus determine to what extent the class frames selected are consistent with the description of the present situation given by an entity. 4. It offers new inference techniques based on property transfer and alters existing ones. Property transfer on ad hoc relations defined by the KE when building a system is a new inference technique independent of and complementary to property transfer traditionally termed Inheritance (transfer of properties between parents and children). This new technique has been callad Donation (transfer of properties between trames without relationships). 5. It improves control of the procedural knowledge defined in the trames by introducing OO concepta. A frame-formalized KBS building environment has been constructed, incorporating all the new concepts of the theoretical model set out in the thesis. There is some embedding, that is, they are trames that provide for any KBS to be formalizad in trames. The environment will enable the KE to formaliza KB automatically, and he will be able to valídate the domain knowledge in the formalization stage instead of havíng to wait until the KB has been implemented. This is a description of the Frame-oriented Design Model, a bridge that brings closer and communicates the Outside World with the Interna! Model associated to reality and implemented on a computar, thus reducing the different losses in knowledge that, though they do not occur simultaneosly when building a Knowledge-based System, coexist within it.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis que se presenta tiene como propósito la construcción automática de ontologías a partir de textos, enmarcándose en el área denominada Ontology Learning. Esta disciplina tiene como objetivo automatizar la elaboración de modelos de dominio a partir de fuentes información estructurada o no estructurada, y tuvo su origen con el comienzo del milenio, a raíz del crecimiento exponencial del volumen de información accesible en Internet. Debido a que la mayoría de información se presenta en la web en forma de texto, el aprendizaje automático de ontologías se ha centrado en el análisis de este tipo de fuente, nutriéndose a lo largo de los años de técnicas muy diversas provenientes de áreas como la Recuperación de Información, Extracción de Información, Sumarización y, en general, de áreas relacionadas con el procesamiento del lenguaje natural. La principal contribución de esta tesis consiste en que, a diferencia de la mayoría de las técnicas actuales, el método que se propone no analiza la estructura sintáctica superficial del lenguaje, sino que estudia su nivel semántico profundo. Su objetivo, por tanto, es tratar de deducir el modelo del dominio a partir de la forma con la que se articulan los significados de las oraciones en lenguaje natural. Debido a que el nivel semántico profundo es independiente de la lengua, el método permitirá operar en escenarios multilingües, en los que es necesario combinar información proveniente de textos en diferentes idiomas. Para acceder a este nivel del lenguaje, el método utiliza el modelo de las interlinguas. Estos formalismos, provenientes del área de la traducción automática, permiten representar el significado de las oraciones de forma independiente de la lengua. Se utilizará en concreto UNL (Universal Networking Language), considerado como la única interlingua de propósito general que está normalizada. La aproximación utilizada en esta tesis supone la continuación de trabajos previos realizados tanto por su autor como por el equipo de investigación del que forma parte, en los que se estudió cómo utilizar el modelo de las interlinguas en las áreas de extracción y recuperación de información multilingüe. Básicamente, el procedimiento definido en el método trata de identificar, en la representación UNL de los textos, ciertas regularidades que permiten deducir las piezas de la ontología del dominio. Debido a que UNL es un formalismo basado en redes semánticas, estas regularidades se presentan en forma de grafos, generalizándose en estructuras denominadas patrones lingüísticos. Por otra parte, UNL aún conserva ciertos mecanismos de cohesión del discurso procedentes de los lenguajes naturales, como el fenómeno de la anáfora. Con el fin de aumentar la efectividad en la comprensión de las expresiones, el método provee, como otra contribución relevante, la definición de un algoritmo para la resolución de la anáfora pronominal circunscrita al modelo de la interlingua, limitada al caso de pronombres personales de tercera persona cuando su antecedente es un nombre propio. El método propuesto se sustenta en la definición de un marco formal, que ha debido elaborarse adaptando ciertas definiciones provenientes de la teoría de grafos e incorporando otras nuevas, con el objetivo de ubicar las nociones de expresión UNL, patrón lingüístico y las operaciones de encaje de patrones, que son la base de los procesos del método. Tanto el marco formal como todos los procesos que define el método se han implementado con el fin de realizar la experimentación, aplicándose sobre un artículo de la colección EOLSS “Encyclopedia of Life Support Systems” de la UNESCO. ABSTRACT The purpose of this thesis is the automatic construction of ontologies from texts. This thesis is set within the area of Ontology Learning. This discipline aims to automatize domain models from structured or unstructured information sources, and had its origin with the beginning of the millennium, as a result of the exponential growth in the volume of information accessible on the Internet. Since most information is presented on the web in the form of text, the automatic ontology learning is focused on the analysis of this type of source, nourished over the years by very different techniques from areas such as Information Retrieval, Information Extraction, Summarization and, in general, by areas related to natural language processing. The main contribution of this thesis consists of, in contrast with the majority of current techniques, the fact that the method proposed does not analyze the syntactic surface structure of the language, but explores his deep semantic level. Its objective, therefore, is trying to infer the domain model from the way the meanings of the sentences are articulated in natural language. Since the deep semantic level does not depend on the language, the method will allow to operate in multilingual scenarios, where it is necessary to combine information from texts in different languages. To access to this level of the language, the method uses the interlingua model. These formalisms, coming from the area of machine translation, allow to represent the meaning of the sentences independently of the language. In this particular case, UNL (Universal Networking Language) will be used, which considered to be the only interlingua of general purpose that is standardized. The approach used in this thesis corresponds to the continuation of previous works carried out both by the author of this thesis and by the research group of which he is part, in which it is studied how to use the interlingua model in the areas of multilingual information extraction and retrieval. Basically, the procedure defined in the method tries to identify certain regularities at the UNL representation of texts that allow the deduction of the parts of the ontology of the domain. Since UNL is a formalism based on semantic networks, these regularities are presented in the form of graphs, generalizing in structures called linguistic patterns. On the other hand, UNL still preserves certain mechanisms of discourse cohesion from natural languages, such as the phenomenon of the anaphora. In order to increase the effectiveness in the understanding of expressions, the method provides, as another significant contribution, the definition of an algorithm for the resolution of pronominal anaphora limited to the model of the interlingua, in the case of third person personal pronouns when its antecedent is a proper noun. The proposed method is based on the definition of a formal framework, adapting some definitions from Graph Theory and incorporating new ones, in order to locate the notions of UNL expression and linguistic pattern, as well as the operations of pattern matching, which are the basis of the method processes. Both the formal framework and all the processes that define the method have been implemented in order to carry out the experimentation, applying on an article of the "Encyclopedia of Life Support Systems" of the UNESCO-EOLSS collection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el campo del análisis multirresolución de señales, bien sean señales unidimensionales o imágenes, la transformada wavelet (u ondícula) es una de las herramientas más atractivas y potentes debido a su capacidad de análisis de las estructuras y singularidades presentes en una señal cuando esta es analizada en distintas escalas. Este trabajo parte de la investigación de cómo la modificación directa de los coeficientes wavelets permite añadir información en forma de marcas de agua a una imagen o también como con las mismas técnicas se pueden realizar esquemas relativamente sencillos de eliminación de ruido en imágenes. Estas aplicaciones son el primer paso para entender qué información capturan los coeficientes wavelet obtenidos mediante las distintas versiones existentes de transformada wavelet Siguiendo la relación entre el módulo de los coeficientes wavelets resultantes en distintas escalas llegamos a poder caracterizar las singularidades presentes en señales o imágenes con aplicaciones prácticas en campos como el análisis de imágenes mamográficas. Esta relación no es más que el primer paso para enlazar la teoría wavelet con el formalismo multifractal, relación definida en primera instancia a partir de la transforma wavelet de módulo máximo. El análisis entre señal, transformada wavelet de módulo máximo e información local de cada coeficiente wavelet da origen a la contribución principal de este trabajo de tesis que consiste en la estimación directa de distintos parámetros multifractales a partir del cálculo de coeficientes derivados de manera local para cada muestra de una señal o pixel de una imagen. La metodología propuesta se aplica en primer lugar a señales de una dimensión de gran complejidad o irregularidad como son las series financieras y específicamente los valores que componen el índice Dow Jones. El resultado permite la cuantificación de la volatilidad o riesgo asociado a cada uno de esas series. En segundo lugar y como principal aplicación de la metodología de análisis multiescala propuesta, el trabajo de investigación se centra en cómo calcular parámetros multifractales en imágenes que reflejan la estructura de suelos agrícolas. Estas imágenes son obtenidas bien aplicando un tinte especial o mediante modernas técnicas de tomografía axial computarizada. En ambos casos, el objetivo es completar la caracterización estadística de la geometría de los flujos preferenciales de agua y otras sustancias, aspectos claves para el correcto tratamiento de suelos agrícolas. Para validar e interpretar cada uno de los algoritmos desarrollados se utilizan señales multifractales sintetizadas y se comparan los resultados obtenidos en las distintas aplicaciones respecto de algoritmos ya consolidados en cada caso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El entorno alpino de los Grisones ha sido un laboratorio donde experimentar un método arquitectónico procedente de diversas fuentes durante los años 70 en la ETHZ. Este método ha producido durante las últimas tres décadas un discurso teórico propiamente suizo alemán. La tradición continúa siendo un valor cultural para la comunidad alpina de los Grisones, que apuesta por seguir relacionando la arquitectura con su historia y su paisaje. La especificidad de cada entorno suizo alemán es un hecho obvio pero, por encima de sus rasgos característicos, hay un denominador común que les da unidad en silencio: se trata de una idea de la construcción. El fenómeno de los Grisones es territorial en su localización concreta, pero comparte el trasfondo teórico del resto de la arquitectura suizo alemana reciente. La tesis recorre transversalmente las condiciones que han dado lugar a esa trayectoria común hasta la actualidad, en que la arquitectura suizo alemana se halla precisamente en un momento de cambio generacional. La obra de Peter Märkli constituye en esta tesis un paradigma de la voluntad suizo alemana por formar parte de la continuidad cultural de la arquitectura, como una actitud de resistencia compartida frente al mundo globalizado. La tesis se articula a partir de ocho proyectos recientes, realizados por arquitectos suizo alemanes en el entorno del territorio alpino de los Grisones. Estos proyectos condensan la trayectoria arquitectónica suizo alemana durante el siglo XX, así como el fenómeno arquitectónico que ha tenido lugar en el entorno de los Grisones durante las últimas tres décadas. La tesis analiza a través de cada pareja de proyectos los episodios teóricos, artísticos y filosóficos más relevantes que se sintetizan en estas obras, así como sus referentes arquitectónicos y la dimensión trascendente de los materiales en los que la cultura suiza hunde sus raíces: la madera, la piedra y el hormigón. Las vanguardias pictóricas, el Movimiento Moderno y las corrientes humanistas y regionalistas que se fueron sucediendo durante el pasado siglo, configuran el escenario en el que tomó cuerpo la sensibilidad arquitectónica suizo alemana reciente, que emerge a través de la compleja red de relaciones establecidas entre el panorama suizo y el internacional. El mismo bagaje teórico subyace al territorio suizo alemán a nivel general, por lo que asociarlo a través de esta tesis a proyectos realizados en un entorno característico, permite acceder a una realización concreta de ese debate en un entorno tan particular como son los Grisones. La aproximación a los proyectos es de carácter fenomenológico: la experiencia directa de los mismos ha sido el sustrato fundamental del enfoque de la tesis. El trabajo de campo no se limitó a visitar los proyectos que vertebran la tesis, sino que trató de abarcar las obras más relevantes de la producción suizo alemana reciente en los Grisones, con el fin de adquirir cierto grado de sensibilidad perceptiva hacia la singularidad de su identidad territorial. La tesis hace especial hincapié en las obras de Peter Märkli y Peter Zumthor, representantes de los dos extremos del discurso suizo alemán reciente, respecto a la materialidad y al carácter de la secuencia espacial, sistemático o fluido respectivamente, pero que asimismo comparten el clasicismo formalista que subyace al fenómeno suizo alemán. Los dos proyectos que establecen el periodo 1992-2004 explorado por esta investigación constituyen dos hitos fundamentales. El Museo de La Congiunta en Giornico de Peter Märkli se construyó en 1992 y se erige a partir de entonces como un icono arquitectónico de la condensación típicamente suizo alemana de base reductiva. Este paradigma de síntesis conceptual y constructiva comenzó a forjarse en la década de 1930 de la mano del Konkrete Kunst formulado por Max Bill, que es la única manifestación artística genuinamente suiza del siglo XX y que desarrolló pictóricamente los valores de precisión, rigor, racionalismo y abstracción afines a la sensibilidad suizo alemana. En segundo lugar, el proyecto para la rehabilitación de la Villa Garbald y la construcción de la Torre Roccolo en Castasegna llevado a cabo por Miller & Maranta en 2004, supuso la consumación de la Analoge Architektur, que fue la primera corriente arquitectónica propiamente suiza, desarrollada durante la década de 1980 por Miroslav Sik. La Deutscher Tendenza es un periodo de la trayectoria suizo alemana reciente poco conocido, representado por una figura tan relevante como es Peter Zumthor. Las obras que proyectó Zumthor entre 1979 y 1985 forman parte de un periodo en que el arquitecto se encontraba profundamente influido por el neorracionalismo italiano, como ilustra la escuela de Churwalden de 1983. La arquitectura suizo alemana reciente exploró sistemáticamente los sistemas compositivos de las vanguardias pictóricas y del Movimiento Moderno, por encima de su formalismo concreto. La segunda fase de la obra de Zumthor entre 1985 y 1996 se caracteriza por la transfiguración del plano libre del sistema compositivo neoplasticista desarrollado por De Stijl, plano que adquirió grosor hasta convertirse en la caja articuladora de la fluidez de la secuencia espacial. El formalismo de Zumthor en esta fase implica la prioridad del esquema compositivo, compuesto por un perímetro regular en el que se reúnen las cajas que, como las superficies de color de las composiciones de Mondrian, articulan el espacio a su alrededor. La Residencia de Masans de Zumthor de 1993 es un proyecto canónico de este sistema compositivo, que culmina en el esquema radial de las Termas de Vals de 1996. La imagen poética se convirtió en el lenguaje propio del pensamiento de la arquitectura suizo alemana, que permitía una reflexión no verbal, a partir de unos pocos arquetipos fundamentales. Los arquitectos del Ticino buscaron en la Tendenza italiana durante la década de 1970 una alternativa al insostenible modelo territorial que estaba destruyendo su paisaje cultural. Algunos de estos arquitectos comenzaron a dar clase durante esa década en la ETHZ, por lo que transmitieron sus inquietudes al alumnado e introdujeron a Aldo Rossi en la facultad, que era uno de los máximos representantes de la Tendenza. El método analógico de Rossi, basado en la psicología analítica de Carl Jung, fue una influencia fundamental en la ETHZ durante los años 70. Rossi partía de una teoría afín al colectivo intelectual suizo que los arquitectos de la ETHZ pronto comprendieron que debían independizar del contexto italiano, desarrollando su propio método a partir de 1985 con la Analoge Architektur. El valor de la preexistencia de acuerdo a este método incipiente se hallaba en su papel articulador de la continuidad cultural de una comunidad, que Miroslav Sik definió a partir de su concepto de Altneue (literalmente, lo Nuevo-Viejo). La fusión entre lo nuevo y lo viejo era la base de la espontaneidad con la que habían crecido los asentamientos históricamente. Sik consideraba que la continuidad dependía de la comprensión de los patrones preexistentes, con el objeto de mantener su vigencia mediante la incorporación de estrategias contemporáneas, que renovarían su significado sin perder su esencia. La Casa Gugalun en Versam de Zumthor de 1994 supone una aproximación a escala doméstica a este planteamiento. La arquitectura suizo alemana reciente a menudo busca en sus referentes plásticos una manera de explorar ámbitos poco accesibles para la disciplina arquitectónica. El pensamiento arquitectónico basado en la imagen poética se implementa a partir de la tectónica de la construcción, que es el medio para comunicar una idea vertebradora del proyecto de principio a fin. La construcción como medio introduce el concepto clave de la apariencia de la arquitectura, estrechamente relacionado con la filosofía idealista de Friedrich Schiller. La apariencia debe expresar el sentido conceptual de la obra, que los arquitectos suizo alemanes denominan idea, por lo que la construcción no tiene un valor por sí misma, sino en cuanto a la apariencia. La Capilla de Oberrealta de Christian Kerez de 1993 puede ser considerada una obra escultórica en el paisaje, más próxima a las artes plásticas que a la arquitectura. La tensión que surge entre la figura ideal y la pieza sometida a una sutil deformación confiere un carácter dinámico a la composición, que intensifica el efecto perceptivo, de acuerdo a la teoría del pensamiento visual de Rudolph Arnheim. La deformación al servicio de la psicología de la percepción es un fenómeno que caracteriza la arquitectura suizo alemana reciente. El concepto de Forme Forte (forma fuerte) fue introducido por Martin Steinmann para caracterizar el objeto arquitectónico denominado internacionalmente Swiss Box. Este concepto se caracteriza por una predilección por lo monolítico, lo unitario y lo arquetípico. La condición más sustancial de una Forme Forte es, sin embargo, la de configurar un elemento estructurador del entorno. Tanto la base morfológica de una Forme Forte, como su capacidad para estructurar el lugar, se corresponden con los conceptos de arquetipo y monumento de la teoría de Rossi. La tesis explora el sentido de la deformación en la producción suizo alemana reciente, a partir de la Escuela de Paspels de Valerio Olgiati de 1998 y la Torre Roccolo de Villa Garbald de Miller&Maranta de 1998. La teoría tectónica de Gottfried Semper y la razón de la forma de Adolf Loos constituyen el sustrato teórico, que relaciona la actividad existencial de habitar con la materialidad de la arquitectura suizo alemana reciente. La teoría tectónica de Semper fundamenta las revisiones posteriores de los sistemas constructivos tradicionales suizo alemanes. Esta influencia sirvió como base a la vanguardia suiza de la Neues Bauen, que desarrolló un racionalismo funcionalista durante las décadas de 1920 y 1930, que constituye una gramática de base no simbólica. Esta gramática constituye el fundamento de la transición del orden clásico a la materialidad como instrumento compositivo durante la segunda mitad del siglo XX, consolidando el concepto de la base material de la forma. La revisión de la tradición regionalista y racionalista llevada a cabo por la generación de arquitectos suizo alemanes de la década de 1950 y 1960, constituyó una investigación lingüística sustancial. Rudolph Olgiati es la figura determinante de este periodo. La revisión de esta investigación se codificó en clave estructuralista durante los años 70 en la ETHZ, influenciada por la presencia de Roland Barthes como profesor invitado. Esta revisión constituyó la base de la articulación tectónica propiamente suizo alemana todavía vigente, como ilustra expresamente la obra de Burkhalter&Sumi en esta tesis. La obra de Gion Caminada en Vrin entre 1995 y 2002 aporta una intensa investigación sobre el Strickbau, que implementa una y otra vez variaciones sobre un sistema tradicional, ilustrando las infinitas posibilidades que ofrece un lenguaje, paradójicamente limitado por los medios disponibles en un entorno alpino aislado. Para terminar Jürg Conzett es el ingeniero con el que han desarrollado sus proyectos la mayoría de los arquitectos en el entorno de los Grisones, formado durante 8 años con Zumthor y colaborador habitual de Caminada entre otros. Conzett es el referente que relaciona la ingeniería con la arquitectura en el ámbito de esta tesis, imprescindible en el contexto de esta investigación. ABSTRACT The Alpine setting of Grisons has been a laboratory for architectural experimentation with an approach forged in the 1970s from various sources in the Swiss Federal Institute of Technology in Zurich (ETHZ). This method has produced a uniquely German-Swiss theoretical discourse over the past three decades. Tradition continues to be a cultural value for Grisons, a region committed to continue linking its architecture with the region’s history and landscape. The specificity of the German-Swiss environment is obvious, but beyond its characteristic features, there is a common denominator that gives these settings a silent unity: it is an idea of building. The phenomenon of Grisons is geographic in its specific location, but it shares the theoretical basis of the rest of the new German-Swiss architecture. This thesis transversely delves into the conditions that have shaped this common path up to the present, just as German-Swiss architecture is going through a time of generational change. In this thesis, Märkli Peter's work constitutes a paradigm of the German-Swiss will to uphold the cultural and architectural continuity of the region, exemplifying an attitude of shared resistance to the globalized world. The thesis is structured around eight recent projects carried out by German-Swiss architects in the Alpine region of Grisons. These projects represent the trajectory of twentieth century German-Swiss architectural history, as well as the architectural phenomenon that has taken place in the environs of Grisons over the past three decades. Through these projects the thesis analyzes the most relevant theoretical, artistic and philosophical references that are synthesized in the works, as well as their architectural references and the transcendental dimension of the materials in which Swiss culture is rooted: wood, stone and concrete. The artistic avant-garde, together with Modernism and the humanistic and regional movements that occurred during the last century, set the stage for present-day German-Swiss architectural sensitivity, which emerges from a complex web of relationships established between the Swiss and international panorama. This same theoretical background and experience underlies all of the German-Swiss territory in general, so associating it through this thesis to a particular context allows the description of a specific embodiment of this debate, within the unique environment of Grisons. The methodological approach to analyzing the projects was phenomenological: direct experience is the main substrate underpinning the focus of the thesis. Field work was not limited to visiting the projects featured in the thesis, but rather encompassed the most important works of recent German-Swiss construction in the Grisons in order to gain some degree of perceptual sensitivity to the uniqueness of its territorial identity. The present paper puts special emphasis on the works of Peter Märkli and Peter Zumthor, who share the formal classicist perspective of the German-Swiss context but stand on opposite sides of the philosophical spectrum with regard to the notion of materiality and the nature of space, which they conceive as systematic or fluid, respectively. The two projects that establish the boundaries of the time period 1992–2004 explored by this research represent two key milestones. The Museum La Congiunta in Giornico, by Peter Märkli, was built in 1992 and quickly established itself as an architectural icon of German-Swiss reductionism. This paradigm of conceptual and constructive synthesis began to take shape in the 1930s under the banner of Konkrete Kunst (Concrete Art), led by Max Bill. The only genuinely Swiss artistic movement of the twentieth century, Konkrete Kunst was characterized by the artistic values of precision, rigor, rationalism and abstraction, sentiments that were very close to the German-Swiss tradition. Secondly, the project for the rehabilitation of Villa Garbald and the construction of the Roccolo Tower in Castasegna, conducted by Miller&Maranta in 2004, represented the consummation of the Analoge Architektur, which was the first truly Swiss architectural movement, spearheaded in the 1980s by Miroslav Sik. The Deutscher Tendenza is a little-known period of recent German-Swiss history, represented by the important figure of Peter Zumthor. The projects that Zumthor led between 1979 and 1985 are part of a period when Italian Neo-Rationalism exercised a profound influence on the architect, as illustrated by the Churwalden School, circa 1983. Recent German-Swiss architecture systematically explored the compositional systems of the artistic avant-garde and Modernism, beyond its specific formal aspects. The second phase of Zumthor's work, between 1985 and 1996, is characterized by the transfiguration of the free plane, neoplastic compositional system developed by De Stijl, a plane that thickened until it became the box articulating fluidity from the spatial sequence. Zumthor's formalism in this phase prioritizes the compositional scheme, consisting of a regular perimeter in which the boxes that -like Mondrian’s colored surfaces- arrange the space around it. Zumthor’s Masans Residence, circa 1993, is a canonical project of this compositional system, which culminates in the radial pattern of the Therme Vals, circa 1996. The poetic image became the appropriate language of thought for German-Swiss architecture, which invited a nonverbal reflection inspired by a few fundamental archetypes. The architects of Ticino sought, through the Italian Tendenza of the 1970s, an alternative to the unsustainable territorial model that was destroying their cultural landscape. Some of these architects began to teach during that decade at ETHZ, and naturally they transmitted their unease to their students. These architects also introduced Aldo Rossi, one of the leading representatives of the Tendenza, to the school. Rossi’s analogue method, based on the analytical psychology of Carl Jung, was a major influence on the ETHZ during the 1970s. Rossi’s theoretical grounding was very much in tune with Swiss intellectualism, and it did not take long for architects from ETHZ to realize that they should break away from the Italian context, developing their own method from 1985 on with the Analoge Architektur. The value of the pre-existing conformity of this emerging method, stemmed from its role in facilitating the cultural continuity of a community, which Miroslav Sik defined in his concept of Altneue (literally, Old-new). This fusion of old and new was the basis for the spontaneity with which settlements had historically grown. Sik considered that continuity depended on understanding the existing patterns and sustaining their relevance through the incorporation of contemporary strategies, which would renew their meaning without losing their essence. Zumthor’s Gugalun House in Versam, circa 1994, is a domestic-scale approach to this philosophy. Modern German-Swiss architecture often looks to its references in visual art for a way to explore areas that are normally inaccessible to the architectural discipline. Architectural thinking based on the poetic image is achieved through a building’s tectonics, which communicate the core idea of a project from start to finish. The understanding of construction as a medium introduces the key concept of the appearance in architecture, closely related to the idealistic philosophy of Friedrich Schiller. The appearance should express the conceptual meaning of the work, which German-Swiss architects call the idea, so that the building does not have value in and of itself, but only in terms of its appearance. The Oberrealta Chapel by Christian Kerez, circa 1993, can be considered a sculpture in the landscape, closer to the visual arts than to architecture. The tension that arises between the ideal figure and the piece subjected to a subtle deformation confers a dynamic character onto the composition, intensifying the perceptual effect, according to Rudolf Arnheim’s theory of visual thought. The deformation in the service of the psychology of perception is a phenomenon that characterizes recent German-Swiss architecture. Martin Steinmann introduced the Forme Forte (Strong Form) concept to describe the architectural object known internationally as the Swiss Box. This concept is characterized by a predilection for all things monolithic, unitary and archetypal. The most substantial condition of a Forme Forte, however, is the configuration of a structuring element in the environment. Both the morphological basis of a Forme Forte and its ability to frame the place, correspond to the concepts of archetype and monument put forward by Rossi’s theory. The present thesis explores the sense of deformation in recent German-Swiss production, based on the School of Paspels by Valerio Olgiati, circa 1998 and the Roccolo Tower in Villa Garbald, by Miller&Maranta, circa 1998. Gottfried Semper’s tectonic theory and Adolf Loos’s reason for form constitute the theoretical foundation that links the existential activity of dwelling to the materiality of recent German-Swiss architecture. Semper’s tectonic theory laid the foundation for subsequent revisions of the German-Swiss traditional building systems. This influence was the basis for the Swiss avant-garde of Neues Bauen, which developed a functional rationalism during the 1920s and 30s that served as a non-symbolic grammatical foundation for the transition from classical order to materiality as a compositional tool. During the second half of the twentieth century, this architectural grammar helped consolidate the concept of the material base of the form. The revision of the regionalist and rationalist tradition, carried out by the generation of German-Swiss architects of the 1950s and 60s, constituted a substantial linguistic investigation. Rudolph Olgiati is the key figure of this period. The research was codified in terms of structuralism in the 1970s in ETHZ and influenced by the presence of Roland Barthes as a visiting professor. This revision was the basis of the uniquely German-Swiss tectonic design still in use today, as specifically illustrated by the work of Burkhalter & Sumi in this thesis. Gion Caminada's work in Vrin between 1995 and 2002 offers an extensive study on the Strickbau, which implements variations on a traditional system again and again, illustrating the endless possibilities of a language that paradoxically seems limited by the available resources in a remote Alpine setting. Finally, Jürg Conzett is the engineer with whom most architects in the Grisons region have developed their projects. Trained under Zumthor for 8 years, and a regular collaborator of Caminada, among others, Conzett is the reference point linking engineering with architecture in this thesis, essential in the context of this research.