29 resultados para Espectrometría de masas con ionización por electro
Resumo:
Se presentan las mejoras introducidas en un código de transporte de radiación acoplada a la hidrodinámica llamado ARWEN para el estudio de sistemas en el rango de física de alta densidad de energía (High Energy Density Physics). Los desarrollos introducidos se basan en las siguientes áreas: ít>,~ Ecuaciones de estado: se desarrolla una nueva metodología mediante la cual es posible ajustar los resultados de un modelo simple de ecuaciones de estado como QEOS a datos experimentales y resultados de AIMD. Esta metodología tiene carácter general para poder ser aplicada en gran cantidad de materuales de interés y amplia la flexibilidad de ajuste de los métodos de los que ha partido como base este trabajo. En segundo lugar, se ha desarrollado una librería para la gestión de tablas de datos de ecuaciones de estado que también incluye la gestión de tablas con datos de opacidades y de ionización. Esta nueva librería extiende las capacidades de la anterior al tener llamadas más específicas que aceleran los cálculos, y posibilidad de uso de varias tablas a la vez. Solver de difusión: se ha desarrollado un nuevo paquete para resolver la ecuación de difusión que se aplicará a la conducción de calor dentro del plasma. El método anterior no podía ser ejecutado en paralelo y producía resultados dependientes de la resolución de la malla, mientras que este método es paralelizable y además obtiene una solución con mejor convergencia, lo que supone una solución que no depende del refinamiento del mallado. Revisión del paquete de radiación: en primer lugar se ha realizado una revisión de la implementación del modelo de radiación descubriendo varios errores que han sido depurados. También se ha incluido la nueva librería de gestión de tablas de opacidades que permiten la obtención de las propiedades ópticas del plasma en multigrupos de energía. Por otra parte se ha extendido el cálculo de los coeficientes de transporte al esquema multimaterial que ha introducido David Portillo García en el paquete hidrodinámico del código de simulación. Por último se ha revisado el esquema de resolución del transporte y se ha modificado para hacerlo paralelizable. • Se ha implementado un paquete de trazado de rayos para deposición láser que extiende la utilidad del anterior al ser en 3D y poder utilizar entonces diferentes configuraciones. • Una vez realizadas todas estas tareas se ha aplicado el código ARWEN al estudio de la astrofísica de laboratorio simulando los experimentos llevados a cabo en la instalación PALS por Chantal Stehlé acerca de ondas de choque radiativas. Se han comparado los resultados experimentales frente a las predicciones del código ARWEN obteniéndose una gran concordancia en la velocidad de la onda de choque generada y en las dimensiones del precursor. El código de simulación sobre el que se ha trabajado, junto con los desarrollos aportados por otros investigadores durante la realización de esta tesis, ha permitido participar en colaboraciones con laboratorios de Francia o Japón y se han producido resultados científicos publicados basados en el trabajo descrito en esta tesis. ABSTRACT Improvements in radiation hydrodynamic code ARWEN for the study of systems in the range of physics high energy density (High Energy Density Physics) are presented. The developments introduced are based on the following áreas: • Equations of state: a new methodology was developed to adjust the results of a simple Equation of State model like QEOS to experimental data and results of AIMD. This methodology can be applied to a large amount of materials and it increases the flexibility and range of the previous methods used as basis for this work. Also a new computer library has been developed to manage data tables of thermodynamic properties as well as includes the management of opacity and ionization data tables. This new library extends the capabilities of the previous one with more specific routines, and the possibility of using múltiple tables for several materials. • Diffusion solver: a new package has been developed to solve the diffusion equation applied to the heat conduction of the plasma. The previous method is not parallelizable and it produced mesh dependent results, while this new package can be executed in parallel and achieves a more converged solution that does not depend on the refinement of the mesh. • Radiation package: the check of the radiation model rose several bugs in the implementation that had been removed. The new computer library for EOS managing includes capabilities to store opacity tables for multigroups of energy. Moreover the transport coefficients calculations have been extended for the new multimaterial hydrodynamic package developed by David Portillo García. Also the solving methodology for the transport equation has been modified to make the code run in parallel. • A new ray tracing package has been introduced to extend the previous one to 3D. Once all these tasks has been implemented, the ARWEN code has been applied to study laboratory astrophysics systems. Simulations have been done in order to reproduce the results of the experiments carried out in PALS facility by Chantal Stehlé in radiative shock production. Experimental results are in cióse agreement to the ARWEN estimations of the speed of the shock wave and the length of the precursor. The simulation code used in this thesis, including the work done in ARWEN by other colleagues at the time of this research, allowed the collaboration with other research institution in France and Japan and some of the results presented in this thesis have been published in scientific journals.
Resumo:
Si bien es verdad que existen algunos problemas de electricidad, donde las corrientes alternas no presentan satisfactorias soluciones y son posibles de emplear únicamente las continuas; por regla general los medios con que actualmente unas y otras cuentan, son tan comparables y tan iguales las ventajas e inconvenientes totales que en cada caso presenta sus uso que, ya que no imposible,es difícil tarea para el ingeniero adoptar razonadamente uno u otro sistema y sólo un detenido estudio del caso que ha de resolver pueden ayudarle en tan delicado asunto.
Resumo:
Desde el año 2004 el código ARWEN ha sido utilizado con éxito para simular y diseñar experimentos relacionados con blancos para fusión por confinamiento inercial [146], astrofísica de laboratorio [145], plasmas como amplificadores de láseres de rayos X [107] o plasmas creados por láser para la medición de espectros de transmisión. Para la realización de estas simulaciones es necesario, además de métodos de alto orden precisos y que presenten buenas propiedades conservativas, conocer ciertas propiedades de los plasmas. En el caso de la fluidodinámica y la conducción electrónica necesitaremos conocer la ecuación de estado [94, 49, 36], y para el transporte de la radiación será preciso disponer de los datos de absorción y emisión [104, 95, 40]. Hasta el año 2009 ARWEN dependía de códigos externos para la generación de estas tablas de opacidad, careciendo de control sobre los métodos empleados para su generación. Además estos códigos asumían equilibrio local termodinámico (LTE), limitando su validez a rangos de alta densidad y baja temperatura. En el marco de esta tesis se ha desarrollado el código BIGBART para la generación de tablas detalladas de opacidad y emisividad para su uso en el módulo de transporte de radiación. De esta forma el grupo dispondrá de su propia herramienta de generación de propiedades radiativas. El código desarrollado es capaz de tratar plasmas en estado fuera de equilibrio (non-LTE) mediante el modelo colisional-radiativo, extendiendo así el rango de validez de las tablas generadas. El trabajo desarrollado para implementar un código LTE/non-LTE estacionario es el siguiente Cálculo de estructura y datos atómicos. Se ha acoplado en código FAC a BIGBART, incorporando la capacidad para generar potenciales atómicos para una configuración y el cálculo de funciones de onda de electrones en orbitales ligados y libres. Aproximaciones y métodos para la obtención de tasas y secciones eficaces de procesos. Se han incluido y programado los modelos implementados en FAC para el cálculo de secciones eficaces de fotoionización, y tasas de decaimiento de emisión espontánea y autoionización. Además se ha incluido el modelo Plane-Wave Born (PWBA) para el cálculo de las secciones eficaces de ionización y excitación colisional. Modelos para la obtención de la distribución de estados iónicos dentro del plasma. Se ha programado un solver LTE basado en la ecuación de Saha-Boltzmann con efectos de ionización por presión debida a los iones adyacentes. También se ha implementado un modelo non-LTE colisionalradiativo para la resolución del sistema de ecuaciones que nos permite obtener la densidad de estados iónicos fuera de equilibrio. Modelo non-LTE RADIOM. Se ha implementado el modelo RADIOM para aproximar efectos de no-equilibrio mediante cálculos LTE a una temperatura equivalente, menor o igual que la temperatura electrónica real. Cálculo de las propiedades espectrales de absorción y emisión. Se han implementado los modelos para el cálculo de los perfiles espectrales de absorción y emisión para procesos entre niveles ligados, ligado-libre y librelibre. Aprovechando el trabajo realizado en este sentido, durante el transcurso de esta tesis se amplió el código BIGBART para tratar problemas con dependencia temporal. La extensión para tratar este tipo de problemas se orientó a la simulación numérica de la interacción de láseres ultra intensos en el rango XUV/rayos X. Para ello, además de adaptar el modelo non-LTE colisionalradiativo se incluyeron procesos adicionales asociados a la interacción de la materia con fotones altamente energéticos. También se han incluido modelos para el cálculo de las propiedades ópticas, y por ende las propiedades dieléctricas de la materia irradiada, de gran interés en algunas aplicaciones novedosas de estos láseres intensos. Debido a la naturaleza fuertemente fuera de equilibrio en la interacción de fotones de alta energía con la materia, se incluyó el tratamiento de la distribución de electrones libres fuera de equilibrio en la aproximación de Fokker-Planck, tanto para condiciones degeneradas como no degeneradas. El trabajo desarrollado en el código non-LTE con dependencia temporal es el siguiente Procesos asociados a láseres intensos XUV/rayos X. Se ha implementado el cálculo de procesos radiativos estimulados de absorción y emisión por el láser. También se han incluido procesos asociados a la creación de vacantes en capas internas electrónicas (Shake), además de doble autoionización y doble fotoionización. Cálculo de propiedades ópticas y dieléctricas en blancos sólidos. Se ha implementado un modelo para la absorción por bremsstrahlung inverso en blancos en estado sólido. Con el coeficiente de extinción debido a procesos de fotoabsorción resonante, fotoionización y bremsstrahlung inverso se obtiene el ´ındice de refracción mediante la relación de Kronig-Kramers. Electrones fuera de equilibrio. Se ha tratado la evolución de la distribución de electrones, cuando no está justificado asumir que es Maxwelliana o de Fermi-Dirac, mediante la aproximación de Fokker-Planck para la colisión entre electrones libres. En la resolución de la ecuación de Fokker-Planck se han incluido los procesos inelásticos por colisiones con iones y términos fuente por interacción con el láser y otros procesos. ABSTRACT Since 2004 the ARWEN code has been successfully used to simulate and design targets for inertial confinement fusion experiments [146], laboratory astrophysics [145], plasmas as X-ray lasers amplifiers [107] or laser created plasmas for measuring transmission spectra. To perform these simulations it is necessary, in addition to high order precise methods with good conservative properties, to know certain properties of plasmas. For fluid dynamic and electronic conduction we need to know the equation of state [94, 49, 36], and for radiation transport it will be necessary to have the data of the absorption and emission [104, 95, 40]. Until 2009 ARWEN depended on external codes to generate these opacity tables, lacking of control over the methods used for their generation. Besides, these codes assumed local thermodynamic equilibrium (LTE), limiting their validity ranges to high densities and low temperatures. As part of this thesis it has been developed the BIGBART code for generating detailed opacity and emissivity tables for use in the radiation transport module. This group will have its own tool for the generation of radiative properties. The developed code is capable of treating plasmas out of equilibrium (non-LTE) by means of a collisional-radiative model, extending the range of validity of the generated tables. The work to implement an LTE/non-LTE steady-state code is as follows Calculation of structure and atomic data. the FAC code was coupled to BIGBART, incorporating the ability to generate atomic potentials for calculating configuration wave functions for bound and free electrons. Approaches and methods for obtaining cross sections and processes rates. We have included and reprogrammed in Fortran the models implemented in FAC for calculation of photoionization cross sections and decay rates of spontaneous emission and autoionization. We also included the Plane- Wave Born (PWBA) model to calculate the cross sections of ionization and collisional excitation. Models for the obtention of the distribution of ionic states within the plasma. We programmed a LTE solver based on the Saha-Boltzmann equation with pressure ionization effects due to adjacent ions. It has also been implemented a non-LTE collisional-radiative model for solving the system of equations that allows us to obtain the density of ionic states out of equilibrium. Non-LTE RADIOM model. We have implemented the non-LTE RADIOM model to approximate non-equilibrium effects with LTE data at an equivalent temperature, lower or equal to the actual electronic temperature. Calculation of the spectral absorption and emission properties. Models have been implemented for the calculation of the spectral profiles of absorption and emission processes between bound levels, free-bound and free-free. Taking advantage of the work done in this direction throughout the course of this thesis the code BIGBART was extended to treat time-dependent problems. The extension to treat such problems is oriented to the numerical simulation of the interaction of ultra intense lasers in the XUV/X-ray range. For this range, in addition to adapting the non-LTE collisional-radiative model, additional processes associated with the interaction of matter with high energy photons. We also included models for calculation of the optical properties, and therefore the dielectric properties of the irradiated material, of great interest in some novel applications of these intense lasers. Due to the strong non-equilibrium nature of the interaction of high energy photons with matter, we included the treatment of the distribution of free electrons out of equilibrium in the Fokker-Planck approximation for both degenerate and non-degenerate conditions. The work in the non-LTE time-dependent code is as follows Processes associated with intense XUV/X-ray lasers. We have implemented the calculation of stimulated radiative processes in absorption and emission. Also we included processes associated with the creation of electronic vacancies in inner shells (Shake), double autoionization and double photoionization. Calculation of optical and dielectric properties in solid targets. We have implemented a model for inverse bremsstrahlung absorption in solid targets. With the extinction coefficient from resonant photoabsorption, photoionization and inverse bremsstrahlung the refractive index is obtained by the Kramers-Kronig relation. Electrons out of equilibrium. We treat the evolution of the electron distribution, when it is not justified to assume a Maxwellian or Fermi-Dirac distribution, by the Fokker-Planck approximation for collisions between electrons. When solving the Fokker-Planck equation we included inelastic collision processes with ions and source terms by interaction with the laser and other processes.
Resumo:
Esta investigación avanza en el intento de recuperar la técnica tradicional del estuco a fuego, paradigma de la decoración de espacios interiores hasta la mitad del s. XX por sus imitaciones marmóreas de gran calidad. Para ejecutarlos se utilizaban morteros de cal con áridos de mármol, pigmentos minerales y grasas; con estos materiales se preparaban y tendían las masas, se pintaban al fresco y se terminaban con el paso de una herramienta metálica caliente. Como sucede con otras técnicas, el paso del tiempo ha difuminado los conocimientos sobre la materia, haciendo muy difícil la conservación o restauración de los ejemplos en nuestro patrimonio. A partir de la escasa bibliografía existente se ha recuperado el proceso, sometiendo las muestras elaboradas a diferentes ensayos que han caracterizado el acabado final,tanto en sus características intrínsecas como en las que le son conferidas al proteger finalmente las muestras con una capa de cera, tal y como se realizaba tradicionalmente.---ABSTRACT---This research advances in the attempt to recover the traditional technique of stucco by fire; paradigm of indoor decoration until half of 20th century due to its high quality marbled imitations. On its implementation process, it was used lime mortars with marble aggregates, mineral pigments and greases. With these materials, masses were prepared and extended into the walls, they were painted in fresco and ended with the passage of a heated metal tool. As with any other technique, the time passing over has blurred the knowledge on the subject, making very difficult the preservation or restoration of examples in our heritage. Despite of the limited literature, the process has been recovered; subjecting the samples prepared at different trials that have characterized the finished, both in its merits and its conferred characteristics by finally protecting the samples with a layer of wax, as was done traditionally.
Resumo:
El sector ferroviario ha experimentado en los últimos años un empuje espectacular acaparando las mayores inversiones en construcción de nuevas líneas de alta velocidad. Junto a esta inversión inicial no se debe perder de vista el coste de mantenimiento y gestión de las mismas y para ello es necesario avanzar en el conocimiento de los fenómenos de interacción de la vía y el material móvil. En los nuevos trazados ferroviarios, que hacen del ferrocarril un modo de transporte competitivo, se produce un notable aumento en la velocidad directamente relacionado con la disminución de los tiempos de viaje, provocando por ello elevados esfuerzos dinámicos, lo que exige una elevada calidad de vía para evitar el rápido deterioro de la infraestructura. Resulta primordial controlar y minimizar los costes de mantenimiento que vienen generados por las operaciones de conservación de los parámetros de calidad y seguridad de la vía férrea. Para reducir las cargas dinámicas que actúan sobre la vía deteriorando el estado de la misma, debido a este aumento progresivo de las velocidades, es necesario reducir la rigidez vertical de la vía, pero igualmente este aumento de velocidades hace necesarias elevadas resistecias del emparrillado de vía y mejoras en las plataformas, por lo que es necesario buscar este punto de equilibrio en la elasticidad de la vía y sus componentes. Se analizan las aceleraciones verticales medidas en caja de grasa, identificando la rigidez vertical de la vía a partir de las frecuencias de vibración vertical de las masas no suspendidas, correlacionándola con la infraestructura. Estas aceleraciones verticales se desprenden de dos campañas de medidas llevadas a cabo en la zona de estudio. En estas campañas se colocaron varios acelerómetros en caja de grasa obteniendo un registro de aceleraciones verticales a partir de las cuales se ha obteniendo la variación de la rigidez de vía de unas zonas a otras. Se analiza la rigidez de la vía correlacionándola con las distintas tipologías de vía y viendo la variación del valor de la rigidez a lo largo del trazado ferroviario. Estos cambios se manifiestan cuando se producen cambios en la infraestructura, de obras de tierra a obras de fábrica, ya sean viaductos o túneles. El objeto principal de este trabajo es profundizar en estos cambios de rigidez vertical que se producen, analizando su origen y las causas que los provocan, modelizando el comportamiento de los mismos, para desarrollar metodologías de análisis en cuanto al diseño de la infraestructura. Igualmente se analizan los elementos integrantes de la misma, ahondando en las características intrínsecas de la rigidez vertical global y la rigidez de cada uno de los elementos constituyentes de la sección tipo ferroviaria, en cada una de las secciones características del tramo en estudio. Se determina en este trabajo si se produce y en qué medida, variación longitudinal de la rigidez de vía en el tramo estudiado, en cada una de las secciones características de obra de tierra y obra de fábrica seleccionadas analizando las tendencias de estos cambios y su homogeneidad a lo largo del trazado. Se establece así una nueva metodología para la determinación de la rigidez vertical de la vía a partir de las mediciones de aceleraciones verticales en caja de grasa así como el desarrollo de una aplicación en el entorno de Labview para el análisis de los registros obtenidos. During the last years the railway sector has experienced a spectacular growth, focusing investments in the construction of new high-speed lines. Apart from the first investment the cost of maintaining and managing them has to be considered and this requires more knowledge of the process of interaction between track and rolling stock vehicles. In the new high-speed lines, that make of the railway a competitive mode of transport, there is a significant increase in speed directly related to the shorten in travel time, and that produces high dynamic forces. So, this requires a high quality of the track to avoid quickly deterioration of infrastructure. It is essential to control and minimize maintenance costs generated by maintenance operations to keep the quality and safety parameters of the railway track. Due to this gradual increase of speed, and to reduce the dynamic loads acting on the railway track causing its deterioration, it is necessary to reduce the vertical stiffness of the track, but on the other hand this speed increase requires high resistance of the railway track and improvements of the railway platform, so we must find the balance between the elasticity of the track and its components. Vertical accelerations in axle box are measured and analyzed, identifying the vertical stiffness of the railway track obtained from the vertical vibration frequency of the unsprung masses, correlating with the infrastructure. These vertical accelerations are the result of two measurement campaigns carried out in the study area with the placement of several accelerometers located in the axle box. From these vertical accelerations the variation of the vertical stiffness from one area to another is obtained. The track stiffness is analysed relating with the different types of infrastructure and the change in the value of the stiffness along the railway line. These changes are revealed when changes in infrastructure occurs, for instance; earthworks to bridges or tunnels. The main purpose of this paper is to examine these vertical stiffness changes, analysing its origins and causes, modelling their behaviour, developing analytical methodologies for the design of infrastructure. In this thesis it is also reviewed the different elements of the superstructure, paying special attention to the vertical stiffness of each one. In this study is determined, if it happens and to what extent, the longitudinal variation in the stiffness of track along the railway line studied in every selected section; earthwork, bridges and tunnels. They are also analyzed trends of these changes and homogeneity along the path. This establishes a new method for determining the vertical stiffness of the railway track from the vertical accelerations measured on axle box as well as an application developed in LabView to analyze the recordings obtained.
Resumo:
El presente proyecto tiene como objeto la puesta a punto de métodos de análisis de combustibles basados en la espectrometría atómica, centrándose en un equipo de absorción atómica que, como su nombre indica, funciona bajo el principio de la absorción atómica y un equipo ICP que trabaja por plasma acoplado inductivamente y que se rige bajo el principio espectrométrico de la emisión atómica. La finalidad de la puesta a punto de ambos métodos es llevar un control de calidad periódico sobre los combustibles. Se pondrán a punto dos métodos normalizados de ensayos, uno bajo la norma UNE EN 16135 para la determinación del contenido de manganeso en gasolinas; otro bajo la norma EN 16576 para determinar el contenido de manganeso y de hierro en gasóleos de automoción. La puesta a punto de ambos métodos tiene un procedimiento asociado que se puede resumir en cuatro pasos: lectura de la norma, creación del método en el software informático con el que trabaja el equipo, calibración del mismo y realización del estudio de exactitud del método. Abstract The aim of this project is to tune up analytical methods based on the principle of the atomic spectrometry, focusing on testing equipment which works under the principle of atomic absorption and Inductively Coupled Plasma (ICP) equipment governed under the principle of atomic emission. The purpose of tuning up both methods is to perform a quality control on fuels. Two different standard methods will be developed: One under the standard UNE EN 16135 for measuring the content of manganese in gasolines; the other one under the standard EN 16576 for the determination of manganese and iron content in middle distillate fuels. Tune up of both methods procedure can be summarized in four steps: Reading the standard, creation of the method on the computer software associated to the equipment, calibration of the equipment and completion of accuracy study.
Resumo:
Diseño y construcción de un aparato de bajo costo para adquisición y procesamiento de señales bioeléctricas, compuesto por un hardware capaz de amplificar y filtrar las señales, y por un instrumento virtual basado en labVIEW encargado de la adquisición de los distintas bioseñales y de su procesamiento en tiempo real. Este sistema permitirá dar soporte diagnóstico en modelos animales con desórdenes neurológicos sometidos a diferentes tipos de intervención terapéutica.
Resumo:
La evaluación hidromorfológica de las masas de agua es un requisito establecido por la Directiva Marco del Agua para determinar el estado ecológico de éstas. La Dirección General del Agua (DGA) ha detectado la necesidad de estandarizar el procedimiento para evaluar el grado de alteración hidromorfológica de las masas de agua. El ámbito de aplicación de este estudio es el río Jarama y sus tributarios, desde su nacimiento hasta su entrada en la zona urbana de Madrid, confluencia con el arroyo Valdebebas. Los principales objetivos perseguidos en este estudio son: comprobar la aplicabilidad de la parte hidrológica del protocolo caracterizando las masas de agua que comprenden la zona de estudio, analizar los resultados obtenidos y extraer conclusiones para ser tenidas en cuenta de cara a mejorar el protocolo.
Resumo:
El objetivo de esta tesis doctoral es la investigación del nuevo concepto de pinzas fotovoltaicas, es decir, del atrapamiento, ordenación y manipulación de partículas en las estructuras generadas en la superficie de materiales ferroeléctricos mediante campos fotovoltaicos o sus gradientes. Las pinzas fotovoltaicas son una herramienta prometedora para atrapar y mover las partículas en la superficie de un material fotovoltaico de una manera controlada. Para aprovechar esta nueva técnica es necesario conocer con precisión el campo eléctrico creado por una iluminación específica en la superficie del cristal y por encima de ella. Este objetivo se ha dividido en una serie de etapas que se describen a continuación. La primera etapa consistió en la modelización del campo fotovoltaico generado por iluminación no homogénea en substratos y guías de onda de acuerdo al modelo de un centro. En la segunda etapa se estudiaron los campos y fuerzas electroforéticas y dielectroforéticas que aparecen sobre la superficie de substratos iluminados inhomogéneamente. En la tercera etapa se estudiaron sus efectos sobre micropartículas y nanopartículas, en particular se estudió el atrapamiento superficial determinando las condiciones que permiten el aprovechamiento como pinzas fotovoltaicas. En la cuarta y última etapa se estudiaron las configuraciones más eficientes en cuanto a resolución espacial. Se trabajó con distintos patrones de iluminación inhomogénea, proponiéndose patrones de iluminación al equipo experimental. Para alcanzar estos objetivos se han desarrollado herramientas de cálculo con las cuales obtenemos temporalmente todas las magnitudes que intervienen en el problema. Con estas herramientas podemos abstraernos de los complicados mecanismos de atrapamiento y a partir de un patrón de luz obtener el atrapamiento. Todo el trabajo realizado se ha llevado a cabo en dos configuraciones del cristal, en corte X ( superficie de atrapamiento paralela al eje óptico) y corte Z ( superficie de atrapamiento perpendicular al eje óptico). Se ha profundizado en la interpretación de las diferencias en los resultados según la configuración del cristal. Todas las simulaciones y experimentos se han realizado utilizando como soporte un mismo material, el niobato de litio, LiNbO3, con el f n de facilitar la comparación de los resultados. Este hecho no ha supuesto una limitación en los resultados pues los modelos no se limitan a este material. Con respecto a la estructura del trabajo, este se divide en tres partes diferenciadas que son: la introducción (I), la modelización del atrapamiento electroforético y dielectroforético (II) y las simulaciones numéricas y comparación con experimentos (III). En la primera parte se fijan las bases sobre las que se sustentarán el resto de las partes. Se describen los efectos electromagnéticos y ópticos a los que se hará referencia en el resto de los capítulos, ya sea por ser necesarios para describir los experimentos o, en otros casos, para dejar constancia de la no aparición de estos efectos para el caso en que nos ocupa y justificar la simplificación que en muchos casos se hace del problema. En esta parte, se describe principalmente el atrapamiento electroforético y dielectroforético, el efecto fotovoltaico y las propiedades del niobato de litio por ser el material que utilizaremos en experimentos y simulaciones. Así mismo, como no debe faltar en ninguna investigación, se ha analizado el state of the art, revisando lo que otros científicos del campo en el que estamos trabajando han realizado y escrito con el fin de que nos sirva de cimiento a la investigación. Con el capítulo 3 finalizamos esta primera parte describiendo las técnicas experimentales que hoy en día se están utilizando en los laboratorios para realizar el atrapamiento de partículas mediante el efecto fotovoltaico, ya que obtendremos ligeras diferencias en los resultados según la técnica de atrapamiento que se utilice. En la parte I I , dedicada a la modelización del atrapamiento, empezaremos con el capítulo 4 donde modelizaremos el campo eléctrico interno de la muestra, para a continuación modelizar el campo eléctrico, los potenciales y las fuerzas externas a la muestra. En capítulo 5 presentaremos un modelo sencillo para comprender el problema que nos aborda, al que llamamos Modelo Estacionario de Separación de Carga. Este modelo da muy buenos resultados a pesar de su sencillez. Pasamos al capítulo 6 donde discretizaremos las ecuaciones que intervienen en la física interna de la muestra mediante el método de las diferencias finitas, desarrollando el Modelo de Distribución de Carga Espacial. Para terminar esta parte, en el capítulo 8 abordamos la programación de las modelizaciones presentadas en los anteriores capítulos con el fn de dotarnos de herramientas para realizar las simulaciones de una manera rápida. En la última parte, III, presentaremos los resultados de las simulaciones numéricas realizadas con las herramientas desarrolladas y comparemos sus resultados con los experimentales. Fácilmente podremos comparar los resultados en las dos configuraciones del cristal, en corte X y corte Z. Finalizaremos con un último capítulo dedicado a las conclusiones, donde resumiremos los resultados que se han ido obteniendo en cada apartado desarrollado y daremos una visión conjunta de la investigación realizada. ABSTRACT The aim of this thesis is the research of the new concept of photovoltaic or optoelectronic tweezers, i.e., trapping, management and manipulation of particles in structures generated by photovoltaic felds or gradients on the surface of ferroelectric materials. Photovoltaic tweezers are a promising tool to trap and move the particles on the surface of a photovoltaic material in a monitored way. To take advantage of this new technique is necessary to know accurately the electric field created by a specifc illumination in the crystal surface and above it. For this purpose, the work was divided into the stages described below. The first stage consisted of modeling the photovoltaic field generated by inhomogeneous illumination in substrates and waveguides according to the one-center model. In the second stage, electrophoretic and dielectrophoretic fields and forces appearing on the surface of substrates and waveguides illuminated inhomogeneously were studied. In the third stage, the study of its effects on microparticles and nanoparticles took place. In particular, the trapping surface was studied identifying the conditions that allow its use as photovoltaic tweezers. In the fourth and fnal stage the most efficient configurations in terms of spatial resolution were studied. Different patterns of inhomogeneous illumination were tested, proposing lightning patterns to the laboratory team. To achieve these objectives calculation tools were developed to get all magnitudes temporarily involved in the problem . With these tools, the complex mechanisms of trapping can be simplified, obtaining the trapping pattern from a light pattern. All research was carried out in two configurations of crystal; in X section (trapping surface parallel to the optical axis) and Z section (trapping surface perpendicular to the optical axis). The differences in the results depending on the configuration of the crystal were deeply studied. All simulations and experiments were made using the same material as support, lithium niobate, LiNbO3, to facilitate the comparison of results. This fact does not mean a limitation in the results since the models are not limited to this material. Regarding the structure of this work, it is divided into three clearly differentiated sections, namely: Introduction (I), Electrophoretic and Dielectrophoretic Capture Modeling (II) and Numerical Simulations and Comparison Experiments (III). The frst section sets the foundations on which the rest of the sections will be based on. Electromagnetic and optical effects that will be referred in the remaining chapters are described, either as being necessary to explain experiments or, in other cases, to note the non-appearance of these effects for the present case and justify the simplification of the problem that is made in many cases. This section mainly describes the electrophoretic and dielectrophoretic trapping, the photovoltaic effect and the properties of lithium niobate as the material to use in experiments and simulations. Likewise, as required in this kind of researches, the state of the art have been analyzed, reviewing what other scientists working in this field have made and written so that serve as a foundation for research. With chapter 3 the first section finalizes describing the experimental techniques that are currently being used in laboratories for trapping particles by the photovoltaic effect, because according to the trapping technique in use we will get slightly different results. The section I I , which is dedicated to the trapping modeling, begins with Chapter 4 where the internal electric field of the sample is modeled, to continue modeling the electric field, potential and forces that are external to the sample. Chapter 5 presents a simple model to understand the problem addressed by us, which is called Steady-State Charge Separation Model. This model gives very good results despite its simplicity. In chapter 6 the equations involved in the internal physics of the sample are discretized by the finite difference method, which is developed in the Spatial Charge Distribution Model. To end this section, chapter 8 is dedicated to program the models presented in the previous chapters in order to provide us with tools to perform simulations in a fast way. In the last section, III, the results of numerical simulations with the developed tools are presented and compared with the experimental results. We can easily compare outcomes in the two configurations of the crystal, in section X and section Z. The final chapter collects the conclusions, summarizing the results that were obtained in previous sections and giving an overview of the research.
Resumo:
Los montes Mediterráneos han experimentado múltiples cambios en las últimas décadas (tanto en clima como en usos), lo que ha conducido a variaciones en la distribución de especies. El aumento previsto de las temperaturas medias junto con la mayor variabilidad intra e inter anual en cuanto a la ocurrencia de eventos extremos o disturbios naturales (como periodos prolongados de sequía, olas de frío o calor, incendios forestales o vendavales) pueden dañar significativamente al regenerado, llevándolo hasta la muerte, y jugando un papel decisivo en la composición de especies y en la dinámica del monte. La amplitud ecológica de muchas especies forestales puede verse afectada, de forma que se esperan cambios en sus nichos actuales de regeneración. Sin embargo, la migración latitudinal de las especies en busca de mejores condiciones, podría ser una explicación demasiado simplista de un proceso mucho más complejo de interacción entre la temperatura y la precipitación, que afectaría a cada especie de un modo distinto. En este sentido tanto la capacidad de adaptación al estrés ambiental de una determinada especie, así como su habilidad para competir por los recursos limitados, podría significar variaciones dentro de una comunidad. Las características fisiológicas y morfológicas propias de cada especie se encuentran fuertemente relacionadas con el lugar donde cada una puede surgir, qué especies pueden convivir y como éstas responden a las condiciones ambientales. En este sentido, el conocimiento sobre las distintas respuestas ecofisiológicas observadas ante cambios ambientales puede ser fundamentales para la predicción de variaciones en la distribución de especies, composición de la comunidad y productividad del monte ante el cambio global. En esta tesis investigamos el grado de tolerancia y sensibilidad que cada una de las tres especies de estudio, coexistentes en el interior peninsular ibérico (Pinus pinea, Quercus ilex y Juniperus oxycedrus), muestra ante los factores abióticos de estrés típicos de la región Mediterránea. Nuestro trabajo se ha basado en la definición del nicho óptimo fisiológico para el regenerado de cada especie a través de la investigación en profundidad del efecto de la sequía, la temperatura y el ambiente lumínico. Para ello, hemos desarrollado un modelo de predicción de la tasa de asimilación de carbono que nos ha permitido identificar las condiciones óptimas ambientales donde el regenerado de cada especie podría establecerse con mayor facilidad. En apoyo a este trabajo y con la idea de estudiar el efecto de la sequía a nivel de toda la planta hemos desarrollado un experimento paralelo en invernadero. Aquí se han aplicado dos regímenes hídricos para estudiar las características fisiológicas y morfológicas de cada especie, sobre todo a nivel de raíz y crecimiento del tallo, y relacionarlas con las diferentes estrategias en el uso del agua de las especies. Por último, hemos estudiado los patrones de aclimatación y desaclimatación al frio de cada especie, identificando los periodos de sensibilidad a heladas, así como cuellos de botella donde la competencia entre especies podría surgir. A pesar de que el pino piñonero ha sido la especie objeto de la gestión de estas masas durante siglos, actualmente se encuentra en la posición más desfavorable para combatir el cambio global, presentado el nicho fisiológico más estrecho de las tres especies. La encina sin embargo, ha resultado ser la especie mejor cualificada para afrontar este cambio, seguida muy de cerca por el enebro. Nuestros resultados sugieren una posible expansión en el rango de distribución de la encina, un aumento en la presencia del enebro y una disminución progresiva del pino piñonero a medio plazo en estas masas. ABSTRACT Mediterranean forests have undergone multiple changes over the last decades (in both climate and land use), which have lead to variations in the distribution of species. The expected increase in mean annual temperature together with the greater inter and intra-annual variability in extreme events and disturbances occurrence (such as prolonged drought periods, cold or heat waves, wildfires or strong winds) can significantly damage natural regeneration, up to causing death, playing a decisive role on species composition and forest dynamics. The ecological amplitude for adaptation of many species can be affected in such a way that changes in the current regeneration niches of many species are expected. However, the forecasted poleward migration of species seeking better conditions could be an oversimplification of what is a more complex phenomenon of interactions among temperature and precipitation, that would affect different species in different ways. In this regard, either the ability to adapt to environmental stresses or to compete for limited resources of a single species in a mixed forest could lead to variations within a community. The ecophysiological and morphological traits specific to each species are strongly related to the place where each species can emerge, which species can coexist, and how they respond to environmental conditions. In this regard, the understanding of the ecophysiological responses observed against changes in environmental conditions can be essential for predicting variations in species distribution, community composition, and forest productivity in the context of global change. In this thesis we investigated the degree of tolerance and sensitivity that each of the three studied species, co-occurring in central of the Iberian Peninsula (Pinus pinea, Quercus ilex and Juniperus oxycedrus), show against the typical abiotic stress factors in the Mediterranean region. Our work is based on the optimal physiological niche for regeneration of each species through in-depth research on the effect of drought, temperature and light environment. For this purpose, we developed a model to predict the carbon assimilation rate which allows us to identify the optimal environmental conditions where regeneration from each species could establish itself more easily. To obtain a better understanding about the effect of low temperature on regeneration, we studied the acclimation and deacclimation patterns to cold of each species, identifying period of frost sensitivity, as well as bottlenecks where competition between species can arise. Finally, to support our results about the effect of water availabilty, we conducted a greenhouse experiment with a view of studying the drought effect at the whole plant level. Here, two watering regimes were applied in order to study the physiological and morphological traits of each species, mainly at the level of the root system and stem growth, and so relate them to the different water use strategies of the species. Despite the fact that stone pine has been the target species for centuries, nowadays this species is in the most unfavorable position to cope with climate change. Holm oak, however, resulted the species that is best adapted to tolerate the predicted changes, followed closely by prickly juniper. Our results suggest a feasible expansion of the distribution range in holm oak, an increase in the prickly juniper presence and a progressive decreasing of stone pine presence in the medium term in these stone pine-holm oak-prickly juniper mixed forests.
Resumo:
Se persigue con este proyecto mejorar ciertos aspectos del municipio y a su vez contribuir a la mejora de otros más generales: -Identificar, localizar y tipificar las masas de rebollar del término municipal Nava del Barco para su mejor comprensión y gestión. -Diagnosticar la situación de cada masa y proponer a cada tipo unas directrices de actuación. -Diseñar un resalveo de conversión a monte alto en una de las masas que precisen de dicho tratamiento.
Resumo:
La fusión nuclear es, hoy en día, una alternativa energética a la que la comunidad internacional dedica mucho esfuerzo. El objetivo es el de generar entre diez y cincuenta veces más energía que la que consume mediante reacciones de fusión que se producirán en una mezcla de deuterio (D) y tritio (T) en forma de plasma a doscientos millones de grados centígrados. En los futuros reactores nucleares de fusión será necesario producir el tritio utilizado como combustible en el propio reactor termonuclear. Este hecho supone dar un paso más que las actuales máquinas experimentales dedicadas fundamentalmente al estudio de la física del plasma. Así pues, el tritio, en un reactor de fusión, se produce en sus envolturas regeneradoras cuya misión fundamental es la de blindaje neutrónico, producir y recuperar tritio (fuel para la reacción DT del plasma) y por último convertir la energía de los neutrones en calor. Existen diferentes conceptos de envolturas que pueden ser sólidas o líquidas. Las primeras se basan en cerámicas de litio (Li2O, Li4SiO4, Li2TiO3, Li2ZrO3) y multiplicadores neutrónicos de Be, necesarios para conseguir la cantidad adecuada de tritio. Los segundos se basan en el uso de metales líquidos o sales fundidas (Li, LiPb, FLIBE, FLINABE) con multiplicadores neutrónicos de Be o el propio Pb en el caso de LiPb. Los materiales estructurales pasan por aceros ferrítico-martensíticos de baja activación, aleaciones de vanadio o incluso SiCf/SiC. Cada uno de los diferentes conceptos de envoltura tendrá una problemática asociada que se estudiará en el reactor experimental ITER (del inglés, “International Thermonuclear Experimental Reactor”). Sin embargo, ITER no puede responder las cuestiones asociadas al daño de materiales y el efecto de la radiación neutrónica en las diferentes funciones de las envolturas regeneradoras. Como referencia, la primera pared de un reactor de fusión de 4000MW recibiría 30 dpa/año (valores para Fe-56) mientras que en ITER se conseguirían <10 dpa en toda su vida útil. Esta tesis se encuadra en el acuerdo bilateral entre Europa y Japón denominado “Broader Approach Agreement “(BA) (2007-2017) en el cual España juega un papel destacable. Estos proyectos, complementarios con ITER, son el acelerador para pruebas de materiales IFMIF (del inglés, “International Fusion Materials Irradiation Facility”) y el dispositivo de fusión JT-60SA. Así, los efectos de la irradiación de materiales en materiales candidatos para reactores de fusión se estudiarán en IFMIF. El objetivo de esta tesis es el diseño de un módulo de IFMIF para irradiación de envolturas regeneradoras basadas en metales líquidos para reactores de fusión. El módulo se llamará LBVM (del inglés, “Liquid Breeder Validation Module”). La propuesta surge de la necesidad de irradiar materiales funcionales para envolturas regeneradoras líquidas para reactores de fusión debido a que el diseño conceptual de IFMIF no contaba con esta utilidad. Con objeto de analizar la viabilidad de la presente propuesta, se han realizado cálculos neutrónicos para evaluar la idoneidad de llevar a cabo experimentos relacionados con envolturas líquidas en IFMIF. Así, se han considerado diferentes candidatos a materiales funcionales de envolturas regeneradoras: Fe (base de los materiales estructurales), SiC (material candidato para los FCI´s (del inglés, “Flow Channel Inserts”) en una envoltura regeneradora líquida, SiO2 (candidato para recubrimientos antipermeación), CaO (candidato para recubrimientos aislantes), Al2O3 (candidato para recubrimientos antipermeación y aislantes) y AlN (material candidato para recubrimientos aislantes). En cada uno de estos materiales se han calculado los parámetros de irradiación más significativos (dpa, H/dpa y He/dpa) en diferentes posiciones de IFMIF. Estos valores se han comparado con los esperados en la primera pared y en la zona regeneradora de tritio de un reactor de fusión. Para ello se ha elegido un reactor tipo HCLL (del inglés, “Helium Cooled Lithium Lead”) por tratarse de uno de los más prometedores. Además, los valores también se han comparado con los que se obtendrían en un reactor rápido de fisión puesto que la mayoría de las irradiaciones actuales se hacen en reactores de este tipo. Como conclusión al análisis de viabilidad, se puede decir que los materiales funcionales para mantos regeneradores líquidos podrían probarse en la zona de medio flujo de IFMIF donde se obtendrían ratios de H/dpa y He/dpa muy parecidos a los esperados en las zonas más irradiadas de un reactor de fusión. Además, con el objetivo de ajustar todavía más los valores, se propone el uso de un moderador de W (a considerar en algunas campañas de irradiación solamente debido a que su uso hace que los valores de dpa totales disminuyan). Los valores obtenidos para un reactor de fisión refuerzan la idea de la necesidad del LBVM, ya que los valores obtenidos de H/dpa y He/dpa son muy inferiores a los esperados en fusión y, por lo tanto, no representativos. Una vez demostrada la idoneidad de IFMIF para irradiar envolturas regeneradoras líquidas, y del estudio de la problemática asociada a las envolturas líquidas, también incluida en esta tesis, se proponen tres tipos de experimentos diferentes como base de diseño del LBVM. Éstos se orientan en las necesidades de un reactor tipo HCLL aunque a lo largo de la tesis se discute la aplicabilidad para otros reactores e incluso se proponen experimentos adicionales. Así, la capacidad experimental del módulo estaría centrada en el estudio del comportamiento de litio plomo, permeación de tritio, corrosión y compatibilidad de materiales. Para cada uno de los experimentos se propone un esquema experimental, se definen las condiciones necesarias en el módulo y la instrumentación requerida para controlar y diagnosticar las cápsulas experimentales. Para llevar a cabo los experimentos propuestos se propone el LBVM, ubicado en la zona de medio flujo de IFMIF, en su celda caliente, y con capacidad para 16 cápsulas experimentales. Cada cápsula (24-22 mm de diámetro y 80 mm de altura) contendrá la aleación eutéctica LiPb (hasta 50 mm de la altura de la cápsula) en contacto con diferentes muestras de materiales. Ésta irá soportada en el interior de tubos de acero por los que circulará un gas de purga (He), necesario para arrastrar el tritio generado en el eutéctico y permeado a través de las paredes de las cápsulas (continuamente, durante irradiación). Estos tubos, a su vez, se instalarán en una carcasa también de acero que proporcionará soporte y refrigeración tanto a los tubos como a sus cápsulas experimentales interiores. El módulo, en su conjunto, permitirá la extracción de las señales experimentales y el gas de purga. Así, a través de la estación de medida de tritio y el sistema de control, se obtendrán los datos experimentales para su análisis y extracción de conclusiones experimentales. Además del análisis de datos experimentales, algunas de estas señales tendrán una función de seguridad y por tanto jugarán un papel primordial en la operación del módulo. Para el correcto funcionamiento de las cápsulas y poder controlar su temperatura, cada cápsula se equipará con un calentador eléctrico y por tanto el módulo requerirá también ser conectado a la alimentación eléctrica. El diseño del módulo y su lógica de operación se describe en detalle en esta tesis. La justificación técnica de cada una de las partes que componen el módulo se ha realizado con soporte de cálculos de transporte de tritio, termohidráulicos y mecánicos. Una de las principales conclusiones de los cálculos de transporte de tritio es que es perfectamente viable medir el tritio permeado en las cápsulas mediante cámaras de ionización y contadores proporcionales comerciales, con sensibilidades en el orden de 10-9 Bq/m3. Los resultados son aplicables a todos los experimentos, incluso si son cápsulas a bajas temperaturas o si llevan recubrimientos antipermeación. Desde un punto de vista de seguridad, el conocimiento de la cantidad de tritio que está siendo transportada con el gas de purga puede ser usado para detectar de ciertos problemas que puedan estar sucediendo en el módulo como por ejemplo, la rotura de una cápsula. Además, es necesario conocer el balance de tritio de la instalación. Las pérdidas esperadas el refrigerante y la celda caliente de IFMIF se pueden considerar despreciables para condiciones normales de funcionamiento. Los cálculos termohidráulicos se han realizado con el objetivo de optimizar el diseño de las cápsulas experimentales y el LBVM de manera que se pueda cumplir el principal requisito del módulo que es llevar a cabo los experimentos a temperaturas comprendidas entre 300-550ºC. Para ello, se ha dimensionado la refrigeración necesaria del módulo y evaluado la geometría de las cápsulas, tubos experimentales y la zona experimental del contenedor. Como consecuencia de los análisis realizados, se han elegido cápsulas y tubos cilíndricos instalados en compartimentos cilíndricos debido a su buen comportamiento mecánico (las tensiones debidas a la presión de los fluidos se ven reducidas significativamente con una geometría cilíndrica en lugar de prismática) y térmico (uniformidad de temperatura en las paredes de los tubos y cápsulas). Se han obtenido campos de presión, temperatura y velocidad en diferentes zonas críticas del módulo concluyendo que la presente propuesta es factible. Cabe destacar que el uso de códigos fluidodinámicos (e.g. ANSYS-CFX, utilizado en esta tesis) para el diseño de cápsulas experimentales de IFMIF no es directo. La razón de ello es que los modelos de turbulencia tienden a subestimar la temperatura de pared en mini canales de helio sometidos a altos flujos de calor debido al cambio de las propiedades del fluido cerca de la pared. Los diferentes modelos de turbulencia presentes en dicho código han tenido que ser estudiados con detalle y validados con resultados experimentales. El modelo SST (del inglés, “Shear Stress Transport Model”) para turbulencia en transición ha sido identificado como adecuado para simular el comportamiento del helio de refrigeración y la temperatura en las paredes de las cápsulas experimentales. Con la geometría propuesta y los valores principales de refrigeración y purga definidos, se ha analizado el comportamiento mecánico de cada uno de los tubos experimentales que contendrá el módulo. Los resultados de tensiones obtenidos, han sido comparados con los valores máximos recomendados en códigos de diseño estructural como el SDC-IC (del inglés, “Structural Design Criteria for ITER Components”) para así evaluar el grado de protección contra el colapso plástico. La conclusión del estudio muestra que la propuesta es mecánicamente robusta. El LBVM implica el uso de metales líquidos y la generación de tritio además del riesgo asociado a la activación neutrónica. Por ello, se han estudiado los riesgos asociados al uso de metales líquidos y el tritio. Además, se ha incluido una evaluación preliminar de los riesgos radiológicos asociados a la activación de materiales y el calor residual en el módulo después de la irradiación así como un escenario de pérdida de refrigerante. Los riesgos asociados al módulo de naturaleza convencional están asociados al manejo de metales líquidos cuyas reacciones con aire o agua se asocian con emisión de aerosoles y probabilidad de fuego. De entre los riesgos nucleares destacan la generación de gases radiactivos como el tritio u otros radioisótopos volátiles como el Po-210. No se espera que el módulo suponga un impacto medioambiental asociado a posibles escapes. Sin embargo, es necesario un manejo adecuado tanto de las cápsulas experimentales como del módulo contenedor así como de las líneas de purga durante operación. Después de un día de después de la parada, tras un año de irradiación, tendremos una dosis de contacto de 7000 Sv/h en la zona experimental del contenedor, 2300 Sv/h en la cápsula y 25 Sv/h en el LiPb. El uso por lo tanto de manipulación remota está previsto para el manejo del módulo irradiado. Por último, en esta tesis se ha estudiado también las posibilidades existentes para la fabricación del módulo. De entre las técnicas propuestas, destacan la electroerosión, soldaduras por haz de electrones o por soldadura láser. Las bases para el diseño final del LBVM han sido pues establecidas en el marco de este trabajo y han sido incluidas en el diseño intermedio de IFMIF, que será desarrollado en el futuro, como parte del diseño final de la instalación IFMIF. ABSTRACT Nuclear fusion is, today, an alternative energy source to which the international community devotes a great effort. The goal is to generate 10 to 50 times more energy than the input power by means of fusion reactions that occur in deuterium (D) and tritium (T) plasma at two hundred million degrees Celsius. In the future commercial reactors it will be necessary to breed the tritium used as fuel in situ, by the reactor itself. This constitutes a step further from current experimental machines dedicated mainly to the study of the plasma physics. Therefore, tritium, in fusion reactors, will be produced in the so-called breeder blankets whose primary mission is to provide neutron shielding, produce and recover tritium and convert the neutron energy into heat. There are different concepts of breeding blankets that can be separated into two main categories: solids or liquids. The former are based on ceramics containing lithium as Li2O , Li4SiO4 , Li2TiO3 , Li2ZrO3 and Be, used as a neutron multiplier, required to achieve the required amount of tritium. The liquid concepts are based on molten salts or liquid metals as pure Li, LiPb, FLIBE or FLINABE. These blankets use, as neutron multipliers, Be or Pb (in the case of the concepts based on LiPb). Proposed structural materials comprise various options, always with low activation characteristics, as low activation ferritic-martensitic steels, vanadium alloys or even SiCf/SiC. Each concept of breeding blanket has specific challenges that will be studied in the experimental reactor ITER (International Thermonuclear Experimental Reactor). However, ITER cannot answer questions associated to material damage and the effect of neutron radiation in the different breeding blankets functions and performance. As a reference, the first wall of a fusion reactor of 4000 MW will receive about 30 dpa / year (values for Fe-56) , while values expected in ITER would be <10 dpa in its entire lifetime. Consequently, the irradiation effects on candidate materials for fusion reactors will be studied in IFMIF (International Fusion Material Irradiation Facility). This thesis fits in the framework of the bilateral agreement among Europe and Japan which is called “Broader Approach Agreement “(BA) (2007-2017) where Spain plays a key role. These projects, complementary to ITER, are mainly IFMIF and the fusion facility JT-60SA. The purpose of this thesis is the design of an irradiation module to test candidate materials for breeding blankets in IFMIF, the so-called Liquid Breeder Validation Module (LBVM). This proposal is born from the fact that this option was not considered in the conceptual design of the facility. As a first step, in order to study the feasibility of this proposal, neutronic calculations have been performed to estimate irradiation parameters in different materials foreseen for liquid breeding blankets. Various functional materials were considered: Fe (base of structural materials), SiC (candidate material for flow channel inserts, SiO2 (candidate for antipermeation coatings), CaO (candidate for insulating coatings), Al2O3 (candidate for antipermeation and insulating coatings) and AlN (candidate for insulation coating material). For each material, the most significant irradiation parameters have been calculated (dpa, H/dpa and He/dpa) in different positions of IFMIF. These values were compared to those expected in the first wall and breeding zone of a fusion reactor. For this exercise, a HCLL (Helium Cooled Lithium Lead) type was selected as it is one of the most promising options. In addition, estimated values were also compared with those obtained in a fast fission reactor since most of existing irradiations have been made in these installations. The main conclusion of this study is that the medium flux area of IFMIF offers a good irradiation environment to irradiate functional materials for liquid breeding blankets. The obtained ratios of H/dpa and He/dpa are very similar to those expected in the most irradiated areas of a fusion reactor. Moreover, with the aim of bringing the values further close, the use of a W moderator is proposed to be used only in some experimental campaigns (as obviously, the total amount of dpa decreases). The values of ratios obtained for a fission reactor, much lower than in a fusion reactor, reinforce the need of LBVM for IFMIF. Having demonstrated the suitability of IFMIF to irradiate functional materials for liquid breeding blankets, and an analysis of the main problems associated to each type of liquid breeding blanket, also presented in this thesis, three different experiments are proposed as basis for the design of the LBVM. These experiments are dedicated to the needs of a blanket HCLL type although the applicability of the module for other blankets is also discussed. Therefore, the experimental capability of the module is focused on the study of the behavior of the eutectic alloy LiPb, tritium permeation, corrosion and material compatibility. For each of the experiments proposed an experimental scheme is given explaining the different module conditions and defining the required instrumentation to control and monitor the experimental capsules. In order to carry out the proposed experiments, the LBVM is proposed, located in the medium flux area of the IFMIF hot cell, with capability of up to 16 experimental capsules. Each capsule (24-22 mm of diameter, 80 mm high) will contain the eutectic allow LiPb (up to 50 mm of capsule high) in contact with different material specimens. They will be supported inside rigs or steel pipes. Helium will be used as purge gas, to sweep the tritium generated in the eutectic and permeated through the capsule walls (continuously, during irradiation). These tubes, will be installed in a steel container providing support and cooling for the tubes and hence the inner experimental capsules. The experimental data will consist of on line monitoring signals and the analysis of purge gas by the tritium measurement station. In addition to the experimental signals, the module will produce signals having a safety function and therefore playing a major role in the operation of the module. For an adequate operation of the capsules and to control its temperature, each capsule will be equipped with an electrical heater so the module will to be connected to an electrical power supply. The technical justification behind the dimensioning of each of these parts forming the module is presented supported by tritium transport calculations, thermalhydraulic and structural analysis. One of the main conclusions of the tritium transport calculations is that the measure of the permeated tritium is perfectly achievable by commercial ionization chambers and proportional counters with sensitivity of 10-9 Bq/m3. The results are applicable to all experiments, even to low temperature capsules or to the ones using antipermeation coatings. From a safety point of view, the knowledge of the amount of tritium being swept by the purge gas is a clear indicator of certain problems that may be occurring in the module such a capsule rupture. In addition, the tritium balance in the installation should be known. Losses of purge gas permeated into the refrigerant and the hot cell itself through the container have been assessed concluding that they are negligible for normal operation. Thermal hydraulic calculations were performed in order to optimize the design of experimental capsules and LBVM to fulfill one of the main requirements of the module: to perform experiments at uniform temperatures between 300-550ºC. The necessary cooling of the module and the geometry of the capsules, rigs and testing area of the container were dimensioned. As a result of the analyses, cylindrical capsules and rigs in cylindrical compartments were selected because of their good mechanical behavior (stresses due to fluid pressure are reduced significantly with a cylindrical shape rather than prismatic) and thermal (temperature uniformity in the walls of the tubes and capsules). Fields of pressure, temperature and velocity in different critical areas of the module were obtained concluding that the proposal is feasible. It is important to mention that the use of fluid dynamic codes as ANSYS-CFX (used in this thesis) for designing experimental capsules for IFMIF is not direct. The reason for this is that, under strongly heated helium mini channels, turbulence models tend to underestimate the wall temperature because of the change of helium properties near the wall. Therefore, the different code turbulence models had to be studied in detail and validated against experimental results. ANSYS-CFX SST (Shear Stress Transport Model) for transitional turbulence model has been identified among many others as the suitable one for modeling the cooling helium and the temperature on the walls of experimental capsules. Once the geometry and the main purge and cooling parameters have been defined, the mechanical behavior of each experimental tube or rig including capsules is analyzed. Resulting stresses are compared with the maximum values recommended by applicable structural design codes such as the SDC- IC (Structural Design Criteria for ITER Components) in order to assess the degree of protection against plastic collapse. The conclusion shows that the proposal is mechanically robust. The LBVM involves the use of liquid metals, tritium and the risk associated with neutron activation. The risks related with the handling of liquid metals and tritium are studied in this thesis. In addition, the radiological risks associated with the activation of materials in the module and the residual heat after irradiation are evaluated, including a scenario of loss of coolant. Among the identified conventional risks associated with the module highlights the handling of liquid metals which reactions with water or air are accompanied by the emission of aerosols and fire probability. Regarding the nuclear risks, the generation of radioactive gases such as tritium or volatile radioisotopes such as Po-210 is the main hazard to be considered. An environmental impact associated to possible releases is not expected. Nevertheless, an appropriate handling of capsules, experimental tubes, and container including purge lines is required. After one day after shutdown and one year of irradiation, the experimental area of the module will present a contact dose rate of about 7000 Sv/h, 2300 Sv/h in the experimental capsules and 25 Sv/h in the LiPb. Therefore, the use of remote handling is envisaged for the irradiated module. Finally, the different possibilities for the module manufacturing have been studied. Among the proposed techniques highlights the electro discharge machining, brazing, electron beam welding or laser welding. The bases for the final design of the LBVM have been included in the framework of the this work and included in the intermediate design report of IFMIF which will be developed in future, as part of the IFMIF facility final design.
Resumo:
La protección de las aguas subterráneas es una prioridad de la política medioambiental de la UE. Por ello ha establecido un marco de prevención y control de la contaminación, que incluye provisiones para evaluar el estado químico de las aguas y reducir la presencia de contaminantes en ellas. Las herramientas fundamentales para el desarrollo de dichas políticas son la Directiva Marco del Agua y la Directiva Hija de Aguas Subterráneas. Según ellas, las aguas se consideran en buen estado químico si: • la concentración medida o prevista de nitratos no supera los 50 mg/l y la de ingredientes activos de plaguicidas, de sus metabolitos y de los productos de reacción no supera el 0,1 μg/l (0,5 μg/l para el total de los plaguicidas medidos) • la concentración de determinadas sustancias de riesgo es inferior al valor umbral fijado por los Estados miembros; se trata, como mínimo, del amonio, arsénico, cadmio, cloruro, plomo, mercurio, sulfatos, tricloroetileno y tetracloroetileno • la concentración de cualquier otro contaminante se ajusta a la definición de buen estado químico enunciada en el anexo V de la Directiva marco sobre la política de aguas • en caso de superarse el valor correspondiente a una norma de calidad o a un valor umbral, una investigación confirma, entre otros puntos, la falta de riesgo significativo para el medio ambiente. Analizar el comportamiento estadístico de los datos procedentes de la red de seguimiento y control puede resultar considerablemente complejo, debido al sesgo positivo que suelen presentar dichos datos y a su distribución asimétrica, debido a la existencia de valores anómalos y diferentes tipos de suelos y mezclas de contaminantes. Además, la distribución de determinados componentes en el agua subterránea puede presentar concentraciones por debajo del límite de detección o no ser estacionaria debida a la existencia de tendencias lineales o estacionales. En el primer caso es necesario realizar estimaciones de esos valores desconocidos, mediante procedimientos que varían en función del porcentaje de valores por debajo del límite de detección y el número de límites de detección aplicables. En el segundo caso es necesario eliminar las tendencias de forma previa a la realización de contrastes de hipótesis sobre los residuos. Con esta tesis se ha pretendido establecer las bases estadísticas para el análisis riguroso de los datos de las redes de calidad con objeto de realizar la evaluación del estado químico de las masas de agua subterránea para la determinación de tendencias al aumento en la concentración de contaminantes y para la detección de empeoramientos significativos, tanto en los casos que se ha fijado un estándar de calidad por el organismo medioambiental competente como en aquéllos que no ha sido así. Para diseñar una metodología que permita contemplar la variedad de casos existentes, se han analizado los datos de la Red Oficial de Seguimiento y Control del Estado Químico de las Aguas Subterráneas del Ministerio de Agricultura, Alimentación y Medio Ambiente (Magrama). A continuación, y dado que los Planes Hidrológicos de Cuenca son la herramienta básica de las Directivas, se ha seleccionado la Cuenca del Júcar, dada su designación como cuenca piloto en la estrategia de implementación común (CIS) de la Comisión Europea. El objetivo principal de los grupos de trabajo creados para ello se dirigió a implementar la Directiva Derivada de Agua Subterráneas y los elementos de la Directiva Marco del Agua relacionadas, en especial la toma de datos en los puntos de control y la preparación del primer Plan de Gestión de Cuencas Hidrográficas. Dada la extensión de la zona y con objeto de analizar una masa de agua subterránea (definida como la unidad de gestión en las Directivas), se ha seleccionado una zona piloto (Plana de Vinaroz Peñiscola) en la que se han aplicado los procedimientos desarrollados con objeto de determinar el estado químico de dicha masa. Los datos examinados no contienen en general valores de concentración de contaminantes asociados a fuentes puntuales, por lo que para la realización del estudio se han seleccionado valores de concentración de los datos más comunes, es decir, nitratos y cloruros. La estrategia diseñada combina el análisis de tendencias con la elaboración de intervalos de confianza cuando existe un estándar de calidad e intervalos de predicción cuando no existe o se ha superado dicho estándar. De forma análoga se ha procedido en el caso de los valores por debajo del límite de detección, tomando los valores disponibles en la zona piloto de la Plana de Sagunto y simulando diferentes grados de censura con objeto de comparar los resultados obtenidos con los intervalos producidos de los datos reales y verificar de esta forma la eficacia del método. El resultado final es una metodología general que integra los casos existentes y permite definir el estado químico de una masa de agua subterránea, verificar la existencia de impactos significativos en la calidad del agua subterránea y evaluar la efectividad de los planes de medidas adoptados en el marco del Plan Hidrológico de Cuenca. ABSTRACT Groundwater protection is a priority of the EU environmental policy. As a result, it has established a framework for prevention and control of pollution, which includes provisions for assessing the chemical status of waters and reducing the presence of contaminants in it. The measures include: • criteria for assessing the chemical status of groundwater bodies • criteria for identifying significant upward trends and sustained concentrations of contaminants and define starting points for reversal of such trends • preventing and limiting indirect discharges of pollutants as a result of percolation through soil or subsoil. The basic tools for the development of such policies are the Water Framework Directive and Groundwater Daughter Directive. According to them, the groundwater bodies are considered in good status if: • measured or predicted concentration of nitrate does not exceed 50 mg / l and the active ingredients of pesticides, their metabolites and reaction products do not exceed 0.1 mg / l (0.5 mg / l for total of pesticides measured) • the concentration of certain hazardous substances is below the threshold set by the Member States concerned, at least, of ammonium, arsenic, cadmium, chloride, lead, mercury, sulphates, trichloroethylene and tetrachlorethylene • the concentration of other contaminants fits the definition of good chemical status set out in Annex V of the Framework Directive on water policy • If the value corresponding to a quality standard or a threshold value is exceeded, an investigation confirms, among other things, the lack of significant risk to the environment. Analyzing the statistical behaviour of the data from the monitoring networks may be considerably complex due to the positive bias which often presents such information and its asymmetrical distribution, due to the existence of outliers and different soil types and mixtures of pollutants. Furthermore, the distribution of certain components in groundwater may have concentrations below the detection limit or may not be stationary due to the existence of linear or seasonal trends. In the first case it is necessary to estimate these unknown values, through procedures that vary according to the percentage of values below the limit of detection and the number of applicable limits of detection. In the second case removing trends is needed before conducting hypothesis tests on residuals. This PhD thesis has intended to establish the statistical basis for the rigorous analysis of data quality networks in order to conduct the evaluation of the chemical status of groundwater bodies for determining upward and sustained trends in pollutant concentrations and for the detection of significant deterioration in cases in which an environmental standard has been set by the relevant environmental agency and those that have not. Aiming to design a comprehensive methodology to include the whole range of cases, data from the Groundwater Official Monitoring and Control Network of the Ministry of Agriculture, Food and Environment (Magrama) have been analysed. Then, since River Basin Management Plans are the basic tool of the Directives, the Júcar river Basin has been selected. The main reason is its designation as a pilot basin in the common implementation strategy (CIS) of the European Commission. The main objective of the ad hoc working groups is to implement the Daughter Ground Water Directive and elements of the Water Framework Directive related to groundwater, especially the data collection at control stations and the preparation of the first River Basin Management Plan. Given the size of the area and in order to analyze a groundwater body (defined as the management unit in the Directives), Plana de Vinaroz Peñíscola has been selected as pilot area. Procedures developed to determine the chemical status of that body have been then applied. The data examined do not generally contain pollutant concentration values associated with point sources, so for the study concentration values of the most common data, i.e., nitrates and chlorides have been selected. The designed strategy combines trend analysis with the development of confidence intervals when there is a standard of quality and prediction intervals when there is not or the standard has been exceeded. Similarly we have proceeded in the case of values below the detection limit, taking the available values in Plana de Sagunto pilot area and simulating different degrees of censoring in order to compare the results obtained with the intervals achieved from the actual data and verify in this way the effectiveness of the method. The end result is a general methodology that integrates existing cases to define the chemical status of a groundwater body, verify the existence of significant impacts on groundwater quality and evaluate the effectiveness of the action plans adopted in the framework of the River Basin Management Plan.
Resumo:
Alison Margaret Gill y Peter Denham Smithson son, o eran, ambos murieron hace ya algunos años, dos arquitectos. Así dicho, esto suena a obviedad. Sin embargo no lo es, porque siempre han sido compactados en una unidad proyectual, bien bajo las siglas Alison y Peter Smithson, o bien, más puntualmente todavía, como los Smithson. Cuando Leibniz en 1696 le dice a la princesa electora Sofía que en algo tan puntual y homogéneo aparentemente como una gota de agua, vista al microscopio, resulta haber más de un millón de animales vivos, se puede empezar a vislumbrar el resultado de la Tesis. El resultado de este trabajo no se contempla un millón de partículas pero sí dos. La obra de Alison y Peter Smithson esta conformada desde su inicio probablemente por la particularidad de que en ella intervienen tanto Gill como Smithson, aunque cada uno sea en mayor o menor medida la o el responsable de un proyecto. Puesto al microscopio el proyecto del que se ocupa la Tesis, el concurso de 1953 para la ampliación de la Universidad de Sheffield, se estima que está compuesto de dos partes diferentes y que como Los Smithson o como una gota de agua, su unidad es una mera convención, una forma de designarlo y tratarlo, que falsea en algo su apreciación, aunque, como se verá, es lo que provoca el extraño efecto que como imagen ejerce. El Capítulo I descubre la duplicidad. Reyner Banham fijó en 1955, en el artículo The New Brutalism, el modo de encarar el proyecto de Sheffield cuando proyectó sobre él lo más novedoso que en el campo de la pintura ocurría en ese momento, el Art Autre. Michel Tapié ve en el informalismo presente en las obras que él engloba como un <> rasgos que puede presentar a la luz de conceptos que extrae de Riemann, matemático del s. XIX, introductor de una nueva geometría. La Tesis remonta por tanto hasta Riemann, a la búsqueda del concepto del que penden tanto Tapié como Banham. El concepto es la variedad continua; un conjunto, cuyos elementos pueden recorrer la extensión de la variedad mediante una deformación continua, como si dijéramos, diluyéndose unos en otros sin cortes entre sí. Los ejemplos del informalismo serían, por tanto, los puntos de la variedad, formas inestables o detenciones aleatorias en este transitar continuo de un mismo objeto. La visión de cuerpos en cortes aleatorios a la evolución otorga a sus formas cualesquiera la condición de extrañeza o perturbación, produciendo un impacto en la mente que lo graba instintivamente en la materia de la memoria. Así, es la memorabilidad, dada precisamente por el impacto que supone ver cuerpos en estado evolutivo, sin una forma precisa, la propiedad que gobierna a los objetos que caen bajo el Art Autre, y es la memorabilidad el rasgo distintivo de Sheffield para Banham. Este sentido evolutivo que se puede asociar a los elementos de una variedad entra en consonancia con una variedad de estados en evolución en el marco de las especies orgánicas. No sólo como individuo sino también como especie. La coincidencia no sólo es formal, también es temporal entre el descubrimiento de Riemann de la variedad continua y el de Darwin de la evolución de las especies. Ve Darwin que algunos ejemplares presentan en su cuerpo conformaciones normales de especies diferentes, que puede entenderse como una anormalidad o defecto evolutivo, lo que él llama <>. Un ejemplar monstruoso no es capaz de abrir una escisión de la variedad y en este sentido rompe su cadena evolutiva. Es un elemento, por tanto extraño a la variedad. Lo peculiar que expone Darwin, es que la monstruosidad puede ser provocada artificialmente por motivos estéticos, como ocurre en determinados animales o plantas ornamentales. Bien, esto es exactamente lo que descubre la Tesis en el proyecto de Sheffield. La unión en un solo proyecto de dos conformaciones de naturaleza diferente. El Capítulo II indaga en la naturaleza dual de Sheffield. Y la descubre en la aplicación de dos principios que tienen múltiples derivas, pero interesante en una en particular, referida al espacio. Uno es el Principio de Posición. Bajo él se contempla la situación del concurso dada en su globalidad, en una visión totalizadora que permite buscar y destacar posiciones singulares y tener un control preciso del proyecto desde el inicio. Se dice que es la opción normal en arquitectura comprender el espacio en su conjunto y que el trazado de ejes y el reparto del espacio obedecen a este principio. Son así vistos la propuesta ganadora del equipo GMW y fundamentalmente el trazado de ejes en la obra de Le Corbusier. Una parte de Sheffield es un producto típico de este modo de proceder. Hay un segundo principio que es el Principio de Transición Continua. En los términos expuestos para la variedad de Riemann, sería como si en lugar de ver cuerpos en estados concretos, por deformados que pudieran ser, nos introdujéramos dentro de la propia variedad acoplándonos al curso de la evolución misma, en un acto de unión interior con la marcha de la evolución. Para ejercer esta acción se toma como punto inicial el extremo del edificio universitario existente, el Firth Court, y se lleva cabo un estiramiento continuo. En esto radica lo que la Tesis distingue como la ampliación, el cuerpo que se enrosca paulatinamente. Para exponer este concepto, la Tesis se apoya en un ejercicio llevado a cabo por Raymond Unwin en Hampstead, el close, o estiramiento lateral del borde de un viario para hacer surgir el espacio útil residencial. A partir del concepto de close, se deriva en la urbanística americana de principios del s. XX el concepto de cluster, que pasa a ser uno de los argumentos principales de la teoría de Alison y de Peter Smithson en los años 50. El Capítulo III plantea la dificultad de mantener la dualidad de Sheffield a primeros de los 50, sometido el proyecto de arquitectura a la unicidad que impone el criterio hegemónico de Rudolf Wittkower desde “Los Fundamentos de la Arquitectura en la Edad del Humanismo”. Como en el Capítulo I, la obligación que se traza la Tesis es remontar los orígenes de las cosas que se tratan, y en este caso, entrar en las fuentes del principio proporcional. Se descubren así los fundamentos de la proporción aritmética y geométrica en el seno del pitagorismo, sus problemas y su evolución. La postura de los dos arquitectos frente a Wittkower es de admiración, pero también de libertad. Esta libertad suya es la que defiende la Tesis. Cotejando lo que da de sí la arquitectura basada en los principios proporcionales con otra arquitectura estancada en el paso del Renacimiento al Barroco como es la arquitectura perspectiva y proyectiva, la arquitectura oblicua, recuperada a la sazón por medio de la intervención en la Tesis de Panofsky, se dirimen aspectos colaterales pero fundamentales de una renovación de los planteamientos: hay planteamientos que se dicen esencialistas y objetivos y otros funcionales y que derivan en subjetivos y relacionales. Sobre estas dos marcos de categorías el propósito que persigue la Tesis es dar cuenta de los dos principios que rigen lo visto en el Capítulo II, el Principio de Posición y el Principio de Transición Continua, responsables ambos, al 50%, de la monstruosidad detectada en Sheffield, que no es negativa, sino, como decía Darwin, la combinación en un solo cuerpo de conformaciones normales en animales de especies diferentes, incluso con fines estéticos. En Sheffield existe, y esta dibujada, la figura de una cabeza escultural con un doble rostro. Todo el trabajo de la Tesis se encamina, en definitiva, a explicar, con toda la claridad y extensión que me ha sido posible, en qué consiste ese doble rostro. ABSTRACT Peter and Alison Smithson’s work is, is from its start, very influenced by both Alison Margaret Gill and Peter Denham Smithson. The matter of study of this Thesis, the 1953 competition for the expansion of the University of Sheffield, estimated after its exam, which is composed by two different parts, which, together produce a strange effect as an image. Reyner Banham in 1955 described the image in his article “The New Brutalism” as the key argument (most iconic) for the Sheffield’s project. The way his image powerfully influences sensitivity, by perturbation, makes this a singular and memorable image. This feature, only present in Sheffield, over any other building of the time, even from the same architects, allow Banham to associate the project to Art Autre, thought by Michel Tapié as a new artistic movement, to which Sheffield will belong, in the architecture part. Tapié sees in the informalism of works considered Art Autre some aspects that can bring concepts he extracts from Riemann, XIX Century mathematician, father of the new geometry. This Thesis discovers Riemann’s concept of continuous variety, a set whose elements are able to go through variety by a continuous deformation, diluting themselves without touching each other. Examples of informalism would be, points of that variety, unstable forms or random detentions in the continuous transit of the same object. Therefore, the condition of memorability comes precisely from the impact that seeing bodies in state of evolution creates. That evolutive sense that can be associated to elements of a variety, comes together with a variety of states of evolution in the world of organic species. Not only as an individual, but as well as a species. Coincidence between Riemann and Darwin’s discoveries is not only formal, but as well temporary. Darwin observes that some individuals of concrete species present on their bodies some features, typical of other species, which may be interpreted as evolutive failure. But the most peculiar part of what Darwin exposes is that monstrosity can indeed be artificially made for aesthetical purposes, like it happens in certain animals and plants. Well, this is what the Thesis discovers in Sheffield’s project. The union in a single project of two different nature forms, of which none on the parts is a deformation of the other, but they are both irreducible. Once both parts are collated, a new system which adapts well is discovered. It is a system created by Leibniz in the XVII Century, created to distinguish to principles that clear the difference between the equation methods and differential calculus. This principles are the Principle of Position and the Principle of Continuity. This two principles, translated to the spatial analysis field are key for the two parts of the project. On the one hand, the part developing in a lineal axis belongs to the Principle of Position. This means that that there is a global vision of space after which it is decided which operation to follow, which in this case consists of establishing an axis between two singular positions of the university area. The part which is being deformed while it goes is studied as a continuous action of stretching an existing building, the Firth Court, in which there is no previous spatial analysis. The only way to understand and to explain this action is by the Principle of Continuity. So, all in all, the Thesis changes the view of Sheffield from an Art Autre work to a “monstrosity”, without the negative meaning of it, just as a combination of two different nature formations, which, at the same time, justifies its power as iconic image. Finally, I would like to point out that in the Sheffield’s project there is (drawn and also physically) a sculptural head which has the feature of representing both, a man and a woman’s face. All the work of this Thesis leads to explaining the double nature of the project, taking this double expression head as inspiration.