986 resultados para conformance checking


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The cup anemometer has been used widely by the wind energy industry since its early beginning, covering two fundamental aspects: wind mill performance control and wind energy production forecast. Furthermore, despite modern technological advances such as LIDAR and SODAR, the cup anemometer remains clearly the most used instrument by the wind energy industry. Together with the major advantages of this instrument (precision, robustness), some issues must be taken into account by scientists and researchers when using it. Overspeeding, interaction with stream wakes due to allocation on masts and wind- mills, loss of performance due to wear and tear, change of performance due to different climatic conditions, checking of the maintenance status and recalibration, etc. In the present work a review of the research campaigns carried out at the IDR/UPM Institute to analyze cup anemometer performance is included. Several aspects of this instrument are examined: the calibration process, the loss of performances due to aging and wear and tear, the effect of changes of air density, the rotor aerodynamics, and the harmonic terms contained in the anemometer output signal and their possible relation to the anemometer performances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this dissertation, after testing that neither the definition of Agile methodologies, nor the current tools that support them, such as Scrum or XP, gave guidance for stages of software development prior to the definition of the first interaction of development; we proceeded to study the state of the art of Inception techniques, that is, techniques to deal with this early phase of the project, that would help guide its development. From the analysis of these Inception techniques, we defined what we considered as the essential properties of an Inception framework. With that list at hand, it was found that no current Inception framework supported all the features, also, we found that it did not exist, either, any software application on the market that did it. Finally, after checking the above gaps, we defined the Inception framework "Agile Incepti-ON", with all the practices necessary to meet the requirements specified above. In addition to this, a software application was developed to support the practices defined in the Inception framework, called "Agile Dojo".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La finalidad del proyecto es el diseño y la fabricación de un equipo de prácticas que permita a los alumnos ensayar el proceso de sincronización real de un generador síncrono a la red. El diseño consiste en un equipo de prácticas con el cual el alumno deberá acoplar el generador, previa verificación de la tensión, frecuencia y ángulo de fase con un sincronoscopio monofásico. Durante el proceso, el profesor podrá ir provocando errores de fase en las tensiones que el alumno deberá corregir. Al término del proceso, el alumno, si ha conseguido acoplar el generador, recibirá una calificación sobre diez en una pantalla LCD. Posteriormente se llevaran a cabo ensayos con alumnos voluntarios. ABSTRACT The purpose of the project is the design and manufacture of an equipment which allows students to perform the process of synchronization of a synchronous generator to the grid. The design consists of an equipment with which students must synchronize the generator to the grid, after checking voltage, frequency or phase angle with a single-phase synchronoscope. During that process, the teacher can cause phase angle errors in the voltage which students must solve. At the end of the process, if students have been able to synchronize the generator to the grid, they will receive a mark on an LCD screen. Afterwards a testing is going to be run by volunteers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto tiene como objetivo el estudio de la viabilidad ecológica de la fracturación hidráulica. Para ello, demuestra primeramente que el beneficio de la aplicación de dicha técnica es una realidad., tomando como referencia a los Estados Unidos. Tras mostrar su rentabilidad, el estudio se centra en los riesgos que supone el uso de la fracturación hidráulica, a partir de los antecedentes para los cuales se realiza un análisis de cada uno de ellos y se aportan posibles soluciones. Para la realización de este estudio es necesario el abordarlo desde distintos puntos de vista, analizando tanto las opiniones contrarias a esta tecnología como a las opiniones favorables. Es también importante referirse a la legislación respectiva a la explotación de los recursos no convencionales, para comprobar su nivel de desarrollo. ABSTRACT The objective of this project is to investigate the ecological viability of fracking. To do this, we firstly demonstrate that the benefit of the application of this technique is a reality, taking the example of the United States. After this, the study focus on risks that can appear with the use of the hydraulic fracturing, referring to existing background, analyzing these cases and searching solutions for each one. For the realization of this study, it is necessary to focus it from different points of view, analyzing favorable and contrary opinions about this new technology. It also is necessary to address the legislative issue about the unconventional resources exploitation, checking it level or development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper explores the possibility of using the Moire-Fourier deflectometry for measuring the local heat transfer coefficient inside small confined flows (micro-channels) and their relevance for checking theoretical models. This optical technique, supplemented with a digital image processing method of fringes, is applied for studying the local heat transfer over a backward facing step. The experimental results are compared with numerical results obtained from a commercial code, which has been contrasted with relevant solutions from the literature and bulk fluid temperature measurements at the inlet and outlet sections. In order to show the possibilities of the experimental technique, the influence of assuming an adiabatic wall on the numerical heat-transfer model is examined and the degree of agreement is discussed. As a result, the paper shows that the proposed Moiré-Fourier technique is a simple experimental setup suitable for temperature measurements with an accuracy similar to the thermocouples but with a spatial resolution near 0.01 mm.Moiré-Fourier deflectometry for local heat transfer measurement over a backward-facing step

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto tiene como objetivo la implementación de un sistema capaz de analizar el movimiento corporal a partir de unos puntos cinemáticos. Estos puntos cinemáticos se obtienen con un programa previo y se captan con la cámara kinect. Para ello el primer paso es realizar un estudio sobre las técnicas y conocimientos existentes relacionados con el movimiento de las personas. Se sabe que Rudolph Laban fue uno de sus mayores exponentes y gracias a sus observaciones se establece una relación entre la personalidad, el estado anímico y la forma de moverse de un individuo. Laban acuñó el término esfuerzo, que hace referencia al modo en que se administra la energía que genera el movimiento y de qué manera se modula en las secuencias, es una manera de describir la intención de las expresiones internas. El esfuerzo se divide en 4 categorías: peso, espacio, tiempo y flujo, y cada una de estas categorías tiene una polaridad denominada elemento de esfuerzo. Con estos 8 elementos de esfuerzo un movimiento queda caracterizado. Para poder cuantificar los citados elementos de esfuerzo se buscan movimientos que representen a alguno de ellos. Los movimientos se graban con la cámara kinect y se guardan sus valores en un archivo csv. Para el procesado de estos datos se establece que el sistema más adecuado es una red neuronal debido a su flexibilidad y capacidad a la hora de procesar entradas no lineales. Para la implementación de la misma se requiere un amplio estudio que incluye: topologías, funciones de activación, tipos de aprendizaje, algoritmos de entrenamiento entre otros. Se decide que la red tenga dos capas ocultas, para mejor procesado de los datos, que sea estática, siga un proceso de cálculo hacia delante (Feedforward) y el algoritmo por el que se rija su aprendizaje sea el de retropropagación (Backpropagation) En una red estática las entradas han de ser valores fijos, es decir, no pueden variar en el tiempo por lo que habrá que implementar un programa intermedio que haga una media aritmética de los valores. Una segunda prueba con la misma red trata de comprobar si sería capaz de reconocer movimientos que estuvieran caracterizados por más de un elemento de esfuerzo. Para ello se vuelven a grabar los movimientos, esta vez en parejas de dos, y el resto del proceso es igual. ABSTRACT. The aim of this project is the implementation of a system able to analyze body movement from cinematic data. This cinematic data was obtained with a previous program. The first step is carrying out a study about the techniques and knowledge existing nowadays related to people movement. It is known that Rudolf Laban was one the greatest exponents of this field and thanks to his observations a relation between personality, mood and the way the person moves was made. Laban coined the term effort, that refers to the way energy generated from a movement is managed and how it is modulated in the sequence, this is a method of describing the inner intention of the person. The effort is divided into 4 categories: weight, space, time and flow, and each of these categories have 2 polarities named elements of effort. These 8 elements typify a movement. We look for movements that are made of these elements so we can quantify them. The movements are recorded with the kinect camera and saved in a csv file. In order to process this data a neural network is chosen owe to its flexibility and capability of processing non-linear inputs. For its implementation it is required a wide study regarding: topology, activation functions, different types of learning methods and training algorithms among others. The neural network for this project will have 2 hidden layers, it will be static and follow a feedforward process ruled by backpropagation. In a static net the inputs must be fixed, this means they cannot vary in time, so we will have to implement an intermediate program to calculate the average of our data. A second test for our net will be checking its ability to recognize more than one effort element in just one movement. In order to do this all the movements are recorded again but this time in pairs, the rest of the process remains the same.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio de los ciclos del combustible nuclear requieren de herramientas computacionales o "códigos" versátiles para dar respuestas al problema multicriterio de evaluar los actuales ciclos o las capacidades de las diferentes estrategias y escenarios con potencial de desarrollo en a nivel nacional, regional o mundial. Por otra parte, la introducción de nuevas tecnologías para reactores y procesos industriales hace que los códigos existentes requieran nuevas capacidades para evaluar la transición del estado actual del ciclo del combustible hacia otros más avanzados y sostenibles. Brevemente, esta tesis se centra en dar respuesta a las principales preguntas, en términos económicos y de recursos, al análisis de escenarios de ciclos de combustible, en particular, para el análisis de los diferentes escenarios del ciclo del combustible de relativa importancia para España y Europa. Para alcanzar este objetivo ha sido necesaria la actualización y el desarrollo de nuevas capacidades del código TR_EVOL (Transition Evolution code). Este trabajo ha sido desarrollado en el Programa de Innovación Nuclear del CIEMAT desde el año 2010. Esta tesis se divide en 6 capítulos. El primer capítulo ofrece una visión general del ciclo de combustible nuclear, sus principales etapas y los diferentes tipos utilizados en la actualidad o en desarrollo para el futuro. Además, se describen las fuentes de material nuclear que podrían ser utilizadas como combustible (uranio y otros). También se puntualizan brevemente una serie de herramientas desarrolladas para el estudio de estos ciclos de combustible nuclear. El capítulo 2 está dirigido a dar una idea básica acerca de los costes involucrados en la generación de electricidad mediante energía nuclear. Aquí se presentan una clasificación de estos costos y sus estimaciones, obtenidas en la bibliografía, y que han sido evaluadas y utilizadas en esta tesis. Se ha incluido también una breve descripción del principal indicador económico utilizado en esta tesis, el “coste nivelado de la electricidad”. El capítulo 3 se centra en la descripción del código de simulación desarrollado para el estudio del ciclo del combustible nuclear, TR_EVOL, que ha sido diseñado para evaluar diferentes opciones de ciclos de combustibles. En particular, pueden ser evaluados las diversos reactores con, posiblemente, diferentes tipos de combustibles y sus instalaciones del ciclo asociadas. El módulo de evaluaciones económica de TR_EVOL ofrece el coste nivelado de la electricidad haciendo uso de las cuatro fuentes principales de información económica y de la salida del balance de masas obtenido de la simulación del ciclo en TR_EVOL. Por otra parte, la estimación de las incertidumbres en los costes también puede ser efectuada por el código. Se ha efectuado un proceso de comprobación cruzada de las funcionalidades del código y se descrine en el Capítulo 4. El proceso se ha aplicado en cuatro etapas de acuerdo con las características más importantes de TR_EVOL, balance de masas, composición isotópica y análisis económico. Así, la primera etapa ha consistido en el balance masas del ciclo de combustible nuclear actual de España. La segunda etapa se ha centrado en la comprobación de la composición isotópica del flujo de masas mediante el la simulación del ciclo del combustible definido en el proyecto CP-ESFR UE. Las dos últimas etapas han tenido como objetivo validar el módulo económico. De este modo, en la tercera etapa han sido evaluados los tres principales costes (financieros, operación y mantenimiento y de combustible) y comparados con los obtenidos por el proyecto ARCAS, omitiendo los costes del fin del ciclo o Back-end, los que han sido evaluado solo en la cuarta etapa, haciendo uso de costes unitarios y parámetros obtenidos a partir de la bibliografía. En el capítulo 5 se analizan dos grupos de opciones del ciclo del combustible nuclear de relevante importancia, en términos económicos y de recursos, para España y Europa. Para el caso español, se han simulado dos grupos de escenarios del ciclo del combustible, incluyendo estrategias de reproceso y extensión de vida de los reactores. Este análisis se ha centrado en explorar las ventajas y desventajas de reprocesado de combustible irradiado en un país con una “relativa” pequeña cantidad de reactores nucleares. Para el grupo de Europa se han tratado cuatro escenarios, incluyendo opciones de transmutación. Los escenarios incluyen los reactores actuales utilizando la tecnología reactor de agua ligera y ciclo abierto, un reemplazo total de los reactores actuales con reactores rápidos que queman combustible U-Pu MOX y dos escenarios del ciclo del combustible con transmutación de actínidos minoritarios en una parte de los reactores rápidos o en sistemas impulsados por aceleradores dedicados a transmutación. Finalmente, el capítulo 6 da las principales conclusiones obtenidas de esta tesis y los trabajos futuros previstos en el campo del análisis de ciclos de combustible nuclear. ABSTRACT The study of the nuclear fuel cycle requires versatile computational tools or “codes” to provide answers to the multicriteria problem of assessing current nuclear fuel cycles or the capabilities of different strategies and scenarios with potential development in a country, region or at world level. Moreover, the introduction of new technologies for reactors and industrial processes makes the existing codes to require new capabilities to assess the transition from current status of the fuel cycle to the more advanced and sustainable ones. Briefly, this thesis is focused in providing answers to the main questions about resources and economics in fuel cycle scenario analyses, in particular for the analysis of different fuel cycle scenarios with relative importance for Spain and Europe. The upgrade and development of new capabilities of the TR_EVOL code (Transition Evolution code) has been necessary to achieve this goal. This work has been developed in the Nuclear Innovation Program at CIEMAT since year 2010. This thesis is divided in 6 chapters. The first one gives an overview of the nuclear fuel cycle, its main stages and types currently used or in development for the future. Besides the sources of nuclear material that could be used as fuel (uranium and others) are also viewed here. A number of tools developed for the study of these nuclear fuel cycles are also briefly described in this chapter. Chapter 2 is aimed to give a basic idea about the cost involved in the electricity generation by means of the nuclear energy. The main classification of these costs and their estimations given by bibliography, which have been evaluated in this thesis, are presented. A brief description of the Levelized Cost of Electricity, the principal economic indicator used in this thesis, has been also included. Chapter 3 is focused on the description of the simulation tool TR_EVOL developed for the study of the nuclear fuel cycle. TR_EVOL has been designed to evaluate different options for the fuel cycle scenario. In particular, diverse nuclear power plants, having possibly different types of fuels and the associated fuel cycle facilities can be assessed. The TR_EVOL module for economic assessments provides the Levelized Cost of Electricity making use of the TR_EVOL mass balance output and four main sources of economic information. Furthermore, uncertainties assessment can be also carried out by the code. A cross checking process of the performance of the code has been accomplished and it is shown in Chapter 4. The process has been applied in four stages according to the most important features of TR_EVOL. Thus, the first stage has involved the mass balance of the current Spanish nuclear fuel cycle. The second stage has been focused in the isotopic composition of the mass flow using the fuel cycle defined in the EU project CP-ESFR. The last two stages have been aimed to validate the economic module. In the third stage, the main three generation costs (financial cost, O&M and fuel cost) have been assessed and compared to those obtained by ARCAS project, omitting the back-end costs. This last cost has been evaluated alone in the fourth stage, making use of some unit cost and parameters obtained from the bibliography. In Chapter 5 two groups of nuclear fuel cycle options with relevant importance for Spain and Europe are analyzed in economic and resources terms. For the Spanish case, two groups of fuel cycle scenarios have been simulated including reprocessing strategies and life extension of the current reactor fleet. This analysis has been focused on exploring the advantages and disadvantages of spent fuel reprocessing in a country with relatively small amount of nuclear power plants. For the European group, four fuel cycle scenarios involving transmutation options have been addressed. Scenarios include the current fleet using Light Water Reactor technology and open fuel cycle, a full replacement of the initial fleet with Fast Reactors burning U-Pu MOX fuel and two fuel cycle scenarios with Minor Actinide transmutation in a fraction of the FR fleet or in dedicated Accelerator Driven Systems. Finally, Chapter 6 gives the main conclusions obtained from this thesis and the future work foreseen in the field of nuclear fuel cycle analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se propone indagar en las vias por las que la arquitectura española cambió en el periodo comprendido entre 1920 y 1960 y el papel que los viajes tuvieron en dicho cambio. La investigación busca demostrar que, junto a otros factores como la llegada de revistas y libros y las conferencias de arquitectos de la talla de Le Corbusier, Gropius, Mendelsohn, Neutra o Aalto, los viajes tuvieron un papel clave en el proceso de apertura de miras y que provocó que, bien a traves de lo publicado en las revistas por los “arquitectos viajeros” o por el reflejo que tuvo lo conocido fuera de nuestras fronteras en proyectos y obras concretas, un buen numero de arquitectos, que no tuvieron la posibilidad de viajar, pudieron conocer que existía una realidad muy distinta a la que los profesores en la Escuela les habían enseñado o a la que estaban acostumbrados a ver en otros arquitectos de generaciones anteriores basada, en buena medida, en la recuperación de un estilo propio nacional centrandose en los historicismos. A lo largo de la investigación trataremos de ver que efecto produjo la apertura de fronteras y que papel tuvieron los viajes en dicho proceso. También nos centraremos en comprobar hasta qué punto cambió la manera de ver la arquitectura de los protagonistas del viaje y de aquellos que recibieron la información por ellos encontrada. Veremos cómo dicha información es cuantificable, clasificable y demostrable en propuestas concretas. Será importante ver que motivó su salida, que buscaban y que encontraron así como, entre las influencias recibidas, cuales tuvieron un mayor calado: las propuestas europeas o las americanas, y dentro de las primeras, las holandesas, las alemanas o las francesas. Los objetivos que se persigue conseguir son: contribuir a un mayor conocimiento de la arquitectura entre 1920 y 1960 a través de las conexiones internacionales y el ensanchamiento de horizontes, recopilar, clasificar y analizar todo el material obtenido relacionando los viajes con las biografías de los arquitectos protagonistas, estudiar qué interesa a los arquitectos españoles cuando van fuera y porqué (será importante ver quiénes de entre los arquitectos son más abiertos a las corrientes europeas y que motivó su salida en busca de nuevos lenguajes), ordenar las reflexiones que exponen los arquitectos a la vuelta de sus viajes y ver en que propuestas y de qué forma los arquitectos plasman lo encontrado en su búsqueda en el extranjero. Para conseguir estos objetivos estructuraremos la investigación en tres bloques: En el primero de ellos nos centraremos en profundizar como era la arquitectura española a principios del siglo XX. Para poder entender mejor las transformaciones que los viajes provocaron será necesario conocer cuál era la arquitectura predominante en estos años que, como veremos, consistía en la búsqueda de un estilo nacional propio dirigiendo su mirada al pasado. También veremos cómo un grupo de arquitectos (Palacios, Flórez, Torres Balbás o Anasagasti) fueron pioneros en el deseo de mirar fuera de nuestras fronteras así como dedicaremos especial atención a cómo era la formación en la Escuela. El segundo capítulo, que abarca desde principios de los años 20 hasta la Guerra Civil, tratará de demostrar la importancia que tuvo en el proceso de permeabilidad frente a las corrientes extranjeras los viajes que los arquitectos realizaron y que, sumados a la llegada de revistas y las visitas de los principales arquitectos modernos, provocaron una primera apertura como respuesta a los historicismos predominantes. Entre los arquitectos viajeros destacaremos las figuras de Fernando García Mercadal (incidiendo en su importancia como difusor de la arquitectura moderna), Rafael Bergamín, Ramón Sánchez Arcas y Luis Lacasa. También nos detendremos en ver la importancia que tuvieron las exposiciones (con especial atención a la de Artes Decorativas de París de 1925 y la de la Deutscher Werkbund en Stuttgart en 1927) que se realizaron estos años y como llegó la información a nuestro país. El tercer y último capítulo arranca con el periodo de posguerra, una época de transición pues los viajes que se realizaron fueron escasos y en la mayoría de las ocasiones no se llevaron a cabo en busca de nuevos caminos. Veremos cómo tras la Guerra y de la mano de la dictadura se produce, de la misma forma que en la Alemania nazi, una vuelta al interés por los historicismos de principios de siglo. Para entender mejor este periodo haremos un repaso a la obra de Luis Gutiérrez Soto por ser explicativa de lo cambiante de las corrientes arquitectónicas de estos años. Tras el análisis de los sucedido en posguerra nos dedicaremos a analizar, de la misma forma que en el primer periodo, la manera en que se produjo el rechazo al estilo nacional de nuevo gracias a la llegada de libros y revistas, lo publicado por las revistas españolas, las visitas de arquitectos de prestigio así como los viajes de un grupo de arquitectos que, de manera individual, salieron al extranjero en busca de apoyo, de referencias en los que cimentar su arquitectura. De este grupo, por la importancia que los propios protagonistas dieron al hecho de viajar como complemento a su formación y por la manera en la que reflejaron lo aprendido en proyectos concretos destacamos a Francisco de Asís Cabrero, Miguel Fisac, Ramón Vázquez Molezún y Francisco Javier Sáenz de Oiza. De nuevo, igual que en el primer capítulo finalizaremos la investigación dedicando un apartado a las exposiciones (fundamentalmente la Interbau de Berlín de 1957) celebradas en estos años. Para finalizar estableceremos las conclusiones que nos llevarán a comprobar hasta qué punto la arquitectura española en los periodos previo y posterior a la guerra cambió y en qué medida tuvieron importancia los viajes que los arquitectos españoles realizaron al extranjero en dicho cambio… ABSTRACT This thesis aims to look at the ways which Spanish architecture changed in the period between 1920 and 1960, and the way it was effected by travelling . The research will demonstrate that, together with other factors, such as the arrival of magazines, books, conferences and architects like Le Corbusier, Gropius, Mendelsohn, Neutra or Aalto, travelling played a key role in architecture. Also, it changed the way we look at architecture. Travelling, thanks to the published journals by "travelling architects” and the influence that they had - known beyond our borders in projects and concrete works, caused the arrival of a new type of architects. Even those who were not able to travel, knew that there was a very different reality than the reality the teachers at the school had taught them. Also, the “new reality” was different from the one that they were used to seeing in other architects of earlier generations, based mainly on the recovery of a national style focused on historicism. Throughout the investigation I will try to show the effect that the opening of borders and travelling had on this process. We will also focus on checking how it changed the way we see the architecture, from the point of view of the protagonists of the travels and those who received the information . We will see how that information is quantifiable and demonstrably classifiable into concrete proposals. It will be important to see which led to their departure. They sought and found among the influences, which had a major impact: the proposed European or American, and within the first, Dutch, German or French. The objectives to be achieved are: To contribute to a better understanding of architecture between 1920 to 1960 by the international connections, and widening the horizon. To collect, classify and analyze all obtained materials related to travelling with biographies of architects protagonists. To study what the interests of the Spanish architects were when they went abroad and why ( it will be important to see who among those architects were more open to European trends and prompted their departures for new languages). To order reflections exhibited by architects around his travels and to see what proposals and how architects reflected what they found in their search abroad. To achieve these objectives we will structure this research in three areas: In the first one, we will focus on how the Spanish architecture in the early twentieth century was. To better understand the changes that travelling caused it is necessary to understand that the predominant architecture in these years was in pursuit of its own national style, directing its gaze to the past, like we shall see. We will also see how a group of architects (Palacios, Flórez, Torres Balbás or Anasagasti) pioneered by looking beyond our borders and devote special attention to how the training was in the School. The second chapter, ranging from early 20s to the Civil War, will try to demonstrate the importance that travelling had in the process of diffusion currents. That, together with the arrival of magazines and visits by leading modern architects, led to a first opening in architecture, in response to the prevailing historicism. Among the travelers we highlight architects like Fernando García Mercadal (stressing his importance as a disseminator of modern architecture), Rafael Bergamín, Ramón Sánchez Arcas and Luis Lacasa. We will also stop to see the importance of exhibitions (with special attention to the Decorative Arts in Paris in 1925 and the Deutscher Werkbund in Stuttgart in 1927) that were held over the years and how the information came to our country . The third and final chapter starts with the post war period, a time of transition for the travels, which were scarce and in most cases were not conducted on new roads. We will see that after the war and with the dictatorship, a return to interest in historicism of the century occurred, just as in Nazi Germany. For better understanding of this period we will review the work of Luis Gutiérrez Soto. His work is explanatory of the changing of architectural trends over these years. After analyzing the case in post war, we turn to analyze, in the same way as in the first period, the manner in which rejection occurred in national style again with the arrival of books and magazines. Visits by prestigious architects and group travels of architects who, individually, went abroad in search of support, references on which to base their architecture. In this group of architects, due to the importance that the protagonists gave to the act of traveling to improve their training and the way in which they reflected what they learned in practical projects, I include Francisco de Asís Cabrero, Miguel Fisac, Ramon Vazquez Molezún and Francisco Javier Saenz de Oiza. Again, as in the first chapter, we will conclude the investigation dedicating a section to the exhibitions held in these years (mainly Interbau Berlin, 1957). Finally establishing conclusions lead us to see how far the Spanish architecture in the pre- and post -war periods changed and how much the trips were important to Spanish architects who performed abroad on the change...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los retos a los que se enfrenta la humanidad es la demanda de una sociedad con casi cero residuos: la búsqueda de una economía más eficiente en el uso de los recursos teniendo en cuenta el cambio climático y un abastecimiento sostenible de materias primas que permitan satisfacer las necesidades de una población mundial cada vez mayor, dentro de los límites sostenibles de los recursos naturales del planeta. Abordar este desafío implica la recuperación y reciclaje de materiales para reducir consumos de materias primas y, para ello, debe promoverse la innovación en la prevención y gestión de residuos, como estrategia hacia un desarrollo urbano sostenible. Los envases y embalajes forman parte de la cultura actual, relacionándose con el grado de desarrollo de países y regiones; el sector de la construcción no es ajeno a la problemática y genera un importante volumen de embalajes en las obras que no se gestionan de forma adecuada. El modelo de gestión de Residuos de Construcción Demolición (RCD) actual es poco eficaz, ya que los vertederos siguen recibiendo grandes cantidades de residuos valorizables. La normativa ha conseguido minimizar las prácticas ilegales, pero se comprueba que la gestión actual de los RCD en obra deja en manos de las plantas de tratamiento la misión de separar los residuos según su naturaleza y los datos aportados por las distintas plantas no permiten afirmar el grado de alcance de dicho objetivo, ni el destino de los mismos. Los envases y embalajes son un tipo de residuos que por su naturaleza suponen una fuente de recursos valorizables y por ello están presentes en directivas y leyes, dirigidas fundamentalmente al sector de la alimentación. En el ámbito de la construcción, hasta la fecha, no se habían tratado de forma específica, motivo que justifica este trabajo. Esta Tesis Doctoral tiene como objetivo principal mejorar la gestión de residuos de embalajes procedentes de materiales de construcción. Para ello se estudia un importante conjunto de obras de edificación residencial colectiva de 1173 viviendas, análisis que llevará a conocer los patrones de producción de los Residuos de Envases y Embalajes en Construcción (REEC) e identificar los productos o materiales responsables de su generación. La monitorización realizada, permitirá diseñar estrategias específicas que minimicen la generación de estos residuos y optimicen su valorización. Se ha podido comprobar que el tratamiento particularizado de los REEC puede mejorar los resultados de la gestión del conjunto de RCD, debido a que, al no mezclarse, se elimina un importante agente contaminador de los residuos inertes. Las obras analizadas alcanzan un nivel de segregación in situ muy bajo, y los capítulos de cerramientos e instalaciones suman más del 50% del global de REEC. Particularizando en cada tipo de material, el cartón predomina en los trabajos de electricidad, el plástico en las particiones y la madera en fachadas. Se evalúa la opción del eco-­‐rediseño para uno de los embalajes predominantes, y se identifican estrategias para minimizar su impacto. Se comprueba que el ahorro en la gestión de RCD en caso de impulsar la segregación in situ no es muy significativo en las obras estudiadas, si bien se demuestra que la viabilidad económica es el factor más importante para motivar a las empresas constructoras. Las Administraciones Públicas deberían incentivar la gestión responsable, estableciendo medidas de control en las plantas de tratamiento e implementando en sus obras medidas de gestión de RCD ejemplares para el mercado. Una adecuada planificación de la obra, y formación específica para el personal son medidas que facilitan la segregación in situ y mejoran los resultados. Los promotores, mediante su relación contractual con el resto de agentes, tienen la capacidad de establecer objetivos de reducción, planificación y gestión sostenible de los REEC. Por último, se propone un sistema de gestión de REEC, integrable dentro del Sistema de Gestión de la empresa constructora, que permite evitar que residuos valorizables tales como los envases y embalajes se envíen a vertedero, guiando al sector hacia un futuro más respetuoso, alineado con el desarrollo sostenible. ABSTRACT One of the challenges humanity faces is the demand of an almost zero waste society: the search for a more efficient economy in the use of resources, taking into account climate change and a sustainable supply of raw materials, that meet the needs of an increasing world population within the sustainable limits of the planet's natural resources. Addressing this challenge involves the recovery and recycling of materials to reduce consumption of raw materials, so innovation must therefore be promoted in the prevention and management of waste, as a strategy towards a sustainable urban development. Packaging is part of our current culture and is related to the degree of development of countries and regions; the construction sector is no stranger to this problem and generates a significant amount of packaging waste in the site works, which nowadays is not managed properly. The current Construction Demolition Waste (CDW) management model is ineffective, since landfills continue to receive large amounts of recoverable waste. The legislation has managed to minimize illegal practices, but it has been observed that the current management of CDW in the analysed works leaves the mission of separating waste according to their nature to the plants, and data provided by the latter does not allow for checking the scope of this objective, nor the destiny of the waste. Packaging is a type of waste which, by its nature, represents a source of recoverable resources and is therefore present in directives and laws, focused primarily on the food industry. It has not been specifically treated to date in the construction field, hence the reason that justifies this work. This Thesis aims to improve the management of packaging waste from construction materials. An important set of residential building works with 1173 dwellings is analysed, which leads to knowledge on the production patterns of packaging waste (PW) in the construction industry, and the identification of the products responsible for its generation. The monitorization also allows for the design of specific strategies which minimise the generation of waste and optimize recovery. It has been found that the individualized treatment of PW can improve the results of the management of the whole CDW since, when not mixed, a major pollutant of inert waste is removed. The analysed works reached a very low segregation level and the façades and building services phases account for more than 50% of the overall PW. Focusing on each type of material, cardboard predominates electricity works, plastic on partitions and wood on façades. Eco-­‐redesign is evaluated for one of the predominant packages, and strategies are identified to minimise their impact are . There is evidence that the savings in the CDW management in case of promoting segregation on site are not very significant at the studied works, although economic feasibility is the most important factor to motivate the construction companies. Public Administrations should encourage responsible management, establishing control measures in treatment plants and implementing CDW management exemplary measures on their work sites for the market. A proper planning of the works and specific training for the personnel are measures that facilitate in situ segregation and improve outcomes. The developers, through their contractual relationship with the other agents, have the ability to set reduction targets, planning and sustainable management of PW. Finally, a management system for PW is proposed, integrated within the Management System of the construction company, which aims to avoid that recoverable waste such as packaging is sent to landfill, leading the industry towards a more environmentally friendly future, aligned with sustainable development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The calibration results of one anemometer equipped with several rotors, varying their size, were analyzed. In each case, the 30-pulses pert turn output signal of the anemometer was studied using Fourier series decomposition and correlated with the anemometer factor (i.e., the anemometer transfer function). Also, a 3-cup analytical model was correlated to the data resulting from the wind tunnel measurements. Results indicate good correlation between the post-processed output signal and the working condition of the cup anemometer. This correlation was also reflected in the results from the proposed analytical model. With the present work the possibility of remotely checking cup anemometer status, indicating the presence of anomalies and, therefore, a decrease on the wind sensor reliability is revealed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La infiltración de agua en el suelo y la recarga profunda del agua subterránea contenida en los acuíferos es un proceso lento en relación con otros fenómenos hidrológicos. La redacción de esta tesis ha pretendido contribuir al estudio de la influencia que el almacenamiento de la precipitación sólida en forma de manto de nieve y su eventual fusión puedan tener sobre dicho proceso en áreas de media montaña (1.000 – 2.000 m.) en las que con gran frecuencia se sitúan las cabeceras de los ríos peninsulares. Para ello se ha partido del análisis de las diferentes variables intervinientes durante un determinado periodo temporal y sobre un espacio geográfico concreto, por lo que su metodología es de naturaleza empírica. La extensión del periodo (2002/03 a 2010/11) ha venido condicionada por la disponibilidad de los valores de algunas de sus principales variables, como han sido el equivalente en agua de la nieve acumulada y los caudales procedentes de su fusión. Éstos se han obtenido como resultado de la aplicación del modelo ASTER, desarrollado en el programa de Evaluación de los Recursos Hídricos procedentes de la Innivación (ERHIN), calibrado – entre otros- con datos de precipitaciones, temperatura y caudales provenientes a su vez del Sistema Automático de Información Hidrológica (SAIH). Ambos programas fueron implantados por la Administración en las diferentes Confederaciones Hidrográficas y en determinados Organismos de cuenca actuales, en cuyo desarrollo participó el autor de esta tesis. En cuanto a la zona de estudio se ha procedido a su elección considerando las posibles áreas de media montaña en las que la presencia de la nieve fuera hidrológicamente significativa y estuvieran constituidas litológicamente por afloramientos permeables que no impidieran la infiltración en el terreno y la formación de acuíferos de cierta relevancia. El interés se centró discrecionalmente en la cuenca del Tajo, tanto por el carácter estratégico de la misma -como suministradora en la actualidad de excedentes a otras cuencas deficitarias- como por el valor representativo de sus condiciones climáticas y orográficas en relación con otras cuencas hidrográficas peninsulares. Para ello se partió de las cabeceras de ríos identificadas por el programa ERHIN por su interés nivológico para la implantación del modelo ASTER y de las Masas de Agua Subterráneas MASb (antes Unidades Hidrogeológicas UUHH) definidas en los planes hidrológicos. La intersección en el territorio de ambos criterios condujo, finalmente, a la zona del Alto Tajo, en la que se cumplen ambos requisitos. El tramo quedó concretado en el comprendido entre las cabeceras de los ríos Tajo y Guadiela y la cola de los embalses de Entrepeñas y Buendía respectivamente, puntos de cierre para la calibración llevada a cabo en la modelización ASTER. Gran parte de éste discurre, en su parte alta, sobre rocas carbonatadas (calizas y dolomías del Jurásico y Cretácico), relacionados con las MASb de Tajuña-Montes Universales, Molina de Aragón y Sigüenza-Maranchón. Los valores diarios de las reservas de agua en forma de nieve, evapotranspiración y caudales procedentes de la fusión se han obtenido a partir de los resultados del mencionado modelo, procediéndose al cálculo de la infiltración por balance hídrico durante el periodo de estudio considerado, teniendo en cuenta los valores de precipitación, evapotranspiración y aportaciones de caudales. Esto ha requerido el estudio previo de las condiciones hidrogeológicas de la zona seleccionada con objeto de conocer las posibles interconexiones subterráneas que pudieran alterar los saldos entre las variables intervinientes anteriormente citadas. Para ello se ha llevado a cabo la recopilación y análisis de la información hidrogeológica correspondiente a la documentación de los planes hidrológicos del Tajo (Plan Hidrológico de la cuenca del Tajo RD 1664/1998 y el actual Plan Hidrológico de la parte española de la Demarcación Hidrográfica del Tajo RD 270/2014) y de los estudios previos realizados por el organismo de cuenca y el Instituto Geológico y Minero de España (lGME) fundamentalmente. En relación con la MASb Tajuña-Montes Universales -cuya extensión supera la zona seleccionada- dichos estudios consideran su estructura geológica y distribución litológica, con intercalaciones impermeables que actúan como barreras, dividiendo a éstas en Subunidades e identificando las zonas de drenaje de sus respectivos acuíferos. También se ha considerado la documentación y estudios previos del Plan Hidrológico Nacional sobre las Unidades Hidrogeológicas compartidas entre ámbitos geográficos de diferentes planes hidrológicos. Se concluye que las divisorias hidrográficas de las cabeceras son sensiblemente coincidentes o abarcan las Subunidades Montes Universales meridionales, Priego, Cifuentes, Zaorejas, u Montes Universales septentrionales, que drenan hacia el Tajo/Guadiela (bien directamente, bien a través de afluentes como el Gallo, Ablanquejo, Cabrillas, Cuervo…), MASb Molina de Aragón, que drena al Tajo a través del río Gallo y MASb Sigüenza—Maranchón, que drena su parte correspondiente hacia el Tajo a través del Ablanquejo. Se descartan – salvo la pequeña salvedad del manantial de Cifuentes- las conexiones hidrogeológicas con otras MASb o Subunidades por lo que las cabeceras del Tajo y del Guadiela pueden considerarse como un Sistema independiente donde las precipitaciones no evaporadas escurren superficialmente o se infiltran y descargan hacia los embalses de Entrepeñas y Buendía. La cuantificación diaria y acumulada de los balances hídricos ha permitido calcular la evolución aproximada de las reservas de agua subterránea desde la fecha inicial. Originalmente los balances se realizaron de forma separada en las cabeceras del Tajo y del Guadiela, cuyos valores acumulados manifestaron una tendencia creciente en la primera y decreciente en la segunda. Dicha situación se equilibra cuando el balance se practica conjuntamente en ambas, apreciándose en la variación del volumen de agua subterránea una evolución acorde hidrológicamente con los ciclos de verano/invierno y periodos de sequía, manteniéndose sus valores medios a largo/medio plazo, poniendo en evidencia la existencia de interconexiones subterráneas entre ambas cuencas. El balance conjunto, agregando la cabecera del Tajuña (que también comparte los materiales permeables de la MASb Tajuña-Montes Universales) no reveló la existencia de nuevas interrelaciones hidrogeológicas que influyeran en los balances hídricos realizados Tajo/Guadiela, confirmando las conclusiones de los estudios hidrogeológicos anteriormente analizados. Se ha procedido a confrontar y validar los resultados obtenidos de la evolución de las reservas de agua subterránea mediante los siguientes procedimientos alternativos: - Cálculo de los parámetros de desagüe de la curva de agotamiento correspondiente al volumen de agua subterránea drenante hacia el Tajo/Guadiela. Éste se ha realizado a partir de las aportaciones mensuales entrantes en los embalses de Entrepeñas y Buendía durante los meses de junio, julio, agosto y septiembre, cuyos valores responden al perfil típico de descargas de un acuífero. A partir de éstos se ha determinado el volumen drenante correspondiente al primero de junio de cada año de la serie histórica considerada. - Determinación del caudal base por el método Wallingford y deducción de los volúmenes drenantes. Estimación de las recarga anuales - Cuantificación de la recarga anual por el método Sanz, Menéndez Pidal de Navascués y Távara. Se obtuvieron valores de recarga muy aproximados entre los calculados por los dos últimos procedimientos citados. Respecto a las reservas de agua subterránea almacenadas siguen una evolución semejante en todos los casos, lo que ha permitido considerar válidos los resultados conseguidos mediante balance hídrico. Confirmada su solidez, se han buscado correlaciones simples entre el volumen de las reservas subterráneas (como indicador estimativo del efecto de la infiltración) y los volúmenes procedentes de la fusión. La conclusión es que estos últimos no tienen un efecto determinante a escala anual sobre la infiltración,recarga y variación de los volúmenes de agua subterránea, frente al peso de otras variables (precipitación y evapotranspiración). No obstante se ha encontrado una buena correlación múltiple entre la recarga estimada y la precipitación eficaz (precipitación menos evapotranspiración) y fusión, que ha permitido cuantificar la contribución de esta última. Posteriormente se ha recurrido a la selección de los episodios más intensos de acumulación /fusión en las cabeceras del Tajo y Guadiela. Y se procedió a la comparación entre los resultados obtenidos por aplicación del modelo de simulación en los mismos periodos (normalmente de varios días de duración) con datos reales y con datos ficticios de temperatura que anularan o disminuyeran la presencia de nieve, apreciándose una gran sensibilidad del efecto de la temperatura sobre la evapotranspiración y estableciéndose nuevamente correlaciones lineales entre los volúmenes de fusión y el incremento de reservas subterráneas. Las mismas confirman el efecto “favorecedor” de la acumulación de agua en forma de nieve y su posterior licuación, sobre sobre la infiltración de agua en el suelo y almacenamiento subterráneo. Finalmente se establecieron varios escenarios climáticos (+1ºC; +3ºC; +1ºC y – 10% precipitación; y 3ºC – 10% precipitación) compatibles con las previsiones del IPCC para mediados y finales del presente siglo, determinándose mediante simulación ASTER los correspondientes valores de fusión. La correlación establecida a escala anual ha permitido evaluar el efecto de la disminución del volumen de fusión - en los diferentes escenarios – sobre la recarga, pronosticando un descenso de los caudales de estiaje y la desaparición del “efecto nieve” sobre la infiltración y recarga con un aumento de 3ºC de temperatura. Teniendo en cuenta las condiciones de representatividad de la zona elegida, resulta verosímil la extensión de las anteriores conclusiones a otras cabeceras fluviales enclavadas en áreas de media montaña situadas entre 1000 a 2000m y sus efectos aguas abajo.Water infiltration into the soil and groundwater recharge deep water in aquifers is slow relative to other hydrological phenomena. The wording of this thesis aims to contribute to the study of the influence that the storage of solid precipitation as snow cover and its eventual melting may have on this process in mid-mountain areas (1000 - 2,000 m) where very often the headwaters of the peninsular rivers are located. For this party analysis of the different variables involved has over a given time period and a particular geographical area, so that their methodology is empirical in nature. The extension of the period (2002/03 to 2010/11) has been conditioned by the availability of the values of some of its key variables, as were the water equivalent of the snow and flows from melting. These have been obtained as a result of the application of ASTER model, developed in the program Evaluation of Water Resources from the Innivation (ERHIN), calibrated - among others data of rainfall, temperature and flow from turn System Automatic Hydrological Information (SAIH). Both programs were implemented by the Administration in the different Water Boards and to undertakings for current basin, in which the author participated development of this thesis. As for the study area has proceeded at its option considering the possible areas of midmountain in the presence of snow outside hydrological meaningful and they were lithology consisting of permeable outcrops that did not prevent infiltration into the ground and forming aquifers of some significance. We were interested discretion in the Tagus basin, therefore the strategic nature of it, as currently supplying surplus to other basins deficit- as the representative value of its climate and terrain conditions in relation to other peninsular river basins . To do this we started from the headwaters identified by the ERHIN program for its implementation snow interest to the ASTER model and Ground Water Bodies MASb (before UUHH Hydrogeological Units) defined in hydrological plans. The intersection in the territory of both criteria led eventually to the Alto Tajo, in which both requirements are met. The section was finalized in the period between the headwaters of the Tagus and Guadiela rivers and reservoirs end Entrepeñas and Buendia respectively checking points for calibration performed in ASTER modeling. Much of it runs on carbonate rocks (limestones and dolomites of Jurassic and Cretaceous) related MASb of Tajuña -Montes Universal, Molina de Aragón and Sigüenza-Maranchón. The daily values of water reserves in the form of snow, evapotranspiration and flow from melting were obtained from the results of this model, proceeding to the calculation of infiltration water balance during the study period considered, taking into account values of precipitation, evapotranspiration and input flow. This has required the prior examination of the hydrogeological conditions of your required in order to know the possible underground interconnections that could alter the balance between the intervening variables aforementioned area. For this we have carried out the collection and analysis of hydrogeological information relevant documentation Tagus river management plans (Hydrological Plan Tajo Basin RD 1664/1998 and the current Hydrological Plan of the Spanish part of the River Basin Tagus RD 270/2014) and previous studies by the basin organization and the Geological Survey of Spain (IGME) mainly. Regarding the MASb Tajuña- Montes Universal - whose length exceeds the area selected - these studies consider its geological structure and lithology distribution with waterproof collations that act as barriers, dividing it into subunits and identifying areas draining their respective aquifers. It has also considered the documentation and previous studies of the National Hydrological Plan on shared among different geographical areas management plans Hydrogeological Units. We conclude that river dividing the headers are substantially coincident or covering Subunits southern Universal Montes, Priego Cifuentes, Zaorejas and northern Universal Mounts, which drain into the Tagus / Guadiela (either directly or through tributaries such as Gallo, Ablanquejo , whitecaps , Raven ...), MASb Molina de Aragón which drains through the Tajo del Gallo and MASb Sigüenza- Maranchón river that drains into the Tagus using the Ablanquejo . Discarded - except the small exception of spring Cifuentes -hydrogeological connections with other MASb or Subunits so the headwaters of the Tagus and Guadiela be considered as a separate system, where rainfall not evaporated runs on surface or infiltrates and eventually discharged into reservoirs Entrepeñas and Buendia. The daily and cumulative quantification of water balances allowed us to compute the approximate evolution of groundwater reserves from its initial date. Initially balances were performed separately in the headwaters of the Tagus and Guadiela, whose cumulative values showed an increasing trend in the first and decreasing in the second. This situation is balanced when the balance is practiced together in both , appreciating the change in volume of groundwater hydrological evolution commensurate with the cycles of summer / winter and drought periods , keeping their average long / medium term values and putting in shows the existence of underground interconnections between the two basins. The overall balance, adding header Tajuña (which also shares the permeable materials MASb Tajuña -Montes Universal ) did not reveal the existence of new hydrogeological interrelationships that influenced water balances made Tajo / Guadiela, confirming the findings of the hydrogeological studies previously analyzed. We proceeded to confront and validate the results of the evolution of groundwater reserves by the following alternative procedures: - Calculate the parameters drain depletion curve corresponding to the volume of groundwater draining into the Tajo / Guadiela. This has been made from monthly inflows in the reservoirs of Entrepeñas and Buendia during the months of June, July, August and September, whose values match the typical profile of an aquifer discharges. From these has been determined for the first of June each year of the time series considered drainage volume - Determination of base flow by Wallingford method and deduction of drainage volumes. Estimate of annual recharge - Quantification of the annual recharge by the method Sanz Menéndez Pidal of Navascués and Távara. Very approximate values recharge between calculated for the last two mentioned methods were obtained. Concerning groundwater reserves stored follow a similar pattern in all cases, allowing consider valid the results achieved through water balance. Confirmed its robustness, simple correlations were sought between the volume of groundwater reserves (as estimated indicator of the effect of infiltration) and volumes from the melting. The conclusion is that the latter do not have a decisive effect on the annual scale infiltration, recharge and variation in volumes of groundwater, against the weight of other variables (precipitation and evapotranspiration). However found a good multiple correlation between the estimated recharge and effective precipitation (precipitation minus evapotranspiration) and fusion, which allowed quantify the contribution of the latter. Subsequently it has resorted to the selection of the most intense episodes of accumulation / melting in the headwaters of the Tagus and Guadiela. And we proceeded to the comparison between the results obtained by application of the simulation model in the same periods (usually several days) with real data and fictitious temperature data to annul or decrease the presence of snow, appreciating a great sensitivity of the effect of temperature on evapotranspiration and establishing linear correlations between the volumes of melting and increased groundwater reserves again. They confirm the “flattering " effect of water accumulation as snow and subsequent liquefaction of the infiltration of water into the soil and underground storage. Finally various climate scenarios (+1ºC; +3ºC; +1ºC y – 10% precipitation; y 3ºC – 10% precipitation) were established consistent with IPCC projections for mid - to late - century, determined through simulation ASTER corresponding values of melting. The correlation established on an annual scale has allowed to evaluate the effect of decreasing the volume of melt - in different scenarios - on recharge, predicting a decline in low flows and the disappearance of "snow effect" on infiltration and recharge with an increase of 3°C temperature. Given the conditions of representativeness of the chosen area, plausible extension of the above findings to other landlocked headwaters in mid-mountain areas located between 1000 to 2000m and its downstream effects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para el proyecto y cálculo de estructuras metálicas, fundamentalmente pórticos y celosías de cubierta, la herramienta más comúnmente utilizada son los programas informáticos de nudos y barras. En estos programas se define la geometría y sección de las barras, cuyas características mecánicas son perfectamente conocidas, y sobre las cuales obtenemos unos resultados de cálculo concretos en cuanto a estados tensionales y de deformación. Sin embargo el otro componente del modelo, los nudos, presenta mucha mayor complejidad a la hora de establecer sus propiedades mecánicas, fundamentalmente su rigidez al giro, así como de obtener unos resultados de estados tensionales y de deformación en los mismos. Esta “ignorancia” sobre el comportamiento real de los nudos, se salva generalmente asimilando a los nudos del modelo la condición de rígidos o articulados. Si bien los programas de cálculo ofrecen la posibilidad de introducir nudos con una rigidez intermedia (nudos semirrígidos), la rigidez de cada nudo dependerá de la geometría real de la unión, lo cual, dada la gran variedad de geometrías de uniones que en cualquier proyecto se nos presentan, hace prácticamente inviable introducir los coeficientes correspondientes a cada nudo en los modelos de nudos y barras. Tanto el Eurocódigo como el CTE, establecen que cada unión tendrá asociada una curva momento-rotación característica, que deberá ser determinada por los proyectistas mediante herramientas de cálculo o procedimientos experimentales. No obstante, este es un planteamiento difícil de llevar a cabo para cada proyecto. La consecuencia de esto es, que en la práctica, se realizan extensas comprobaciones y justificaciones de cálculo para las barras de las estructuras, dejando en manos de la práctica común la solución y puesta en obra de las uniones, quedando sin justificar ni comprobar la seguridad y el comportamiento real de estas. Otro aspecto que conlleva la falta de caracterización de las uniones, es que desconocemos como afecta el comportamiento real de éstas en los estados tensionales y de deformación de las barras que acometen a ellas, dudas que con frecuencia nos asaltan, no sólo en la fase de proyecto, sino también a la hora de resolver los problemas de ejecución que inevitablemente se nos presentan en el desarrollo de las obras. El cálculo mediante el método de los elementos finitos, es una herramienta que nos permite introducir la geometría real de perfiles y uniones, y nos permite por tanto abordar el comportamiento real de las uniones, y que está condicionado por su geometría. Por ejemplo, un caso típico es el de la unión de una viga a una placa o a un soporte soldando sólo el alma. Es habitual asimilar esta unión a una articulación. Sin embargo, el modelo por elementos finitos nos ofrece su comportamiento real, que es intermedio entre articulado y empotrado, ya que se transmite un momento y el giro es menor que el del apoyo simple. No obstante, la aplicación del modelo de elementos finitos, introduciendo la geometría de todos los elementos estructurales de un entramado metálico, tampoco resulta en general viable desde un punto de vista práctico, dado que requiere invertir mucho tiempo en comparación con el aumento de precisión que obtenemos respecto a los programas de nudos y barras, mucho más rápidos en la fase de modelización de la estructura. En esta tesis se ha abordado, mediante la modelización por elementos finitos, la resolución de una serie de casos tipo representativos de las uniones más comúnmente ejecutadas en obras de edificación, como son las uniones viga-pilar, estableciendo el comportamiento de estas uniones en función de las variables que comúnmente se presentan, y que son: •Ejecución de uniones viga-pilar soldando solo por el alma (unión por el alma), o bien soldando la viga al pilar por todo su perímetro (unión total). •Disposición o no de rigidizadores en los pilares •Uso de pilares de sección 2UPN en cajón o de tipo HEB, que son los tipos de soporte utilizados en casi el 100% de los casos en edificación. Para establecer la influencia de estas variables en el comportamiento de las uniones, y su repercusión en las vigas, se ha realizado un análisis comparativo entre las variables de resultado de los casos estudiados:•Estados tensionales en vigas y uniones. •Momentos en extremo de vigas •Giros totales y relativos en nudos. •Flechas. Otro de los aspectos que nos permite analizar la casuística planteada, es la valoración, desde un punto de vista de costos de ejecución, de la realización de uniones por todo el perímetro frente a las uniones por el alma, o de la disposición o no de rigidizadores en las uniones por todo el perímetro. Los resultados a este respecto, son estrictamente desde un punto de vista económico, sin perjuicio de que la seguridad o las preferencias de los proyectistas aconsejen una solución determinada. Finalmente, un tercer aspecto que nos ha permitido abordar el estudio planteado, es la comparación de resultados que se obtienen por el método de los elementos finitos, más próximos a la realidad, ya que se tiene en cuenta los giros relativos en las uniones, frente a los resultados obtenidos con programas de nudos y barras. De esta forma, podemos seguir usando el modelo de nudos y barras, más versátil y rápido, pero conociendo cuáles son sus limitaciones, y en qué aspectos y en qué medida, debemos ponderar sus resultados. En el último apartado de la tesis se apuntan una serie de temas sobre los que sería interesante profundizar en posteriores estudios, mediante modelos de elementos finitos, con el objeto de conocer mejor el comportamiento de las uniones estructurales metálicas, en aspectos que no se pueden abordar con los programas de nudos y barras. For the project and calculation of steel structures, mainly building frames and cover lattices, the tool more commonly used are the node and bars model computer programs. In these programs we define the geometry and section of the bars, whose mechanical characteristics are perfectly known, and from which we obtain the all calculation results of stresses and displacements. Nevertheless, the other component of the model, the nodes, are much more difficulty for establishing their mechanical properties, mainly the rotation fixity coefficients, as well as the stresses and displacements. This "ignorance" about the real performance of the nodes, is commonly saved by assimilating to them the condition of fixed or articulated. Though the calculation programs offer the possibility to introducing nodes with an intermediate fixity (half-fixed nodes), the fixity of every node will depend on the real connection’s geometry, which, given the great variety of connections geometries that in a project exist, makes practically unviable to introduce the coefficients corresponding to every node in the models of nodes and bars. Both Eurocode and the CTE, establish that every connection will have a typical moment-rotation associated curve, which will have to be determined for the designers by calculation tools or experimental procedures. Nevertheless, this one is an exposition difficult to carry out for each project. The consequence of this, is that in the practice, in projects are extensive checking and calculation reports about the bars of the structures, trusting in hands of the common practice the solution and execution of the connections, resulting without justification and verification their safety and their real behaviour. Another aspect that carries the lack of the connections characterization, is that we don´t know how affects the connections real behaviour in the stresses and displacements of the bars that attack them, doubts that often assault us, not only in the project phase, but also at the moment of solving the execution problems that inevitably happen in the development of the construction works. The calculation by finite element model is a tool that allows us to introduce the real profiles and connections geometry, and allows us to know about the real behaviour of the connections, which is determined by their geometry. Typical example is a beam-plate or beam-support connection welding only by the web. It is usual to assimilate this connection to an articulation or simple support. Nevertheless, the finite element model determines its real performance, which is between articulated and fixed, since a moment is transmitted and the relative rotation is less than the articulation’s rotation. Nevertheless, the application of the finite element model, introducing the geometry of all the structural elements of a metallic structure, does not also turn out to be viable from a practical point of view, provided that it needs to invest a lot of time in comparison with the precision increase that we obtain opposite the node and bars programs, which are much more faster in the structure modelling phase. In this thesis it has been approached, by finite element modelling, the resolution of a representative type cases of the connections commonly used in works of building, since are the beam-support connections, establishing the performance of these connections depending on the variables that commonly are present, which are: •Execution of beam-support connections welding only the web, or welding the beam to the support for the whole perimeter. •Disposition of stiffeners in the supports •Use 2UPN in box section or HEB section, which are the support types used in almost 100% building cases. To establish the influence of these variables in the connections performance, and the repercussion in the beams, a comparative analyse has been made with the resulting variables of the studied cases: •Stresses states in beams and connections. •Bending moments in beam ends. •Total and relative rotations in nodes. •Deflections in beams. Another aspect that the study allows us to analyze, is the valuation, from a costs point of view, of the execution of connections for the whole perimeter opposite to the web connections, or the execution of stiffeners. The results of this analyse, are strictly from an economic point of view, without prejudice that the safety or the preferences of the designers advise a certain solution. Finally, the third aspect that the study has allowed us to approach, is the comparison of the results that are obtained by the finite element model, nearer to the real behaviour, since the relative rotations in the connections are known, opposite to the results obtained with nodes and bars programs. So that, we can use the nodes and bars models, more versatile and quick, but knowing which are its limitations, and in which aspects and measures, we must weight the results. In the last part of the tesis, are relationated some of the topics on which it would be interesting to approach in later studies, with finite elements models, in order to know better the behaviour of the structural steel connections, in aspects that cannot be approached by the nodes and bars programs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents a new simulation environment aimed at heterogeneous chained modular robots. This simulator allows testing the feasibility of the design, checking how modules are going to perform in the field and verifying hardware, electronics and communication designs before the prototype is built, saving time and resources. The paper shows how the simulator is built and how it can be set up to adapt to new designs. It also gives some examples of its use showing different heterogeneous modular robots running in different environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Permanent displacements of a gas turbine founded on a fine, poorly graded, and medium density sand are studied. The amplitudes and modes of vibration are computed using Barkan´s formulation, and the “High-Cycle Accumulation” (HCA) model is employed to account for accumulated deformations due to the high number of cycles. The methodology is simple: it can be easily incorporated into standard mathematical software, and HCA model parameters can be estimated based on granulometry and index properties. Special attention is devoted to ‘transient’ situations at equipment´s start-up, during which a range of frequencies – including frequencies that could be similar to the natural frequencies of the ground – is traversed. Results show that such transient situations could be more restrictive than stationary situations corresponding to normal operation. Therefore, checking the stationary situation only might not be enough, and studying the influence of transient situations on computed permanent displacements is needed to produce a proper foundation design