80 resultados para Tipo de interés real
Resumo:
El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.
Resumo:
La puesta en marcha de un proyecto de nueva creación presenta dificultades de acceso a la financiación bancaria, debido a su elevado riesgo, como consecuencia de la escasez o falta de garantías. Para dar solución a este problema y fomentar el espíritu emprendedor en España, se han desarrollado los Sistemas de Garantías que prestan su aval a la PYME antes las entidades de crédito, permitiendo, su acceso a la financiación en condiciones óptimas de tipo de interés y plazo de amortización. El objetivo del presente trabajo ha sido analizar la evolución del sector de sociedades de garantías recíproca español y su efecto sobre el desarrollo de proyectos de nueva creación durante el período 2001 y 2005. Aunque el sector ha crecido durante este periodo y ha apoyado la puesta en marcha de proyectos empresariales, todavía resulta desconocido para muchos emprendedores, por lo que debería continuar su expansión, contribuyendo eficazmente a mejorar la capacidad de financiación de las PYME.
Resumo:
El magnesio y sus aleaciones representan un interesante campo de investigación dentro de la ingeniería de materiales debido a los retos que plantean tanto su conformabilidad como durabilidad. Las características físicas y mecánicas del magnesio y sus aleaciones los convierten en materiales de gran interés desde el punto de vista industrial al tratarse de uno de los materiales más abundantes y ligeros en un mundo en el que día a día los recursos y materias primas son más escasos por lo que el acceso a materiales abundantes y ligeros que permitan economizar el uso de energía cobrará mayor importancia en el futuro. En la coyuntura actual es por tanto necesario revisar procesos y procedimientos, investigando y tratando de ampliar desde este punto de vista si es posible mejorar los procedimientos de fabricación de los materiales disponibles actualmente o el desarrollo de nuevos, mejores que los anteriores, que permitan ayudar a la sostenibilidad del planeta. El magnesio, pese a ser un material muy abundante y relativamente barato, presenta una serie de inconvenientes que limitan de manera muy seria su aplicación industrial, su alta reactividad en presencia de oxígeno y su mal comportamiento frente a la corrosión así como limitaciones en su conformabilidad han estado limitando su uso y aplicaciones, los investigaciones dentro del campo de la metalurgia física de este material y el desarrollo de nuevas aleaciones han permitido su empleo en múltiples aplicaciones dentro de la industria aeroespacial, militar, automovilística, electrónica, deportiva y médica. La motivación para esta tesis doctoral ha sido tratar de aportar más luz sobre el comportamiento de una de las aleaciones comerciales base magnesio más empleadas, la AZ31B, tratando de modelizar como le afectan los procesos de soldadura y estudiando desde un punto de vista experimental como se ve modificada su microestructura, su comportamiento mecánico y su resistencia frente a la corrosión. Aunque en un principio se pensó en el empleo de métodos electroquímicos para el estudio de la corrosión de estos materiales, rápidamente se decidió prescindir de su uso dada la dificultad observada tanto durante los trabajos de investigación de esta Tesis como los encontrados por otros investigadores. Mediante microdurezas se han caracterizado mecánicamente las soldaduras de aleación de magnesio tipo AZ31 en función de diferentes materiales de aporte, observándose que el empleo de las aleaciones con mayor contenido de aluminio y zinc no contribuye a una mejora significativa de las propiedades mecánicas. Se han podido establecer correlaciones entre los modelos de simulación desarrollados y las microestructuras resultantes de los procesos reales de soldadura que permiten definir a priori que estructuras se van a obtener. De igual forma ha sido posible completar un estudio micrográfico y químico completo de las diferentes fases y microconstituyentes originados durante los procesos de soldadura, gracias a estos resultados se ha propuesto como hipótesis una explicación que justifica el comportamiento frente a la corrosión de estas aleaciones una vez soldadas. Los ensayos de corrosión realizados han permitido determinar correlaciones matemáticas que indican las velocidades de corrosión esperables de este tipo de aleaciones. Desde el punto de vista del diseño, los resultados obtenidos en este trabajo permitirán a otros investigadores y diseñadores tomar decisiones a la hora de decidir qué materiales de aporte emplear junto con las implicaciones que conllevan desde el punto de vista metalúrgico, mecánico o corrosivo las diferentes alternativas. Por último indicar que gracias al trabajo desarrollado se han definido modelos matemáticos para predecir el comportamiento frente a la corrosión de estas aleaciones, se han determinado las posibles causas y mecanismos por las que se gobierna la corrosión en la soldadura de chapas de aleación AZ31B y los motivos por los que se debe considerar el empleo de un material de aporte u otro. Los modelos de simulación desarrollados también han ayudado a comprender mejor la microestructura resultante de los procesos de soldadura y se han determinado que fases y microconstituyentes están presentes en las soldaduras de estas aleaciones. ABSTRACT Magnesium and its alloys represent and interesting research field in the material science due to the challenges of their fabrication and durability. The physical and mechanical properties of magnesium and its alloys make them a very interesting materials from and industrial point of view being one of the most abundant and lightest materials in a world in which day by day the lacking of resources and raw materials is more important, the use of light materials which allow to save energy will become more important in a near future. So that it is necessary to review processes and procedures, investigating and trying to improve current fabrication procedures and developing new ones, better than the former ones, in order to help with the sustainability of the planet. Although magnesium is a very common and relatively cheap material, it shows some inconveniences which limit in a major way their industrial application; its high reactivity in presence of oxygen, its poor corrosion resistance and some manufacturing problems had been limiting their use and applications, metallurgical investigations about this material and the development of new alloys have allowed its use in multiple applications in the aerospacial, military, automobile, electronics, sports and medical industry. The motivation for this thesis has been trying to clarify the behavior of one most used commercial base magnesium alloys, the AZ31, trying to modeling how its affected by thermal cycles of the welding process and studying from an experimental point of view how its microstructure is modified and how these modifications affect its mechanical behavior and corrosion resistance. Although at the beginning of this works it was though about the using of electrochemical techniques to evaluate the corrosion of these materials, rapidly it was decided not to use them because of the difficulty observed by during this research and by other investigators. The results obtained in this thesis have allowed to characterize mechanically AZ31 magnesium welding alloys considering different filler metals, according to this study using filler metals with a high content of aluminum and zinc does not represent an important improve It has been possible to establish correlations between simulation models and the resultant microstructures of the real melting processes originated during welding processes which allow to predict the structures which will be obtained after the welding. In addition to that it is possible to complete a complete micrographic and chemical analysis of the different phases and microconstituents created during welding, due to these results and hypothesis to explain the corrosion behavior of these welded alloys. Corrosion tests carried out have allowed defining mathematical correlations to predict corrosion rates of this kind of alloys. From a designing point of view, the results obtained in this work will let other investigators and designers to make decisions taking into account which implications have the different options from a metallurgical, mechanic and corrosive point of view. Finally we would like to indicate that thanks to this work it has been possible to define mathematical models to predict the corrosion behavior, the causes and the mechanism of this corrosion in the AZ31 welding sheets have been also determined and the reasons for using of one filler metal or another, the developed simulation models have also help to get a better understanding of the result microstructure determining the phases and the microconstituents present in the welding of this alloys.
Resumo:
Las masas forestales tienen una importancia colosal para nuestra sociedad y el conjunto de la biosfera. Estudios recientes a escala mundial indican que la sequía es el factor abiótico que más afecta a su crecimiento y supervivencia, seguida por las temperaturas extremas y la salinidad. Aunque comprender los mecanismos con que las especies arbóreas toleran estas formas de estrés tiene un interés aplicado evidente, dichos mecanismos se han estudiado mucho más en especies herbáceas modelo o de interés agronómico. Existen sin embargo diferencias notables entre ellas, como se demuestra en esta tesis y en otros trabajos recientes. Nuestro estudio se centra concretamente en la respuesta molecular del chopo –el sistema modelo forestal más desarrollado– al estrés abiótico, con particular énfasis en la sequía. Utilizando una estrategia proteómica y tratamientos controlados, hemos identificado componentes mayoritarios de dicha respuesta. Su participación en la misma se ha validado mediante análisis transcripcionales detallados utilizando tecnología qRT-PCR (PCR cuantitativa en tiempo real). Hemos identificado proteínas cuyo nexo funcional con mecanismos de tolerancia ya era conocido, como chaperonas moleculares sHSP o enzimas que atenúan el estrés oxidativo, pero también proteínas cuya relación funcional con el estrés es menos clara o incluso novedosa, como polifenol oxidasas (PPO), deshidrogenasas/reductasas de cadena corta (SDR), o bicupinas (BIC), entre otras. El cuerpo central de la tesis consiste en la caracterización detallada de una PPO inusual, cuya inducción por estrés hídrico se describe por vez primera. Estas enzimas están ampliamente distribuidas en plantas, si bien su número es muy variable de unas especies a otras. Algunas, como nogal, tienen un único gen, mientras que Arabidopsis no tiene ninguno. En la última versión del genoma de chopo hemos identificado un total de 12 miembros bona fide, corrigiendo trabajos previos, y hemos caracterizado su expresión individual ante diferentes situaciones de estrés controlado y tratamientos hormonales. La isoforma antedicha es el único miembro de la familia que responde claramente a la deshidratación. También responde a salinidad y a la mayor parte de tratamientos hormonales ensayados, pero no a daño mecánico o tratamientos con metil jasmonato. Esto la diferencia de enzimas homólogas presentes en otras especies de plantas, que se han relacionado experimentalmente con estrés biótico. Los patrones de acumulación de transcritos en árboles adultos son compatibles con un papel protector frente a la sequía. La integración de nuestros estudios funcionales y filogenéticos sugiere que la familia ha sufrido un proceso reciente de diversificación y neofuncionalización, siendo la protección frente a deshidratación su papel primigenio. Aunque se conoce la actividad bioquímica in vitro de este tipo de enzimas, sus sustratos naturales son esencialmente una incógnita. Mediante expresión heteróloga en Escherichia coli BL21(DE3) hemos detectado que la enzima de chopo es capaz de oxidar L-DOPA a dopaquinona, siendo menos activa frente a otros sustratos. Por otra parte, hemos demostrado su localización cloroplástica mediante transformación transitoria de protoplastos con fusiones a la proteína fluorescente YFP. Mediante la obtención de plantas transgénicas de A. thaliana hemos demostrado que la enzima de chopo aumenta considerablemente la tolerancia in vivo frente a la deshidratación y al estrés salino. El análisis fenotípico detallado de las líneas transgénicas, combinando múltiples metodologías, nos ha permitido sustanciar que la tolerancia tiene una base compleja. Esta incluye una mayor protección del sistema fotosintético, una capacidad antioxidante muy incrementada y la acumulación de solutos osmoprotectores como la prolina. Los análisis metabolómicos nos han permitido asociar la expresión de la proteína a la síntesis de un flavano no descrito previamente en A. thaliana, vinculando la enzima de chopo con la síntesis de fenilpropanoides. También hemos observado alteraciones en los niveles hormonales que podrían subyacer a efectos pleiotrópicos con interés aplicado, como un aumento consistente del tamaño de la planta o el acortamiento del ciclo de crecimiento. Además de aportar datos novedosos sobre la funcionalidad in vivo de esta familia de oxidasas, los resultados de esta tesis demuestran que los árboles son sistemas de estudio interesantes para caracterizar nuevas estrategias de tolerancia al estrés abiótico con potencial aplicado. ABSTRACT Forests masses have an extraordinary importance for our society and the biosphere. Recent worldwide studies indicate that drought is the abiotic factor that affects more their growing and survival, followed by extreme temperatures and salinity. The understanding of how the arboreal species tolerate the stress has an evident practical interest, but their mechanisms have been studied much more in herbaceous species or with agronomic interest. However, considerable differences exist between them, as this thesis and recent studies show. Our study is focused on the molecular response of the poplar –the more developed forestry model system- to abiotic stress, specifically focused in the drought. Using a proteomic strategy and controlled treatments, we have identified main components in such response. Its participation has been validated through transcriptional analysis using qRT-PCR technology. We have identified proteins whose functional connection with tolerance mechanisms were already known, as molecular chaperones sHSP or enzymes that attenuate the oxidative stress, but also some proteins whose functional relationship with the stress is less clear or even novel, as polifenol oxidases (PPO), short chain deshidrogenases/reductases (SDR), or bicupines (BIC), among others. The central body of the thesis consists of the detailed characterization of an unsual PPO, whose induction due to drought stress is first described. These enzymes are thoroughly distributed in plants, but their number of members is very variable among species. Some of them, as the walnut tree, have a single gene, while Arabidopsis has none. We have identified a total of 12 members in the last version of the poplar genome, correcting previous works, and have characterized their individual expression against different situations of controlled stress and hormone treatments. The aforementioned isoform is the only member of the family that responds clearly to the drought. It also reacts to salinity and the majority of hormonal treatments tested, but it does not respond to mechanical damage or treatments with methyl jasmonate. This is the difference with homologue enzymes present in other plant species, which have been related experimentally with abiotic stress. The accumulation patterns of transcripts in adult trees are compatible with a protector role against drought. The integration of our functional and phylogenetic studies suggests that the family has suffered a recent process of diversification and neofunctionalization, being the protection against drought their original role. Although the in vitro biochemistry activity of this kind of enzymes is already known, their natural substracts are essentially a mystery. By means of heterologous expression of Escherichia coli BL21(DE3) we have detected that the enzyme of poplar is able to oxidize L-DOPA to dopaquinone, being less active against other substrates. Additionally, we have proven its chloroplastic location with transitory transformation of protoplasts with YFP protein fusion. By means of getting transgenic plants of A. thaliana, we have demonstrated that the poplar enzyme increases notably the in vivo tolerance against the drought and salinity stresses. The phenotypic analysis of the transgenic lines, and the use of multiple methodologies, allowed us to test the complexity of the tolerance. This includes a major protection of the photosynthetic system, a very increased antioxidant capacity and the accumulation of osmoprotectant solutes as the proline. The metabolic analysis has allowed to associate the protein expression with the synthesis of a Flavan non described previously in A. thalaiana, linking the enzyme of poplar with the synthesis of phenylpropanoids. We have observed alterations in the hormonal levels that could underlie pleiotropic effects with applied interest, as a consistent increase of the size of the plant and the reduction of the growth cycle. The results of this thesis, in addition to provide novel data about the in vivo functionality of the oxidase family, demonstrate that the trees are interesting systems of study to characterize new strategies of tolerance against abiotic stress with applied potential.
Resumo:
La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.
Resumo:
Distributed real-time embedded systems are becoming increasingly important to society. More demands will be made on them and greater reliance will be placed on the delivery of their services. A relevant subset of them is high-integrity or hard real-time systems, where failure can cause loss of life, environmental harm, or significant financial loss. Additionally, the evolution of communication networks and paradigms as well as the necessity of demanding processing power and fault tolerance, motivated the interconnection between electronic devices; many of the communications have the possibility of transferring data at a high speed. The concept of distributed systems emerged as systems where different parts are executed on several nodes that interact with each other via a communication network. Java’s popularity, facilities and platform independence have made it an interesting language for the real-time and embedded community. This was the motivation for the development of RTSJ (Real-Time Specification for Java), which is a language extension intended to allow the development of real-time systems. The use of Java in the development of high-integrity systems requires strict development and testing techniques. However, RTJS includes a number of language features that are forbidden in such systems. In the context of the HIJA project, the HRTJ (Hard Real-Time Java) profile was developed to define a robust subset of the language that is amenable to static analysis for high-integrity system certification. Currently, a specification under the Java community process (JSR- 302) is being developed. Its purpose is to define those capabilities needed to create safety critical applications with Java technology called Safety Critical Java (SCJ). However, neither RTSJ nor its profiles provide facilities to develop distributed realtime applications. This is an important issue, as most of the current and future systems will be distributed. The Distributed RTSJ (DRTSJ) Expert Group was created under the Java community process (JSR-50) in order to define appropriate abstractions to overcome this problem. Currently there is no formal specification. The aim of this thesis is to develop a communication middleware that is suitable for the development of distributed hard real-time systems in Java, based on the integration between the RMI (Remote Method Invocation) model and the HRTJ profile. It has been designed and implemented keeping in mind the main requirements such as the predictability and reliability in the timing behavior and the resource usage. iThe design starts with the definition of a computational model which identifies among other things: the communication model, most appropriate underlying network protocols, the analysis model, and a subset of Java for hard real-time systems. In the design, the remote references are the basic means for building distributed applications which are associated with all non-functional parameters and resources needed to implement synchronous or asynchronous remote invocations with real-time attributes. The proposed middleware separates the resource allocation from the execution itself by defining two phases and a specific threading mechanism that guarantees a suitable timing behavior. It also includes mechanisms to monitor the functional and the timing behavior. It provides independence from network protocol defining a network interface and modules. The JRMP protocol was modified to include two phases, non-functional parameters, and message size optimizations. Although serialization is one of the fundamental operations to ensure proper data transmission, current implementations are not suitable for hard real-time systems and there are no alternatives. This thesis proposes a predictable serialization that introduces a new compiler to generate optimized code according to the computational model. The proposed solution has the advantage of allowing us to schedule the communications and to adjust the memory usage at compilation time. In order to validate the design and the implementation a demanding validation process was carried out with emphasis in the functional behavior, the memory usage, the processor usage (the end-to-end response time and the response time in each functional block) and the network usage (real consumption according to the calculated consumption). The results obtained in an industrial application developed by Thales Avionics (a Flight Management System) and in exhaustive tests show that the design and the prototype are reliable for industrial applications with strict timing requirements. Los sistemas empotrados y distribuidos de tiempo real son cada vez más importantes para la sociedad. Su demanda aumenta y cada vez más dependemos de los servicios que proporcionan. Los sistemas de alta integridad constituyen un subconjunto de gran importancia. Se caracterizan por que un fallo en su funcionamiento puede causar pérdida de vidas humanas, daños en el medio ambiente o cuantiosas pérdidas económicas. La necesidad de satisfacer requisitos temporales estrictos, hace más complejo su desarrollo. Mientras que los sistemas empotrados se sigan expandiendo en nuestra sociedad, es necesario garantizar un coste de desarrollo ajustado mediante el uso técnicas adecuadas en su diseño, mantenimiento y certificación. En concreto, se requiere una tecnología flexible e independiente del hardware. La evolución de las redes y paradigmas de comunicación, así como la necesidad de mayor potencia de cómputo y de tolerancia a fallos, ha motivado la interconexión de dispositivos electrónicos. Los mecanismos de comunicación permiten la transferencia de datos con alta velocidad de transmisión. En este contexto, el concepto de sistema distribuido ha emergido como sistemas donde sus componentes se ejecutan en varios nodos en paralelo y que interactúan entre ellos mediante redes de comunicaciones. Un concepto interesante son los sistemas de tiempo real neutrales respecto a la plataforma de ejecución. Se caracterizan por la falta de conocimiento de esta plataforma durante su diseño. Esta propiedad es relevante, por que conviene que se ejecuten en la mayor variedad de arquitecturas, tienen una vida media mayor de diez anos y el lugar ˜ donde se ejecutan puede variar. El lenguaje de programación Java es una buena base para el desarrollo de este tipo de sistemas. Por este motivo se ha creado RTSJ (Real-Time Specification for Java), que es una extensión del lenguaje para permitir el desarrollo de sistemas de tiempo real. Sin embargo, RTSJ no proporciona facilidades para el desarrollo de aplicaciones distribuidas de tiempo real. Es una limitación importante dado que la mayoría de los actuales y futuros sistemas serán distribuidos. El grupo DRTSJ (DistributedRTSJ) fue creado bajo el proceso de la comunidad de Java (JSR-50) con el fin de definir las abstracciones que aborden dicha limitación, pero en la actualidad aun no existe una especificacion formal. El objetivo de esta tesis es desarrollar un middleware de comunicaciones para el desarrollo de sistemas distribuidos de tiempo real en Java, basado en la integración entre el modelo de RMI (Remote Method Invocation) y el perfil HRTJ. Ha sido diseñado e implementado teniendo en cuenta los requisitos principales, como la predecibilidad y la confiabilidad del comportamiento temporal y el uso de recursos. El diseño parte de la definición de un modelo computacional el cual identifica entre otras cosas: el modelo de comunicaciones, los protocolos de red subyacentes más adecuados, el modelo de análisis, y un subconjunto de Java para sistemas de tiempo real crítico. En el diseño, las referencias remotas son el medio básico para construcción de aplicaciones distribuidas las cuales son asociadas a todos los parámetros no funcionales y los recursos necesarios para la ejecución de invocaciones remotas síncronas o asíncronas con atributos de tiempo real. El middleware propuesto separa la asignación de recursos de la propia ejecución definiendo dos fases y un mecanismo de hebras especifico que garantiza un comportamiento temporal adecuado. Además se ha incluido mecanismos para supervisar el comportamiento funcional y temporal. Se ha buscado independencia del protocolo de red definiendo una interfaz de red y módulos específicos. También se ha modificado el protocolo JRMP para incluir diferentes fases, parámetros no funcionales y optimizaciones de los tamaños de los mensajes. Aunque la serialización es una de las operaciones fundamentales para asegurar la adecuada transmisión de datos, las actuales implementaciones no son adecuadas para sistemas críticos y no hay alternativas. Este trabajo propone una serialización predecible que ha implicado el desarrollo de un nuevo compilador para la generación de código optimizado acorde al modelo computacional. La solución propuesta tiene la ventaja que en tiempo de compilación nos permite planificar las comunicaciones y ajustar el uso de memoria. Con el objetivo de validar el diseño e implementación se ha llevado a cabo un exigente proceso de validación con énfasis en: el comportamiento funcional, el uso de memoria, el uso del procesador (tiempo de respuesta de extremo a extremo y en cada uno de los bloques funcionales) y el uso de la red (consumo real conforme al estimado). Los buenos resultados obtenidos en una aplicación industrial desarrollada por Thales Avionics (un sistema de gestión de vuelo) y en las pruebas exhaustivas han demostrado que el diseño y el prototipo son fiables para aplicaciones industriales con estrictos requisitos temporales.
Resumo:
Spain is the fifth-largest producer of melon (Cucumis melo L.) and the second exporter in the world. To a national level, Castilla-La Mancha emphasize and, specifically, Ciudad Real, where is cultivated 27% of national area dedicated to this crop and 30% of melon national production. Melon crop is cultivating majority in Ciudad Real and it is mainly located in the Alto Guadiana, where the major aquifers of the region are located, the aquifer 23 or Mancha Occidental and the aquifer 24 or Campo de Montiel, both declared overexploited and vulnerable zones to nitrate pollution from agricultural sources. The problem is exacerbated because in this area, groundwater is the basic resource of supply to populations, and even often the only one. Given the importance of melon in the area, recent research has focused on the irrigation of melon crop. Unfortunately, scant information has been forthcoming on the effect of N fertilizer on melon piel de sapo crop, so it is very important to tackle in a serious study that lead to know the N requirements on the melon crop melon by reducing the risks of contamination by nitrate leaching without affecting productivity and crop quality. In fact, the recommended dose is often subjective and practice is a N overdose. In this situation, the taking of urgent measures to optimize the use of N fertilization is required. To do it, the effect of N in a melon crop, fertirrigated and on plastic mulch, was studied. The treatments consisted in different rates of N supply, considering N fertilizer and N content in irrigation water, so the treatment applied were: 30 (N30), 85 (N85), 112 (N112) and 139 (N139) Kg N ha-1 in 2005; 93 (N93), 243 (N243) and 393 (N393) kg ha-1 in 2006; and 11 (N11), 61 (N61), 95 (N95) and 148 (N148) kg ha-1 in 2007. A randomized complete-block design was used and each treatment was replicated four times. The results showed a significant effect of N on dry biomass and two patterns of growth were observed. On the one hand, a gradual increase in vegetative biomass of the plant, leaves and stem, with increasing N, and on the other hand, an increase of fruit biomass also with increasing N up to a maximum of biomass corresponding to the optimal dose determined in 90 kg ha-1 of N applied, corresponding to 160 kg ha-1 of N available for melon crop, since this optimum dose, the fruit biomass suffers a decline. A significant effect was observed in concentration and N uptake in leaf, steam, fruit and whole plant, increasing in all of them with increasing of N doses. Fast N uptake occurred from 30-35 to 70-80 days after transplanting, coinciding with the fruit development. The N had a clear influence on the melon yield, its components, skin thickness and flesh ratio. The melon yield increased, as the mean fruit weight and number of fruits per m2 with increasing N until achieve an above 95% of the maximum yield when the N applied is 90 kg ha-1 or 160 kg ha-1 of N available. When N exceeds the optimal amount, there is a decline in yield, reducing the mean fruit weight and number of fruits per square meter, and was also observed a decrease in fruit quality by increasing the skin thickness and decrease the flesh ratio, which means an increase in fruit hollowed with excessive N doses. There was a trend for all indexes of N use efficiency (NUE) to decline with increasing N rate. We observed two different behaviours in the calculation result of the NUE; on the one hand, all the efficiency indexes calculated with N applied and N available had an exponential trend, and on the other hand, all the efficiency indexes calculated with N uptake has a linear trend. The linear regression cuts the exponential curve, delimiting a range within which lies the optimum quantity of N. The N leaching as nitrates increased exponentially with the amount of N. The increase of N doses was affected on the N mineralization. There was a negative exponential effect of N available on the mineralization of this element that occurs in the soil during the growing season, calculated from the balances of this element. The study of N leaching for each N rate used, allowed to us to establish several environmental indices related to environmental risk that causes the use of such doses, a simple way for them to be included in the code of Best Management Practices.
Campo Acústico en Recintos de Planta en I En L y en U. Aplicación al Diseño Acústico en Restauración
Resumo:
Este trabajo aborda el estudio de la calidad acústica de restaurantes y propone la inteligibilidad como magnitud adecuada para su valoración. La conversación en el entorno de cada mesa se considera como señal de interés para quienes la ocupan, mientras que las conversaciones de los comensales de las restantes mesas se consideran ruido perturbador junto con el procedente de otras fuentes interiores o exteriores, ruido este que por otra parte suele estar limitado por ordenanzas o reglamentaciones ad hoc, a niveles muy por debajo del nivel de conversación medio y se suele tratar como un ruido estacionario homogéneamente distribuido en todo el restaurante. Las condiciones de inteligibilidad en cada mesa del restaurante deben ser equivalentes. La relación señal-ruido juega un papel primordial en todos los modelos objetivos de predicción de la inteligibilidad en recintos comúnmente aceptados en la actualidad. La calificación de la inteligibilidad de un recinto de restauración requiere un mapa de inteligibilidad en una retícula suficientemente fina que cubra la zona de público, en cuyos puntos se necesita calcular los niveles de señal y de ruido, así como el tiempo de reverberación u otro parámetro relacionado con la señal recibida en el tiempo de integración auditiva. Esto conlleva una cantidad ingente de potencia computacional tanto en memoria como en tiempo. Si se dispone de ecuaciones sencillas y fiables de distribución del nivel sonoro en función de la distancia a la fuente sonora los enormes requerimientos de cálculo mencionados podrían reducirse en un factor importante. La teoría estadística clásica de recintos presenta justamente este escenario, pero trabajos relativamente recientes de Barron y colaboradores indican la mejor adecuación de ecuaciones empíricas algo más complejas, dentro de la sencillez, las cuales a su vez han sido cuestionadas en parte por otros autores. La importancia de estas ecuaciones ha condicionado que en esta tesis se haya planeado un programa de exploraciones experimentales ambicioso, a la par que lo mas simplificado posible, para obtener distribuciones de campos sonoros en recintos prismáticos de plantas en forma de I, L y U; en donde se exploran trayectorias axiales y diagonales. En paralelo se exploro el tiempo de reverberación y se completo con estudios análogos en recintos acoplados formados a partir del recinto de planta en U, por su utilidad actual en recintos de interés arquitectónico rehabilitados para restaurantes. Por su facilidad operativa la experimentación se planteo en maquetas a escala reducida asegurando el cumplimiento de los requisitos en este tipo de estudios. Los resultados experimentales directos se corrigieron de los efectos alineales derivados de las descargas eléctricas usadas como señales de excitación, tanto en el tiempo de reverberación como en la distribución de niveles. Con este fin se desarrollaron ecuaciones de corrección de ambas magnitudes en función del parámetro de alinealidad en el rango de débil alinealidad. También se aplicaron correcciones del exceso de absorción sonora en el seno del aire a los valores de humedad relativa, temperatura y presión atmosféricas reinantes en el interior de las maquetas durante la experimentación, para las frecuencias transpuestas por el factor de escala, en relación con la escala real. Como resultado se obtuvo un paquete de archivos de datos experimentales correspondientes a condiciones lineales. Se ha mostrado que una generalización de la ecuación de Barron consigue un buen ajuste a los valores experimentales en todos los casos considerados, lo que apoya el gran fundamento de esta ecuación tipo. El conjunto de ecuaciones empíricas que ajusta cada caso particular solamente difiere en el valor de una de las tres constantes del tipo funcional: el factor ligado al término exponencial. Un valor de esta constante cercano al valor medio de la serie de casos estudiados se ha usado en el cálculo de los mapas de inteligibilidad en recintos prismáticos que se comentaran más adelante Los resultados experimentales del nivel sonoro a lo largo de trayectorias axiales y diagonales comparados a los calculados numéricamente con las ecuaciones empíricas presentan disminuciones justamente detrás de las esquinas de los recintos con plantas en forma de L y de U. Las aéreas de estas zonas afónicas son función de la frecuencia de manera bastante coincidente con las encontradas en las barreras de ruido por efecto de la difracción. A distancias superiores los valores experimentales caen de nuevo sobre las curvas empíricas. Se ha estudiado la influencia en los mapas de inteligibilidad del ruido de fondo, de la absorción sonora, de la distribución de las mesas, de la densidad de mesas por unidad de superficie, del porcentaje de ocupación y su distribución espacial así como de la posición de la mesa de señal. El ruido conversacional resulta ser el factor más adverso a la inteligibilidad. Al aumentar la densidad de mesas (ocupadas) la valoración de la inteligibilidad disminuye e inversamente. La influencia negativa de las mesas de ruido conversacional disminuye rápidamente al aumentar la distancia a la mesa de señal: pudiendo afirmarse que las 4 a 8 mesas mas próximas a la de señal, junto con la absorción total del recinto, constituyen los dos factores que condicionan la inteligibilidad influyendo negativamente el primero y positivamente el segundo. Este resultado difiere del ofrecido por la teoría geométrico estadística clásica donde todas las mesas tienen la misma influencia con independencia del sitio que ocupen en el recinto, y también con la teoría derivada de la ecuación de Barron, que ocupa una posición intermedia. Mayor absorción y menor densidad de mesas (ocupadas) mejoran la inteligibilidad en todos los casos pero la absorción no siempre puede neutralizar el efecto adverso de la densidad de mesas de la cual parece existir un valor frontera imposible de neutralizar en la práctica con incrementos de absorción. El grado de inteligibilidad en torno a la mesa de señal es poco sensible a la posición de esta dentro del recinto, resultado que simplifica el enunciado de criterios de calidad acústica de utilidad práctica tanto en diseño como en reglamentaciones de control. La influencia del ruido de fondo estacionario y homogéneo resulta de escasa o nula influencia en la inteligibilidad para niveles de hasta 50-55 dB, si se admite que los niveles normales de conversación se sitúan de 65 a 70 dB. La subdivisión del restaurante en subespacios menores mediante septa de separación parcial media y alta, presenta ventajas ya que dentro de cada subespacio la inteligibilidad no depende más que de las características de este
Resumo:
SUMMARY Concentration Photovoltaic Systems (CPV) have been proposed as an alternative to conventional systems. During the last years, there has been a boom of the CPV industry caused by the technological progress in all the elements of the system. and mainly caused by the use of multijunction solar cells based on III-V semiconductors, with efficiencies exceeding to 43%. III-V solar cells have been used with high reliability results in a great number of space missions without concentration. However, there are no previous results regarding their reliability in concentration terrestrial applications, where the working conditions are completely different. This lack of experience, together with the important industrial interest, has generated the need to evaluate the reliability of the cells. For this reason, nowadays there are several research centers around the undertaking this task. The evaluation of the reliability of this type of devices by means of accelerated tests is especially problematic when they work at medium or high concentration, because it is practically impossible to emulate real working conditions of the cell inside climatic chambers. In fact, as far as we know, the results that appear in this Thesis are the first estimating the Activation Energy of the failure mechanism involved, as well as the warranty of the III-V concentrator solar cells tested here. To evaluate the reliability of III-V very high concentrator solar cells by means of accelerated tests, a variety of activities, described in this Thesis have been carried out. The First Part of the memory presents the theoretical part of the Doctoral Thesis. After the Introduction, chapter 2 presents the state of the art in degradation and reliability of CPV systems and solar cells. Chapter 3 introduces some reliability definitions and the application of specific statistical functions to the evaluation of the reliability and parameters. From these functions, important parameters will be calculated to be used later in the experimental results of Thesis. The Second Part of the memory contains the experimental. Chapter 4 shows the types of accelerated tests and the main goals pursuit with them when carried out over CPV systems and solar cells. In order to evaluate quantitatively the reliability of the III-V concentrator solar cells used in these tests, some modifications have been introduced which discussion will be tackled here. Based on this analysis the working plan of the tests carried out in this Doctoral Thesis is presented. Chapter 5 presents a new methodology as well as the necessary instrumentation to carry out the tests described here. This new methodology takes into account the adaptation, improvement and novel techniques needed to test concentrator solar cells. The core of this memory is chapter 6, which presents the results of the characterization of the cells during the accelerated life tests and the analysis of the aforementioned results with the purpose of getting quantitative values of reliability in real working conditions. The acceleration factor of the accelerated life tests, under nominal working conditions has been calculated. Accordingly, the validity of the methodology as well as the calculations based on the reliability assessment, have also been demonstrated. Finally, quantitative values of degradation, reliability and warranty of the solar cells under field nominal working conditions have been calculated. With the development of this Doctoral Thesis the reliability of very high concentrator GaAs solar cells of small area has been evaluated. It is very interesting to generalize the procedures described up to this point to III-V multijunction solar cells of greater area. Therefore, chapter 7 develops this generalization and introduces also a useful thermal modeling by means of finite elements of the test cells’ circuits. In the last chapter, the summary of the results and the main contributions of this Thesis are outlined and future research activities are identified. RESUMEN Los Sistemas Fotovoltaicos de Concentración (SFC) han sido propuestos como una alternativa a los sistemas convencionales de generación de energía. Durante los últimos años ha habido un auge de los SFC debido a las mejoras tecnológicas en todos los elementos del sistema, y principalmente por el uso de células multiunión III-V que superan el 43% de rendimiento. Las células solares III-V han sido utilizadas con elevada fiabilidad en aplicaciones espaciales sin concentración, pero no existe experiencia de su fiabilidad en ambiente terrestre a altos niveles de concentración solar. Esta falta de experiencia junto al gran interés industrial ha generado la necesidad de evaluar la fiabilidad de las células, y actualmente hay un significativo número de centros de investigación trabajando en esta área. La evaluación de la fiabilidad de este tipo de dispositivos mediante ensayos acelerados es especialmente problemática cuando trabajan a media o alta concentración por la casi imposibilidad de emular las condiciones de trabajo reales de la célula dentro de cámaras climáticas. De hecho, que sepamos, en los resultados de esta Tesis se evalúa por primera vez la Energía de Activación del mecanismo de fallo de las células, así como la garantía en campo de las células de concentración III-V analizadas. Para evaluar la fiabilidad de células solares III-V de muy alta concentración mediante ensayos de vida acelerada se han realizado diversas actividades que han sido descritas en la memoria de la Tesis. En la Primera Parte de la memoria se presenta la parte teórica de la Tesis Doctoral. Tras la Introducción, en el capítulo 2 se muestra el estado del arte en degradación y fiabilidad de células y Sistemas Fotovoltaicos de Concentración. En el capítulo 3 se exponen de forma resumida las definiciones de fiabilidad y funciones estadísticas que se utilizan para la evaluación de la fiabilidad y sus parámetros, las cuales se emplearán posteriormente en los ensayos descritos en este Tesis. La Segunda Parte de la memoria es experimental. En el capítulo 4 se describen los tipos y objetivos de los ensayos acelerados actualmente aplicados a SFC y a las células, así como las modificaciones necesarias que permitan evaluar cuantitativamente la fiabilidad de las células solares de concentración III-V. En base a este análisis se presenta la planificación de los trabajos realizados en esta Tesis Doctoral. A partir de esta planificación y debido a la necesidad de adaptar, mejorar e innovar las técnicas de ensayos de vida acelerada para una adecuada aplicación a este tipo de dispositivos, en el capítulo 5 se muestra la metodología empleada y la instrumentación necesaria para realizar los ensayos de esta Tesis Doctoral. El núcleo de la memoria es el capítulo 6, en él se presentan los resultados de caracterización de las células durante los ensayos de vida acelerada y el análisis de dichos resultados con el objetivo de obtener valores cuantitativos de fiabilidad en condiciones reales de trabajo. Se calcula el Factor de Aceleración de los ensayos acelerados con respecto a las condiciones nominales de funcionamiento a partir de la Energía de Activación obtenida, y se demuestra la validez de la metodología y cálculos empleados, que son la base de la evaluación de la fiabilidad. Finalmente se calculan valores cuantitativos de degradación, fiabilidad y garantía de las células en condiciones nominales en campo durante toda la vida de la célula. Con el desarrollo de esta Tesis Doctoral se ha evaluado la fiabilidad de células III-V de área pequeña, pero es muy interesante generalizar los procedimientos aquí desarrollados para las células III-V comerciales de área grande. Por este motivo, en el capítulo 7 se analiza dicha generalización, incluyendo el modelado térmico mediante elementos finitos de los circuitos de ensayo de las células. En el último capítulo se realiza un resume del trabajo y las aportaciones realizadas, y se identifican las líneas de trabajo a emprender en el futuro.
Resumo:
El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.
Resumo:
Esta Tesis Doctoral se encuadra en el ámbito de la medida de emisiones contaminantes y de consumo de combustible en motores de combustión interna alternativos cuando se utilizan como plantas de potencia para propulsión de vehículos ligeros de carretera, y más concretamente en las medidas dinámicas con el vehículo circulando en tráfico real. En este ámbito, el objetivo principal de la Tesis es estudiar los problemas asociados a la medición en tiempo real con equipos embarcados de variables medioambientales, energéticas y de actividad, de vehículos ligeros propulsados por motores térmicos en tráfico real. Y como consecuencia, desarrollar un equipo y una metodología apropiada para este objetivo, con el fin de realizar consiguientemente un estudio sobre los diferentes factores que influyen sobre las emisiones y el consumo de combustible de vehículos turismo en tráfico real. La Tesis se comienza realizando un estudio prospectivo sobre los trabajos de otros autores relativos al desarrollo de equipos portátiles de medida de emisiones (Portable Emission Measurement Systems – PEMS), problemas asociados a la medición dinámica de emisiones y estudios de aplicación en tráfico real utilizando este tipo de equipos. Como resultado de este estudio se plantea la necesidad de disponer de un equipo específicamente diseñado para ser embarcado en un vehículo que sea capaz de medir en tiempo real las concentraciones de emisiones y el caudal de gases de escape, al mismo tiempo que se registran variables del motor, del vehículo y del entorno como son la pendiente y los datos meteorológicos. De esta forma se establecen las especificaciones y condiciones de diseño del equipo PEMS. Aunque al inicio de esta Tesis ya existían en el mercado algunos sistemas portátiles de medida de emisiones (PEMS: Portable Emissions Measurement Systems), en esta Tesis se investiga, diseña y construye un nuevo sistema propio, denominado MIVECO – PEMS. Se exponen, discuten y justifican todas las soluciones técnicas incorporadas en el sistema que incluyen los subsistema de análisis de gases, subsistemas de toma de muestra incluyendo caudalímetro de gases de escape, el subsistema de medida de variables del entorno y actividad del vehículo y el conjunto de sistemas auxiliares. El diseño final responde a las hipótesis y necesidades planteadas y se valida en uso real, en banco de rodillos y en comparación con otro equipos de medida de emisiones estacionarios y portátiles. En esta Tesis se presenta también toda la investigación que ha conducido a establecer la metodología de tratamiento de las señales registradas en tiempo real que incluye la sincronización, cálculos y propagación de errores. La metodología de selección y caracterización de los recorridos y circuitos y de las pautas de conducción, preparación del vehículo y calibración de los equipos forma también parte del legado de esta Tesis. Para demostrar la capacidad de medida del equipo y el tipo de resultados que pueden obtenerse y que son útiles para la comunidad científica, y las autoridades medioambientales en la parte final de esta Tesis se plantean y se presentan los resultados de varios estudios de variables endógenas y exógenas que afectan a las emisiones instantáneas y a los factores de emisión y consumo (g/km) como: el estilo de conducción, la infraestructura vial, el nivel de congestión del tráfico, tráfico urbano o extraurbano, el contenido de biocarburante, tipo de motor (diesel y encendido provocado), etc. Las principales conclusiones de esta Tesis son que es posible medir emisiones másicas y consumo de motores de vehículos en uso real y que los resultados permiten establecer políticas de reducción de impacto medio ambiental y de eficiencia energética, pero, se deben establecer unas metodologías precisas y se debe tener mucho cuidado en todo el proceso de calibración, medida y postratamientos de los datos. Abstract This doctoral thesis is in the field of emissions and fuel consumption measurement of reciprocating internal combustion engines when are used as power-trains for light-duty road vehicles, and especially in the real-time dynamic measurements procedures when the vehicle is being driven in real traffic. In this context, the main objective of this thesis is to study the problems associated with on-board real-time measuring systems of environmental, energy and activity variables of light vehicles powered by internal combustion engines in real traffic, and as a result, to develop an instrument and an appropriate methodology for this purpose, and consequently to make a study of the different factors which influence the emissions and the fuel consumption of passenger cars in real traffic. The thesis begins developing a prospective study on other authors’ works about development of Portable Emission Measurement Systems (PEMS), problems associated with dynamic emission measurements and application studies on actual traffic using PEMS. As a result of this study, it was shown that a measuring system specifically designed for being on-board on a vehicle, which can measure in real time emission concentrations and exhaust flow, and at the same time to record motor vehicle and environment variables as the slope and atmospheric data, is needed; and the specifications and design parameters of the equipment are proposed. Although at the beginning of this research work there were already on the market some PEMS, in this Thesis a new system is researched, designed and built, called MIVECO – PEMS, in order to meet such measurements needs. Following that, there are presented, discussed and justify all technical solutions incorporated in the system, including the gas analysis subsystem, sampling and exhaust gas flowmeter subsystem, the subsystem for measurement of environment variables and of the vehicle activity and the set of auxiliary subsystems. The final design meets the needs and hypotheses proposed, and is validated in real-life use and chassis dynamometer testing and is also compared with other stationary and on-board systems. This thesis also presents all the research that has led to the methodology of processing the set of signals recorded in real time including signal timing, calculations and error propagation. The methodology to select and characterize of the routes and circuits, the driving patterns, and the vehicle preparation and calibration of the instruments and sensors are part of the legacy of this thesis. To demonstrate the measurement capabilities of the system and the type of results that can be obtained and that are useful for the scientific community and the environmental authorities, at the end of this Thesis is presented the results of several studies of endogenous and exogenous variables that affect the instantaneous and averaged emissions and consumption factors (g/km), as: driving style, road infrastructure, the level of traffic congestion, urban and extra-urban traffic, biofuels content, type of engine (diesel or spark ignition) etc. The main conclusions of this thesis are that it is possible to measure mass emissions and consumption of vehicle engines in actual use and that the results allow us to establish policies to reduce environmental impact and improve energy efficiency, but, to establish precise methodologies and to be very careful in the entire process of calibration, measurement and data post-treatment is necessary.
Resumo:
Manifestar los beneficios que aporta la aplicación de técnicas de Investigación Operativa a la hora de tomar decisiones en el ámbito profesional relacionado con este programa Máster, es la razón de ser de este trabajo. Se ha elegido para el caso práctico la gestión de un Centro Histórico, como lo es el Real Monasterio San Jerónimo de Yuste, por la posibilidad nada habitual que este sitio brinda a la hora de relacionar materias específicas de este programa como son la gestión del patrimonio edificado, el diseño para todos, las herramientas de toma de decisiones, la lectura historicista tras de obras de ingeniería o edificatorias y cómo no, los modelos de optimización. Así, en la búsqueda del escenario óptimo han de considerarse diversos factores, propios de las diversas materias que se acaban de mencionar como son, respectivamente, la materia prima con que contamos, el rango de potenciales usuarios y los beneficios en término de igualdad social que pueden añadirse, la comprensión y utilización del lenguaje propio de las instituciones que evalúan operaciones y proveen de medios financieros, la apreciación y puesta en valor del interés cultural de un bien inmueble, y que va más allá del concepto arquitectónico, y la abstracción y traducción a un lenguaje que las matemáticas y la lógica puedan manejar para ponderar las distintas alternativas y definir la mejor opción. Así, a medida que recorramos los distintos apartados de este documento, tomaremos conciencia de lo que supone este Centro Histórico, con sus características, singularidades y actividad interna, tomaremos conciencia también de sus posibilidades para desde aquí transponer esta realidad, material o figurada, a un tablero en el que las reglas son las propias para cualquier proyecto que aspire a ser considerado viable por la Unión Europea más las que se han considerado oportunas a la vista de la coyuntura económica actual, y donde las fichas son las actividades cuya materialización o no depende del proceso de optimización que se realizará. Estas reglas tomarán cuerpo mediante la formulación de las relaciones lógicas que se establecen entre actividades. Las fichas tomarán la forma que les confiera el estudio de viabilidad que para el conocimiento de cada una ha de realizarse. Y en base al resultado del proceso de optimización se definirá un nuevo escenario,cuyo valor global será comparado con el inicial para verificar si se ha aportado o no valor a la gestión del conjunto. Quiero dejar expresa constancia de la colaboración brindada por el Organismo Público Patrimonio Nacional quien, tanto a través del personal de la Delegación de Yuste como de la Central en el Palacio Real, me han facilitado cuanta información y consejo les he solicitado, de la cual se hace uso en este trabajo fin de Máster, con fines exclusivamente académicos.
Resumo:
La mejora en la eficiencia energética y la reducción de la tasa de fallos en los contactos lubricados son aspectos que resultan de gran interés en numerosos sectores de la industria, y plantean en estos momentos nuevas dificultades operativas y retos para un futuro próximo. Los avances tecnológicos han incrementado las exigencias técnicas que se requieren a los aceites para cumplir su función al extender sus variables operativas a un mayor espectro de aplicaciones, tanto de condiciones de funcionamiento como a la gran variedad de nuevos materiales constitutivos de los engranajes en los que se tiene que utilizar. Por ello, actualmente se está incentivado el desarrollo de nuevos procedimientos que permitan comprender el comportamiento de este tipo de contactos lubricados, con el fin de lograr mejoras técnicas en su diseño y la correcta selección del aceite. En esta Tesis Doctoral se presenta una metodología de cálculo numérico que permite simular el comportamiento de contactos elastohidrodinámicos (EHD) puntuales, como puede ser el caso de un rodamiento. La resolución de este problema presenta diversas complejidades matemáticas y exige el desarrollo de un elaborado procedimiento de cálculo basado en técnicas multinivel. Para hacer del procedimiento una herramienta válida en un gran número de condiciones de funcionamiento y tipos de lubricantes, se ha tenido en cuenta en el cálculo la posible aparición de comportamientos no-Newtonianos del lubricante y fenómenos de generación y disipación de calor, provocados por el movimiento relativo del fluido y las superficies en contacto. Para la validación del procedimiento, se han contrastado los resultados numéricos obtenidos con nuestro método, con los resultados numéricos y experimentales publicados por otros autores y con valores experimentales propios medidos en un equipo de ensayo de contacto puntual tipo MTM. El desarrollo de este programa ha dotado a la División de Ingeniería de Máquinas de una herramienta que ha permitido, y sobre todo va permitir, evaluar la importancia de cada uno de los parámetros reológicos en los diferentes problemas que va a tener que abordar, evaluación que hasta el momento se realizaba con métodos aproximados que describen la fenomenología con mucha menos precisión. A la hora de emplear nuestro procedimiento numérico para simular situaciones reales, nos hemos encontrado con el obstáculo de que es muy complicado encontrar, en la bibliografía y bases de datos, los parámetros que caracterizan el comportamiento reológico del lubricante en las condiciones de presión, temperatura y grado de cizallamiento habituales en las que se trabaja en este tipo de contactos, y las pocas medidas que existen para estas condiciones de funcionamiento son poco fiables. Por ello como complemento al objetivo principal de esta Tesis hemos desarrollado una metodología para caracterizar los lubricantes en estas condiciones extremas. Dicha metodología está basada en la buena descripción que hace nuestro programa del coeficiente de fricción, lo que nos ha permitido obtener los parámetros reológicos del III lubricante a partir de las medidas experimentales del coeficiente de fricción generado en un equipo MTM lubricado con el lubricante que se desea caracterizar. Madrid, Octubre de 2012 IV Improving energy efficiency and reducing the failure rate in lubricated contacts are issues that are of great interest in many sectors of industry, and right now posed operational difficulties and new challenges for the near future. Technological advances have increased the technical demands required to oils to fulfil its role by extending its operational variables to a wider range of applications, both operating conditions and to the wide variety of new materials which constitute the gear in which must be used. For this reason, has being encouraged currently to develop new procedures to understand the behaviour of this type of lubricated contacts, in order to achieve improvements in design techniques and the correct oil selection. In this Thesis we present a numerical methodology to simulate the puntual elastohydrodynamic contact behaviour (EHD), such as a roller bearing. The resolution of this problem presents various mathematical complexities and requires the development of an elaborate calculation procedure based on multilevel techniques. To make the procedure a valid tool in a wide range of operating conditions and types of lubricants, has been taken into account in calculating the possible occurrence of non-Newtonian behaviour of the lubricant and phenomena of generation and dissipation of heat, caused by the fluid relative motion and contacting surfaces. For the validation of the method, we have compared the numerical results obtained with our method with numerical and experimental results published by other authors also with own experimental values measured on point-contact test equipment MTM. The development of this program has provided the Machines Engineering Division of a tool that has allowed, and especially will allow to evaluate the importance of each of the rheological parameters on the various problems that will have to be addressed, evaluation performed hitherto described methods that phenomenology approximated with much less accuracy. When using our numerical procedure to simulate real situations we have encountered the obstacle that is very difficult to find, in the literature and database, parameters characterizing the rheological behaviour of the lubricant in the usual conditions of pressure, temperature and shear rate in which you work in this type of contact, and the few measures that exist for these operating conditions are unreliable. Thus in addition to the main objective of this thesis, we have developed a methodology to characterize the lubricants in these extreme conditions. This methodology is based on the good description, which makes our program, of the coefficient of friction, that allowed us to obtain the lubricant rheological parameters from experimental measurements of the friction coefficient generated on lubricated MTM equipment with the lubricant to be characterized.
Resumo:
El injerto en hortalizas es uno de los temas de más actualidad en el panorama hortícola, no solo español, sino occidental, y recalcamos occidental, pues en muchos países que no corresponden a ese ámbito, sobre todo asiáticos: Japón, Corea, China, Filipinas, etc., esta es una técnica que cuenta con una gran difusión desde hace décadas, siendo, por ejemplo en Japón, la mayoría de sus cultivos de cucurbitáceas y solanáceas realizados con planta injertada. A finales de los noventa quedó claro que el empleo de bromuro de metilo tenía una fecha de caducidad y que las zonas que tenían una fuerte dependencia de este desinfectante de suelo debían de buscar alternativas a un plazo lo más corto posible, con un punto añadido sobre etapas anteriores, debían ser alternativas lo más respetuosas posible con el medio ambiente y que no incrementaran, de forma importante, los costes de producción. En la zona centro y concretamente en los invernaderos de la Comunidad de Madrid y zonas cercanas de Toledo y Guadalajara el pepino era y es el cultivo predominante, los horticultores empleaban el bromuro de metilo de forma sistemática para desinfectar sus suelos y la desaparición de este producto les planteaba una gran incertidumbre, lo que llevó a que desde diferentes instancias se buscaran diferentes alternativas. Tras analizar las posibilidades que se podían implementar y conocido el buen resultado que había dado el injerto en sandía en Almería, se decidió acometer los trabajos que conforman esta Tesis Doctoral, planteando en la zona, diferentes ensayos con la idea de conocer, si el injerto en pepino, con los cultivares empleados habitualmente, podía ser una alternativa real para los horticultores, tanto de Madrid, como los de las zonas cercanas de Toledo y Guadalajara. Se pretendía conocer sobre todo las repercusiones agronómicas y si esta técnica podría emplearse en solitario o era necesario complementarla con otras alternativas: desinfectantes químicos, solarización, biofumigación e incluso desinfección con vapor de agua. Los ensayos fueron realizados de forma secuencial entre el año 1999 y el 2011, comprobándose en primer lugar que el empleo de portainjertos híbridos de calabaza era posible con los cultivares de pepino corto tipo español, mayoritariamente empleados en los últimos años del siglo XX y primeros del XXI, fundamentalmente: Serena. Tras los primeros ensayos, Shintoza parecía el portainjerto híbrido de calabaza (Cucurbita maxima x C. moschata) con mejores perspectivas de empleo, pues presentaba la ventaja adicional de ser bien conocido por los semilleros que producen planta injertada al ser, en esos momentos, el portainjerto más empleado en sandía, lo que garantizaba por su lado, su empleo en pepino, y que los horticultores pudiesen disponer de planta injertada. Más adelante los trabajos se encaminaron hacia la determinación de la densidad y tipo de poda más adecuado para la planta injertada, realizándose múltiples ensayos en esta dirección, que culminaron con la conclusión de que el extravigor que los portainjertos conferían a las plantas permitía conducir estas a dos o más brazos (se suelen emplear dos, por mejor adaptación a los trabajos de manejo de la planta por parte de los agricultores), con lo que se podría disminuir la densidad de planta y por tanto ahorrar en este capítulo, cosa que preocupaba y preocupa a los agricultores. Se llegó a determinar que es posible reducir la densidad de plantación en alrededor de un 25%, estando la densidad de brazos más adecuada entre 3 y 3.5 br•m-2. Tras las primeras decisiones tomadas sobre el portainjerto y la densidad más adecuada, se continuó con el estudio de adaptación de estas propuestas a los nuevos cultivares que las empresas de semillas iban proponiendo y los agricultores adoptando. Estas acciones se complementaron con la introducción de nuevos portainjertos susceptibles de sustituir a Shintoza o rotar con él para cambiar de sistema radicular, lo que es conveniente cuando se emplean, como es el caso, portainjertos que no son resistentes a nematodos, principalmente de la especie Meloidogyne incognita, el mayor problema en la zona, debido al suelo. Cultivares como Trópico, en un primer momento, y Urano y Motril más recientemente, se adaptaron muy bien a esta técnica. Entre los portainjertos que mostraron buena adaptación a la técnica de injerto y suficientemente buena compatibilidad con la mayoría de los cultivares ensayados destacan: RS-841, Strongtosa y Camel. Azman también mostró un comportamiento relevante, pero este portainjerto no podrá ser empleado, al ser recientemente retirado del mercado por la empresa que lo obtuvo y comercializó Aunque no era el objetivo principal de esta Tesis Doctoral, se ha comprobado que puede ser interesante combinar el empleo del injerto con otras técnicas alternativas al bromuro de metilo para superar los problemas debidos a enfermedades del suelo o nematodos, pero debe seguirse trabajando pues este es un tema en continua evolución, tanto si se trata de desinfectantes, a la mayoría de los cuales les está siendo retirado el permiso para su comercialización, como de otros métodos como la biofumigación o el empleo de vapor de agua. Queda muy claro que el injerto puede considerarse entre los métodos respetuosos con el medio ambiente, si no el que más, en lo que alternativas al bromuro de metilo se refiere. También en otro momento, se comprobó que con plantas injertadas es posible reducir el aporte de nutrientes, sobre todo nitrógeno, lo que además de un ahorro supone una mejora más desde el punto de vista medioambiental. En definitiva, queda demostrado que es factible el empleo del injerto en pepino corto tipo español, que las selecciones de los híbridos entre Cucurbita maxima y C. moschata que habitualmente se están empleando en sandía son también de aplicación en estos pepinos y que su empleo puede llevarnos a producciones suficientemente remuneradoras, alargándose en muchos casos el ciclo y no modificando, de forma apreciable, la calidad. Queda también demostrado que aunque los portainjertos no sean resistentes a nematodos, su extravigor les hace desarrollarse, desde el punto de vista productivo, suficientemente, llegando por tanto, a “convivir” con ese problema. Al no ser resistentes los portainjertos, y permanecer e incluso agravarse el problema de nematodos es conveniente poder contar con diferentes portainjertos que nos permitan rotar entre ellos y utilizar diferentes sistemas radiculares que harán menos fácil el parasitismo de los nematodos, como recomiendan los nematólogos que se haga. ABSTRACT Vegetable grafting is one of the most current practices in horticulture, not only in Spain, but also in other Western and Asian countries, such as Japan, South Korea, China, the Philippines, etc. This is a decades-old, widespread technique: In fact, most cucurbit and solanaceous crops in Japan and Korea are grafted. At the end of the 1990s, it was clear that methyl bromide had an expiry date. Consequently, the areas strongly dependant on this soil disinfectant had to look for alternatives as quickly as possible. Besides, these had to be as environmentally friendly as possible and should not increase production costs significantly. The cucumber has been and still is the most important crop in greenhouses of the Comunidad de Madrid and in areas near Toledo and Guadalajara. Cucumber growers used methyl bromide systematically to disinfect the soil. The banning of this chemical product brought about uncertainty, which encouraged the search for different alternatives. After analyzing the different possibilities and taking into account the good results of watermelon grafting in Almería, it was decided to carry out the works that make up this doctoral thesis. Different trials were made in order to know if the cultivars used in cucumber grafting might be a real alternative for farmers, not only in Madrid, but also in the areas near Toledo and Guadalajara. The main aim was to assess the agronomic repercussions and whether that technique could be used alone, or if other complementary alternatives, such as chemical disinfectants, solarisation, biofumigation, or even steam disinfection, were necessary. Trials were carried out sequentially from 1999 to 2011. It was observed that the use of pumpkin hybrid rootstocks could be applied to cultivars of Spanish short cucumbers, mainly grown in the late 20th and early 21st centuries eg Serena. After the early trials, Shintoza (Cucurbita maxima x C. moschata), a pumpkin hybrid rootstock, seemed to be the best option, as it had the additional advantage of being well known by nurseries growing grafting plants. Bearing this in mind, Shintoza was then the hybrid rootstock to be used in cucumbers and consequently growers could have grafted plants at their disposal. Later on, research was focused on density and the most adequate type of pruning, by carrying out several trials. These experiments showed that, the extra vigour the rootstocks gave to the plants, allowed them to have two or three stems, (normally nurserymen use two, as it is easier for them to manage the plants). These findings would lead to the lessening the density of the plant and thus reduce costs, something which worried and still worries farmers. It was stated that it would be possible to reduce the density of the plants by about 25%, the optimum density of the stems ranging from 3 to 3.5 stem-m-2. Once decisions were taken both on the rootstock and the appropriate density, we went on to study how to apply these proposals to the new cultivars which the seed companies were proposing and the farmers were applying. These measures were complemented with the introduction of new rootstocks capable of replacing Shintoza, or rotating with it in order to change the root system. This is particularly necessary when rootstocks, non-resistant to nematodes, mainly of the species Meloidogyne incognita, are used. This is the main problem due to the soil of that area. Cultivars such as Trópico, at first, and Urano and Motril, more recently, adapted quite well to this technique. Among the rootstocks which adapted well to grafting and which were compatible with most tested cultivars, were, in particular, RS-841 Strongtosa and Camel. The behaviour of Azman was worth studying, but this rootstock was removed from the market by the company which had bought and commercialized it. Although not the main purpose of the research, it was observed that combining grafting with other alternatives to methyl bromide in order to overcome problems due to soil diseases or nematodes may be worthwhile. However, further research is needed, as this topic is in constant evolution, not only when we come to disinfectants, most of which are being affected by the removal of the permit for commercialization, but also when we refer to other techniques such as biofumigation or the use of steam. Results also showed that grafted plants may reduce the amount of fertilizers, particularly nitrogen, used: This means both saving money and the protection of the environment. We may conclude by saying that grafting Spanish short cucumbers is feasible, that the selections of the hybrids between Cucurbita maxima and C. moschata, habitually used in watermelon grafting, can also be applied to these cucumbers. It can also be concluded that the use of these grafting techniques may lead to profitable yields, by lengthening the growing cycle in many cases and by maintaining the quality to a large extent. Although these rootstocks are not resistant to nematodes, the results showed that their extra vigour enables them to develop in terms of production, and thus they cope with this problem. Since these rootstocks are not resistant to nematodes and the problem with these nematodes may even worsen, it is recommended that different types of rootstocks should be available to enable both the rotation and the use of different root systems, which will encourage the parasitism of nematodes.
Resumo:
El accidente de rotura de tubos de un generador de vapor (Steam Generator Tube Rupture, SGTR) en los reactores de agua a presión es uno de los transitorios más exigentes desde el punto de vista de operación. Los transitorios de SGTR son especiales, ya que podría dar lugar a emisiones radiológicas al exterior sin necesidad de daño en el núcleo previo o sin que falle la contención, ya que los SG pueden constituir una vía directa desde el reactor al medio ambiente en este transitorio. En los análisis de seguridad, el SGTR se analiza desde un punto determinista y probabilista, con distintos enfoques con respecto a las acciones del operador y las consecuencias analizadas. Cuando comenzaron los Análisis Deterministas de Seguridad (DSA), la forma de analizar el SGTR fue sin dar crédito a la acción del operador durante los primeros 30 min del transitorio, lo que suponía que el grupo de operación era capaz de detener la fuga por el tubo roto dentro de ese tiempo. Sin embargo, los diferentes casos reales de accidentes de SGTR sucedidos en los EE.UU. y alrededor del mundo demostraron que los operadores pueden emplear más de 30 minutos para detener la fuga en la vida real. Algunas metodologías fueron desarrolladas en los EEUU y en Europa para abordar esa cuestión. En el Análisis Probabilista de Seguridad (PSA), las acciones del operador se tienen en cuenta para diseñar los cabeceros en el árbol de sucesos. Los tiempos disponibles se utilizan para establecer los criterios de éxito para dichos cabeceros. Sin embargo, en una secuencia dinámica como el SGTR, las acciones de un operador son muy dependientes del tiempo disponible por las acciones humanas anteriores. Además, algunas de las secuencias de SGTR puede conducir a la liberación de actividad radiológica al exterior sin daño previo en el núcleo y que no se tienen en cuenta en el APS, ya que desde el punto de vista de la integridad de núcleo son de éxito. Para ello, para analizar todos estos factores, la forma adecuada de analizar este tipo de secuencias pueden ser a través de una metodología que contemple Árboles de Sucesos Dinámicos (Dynamic Event Trees, DET). En esta Tesis Doctoral se compara el impacto en la evolución temporal y la dosis al exterior de la hipótesis más relevantes encontradas en los Análisis Deterministas a nivel mundial. La comparación se realiza con un modelo PWR Westinghouse de tres lazos (CN Almaraz) con el código termohidráulico TRACE, con hipótesis de estimación óptima, pero con hipótesis deterministas como criterio de fallo único o pérdida de energía eléctrica exterior. Las dosis al exterior se calculan con RADTRAD, ya que es uno de los códigos utilizados normalmente para los cálculos de dosis del SGTR. El comportamiento del reactor y las dosis al exterior son muy diversas, según las diferentes hipótesis en cada metodología. Por otra parte, los resultados están bastante lejos de los límites de regulación, pese a los conservadurismos introducidos. En el siguiente paso de la Tesis Doctoral, se ha realizado un análisis de seguridad integrado del SGTR según la metodología ISA, desarrollada por el Consejo de Seguridad Nuclear español (CSN). Para ello, se ha realizado un análisis termo-hidráulico con un modelo de PWR Westinghouse de 3 lazos con el código MAAP. La metodología ISA permite la obtención del árbol de eventos dinámico del SGTR, teniendo en cuenta las incertidumbres en los tiempos de actuación del operador. Las simulaciones se realizaron con SCAIS (sistema de simulación de códigos para la evaluación de la seguridad integrada), que incluye un acoplamiento dinámico con MAAP. Las dosis al exterior se calcularon también con RADTRAD. En los resultados, se han tenido en cuenta, por primera vez en la literatura, las consecuencias de las secuencias en términos no sólo de daños en el núcleo sino de dosis al exterior. Esta tesis doctoral demuestra la necesidad de analizar todas las consecuencias que contribuyen al riesgo en un accidente como el SGTR. Para ello se ha hecho uso de una metodología integrada como ISA-CSN. Con este enfoque, la visión del DSA del SGTR (consecuencias radiológicas) se une con la visión del PSA del SGTR (consecuencias de daño al núcleo) para evaluar el riesgo total del accidente. Abstract Steam Generator Tube Rupture accidents in Pressurized Water Reactors are known to be one of the most demanding transients for the operating crew. SGTR are special transient as they could lead to radiological releases without core damage or containment failure, as they can constitute a direct path to the environment. The SGTR is analyzed from a Deterministic and Probabilistic point of view in the Safety Analysis, although the assumptions of the different approaches regarding the operator actions are quite different. In the beginning of Deterministic Safety Analysis, the way of analyzing the SGTR was not crediting the operator action for the first 30 min of the transient, assuming that the operating crew was able to stop the primary to secondary leakage within that time. However, the different real SGTR accident cases happened in the USA and over the world demonstrated that operators can took more than 30 min to stop the leakage in actual sequences. Some methodologies were raised in the USA and in Europe to cover that issue. In the Probabilistic Safety Analysis, the operator actions are taken into account to set the headers in the event tree. The available times are used to establish the success criteria for the headers. However, in such a dynamic sequence as SGTR, the operator actions are very dependent on the time available left by the other human actions. Moreover, some of the SGTR sequences can lead to offsite doses without previous core damage and they are not taken into account in PSA as from the point of view of core integrity are successful. Therefore, to analyze all this factors, the appropriate way of analyzing that kind of sequences could be through a Dynamic Event Tree methodology. This Thesis compares the impact on transient evolution and the offsite dose of the most relevant hypothesis of the different SGTR analysis included in the Deterministic Safety Analysis. The comparison is done with a PWR Westinghouse three loop model in TRACE code (Almaraz NPP), with best estimate assumptions but including deterministic hypothesis such as single failure criteria or loss of offsite power. The offsite doses are calculated with RADTRAD code, as it is one of the codes normally used for SGTR offsite dose calculations. The behaviour of the reactor and the offsite doses are quite diverse depending on the different assumptions made in each methodology. On the other hand, although the high conservatism, such as the single failure criteria, the results are quite far from the regulatory limits. In the next stage of the Thesis, the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Safety Council (CSN), has been applied to a thermohydraulical analysis of a Westinghouse 3-loop PWR plant with the MAAP code. The ISA methodology allows obtaining the SGTR Dynamic Event Tree taking into account the uncertainties on the operator actuation times. Simulations are performed with SCAIS (Simulation Code system for Integrated Safety Assessment), which includes a dynamic coupling with MAAP thermal hydraulic code. The offsite doses are calculated also with RADTRAD. The results shows the consequences of the sequences in terms not only of core damage but of offsite doses. This Thesis shows the need of analyzing all the consequences in an accident such as SGTR. For that, an it has been used an integral methodology like ISA-CSN. With this approach, the DSA vision of the SGTR (radiological consequences) is joined with the PSA vision of the SGTR (core damage consequences) to measure the total risk of the accident.