232 resultados para Instalación
Resumo:
El consumo de energía es responsable de una parte importante de las emisiones a la atmósfera de CO2, que es uno de los principales causantes del efecto invernadero en nuestro planeta. El aprovechamiento de la energía solar para la producción de agua caliente, permite economizar energía y disminuir el impacto del consumo energético sobre el medio ambiente y por tanto un menor impacto medioambiental. El objetivo de la presente investigación consiste en estudiar el aprovechamiento solar para el calentamiento de los fangos en los digestores anaerobios mediante agua caliente circulando en el interior de un serpentín que rodea la superficie de dicho digestor, como apoyo a los métodos convencionales del calentamiento de fangos como la resistencia eléctrica o el intercambiador de calor mediante la energía obtenida por el gas metano producido en la digestión anaerobia. Para el estudio se utilizaron 3 digestores, dos delos cuales se calentaron con agua caliente en el interior de un serpentín (uno aislado mediante una capa de fibra de vidrio y poliuretano y otro sin aislar).El tercer digestor no tenía calentamiento exterior con el objetivo de observar su comportamiento y comparar su evolución con el resto de los digestores .La comparación de los digestores 1 y 2 nos permitió estudiar la conveniencia de proveer de aislamiento al digestor. La transferencia de calor mediante serpentín de cobre dio valores comprendidos entre 83 y 92%. La aplicación de la instalación a una depuradora a escala real para mantenimiento en el interior del digestor a T=32ºC en diferentes climas: climas templados, cálidos y fríos, consistió en el cálculo de la superficie de colectores solares y superficie de serpentín necesario para cubrir las necesidades energéticas anuales de dicho digestor, así como el estudio de rentabilidad de la instalación, dando los mejores resultados para climas cálidos con períodos de retorno de 12 años y una tasa interna de rentabilidad (TIR) del 16% obteniendo una cobertura anual del 79% de las necesidades energéticas con energía solar térmica. Energy consumption accounts for a significant part of the emissions of CO2, which is one of the main causes of the greenhouse effect on our planet. The use of solar energy for hot water production. can save energy and reduce the impact of energy consumption on the environment and therefore a reduced environmental impact. The objective of this research is to study the solar utilization for heating the sludge in anaerobic digesters by hot water circulating inside a coil surrounding the surface of digester, to support conventional heating methods sludge as the electrical resistance or heat exchanger by energy generated by the methane gas produced in the anaerobic digestion. To study 3 digesters used two models which are heated with hot water within a coil (one insulated by a layer of fiberglass and polyurethane and other uninsulated) .The third digester had no external heating in order to observe their behavior and compare their evolution with the rest of the .The comparison digesters digesters 1 and 2 allowed us to study the advisability of providing insulation to the digester. Heat transfer through copper coil gave values between 83 and 92%. The installation application to a treatment for maintaining full scale within the digester at T = 32ºC in different climates: temperate, warm and cold climates, consisted of calculating the surface area of solar collectors and coil required to cover the annual energy needs of the digester, and the study of profitability of the installation, giving the best results for hot climates with return periods of 12 years and an internal rate of return (IRR) of 16% achieving an annual coverage of 79 % of energy needs with solar energy.
Resumo:
La perdiz roja es la especie cinegética por excelencia en la península ibérica, cuya cría en cautividad y suelta controlada comenzó a regularse en los años 70 con la aparición del ICONA. La incubación controlada de huevos de perdiz es imprescindible, con fines cinegéticos y de preservación de la especie, y se desarrolla con incubadoras comerciales de pequeña y mediana escala, distribuidas en zonas rurales con acceso limitado y/o deficiente al suministro eléctrico. En nuestras latitudes el aporte de energía solar térmica se perfila como una posibilidad de mejorar la eficiencia energética de éstas y otras instalaciones y de reducir la dependencia energética exterior. Hay diversos factores físico-químicos que influyen en la calidad de la incubación: temperatura, humedad relativa, y concentración de gases, de los cuales sólo los dos primeros son habitualmente supervisados y controlados en este tipo de incubadoras. Esta Tesis surge en el marco de dos proyectos de cooperación con la AECID, y tiene como objetivos: la caracterización espacial de variables relevantes (temperatura (T), humedad relativa (HR)) en la incubadora comercial durante el proceso de incubación, la determinación de la relación existente entre la evolución de variables ambientales durante el proceso de incubación y la tasa de nacimientos (35-77%), así como el diseño y evaluación del sistema de apoyo solar térmico para determinar su potencial de utilización durante las incubaciones comerciales. La instalación de un número limitado de sensores permite la monitorización precisa del proceso de incubación de los huevos. Los resultados más relevantes indican que en incubaciones comerciales los gradientes de T y HR han sido despreciables (1ºC de diferencia entre las posiciones con mayor y menor T media y un 4,5% de diferencia entre las posiciones con mayor y menor HR), mientras que el seguimiento y ajuste (mediante modelos de crecimiento) de la concentración de CO2 (r2 entre 0,948 y 0,987 en las 5 incubaciones, para un total de 43315 huevos) permite valorar la actividad fisiológica de los huevos e incluso predecir la tasa de éxito (nacimientos), basándose en la concentración de CO2 estimada mediante modelos de crecimiento en el día 20 de incubación (r2 entre 0,997 y 0,994 según el modelo de estimación empleado). El sistema ha sido valorado muy positivamente por los productores (Finca Cinegética Dehesa Vieja de Galapagar). El aporte térmico se ha diseñado (con mínima intrusión en el sistema comercial) sobre la base de un sistema de enfriamiento de emergencia original de la incubadora, al que se han incorporado un colector solar, un depósito, un sistema de electroválvulas, una bomba de circulación y sensores de T en distintos puntos del sistema, y cuyo control ha sido automatizado. En esta Tesis se muestra que la contribución solar puede aportar hasta un 42% de las demandas de energía en nuestras condiciones geográficas para una temperatura de consigna dentro de la incubadora de 36.8ºC, sin afectar a la estabilidad de la temperatura. Además, el rendimiento del colector solar se ha acotado entre un 44% y un 85%, de acuerdo con los cálculos termodinámicos; valores que se mantienen dentro del rango aportado por el fabricante (61%). En el futuro se plantea evaluar el efecto de distintas estrategias de control, tales como controladores difusos, que incorporan el conocimiento experto al control automático. ABSTRACT The partridge is the quintessential game species in the Iberian Peninsula, which controlled breeding and release, began to be regulated in the 70s with the emergence of ICONA. The controlled incubation of eggs is essential, and takes place in commercial incubators of small and medium scale, distributed in rural areas with limited and/or inadequate access to power. In our latitudes the contribution of solar thermal energy is emerging as a possibility to improve the energy efficiency of the facilities and to reduce external energy dependence. There are various physicochemical factors influencing the quality of incubation: temperature, relative humidity and concentration of gases, of which only the first two are typically monitored and controlled in such incubators. This PhD comes within the framework of two cooperation projects with AECID and aims: the spatial characterization of relevant variables in a commercial incubator (temperature (T), and relative humidity (HR)), determining the relationships in the changes in environmental variables during incubation and birth rates (35-77%) as well as the design and evaluation of solar thermal support system to determine its potential use during commercial incubations; the installation of a limited number of sensors has allowed accurate monitoring of incubation of eggs. The most relevant results indicate that in commercial incubations, the gradients in T and HR have been negligible (1°C difference between the highest and lowest positions T and average 4.5% difference between the highest and lowest positions HR), while monitoring and fit using growth models of the concentration of CO2 (r2 between 0.948 and 0.987 in 5 incubations, for a total amount of 43,315 eggs) allows assessing the physiological activity of the eggs and even predict the success rate (hatchability), based on the estimated concentration of CO2 by using growth models on day 20 of incubation (r2 between 0.997 and 0.994 depending on the fit model).The system has been highly valued by producers (Finca Cinegética Dehesa Vieja de Galapagar). The hybrid heat system is designed (with minimal intrusion into the commercial system) based on an emergency cooling device, original in the incubator. New elements have been incorporated: a solar collector, a tank, a system of solenoid valves, a circulating pump and T sensors at various points of the system, whose control has been automated. This PhD shows that the solar contribution is responsible for up to 42% of energy demands in our geographical conditions for a setpoint temperature inside the incubator of 36.8ºC, without questioning the stability of the temperature. Furthermore, the efficiency of the solar collector has been bounded between 44% and 85%, according to thermodynamic calculations; values remain within the range provided by the manufacturer (61%). In the future it is proposed to evaluate the effect of different control strategies, such as fuzzy controllers, which incorporate the expertise to automated control.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
La presente investigación se presenta como una alternativa para la reducción de la contaminación por nutrientes que produce el vertido de aguas residuales provenientes de núcleos urbanos que acaban en lagos, lagunas o embalses acelerando los procesos de eutrofización de los mismos. El objetivo de esta tesis es analizar la reducción de nutrientes, fundamentalmente nitrógeno, fósforo y potasio, del agua residual doméstica sometida a tratamiento a través de cultivos hidropónicos en un determinado periodo de tiempo, observando a su vez la evolución del cultivo seleccionado. El sistema se diseñó para funcionar en circuito cerrado con el agua residual circulando por entre las raíces de los vegetales estudiados. El cultivo seleccionado fue el “kenaf”, aunque después de mucho tiempo dedicado a la obtención de semillas de “kenaf “por diferentes proveedores, se decidió comenzar un primer ensayo utilizando plantas de aloe vera durante un periodo de un mes de verano. Se procedió a la colocación de plantas en un tubo conteniendo agua residual de una fosa séptica domiciliaria. La reducción de la DBO5 y la DQO fue notable aunque los resultados de la variación de nitratos y fosfatos no fueron concluyentes. Las altas temperaturas alcanzada en esas fechas por el agua circulante, finalmente imposibilitó la continuación del ensayo. Si bien esta primera puesta en marcha no resultó como se esperaba, aportó numerosa información para modificar el planteo del estudio, la forma de llevarlo a cabo y la puesta a punto de la propia instalación. El segundo ensayo se llevó a cabo en otoño con plantas de kenaf obtenidas del ensayo previo en suelo en una parcela piloto en los llanos de Villamartín, en la provincia de Cádiz. Antes de incorporar el agua al sistema hidropónico se analizaron todos los parámetros requeridos por la normativa española del agua para determinar su clasificación como agua residual doméstica. Luego se le dio seguimiento a la variación de los nutrientes, nitrógeno, fósforo y potasio a lo largo de varias semanas para evaluar la efectividad del tratamiento. Las plantas de kenaf continuaron su desarrollo utilizando las sustancias disueltas en el agua residual como única fuente de nutrientes disponible. This research is presented as an alternative to reduce the pollution that wastewater discharges from towns generate when they end in lakes, ponds and reservoirs, by accelerating the eutrophication processes. The objective of this thesis is to analyze the reduction of nutrients, mainly nitrogen, phosphorus and potassium, of domestic wastewater treated through hydroponics crops in a given period of time, noting at the same time the evolution of the selected crop. The system was designed to operate in closed circuit with the wastewater circulating through the roots of the studied plants. The selected crop was "kenaf", although after much time spent in obtaining seeds of "kenaf"by different vendors and the impossibility of achieving its germination; it was decided to start a first test using Aloe Vera plants for a period of one month in the summer. The plants were introduced in the holes of a tube containing septic wastewater. The BOD5 and COD reduction was remarkable though the results of the variation in nitrates and phosphates were inconclusive. High temperatures achieved in those dates by circulating water, eventually precluded the continuation of the test. Although this first implementation was not running as expected, it provided information to modify the proposal of the study, the way to carry it out and the development of the installation itself. The second test was conducted in autumn with kenaf plants obtained from the previous test in a pilot plant in the flatness of Villamartín, province of Cádiz. Before adding the water to the hydroponic system all the parameters required by the Spanish water regulations were analyzed to determine their classification as domestic waste water. Then, the variation of nutrients, nitrogen, phosphorus and potassium was tracking over several weeks to evaluate the effectiveness of the treatment. Kenaf plants continued its development using the substances dissolved in wastewater as sole source of nutrients available.
Resumo:
La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.
Resumo:
I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.
Resumo:
La fusión nuclear es, hoy en día, una alternativa energética a la que la comunidad internacional dedica mucho esfuerzo. El objetivo es el de generar entre diez y cincuenta veces más energía que la que consume mediante reacciones de fusión que se producirán en una mezcla de deuterio (D) y tritio (T) en forma de plasma a doscientos millones de grados centígrados. En los futuros reactores nucleares de fusión será necesario producir el tritio utilizado como combustible en el propio reactor termonuclear. Este hecho supone dar un paso más que las actuales máquinas experimentales dedicadas fundamentalmente al estudio de la física del plasma. Así pues, el tritio, en un reactor de fusión, se produce en sus envolturas regeneradoras cuya misión fundamental es la de blindaje neutrónico, producir y recuperar tritio (fuel para la reacción DT del plasma) y por último convertir la energía de los neutrones en calor. Existen diferentes conceptos de envolturas que pueden ser sólidas o líquidas. Las primeras se basan en cerámicas de litio (Li2O, Li4SiO4, Li2TiO3, Li2ZrO3) y multiplicadores neutrónicos de Be, necesarios para conseguir la cantidad adecuada de tritio. Los segundos se basan en el uso de metales líquidos o sales fundidas (Li, LiPb, FLIBE, FLINABE) con multiplicadores neutrónicos de Be o el propio Pb en el caso de LiPb. Los materiales estructurales pasan por aceros ferrítico-martensíticos de baja activación, aleaciones de vanadio o incluso SiCf/SiC. Cada uno de los diferentes conceptos de envoltura tendrá una problemática asociada que se estudiará en el reactor experimental ITER (del inglés, “International Thermonuclear Experimental Reactor”). Sin embargo, ITER no puede responder las cuestiones asociadas al daño de materiales y el efecto de la radiación neutrónica en las diferentes funciones de las envolturas regeneradoras. Como referencia, la primera pared de un reactor de fusión de 4000MW recibiría 30 dpa/año (valores para Fe-56) mientras que en ITER se conseguirían <10 dpa en toda su vida útil. Esta tesis se encuadra en el acuerdo bilateral entre Europa y Japón denominado “Broader Approach Agreement “(BA) (2007-2017) en el cual España juega un papel destacable. Estos proyectos, complementarios con ITER, son el acelerador para pruebas de materiales IFMIF (del inglés, “International Fusion Materials Irradiation Facility”) y el dispositivo de fusión JT-60SA. Así, los efectos de la irradiación de materiales en materiales candidatos para reactores de fusión se estudiarán en IFMIF. El objetivo de esta tesis es el diseño de un módulo de IFMIF para irradiación de envolturas regeneradoras basadas en metales líquidos para reactores de fusión. El módulo se llamará LBVM (del inglés, “Liquid Breeder Validation Module”). La propuesta surge de la necesidad de irradiar materiales funcionales para envolturas regeneradoras líquidas para reactores de fusión debido a que el diseño conceptual de IFMIF no contaba con esta utilidad. Con objeto de analizar la viabilidad de la presente propuesta, se han realizado cálculos neutrónicos para evaluar la idoneidad de llevar a cabo experimentos relacionados con envolturas líquidas en IFMIF. Así, se han considerado diferentes candidatos a materiales funcionales de envolturas regeneradoras: Fe (base de los materiales estructurales), SiC (material candidato para los FCI´s (del inglés, “Flow Channel Inserts”) en una envoltura regeneradora líquida, SiO2 (candidato para recubrimientos antipermeación), CaO (candidato para recubrimientos aislantes), Al2O3 (candidato para recubrimientos antipermeación y aislantes) y AlN (material candidato para recubrimientos aislantes). En cada uno de estos materiales se han calculado los parámetros de irradiación más significativos (dpa, H/dpa y He/dpa) en diferentes posiciones de IFMIF. Estos valores se han comparado con los esperados en la primera pared y en la zona regeneradora de tritio de un reactor de fusión. Para ello se ha elegido un reactor tipo HCLL (del inglés, “Helium Cooled Lithium Lead”) por tratarse de uno de los más prometedores. Además, los valores también se han comparado con los que se obtendrían en un reactor rápido de fisión puesto que la mayoría de las irradiaciones actuales se hacen en reactores de este tipo. Como conclusión al análisis de viabilidad, se puede decir que los materiales funcionales para mantos regeneradores líquidos podrían probarse en la zona de medio flujo de IFMIF donde se obtendrían ratios de H/dpa y He/dpa muy parecidos a los esperados en las zonas más irradiadas de un reactor de fusión. Además, con el objetivo de ajustar todavía más los valores, se propone el uso de un moderador de W (a considerar en algunas campañas de irradiación solamente debido a que su uso hace que los valores de dpa totales disminuyan). Los valores obtenidos para un reactor de fisión refuerzan la idea de la necesidad del LBVM, ya que los valores obtenidos de H/dpa y He/dpa son muy inferiores a los esperados en fusión y, por lo tanto, no representativos. Una vez demostrada la idoneidad de IFMIF para irradiar envolturas regeneradoras líquidas, y del estudio de la problemática asociada a las envolturas líquidas, también incluida en esta tesis, se proponen tres tipos de experimentos diferentes como base de diseño del LBVM. Éstos se orientan en las necesidades de un reactor tipo HCLL aunque a lo largo de la tesis se discute la aplicabilidad para otros reactores e incluso se proponen experimentos adicionales. Así, la capacidad experimental del módulo estaría centrada en el estudio del comportamiento de litio plomo, permeación de tritio, corrosión y compatibilidad de materiales. Para cada uno de los experimentos se propone un esquema experimental, se definen las condiciones necesarias en el módulo y la instrumentación requerida para controlar y diagnosticar las cápsulas experimentales. Para llevar a cabo los experimentos propuestos se propone el LBVM, ubicado en la zona de medio flujo de IFMIF, en su celda caliente, y con capacidad para 16 cápsulas experimentales. Cada cápsula (24-22 mm de diámetro y 80 mm de altura) contendrá la aleación eutéctica LiPb (hasta 50 mm de la altura de la cápsula) en contacto con diferentes muestras de materiales. Ésta irá soportada en el interior de tubos de acero por los que circulará un gas de purga (He), necesario para arrastrar el tritio generado en el eutéctico y permeado a través de las paredes de las cápsulas (continuamente, durante irradiación). Estos tubos, a su vez, se instalarán en una carcasa también de acero que proporcionará soporte y refrigeración tanto a los tubos como a sus cápsulas experimentales interiores. El módulo, en su conjunto, permitirá la extracción de las señales experimentales y el gas de purga. Así, a través de la estación de medida de tritio y el sistema de control, se obtendrán los datos experimentales para su análisis y extracción de conclusiones experimentales. Además del análisis de datos experimentales, algunas de estas señales tendrán una función de seguridad y por tanto jugarán un papel primordial en la operación del módulo. Para el correcto funcionamiento de las cápsulas y poder controlar su temperatura, cada cápsula se equipará con un calentador eléctrico y por tanto el módulo requerirá también ser conectado a la alimentación eléctrica. El diseño del módulo y su lógica de operación se describe en detalle en esta tesis. La justificación técnica de cada una de las partes que componen el módulo se ha realizado con soporte de cálculos de transporte de tritio, termohidráulicos y mecánicos. Una de las principales conclusiones de los cálculos de transporte de tritio es que es perfectamente viable medir el tritio permeado en las cápsulas mediante cámaras de ionización y contadores proporcionales comerciales, con sensibilidades en el orden de 10-9 Bq/m3. Los resultados son aplicables a todos los experimentos, incluso si son cápsulas a bajas temperaturas o si llevan recubrimientos antipermeación. Desde un punto de vista de seguridad, el conocimiento de la cantidad de tritio que está siendo transportada con el gas de purga puede ser usado para detectar de ciertos problemas que puedan estar sucediendo en el módulo como por ejemplo, la rotura de una cápsula. Además, es necesario conocer el balance de tritio de la instalación. Las pérdidas esperadas el refrigerante y la celda caliente de IFMIF se pueden considerar despreciables para condiciones normales de funcionamiento. Los cálculos termohidráulicos se han realizado con el objetivo de optimizar el diseño de las cápsulas experimentales y el LBVM de manera que se pueda cumplir el principal requisito del módulo que es llevar a cabo los experimentos a temperaturas comprendidas entre 300-550ºC. Para ello, se ha dimensionado la refrigeración necesaria del módulo y evaluado la geometría de las cápsulas, tubos experimentales y la zona experimental del contenedor. Como consecuencia de los análisis realizados, se han elegido cápsulas y tubos cilíndricos instalados en compartimentos cilíndricos debido a su buen comportamiento mecánico (las tensiones debidas a la presión de los fluidos se ven reducidas significativamente con una geometría cilíndrica en lugar de prismática) y térmico (uniformidad de temperatura en las paredes de los tubos y cápsulas). Se han obtenido campos de presión, temperatura y velocidad en diferentes zonas críticas del módulo concluyendo que la presente propuesta es factible. Cabe destacar que el uso de códigos fluidodinámicos (e.g. ANSYS-CFX, utilizado en esta tesis) para el diseño de cápsulas experimentales de IFMIF no es directo. La razón de ello es que los modelos de turbulencia tienden a subestimar la temperatura de pared en mini canales de helio sometidos a altos flujos de calor debido al cambio de las propiedades del fluido cerca de la pared. Los diferentes modelos de turbulencia presentes en dicho código han tenido que ser estudiados con detalle y validados con resultados experimentales. El modelo SST (del inglés, “Shear Stress Transport Model”) para turbulencia en transición ha sido identificado como adecuado para simular el comportamiento del helio de refrigeración y la temperatura en las paredes de las cápsulas experimentales. Con la geometría propuesta y los valores principales de refrigeración y purga definidos, se ha analizado el comportamiento mecánico de cada uno de los tubos experimentales que contendrá el módulo. Los resultados de tensiones obtenidos, han sido comparados con los valores máximos recomendados en códigos de diseño estructural como el SDC-IC (del inglés, “Structural Design Criteria for ITER Components”) para así evaluar el grado de protección contra el colapso plástico. La conclusión del estudio muestra que la propuesta es mecánicamente robusta. El LBVM implica el uso de metales líquidos y la generación de tritio además del riesgo asociado a la activación neutrónica. Por ello, se han estudiado los riesgos asociados al uso de metales líquidos y el tritio. Además, se ha incluido una evaluación preliminar de los riesgos radiológicos asociados a la activación de materiales y el calor residual en el módulo después de la irradiación así como un escenario de pérdida de refrigerante. Los riesgos asociados al módulo de naturaleza convencional están asociados al manejo de metales líquidos cuyas reacciones con aire o agua se asocian con emisión de aerosoles y probabilidad de fuego. De entre los riesgos nucleares destacan la generación de gases radiactivos como el tritio u otros radioisótopos volátiles como el Po-210. No se espera que el módulo suponga un impacto medioambiental asociado a posibles escapes. Sin embargo, es necesario un manejo adecuado tanto de las cápsulas experimentales como del módulo contenedor así como de las líneas de purga durante operación. Después de un día de después de la parada, tras un año de irradiación, tendremos una dosis de contacto de 7000 Sv/h en la zona experimental del contenedor, 2300 Sv/h en la cápsula y 25 Sv/h en el LiPb. El uso por lo tanto de manipulación remota está previsto para el manejo del módulo irradiado. Por último, en esta tesis se ha estudiado también las posibilidades existentes para la fabricación del módulo. De entre las técnicas propuestas, destacan la electroerosión, soldaduras por haz de electrones o por soldadura láser. Las bases para el diseño final del LBVM han sido pues establecidas en el marco de este trabajo y han sido incluidas en el diseño intermedio de IFMIF, que será desarrollado en el futuro, como parte del diseño final de la instalación IFMIF. ABSTRACT Nuclear fusion is, today, an alternative energy source to which the international community devotes a great effort. The goal is to generate 10 to 50 times more energy than the input power by means of fusion reactions that occur in deuterium (D) and tritium (T) plasma at two hundred million degrees Celsius. In the future commercial reactors it will be necessary to breed the tritium used as fuel in situ, by the reactor itself. This constitutes a step further from current experimental machines dedicated mainly to the study of the plasma physics. Therefore, tritium, in fusion reactors, will be produced in the so-called breeder blankets whose primary mission is to provide neutron shielding, produce and recover tritium and convert the neutron energy into heat. There are different concepts of breeding blankets that can be separated into two main categories: solids or liquids. The former are based on ceramics containing lithium as Li2O , Li4SiO4 , Li2TiO3 , Li2ZrO3 and Be, used as a neutron multiplier, required to achieve the required amount of tritium. The liquid concepts are based on molten salts or liquid metals as pure Li, LiPb, FLIBE or FLINABE. These blankets use, as neutron multipliers, Be or Pb (in the case of the concepts based on LiPb). Proposed structural materials comprise various options, always with low activation characteristics, as low activation ferritic-martensitic steels, vanadium alloys or even SiCf/SiC. Each concept of breeding blanket has specific challenges that will be studied in the experimental reactor ITER (International Thermonuclear Experimental Reactor). However, ITER cannot answer questions associated to material damage and the effect of neutron radiation in the different breeding blankets functions and performance. As a reference, the first wall of a fusion reactor of 4000 MW will receive about 30 dpa / year (values for Fe-56) , while values expected in ITER would be <10 dpa in its entire lifetime. Consequently, the irradiation effects on candidate materials for fusion reactors will be studied in IFMIF (International Fusion Material Irradiation Facility). This thesis fits in the framework of the bilateral agreement among Europe and Japan which is called “Broader Approach Agreement “(BA) (2007-2017) where Spain plays a key role. These projects, complementary to ITER, are mainly IFMIF and the fusion facility JT-60SA. The purpose of this thesis is the design of an irradiation module to test candidate materials for breeding blankets in IFMIF, the so-called Liquid Breeder Validation Module (LBVM). This proposal is born from the fact that this option was not considered in the conceptual design of the facility. As a first step, in order to study the feasibility of this proposal, neutronic calculations have been performed to estimate irradiation parameters in different materials foreseen for liquid breeding blankets. Various functional materials were considered: Fe (base of structural materials), SiC (candidate material for flow channel inserts, SiO2 (candidate for antipermeation coatings), CaO (candidate for insulating coatings), Al2O3 (candidate for antipermeation and insulating coatings) and AlN (candidate for insulation coating material). For each material, the most significant irradiation parameters have been calculated (dpa, H/dpa and He/dpa) in different positions of IFMIF. These values were compared to those expected in the first wall and breeding zone of a fusion reactor. For this exercise, a HCLL (Helium Cooled Lithium Lead) type was selected as it is one of the most promising options. In addition, estimated values were also compared with those obtained in a fast fission reactor since most of existing irradiations have been made in these installations. The main conclusion of this study is that the medium flux area of IFMIF offers a good irradiation environment to irradiate functional materials for liquid breeding blankets. The obtained ratios of H/dpa and He/dpa are very similar to those expected in the most irradiated areas of a fusion reactor. Moreover, with the aim of bringing the values further close, the use of a W moderator is proposed to be used only in some experimental campaigns (as obviously, the total amount of dpa decreases). The values of ratios obtained for a fission reactor, much lower than in a fusion reactor, reinforce the need of LBVM for IFMIF. Having demonstrated the suitability of IFMIF to irradiate functional materials for liquid breeding blankets, and an analysis of the main problems associated to each type of liquid breeding blanket, also presented in this thesis, three different experiments are proposed as basis for the design of the LBVM. These experiments are dedicated to the needs of a blanket HCLL type although the applicability of the module for other blankets is also discussed. Therefore, the experimental capability of the module is focused on the study of the behavior of the eutectic alloy LiPb, tritium permeation, corrosion and material compatibility. For each of the experiments proposed an experimental scheme is given explaining the different module conditions and defining the required instrumentation to control and monitor the experimental capsules. In order to carry out the proposed experiments, the LBVM is proposed, located in the medium flux area of the IFMIF hot cell, with capability of up to 16 experimental capsules. Each capsule (24-22 mm of diameter, 80 mm high) will contain the eutectic allow LiPb (up to 50 mm of capsule high) in contact with different material specimens. They will be supported inside rigs or steel pipes. Helium will be used as purge gas, to sweep the tritium generated in the eutectic and permeated through the capsule walls (continuously, during irradiation). These tubes, will be installed in a steel container providing support and cooling for the tubes and hence the inner experimental capsules. The experimental data will consist of on line monitoring signals and the analysis of purge gas by the tritium measurement station. In addition to the experimental signals, the module will produce signals having a safety function and therefore playing a major role in the operation of the module. For an adequate operation of the capsules and to control its temperature, each capsule will be equipped with an electrical heater so the module will to be connected to an electrical power supply. The technical justification behind the dimensioning of each of these parts forming the module is presented supported by tritium transport calculations, thermalhydraulic and structural analysis. One of the main conclusions of the tritium transport calculations is that the measure of the permeated tritium is perfectly achievable by commercial ionization chambers and proportional counters with sensitivity of 10-9 Bq/m3. The results are applicable to all experiments, even to low temperature capsules or to the ones using antipermeation coatings. From a safety point of view, the knowledge of the amount of tritium being swept by the purge gas is a clear indicator of certain problems that may be occurring in the module such a capsule rupture. In addition, the tritium balance in the installation should be known. Losses of purge gas permeated into the refrigerant and the hot cell itself through the container have been assessed concluding that they are negligible for normal operation. Thermal hydraulic calculations were performed in order to optimize the design of experimental capsules and LBVM to fulfill one of the main requirements of the module: to perform experiments at uniform temperatures between 300-550ºC. The necessary cooling of the module and the geometry of the capsules, rigs and testing area of the container were dimensioned. As a result of the analyses, cylindrical capsules and rigs in cylindrical compartments were selected because of their good mechanical behavior (stresses due to fluid pressure are reduced significantly with a cylindrical shape rather than prismatic) and thermal (temperature uniformity in the walls of the tubes and capsules). Fields of pressure, temperature and velocity in different critical areas of the module were obtained concluding that the proposal is feasible. It is important to mention that the use of fluid dynamic codes as ANSYS-CFX (used in this thesis) for designing experimental capsules for IFMIF is not direct. The reason for this is that, under strongly heated helium mini channels, turbulence models tend to underestimate the wall temperature because of the change of helium properties near the wall. Therefore, the different code turbulence models had to be studied in detail and validated against experimental results. ANSYS-CFX SST (Shear Stress Transport Model) for transitional turbulence model has been identified among many others as the suitable one for modeling the cooling helium and the temperature on the walls of experimental capsules. Once the geometry and the main purge and cooling parameters have been defined, the mechanical behavior of each experimental tube or rig including capsules is analyzed. Resulting stresses are compared with the maximum values recommended by applicable structural design codes such as the SDC- IC (Structural Design Criteria for ITER Components) in order to assess the degree of protection against plastic collapse. The conclusion shows that the proposal is mechanically robust. The LBVM involves the use of liquid metals, tritium and the risk associated with neutron activation. The risks related with the handling of liquid metals and tritium are studied in this thesis. In addition, the radiological risks associated with the activation of materials in the module and the residual heat after irradiation are evaluated, including a scenario of loss of coolant. Among the identified conventional risks associated with the module highlights the handling of liquid metals which reactions with water or air are accompanied by the emission of aerosols and fire probability. Regarding the nuclear risks, the generation of radioactive gases such as tritium or volatile radioisotopes such as Po-210 is the main hazard to be considered. An environmental impact associated to possible releases is not expected. Nevertheless, an appropriate handling of capsules, experimental tubes, and container including purge lines is required. After one day after shutdown and one year of irradiation, the experimental area of the module will present a contact dose rate of about 7000 Sv/h, 2300 Sv/h in the experimental capsules and 25 Sv/h in the LiPb. Therefore, the use of remote handling is envisaged for the irradiated module. Finally, the different possibilities for the module manufacturing have been studied. Among the proposed techniques highlights the electro discharge machining, brazing, electron beam welding or laser welding. The bases for the final design of the LBVM have been included in the framework of the this work and included in the intermediate design report of IFMIF which will be developed in future, as part of the IFMIF facility final design.
Resumo:
El propósito de este estudio fue la construcción y validación de un instrumento de medición de barreras a la práctica de la actividad física y deportiva por parte de las personas adultas desde la teoría ecológico social y analizar la presencia de las diferentes barreras así como las innovaciones y alternativas de conciliación a las barreras relacionadas con el empleo, el cuidado de hijos e hijas y las tareas del hogar, identificando las posibles diferencias existentes en función del género y del tipo de demanda en la población adulta de la Comunidad de Madrid. Se ha realizado un estudio cuantitativo, descriptivo y transversal en una muestra representativa de la población residente en la Comunidad de Madrid entre 30 y 64 años. El tipo de muestreo fue probabilístico, de tipo polietápico según tamaño demográfico de municipio y género, con un margen de error del ± 5,27% y un intervalo de confianza del 95,5%. El tamaño de la muestra final fue de 360 personas (50,3% mujeres, 49,7% hombres), quienes completaron un cuestionario estructurado mediante entrevista personal cara a cara en su domicilio entre octubre y diciembre de 2011, que incluía una escala de barreras específica, así como sub-cuestionarios de innovaciones y alternativas de conciliación vinculados a los tres ítems relacionados con el empleo, cuidado de hijos e hijas y hogar de la escala de barreras. La escala de barreras fue completada por las personas practicantes de actividad física y deportiva que deseaban realizar otra actividad, es decir, por la Demanda Establecida, así como por las personas no practicantes pero deseosas de hacerlo o Demanda Latente, y las personas no practicantes no interesadas en practicar o Demanda Ausente (n=246). Las personas que alcanzaron elevadas puntuaciones en los tres ítems de la escala de barreras vinculados al empleo, cuidado de hijos e hijas y hogar, completaron sub-cuestionarios específicos de innovaciones y alternativas de conciliación vinculados a estas barreras. Para el estudio métrico de los ítems y la dimesionalidad de la escala de barreras se llevaron a cabo análisis descriptivos de los ítems, análisis correlacionales y análisis factoriales exploratorios (AFE). Como resultado se obtuvo una escala de barreras constituida por 13 ítems que explicaron el 59,1% de la variabilidad total de los datos, agrupados en cuatro dimensiones denominadas: Barreras Interpersonales (2 ítems), Barreras Individuales (4 ítems), Barreras Comunidad-Institucionales (4 ítems) y Barreras Obligaciones-Tiempo (3 ítems). Los datos de la escala de barreras y los sub-cuestionarios de innovaciones y alternativas de conciliación fueron analizados con el SPSS v. 18. Para la comparación de variables cuantitativas y ordinales se utilizaron ANOVAS de dos factores (género por tipo de demanda), el tamaño del efecto para esta prueba se cuantificó mediante eta cuadrado. Los resultados se expresaron como porcentajes para las variables nominales y como medias y desviaciones típicas para las variables ordinales y cuantitativas. El nivel de riesgo se fijó en 0,05. El instrumento presentó una fiabilidad aceptable (α=0,58) en consonancia con el modelo ecológico social presentando dimensiones que explicaron los niveles de influencia de las diferentes esferas. Los resultados obtenidos permitieron avalar tanto la adecuación de las propiedades psicométricas de los ítems, así como la validez y fiabilidad de la escala de barreras para la práctica de actividad física y deportiva. Los distintos análisis realizados han aportado evidencia de la validez de una estructura de cuatro dimensiones acorde a los planteamientos teóricos previos de los modelos ecológicos sociales. En la dimensión barreras Individuales se identificaron diferencias según el tipo de demanda (F2,237=40,28; p<0,001; η2=0,25) y el género (F1,237=8,72; p<0,01; η2=0,84). En la dimensión barreras Interpersonales se identificaron diferencias de género (F1,239 =14,9; p<0,01; η2=0,06) pero no entre demandas (F2,239=2,35; p>0,05; 1-β=0,47). En la dimensión Barreras Obligaciones-Tiempo se identificaron diferencias en función del tipo de demanda (F2,239=3,88; p<0,05; η2=0,03) sin presentar diferencias entre hombres y mujeres (F1,239=1,06; p>0,05; 1-β=0,18). Por último, en la dimensión Comunidad Institucionales, se identificaron diferencias en función del tipo de demanda (F2,240=5,69; p<0,01; η2=0,045) y no hubo diferencias en función del género (F1,240=0,65; p>0,05; 1-β=0,13). Las innovaciones y alternativas de conciliación relacionadas con el empleo más valoradas fueron la de flexibilidad en los horarios de trabajo y adecuación de horarios; las más valoradas relacionadas con la barrera cuidado de hijos fueron que en la instalación deportiva se ofertaran actividades físicas conjuntas, en las en las que pudiesen participar madres e hijos y que la instalación deportiva ofreciera, en el mismo horario, actividades para ellos y sus hijos, y, por último, las más valoradas en relación con las tareas del hogar, una mayor implicación de la pareja seguida por una mayor implicación de los hijos. ABSTRACT The objectives of this study were to build and validate an instrument to measure the barriers of adult people to the practice of sport and physical activities from the perspective of the social-ecological theory, analyse the presence of the different barriers, as well as the innovations and alternatives regarding conciliation with work and the care of children and home as barriers, identifying the possible differences that exist based on gender and the type of demand of the adult population within the Community of Madrid. For this, a quantitative, descriptive and transversal study was carried out on a representative sample of the resident population of the Community of Madrid, ages ranging from 30 to 64 years old. Given that is an infinite or very large population, and working with an interval of confidence of the 95,5%, and assuming in the population variance, the worst case of p equal to q, the margin of sampling error was ± 5,27. The sample consisted of 360 people (50,3% women, 49,7% men), who completed a questionnaire during face-to-face personal interviews between October and December 2011. The questionnaire included a scale of specific barriers, as well as sub-questionnaires on the innovations and alternatives linked to the three items regarding work, the care of children and home of the barriers scale. The barriers scale was completed by people who practice physical and sport activities and wanted to do other activities, i.e. by the Established Demand; by people who do not practice these activities but would like to do so, i.e. Latent Demand; and by people who do not practice these activities and have no desire to do so, i.e. Absent Demand (n=246). The people who peaked on the three items of the barriers scale regarding work, the care of children and home, then completed specific sub-questionnaires on the innovations and alternatives for conciliation related to these barriers. The metric study of the items and the dimensionality of the barriers scale was carried out through descriptive analyses of the items, as well as correlation analyses and exploratory factor analyses (EFA). This resulted in a barriers scale composed of 13 items that explained 59,1% of the total variability of the data, grouped in four dimensions as follows: Interpersonal Barriers (2 items), Individual Barriers (4 items), Community-Institutional Barriers (4 items) and Obligations-Time Barriers (3 items). The data obtained from the barriers scale and sub-questionnaires on the innovations and alternatives for conciliation were analyzed using software SPSS v. 18. Two-way ANOVA (gender by type of demand) was used for the comparison of quantitative and ordinal variables, and the effect size for this test was quantified with eta squared. The results were expressed as percentages for nominal variables, and as means and standard deviations for quantitative and ordinal variables. The level of risk was set at 0,05. The instrument showed an acceptable reliability (α=0,58) in line with the social-ecological model, providing dimensions that explained the influence levels of the different spheres. The results obtained establish both the adaptation of the psychometric properties of the items, and the validity and reliability of the barriers scale for the practice of physical and sport activities. The different analyses have supported the validity of a four-dimensional structure consistent with the previous theoretical approaches on the social-ecological models, while showing adequate statistical indices. The differences identified in the Individual Barriers dimension were based on the type of demand (F2,237=40,28; p<0,001; η2=0,25) and gender (F1,237=8,72; p<0,01; η2=0,84). The differences identified in the Interpersonal Barriers dimension were based on gender (F1,239 =14,9; p<0,01; η2=0,06) but not on demand (F2,239=2,35; p>0,05; 1-β=0,47). The differences identified for the Obligations-Time Barriers dimension were based on the type of demand (F2,239=3,88; p<0,05; η2=0,03) and did not show differences between men and women (F1,239=1,06; p>0,05; 1-β=0,18). Finally, the differences identified for the Community-Institutional Barriers dimension were based on the type of demand (F2,240=5,69; p<0,01; η2=0,045) and provided no differences based on gender (F1,240=0,65; p>,05; 1-β=0,13). The most valued innovations and alternatives for conciliation regarding work were the adaptation and flexibility of working hours and timetables; the most valued related to the care of children were the offer of joint activities for adults and children in sport centres, as well as separate activities within the same timetable; and, finally, the most valued regarding the home was a higher degree of participation and involvement on the part of the spouse or partner, followed by a higher degree of participation and involvement on the part of the children.
Resumo:
Esta Tesis surgió ante la intensidad y verosimilitud de varias señales o “warnings” asociadas a políticas dirigidas a reducir el peso del petróleo en el sector energético, tanto por razones económicas, como geopolíticas, como ambientales. Como tal Tesis se consolidó al ir incorporando elementos novedosos pero esenciales en el mundo petrolífero, particularmente las “tecnologías habilitantes”, tanto de incidencia directa, como el “fracking” como indirecta, del cual es un gran ejemplo el Vehículo Eléctrico (puro). La Tesis se definió y estructuró para elaborar una serie de indagaciones y disquisiciones, que comportaran un conjunto de conclusiones que fueran útiles para las corporaciones energéticas. También para la comprensión de la propia evolución del sector y de sus prestaciones técnicas y económicas, de cara a dar el servicio que los usuarios finales piden. Dentro de las tareas analíticas y reflexivas de la Tesis, se acuñaron ciertos términos conceptuales para explicar más certeramente la realidad del sector, y tal es el caso del “Investment burden”, que pondera la inversión específica (€/W) requerida por una instalación, con la duración del período de construcción y los riesgos tanto tangibles como regulatorios. Junto a ello la Tesis propone una herramienta de estudio y prognosis, denominada “Market integrated energy efficiency”, especialmente aplicable a dicotomías. Tal es el caso del coche térmico, versus coche eléctrico. El objetivo es optimizar una determinada actividad energética, o la productividad total del sector. Esta Tesis propone varias innovaciones, que se pueden agrupar en dos niveles: el primero dentro del campo de la Energía, y el segundo dentro del campo de las corporaciones, y de manera especial de las corporaciones del sector hidrocarburos. A nivel corporativo, la adaptación a la nueva realidad será función directa de la capacidad de cada corporación para desarrollar y/o comprar las tecnologías que permitan mantener o aumentar cuota de mercado. Las conclusiones de la Tesis apuntan a tres opciones principalmente para un replanteamiento corporativo: - Diversificación energética - Desplazamiento geográfico - Beneficiándose de posibles nuevos nichos tecnológicos, como son: • En upstream: Recuperación estimulada de petróleo mediante uso de energías renovables • En downstream: Aditivos orientados a reducir emisiones • En gestión del cambio: Almacenamiento energético con fines operativos Algunas políticas energéticas siguen la tendencia de crecimiento cero de algunos países de la OCDE. No obstante, la realidad mundial es muy diferente a la de esos países. Por ejemplo, según diversas estimaciones (basadas en bancos de datos solventes, referenciados en la Tesis) el número de vehículos aumentará desde aproximadamente mil millones en la actualidad hasta el doble en 2035; mientras que la producción de petróleo sólo aumentará de 95 a 145 millones de barriles al día. Un aumento del 50% frente a un aumento del 100%. Esto generará un curioso desajuste, que se empezará a sentir en unos pocos años. Las empresas y corporaciones del sector hidrocarburos pueden perder el monopolio que atesoran actualmente en el sector transporte frente a todas las demás fuentes energéticas. Esa pérdida puede quedar compensada por una mejor gestión de todas sus capacidades y una participación más integrada en el mundo de la energía, buscando sinergias donde hasta ahora no había sino distanciamiento. Los productos petrolíferos pueden alimentar cualquier tipo de maquina térmica, como las turbinas Brayton, o alimentar reformadores para la producción masiva de H2 para su posterior uso en pilas combustible. El almacenamiento de productos derivados del petróleo no es ningún reto ni plantea problema alguno; y sin embargo este almacenamiento es la llave para resolver muchos problemas. Es posible que el comercio de petróleo se haga menos volátil debido a los efectos asociados al almacenamiento; pero lo que es seguro es que la eficiencia energética de los usos de ese petróleo será más elevada. La Tesis partía de ciertas amenazas sobre el futuro del petróleo, pero tras el análisis realizado se puede vislumbrar un futuro prometedor en la fusión de políticas medioambientales coercitivas y las nuevas tecnologías emergentes del actual portafolio de oportunidades técnicas. ABSTRACT This Thesis rises from the force and the credibility of a number of warning signs linked to policies aimed at reducing the role of petroleum in the energy industry due to economical, geopolitical and environmental drives. As such Thesis, it grew up based on aggregating new but essentials elements into the petroleum sector. This is the case of “enabling technologies” that have a direct impact on the petroleum industry (such as fracking), or an indirect but deep impact (such as the full electrical vehicle). The Thesis was defined and structured in such a way that could convey useful conclusions for energy corporations through a series of inquiries and treatises. In addition to this, the Thesis also aims at understating la evolution of the energy industry and its capabilities both technical and economical, towards delivering the services required by end users. Within the analytical task performed in the Thesis, new terms were coined. They depict concepts that aid at explaining the facts of the energy industry. This is the case for “Investment burden”, it weights the specific capital investment (€/W) required to build a facility with the time that takes to build it, as well as other tangible risks as those posed by regulation. In addition to this, the Thesis puts forward an application designed for reviewing and predicting: the so called “Market integrated energy efficiency”, especially well-suited for dichotomies, very appealing for the case of the thermal car versus the electric car. The aim is to optimize energy related activity; or even the overall productivity of the system. The innovations proposed in this Thesis can be classified in two tiers. Tier one, within the energy sector; and tier two, related to Energy Corporation in general, but with oil and gas corporations at heart. From a corporate level, the adaptation to new energy era will be linked with the corporation capability to develop or acquire those technologies that will yield to retaining or enhancing market share. The Thesis highlights three options for corporate evolution: - diversification within Energy - geographic displacement - profiting new technologies relevant to important niches of work for the future, as: o Upstream: enhanced oil recovery using renewable energy sources (for upstream companies in the petroleum business) o Downstream: additives for reducing combustion emissions o Management of Change: operational energy storage Some energy policies tend to follow the zero-growth of some OECD countries, but the real thing could be very different. For instance, and according to estimates the number of vehicles in use will grow from 1 billion to more than double this figure 2035; but oil production will only grow from 95 million barrel/day to 145 (a 50% rise of versus an intensification of over a 100%). Hydrocarbon Corporation can lose the monopoly they currently hold over the supply of energy to transportation. This lose can be mitigated through an enhanced used of their capabilities and a higher degree of integration in the world of energy, exploring for synergies in those places were gaps were present. Petroleum products can be used to feed any type of thermal machine, as Brayton turbines, or steam reformers to produce H2 to be exploited in fuel cells. Storing petroleum products does not present any problem, but very many problems can be solved with them. Petroleum trading will likely be less volatile because of the smoothing effects of distributed storage, and indeed the efficiency in petroleum consumption will be much higher. The Thesis kicked off with a menace on the future of petroleum. However, at the end of the analysis, a bright future can be foreseen in the merging between highly demanding environmental policies and the relevant technologies of the currently emerging technical portfolio.
Resumo:
La presente tesis doctoral, “Aprovechamiento térmico de residuos estériles de carbón para generación eléctrica mediante tecnologías de combustión y gasificación eficientes y con mínimo impacto ambiental”, desarrolla la valorización energética de los residuos del carbón, estériles de carbón, producidos durante las etapas de extracción y lavado del carbón. El sistema energético se encuentra en una encrucijada, estamos asistiendo a un cambio en el paradigma energético y, en concreto, en el sector de la generación eléctrica. Se precipita un cambio en la generación y el consumo eléctricos. Una mayor concienciación por la salud está forzando la contención y eliminación de agentes contaminantes que se generan por la utilización de combustibles fósiles de la forma en la que se viene haciendo. Aumenta la preocupación por el cambio climático y por contener en 2°C el aumento de la temperatura de la Tierra para final de este siglo, circunstancia que está impulsando el desarrollo e implantación definitiva de tecnología de control y reducción de emisiones CO2. Generar electricidad de una manera sostenible se está convirtiendo en una obligación. Esto se materializa en generar electricidad respetando el medioambiente, de una forma eficiente en la utilización de los recursos naturales y a un coste competitivo, pensando en el desarrollo de la sociedad y en el beneficio de las personas. En la actualidad, el carbón es la principal fuente de energía utilizada para generar electricidad, y su empleo presenta la forma de energía más barata para mejorar el nivel de vida de cualquier grupo y sociedad. Además, se espera que el carbón siga presente en el mix de generación eléctrica, manteniendo una significativa presencia y extrayéndose en elevadas cantidades. Pero la producción de carbón lleva asociada la generación de un residuo, estéril, que se produce durante la extracción y el lavado del mineral de carbón. Durante décadas se ha estudiado la posibilidad de utilizar el estéril y actualmente se utiliza, en un limitado porcentaje, en la construcción de carreteras, terraplenes y rellenos, y en la producción de algunos materiales de construcción. Esta tesis doctoral aborda la valorización energética del estéril, y analiza el potencial aprovechamiento del residuo para generar electricidad, en una instalación que integre tecnología disponible para minimizar el impacto medioambiental. Además, persigue aprovechar el significativo contenido en azufre que presenta el estéril para producir ácido sulfúrico (H2SO4) como subproducto de la instalación, un compuesto químico muy demandado por la industria de los fertilizantes y con multitud de aplicaciones en otros mercados. Se ha realizado el análisis de caracterización del estéril, los parámetros significativos y los valores de referencia para su empleo como combustible, encontrándose que su empleo como combustible para generar electricidad es posible. Aunque en España se lleva extrayendo carbón desde principios del siglo XVIII, se ha evaluado para un período más reciente la disponibilidad del recurso en España y la normativa existente que condiciona su aplicación en el territorio nacional. Para el período evaluado, se ha calculado que podrían estar disponibles más de 68 millones de toneladas de estéril susceptibles de ser valorizados energéticamente. Una vez realizado el análisis de la tecnología disponible y que podría considerarse para emplear el estéril como combustible, se proponen cuatro configuraciones posibles de planta, tres de ellas basadas en un proceso de combustión y una de ellas en un proceso de gasificación. Tras evaluar las cuatro configuraciones por su interés tecnológico, innovador y económico, se desarrolla el análisis conceptual de una de ellas, basada en un proceso de combustión. La instalación propuesta tiene una capacidad de 65 MW y emplea como combustible una mezcla de carbón y estéril en relación 20/80 en peso. La instalación integra tecnología para eliminar en un 99,8% el SO2 presente en el gas de combustión y en más de un 99% las partículas generadas. La instalación incorpora una unidad de producción de H2SO4, capaz de producir 18,5 t/h de producto, y otra unidad de captura para retirar un 60% del CO2 presente en la corriente de gases de combustión, produciendo 48 tCO2/h. La potencia neta de la planta es 49,7 MW. Se ha calculado el coste de inversión de la instalación, y su cálculo resulta en un coste de inversión unitario de 3.685 €/kW. ABSTRACT The present doctoral thesis, “Thermal utilisation of waste coal for electricity generation by deployment of efficient combustion and gasification technologies with minimum environmental impact”, develops an innovative waste-to-energy concept of waste coals produced during coal mining and washing. The energy system is at a dilemma, we are witnessing a shift in the energy paradigm and specifically in the field of electricity generation. A change in the generation and electrical consumption is foreseen. An increased health consciousness is forcing the containment and elimination of pollutants that are generated by the use of fossil fuels in the way that is being done. Increasing concern about climate change and to contain the rise of global temperature by 2°C by the end of this century, is promoting the development and final implementation of technology to control and reduce the CO2 emission. Electricity generation in a sustainable manner is becoming an obligation. This concept materialised in generating electricity while protecting the environment and deployment of natural resources at a competitive cost, considering the development of society and people´s benefit. Currently, coal is the main source of energy employ to generate electricity, and its use represents the most cost competitive form of energy to increase the standard of living of any group or society. Moreover, coal will keep playing a key role in the global electricity generation mix, maintaining a significant presence and being extracting in large amounts. However, coal production implies the production of waste, termed waste coal or culm in Pennsylvania anthracite extraction, produced during coal mining and coal washing activities. During the last decades, the potential use of waste coal has been studied, and currently, in a limited amount, waste coal is used in roads construction, embankments and fillings, and to produce some construction materials. This doctoral thesis evaluates the waste to energy of waste coals and assesses its potential use to generate electricity, implementing available technology to minimise the environment impact. Additionally, it pursues the significant advantage that presents sulphur content in waste coal to produce sulphuric acid (H2SO4) as a byproduct of the waste-to-energy process, a chemical compound highly demanded by the fertiliser industry and many applications in other markets. It analyses the characteristics of waste coal, and assesses the significant parameters and reference values for its use as fuel, being its fuel use for electricity generation very possible. While mining coal is taking place in Spain since the 1700s, it has been evaluated for a more recent period the waste coal available in Spain and the existing legislation that affects its application and deploy to generate electricity in the country. For the evaluation period has been calculated that may be available more than 68 million tons of waste coal that can be waste-toenergy. The potential available technology to deploy waste coal as fuel has been evaluated and assessed. After considering this, the doctoral thesis proposes four innovative alternatives of facility configuration, three of them based on a combustion process and one in a gasification process. After evaluating the four configurations for its technological, innovative and economic interest, the conceptual analysis of one of alternatives, based on a combustion process, takes place. The proposed alternative facility developed has a capacity of 65 MW, using as fuel a mixture of coal and waste coal 80/20 by weight. The facility comprises technology to remove 99.8% SO2 present in the flue gas and more than 99% of the particles. The facility includes a unit capable of producing 18.5 t/h of H2SO4, and another capture facility, removing 60% of CO2 present in the flue gas stream, producing 48 tCO2/h. The net capacity of the power station is 49.7 MW. The facility unitary cost of investment is 3,685 €/kW.
Resumo:
Hoy en día, el proceso de un proyecto sostenible persigue realizar edificios de elevadas prestaciones que son, energéticamente eficientes, saludables y económicamente viables utilizando sabiamente recursos renovables para minimizar el impacto sobre el medio ambiente reduciendo, en lo posible, la demanda de energía, lo que se ha convertido, en la última década, en una prioridad. La Directiva 2002/91/CE "Eficiencia Energética de los Edificios" (y actualizaciones posteriores) ha establecido el marco regulatorio general para el cálculo de los requerimientos energéticos mínimos. Desde esa fecha, el objetivo de cumplir con las nuevas directivas y protocolos ha conducido las políticas energéticas de los distintos países en la misma dirección, centrándose en la necesidad de aumentar la eficiencia energética en los edificios, la adopción de medidas para reducir el consumo, y el fomento de la generación de energía a través de fuentes renovables. Los edificios de energía nula o casi nula (ZEB, Zero Energy Buildings ó NZEB, Net Zero Energy Buildings) deberán convertirse en un estándar de la construcción en Europa y con el fin de equilibrar el consumo de energía, además de reducirlo al mínimo, los edificios necesariamente deberán ser autoproductores de energía. Por esta razón, la envolvente del edifico y en particular las fachadas son importantes para el logro de estos objetivos y la tecnología fotovoltaica puede tener un papel preponderante en este reto. Para promover el uso de la tecnología fotovoltaica, diferentes programas de investigación internacionales fomentan y apoyan soluciones para favorecer la integración completa de éstos sistemas como elementos arquitectónicos y constructivos, los sistemas BIPV (Building Integrated Photovoltaic), sobre todo considerando el próximo futuro hacia edificios NZEB. Se ha constatado en este estudio que todavía hay una falta de información útil disponible sobre los sistemas BIPV, a pesar de que el mercado ofrece una interesante gama de soluciones, en algunos aspectos comparables a los sistemas tradicionales de construcción. Pero por el momento, la falta estandarización y de una regulación armonizada, además de la falta de información en las hojas de datos técnicos (todavía no comparables con las mismas que están disponibles para los materiales de construcción), hacen difícil evaluar adecuadamente la conveniencia y factibilidad de utilizar los componentes BIPV como parte integrante de la envolvente del edificio. Organizaciones internacionales están trabajando para establecer las normas adecuadas y procedimientos de prueba y ensayo para comprobar la seguridad, viabilidad y fiabilidad estos sistemas. Sin embargo, hoy en día, no hay reglas específicas para la evaluación y caracterización completa de un componente fotovoltaico de integración arquitectónica de acuerdo con el Reglamento Europeo de Productos de la Construcción, CPR 305/2011. Los productos BIPV, como elementos de construcción, deben cumplir con diferentes aspectos prácticos como resistencia mecánica y la estabilidad; integridad estructural; seguridad de utilización; protección contra el clima (lluvia, nieve, viento, granizo), el fuego y el ruido, aspectos que se han convertido en requisitos esenciales, en la perspectiva de obtener productos ambientalmente sostenibles, saludables, eficientes energéticamente y económicamente asequibles. Por lo tanto, el módulo / sistema BIPV se convierte en una parte multifuncional del edificio no sólo para ser física y técnicamente "integrado", además de ser una oportunidad innovadora del diseño. Las normas IEC, de uso común en Europa para certificar módulos fotovoltaicos -IEC 61215 e IEC 61646 cualificación de diseño y homologación del tipo para módulos fotovoltaicos de uso terrestre, respectivamente para módulos fotovoltaicos de silicio cristalino y de lámina delgada- atestan únicamente la potencia del módulo fotovoltaico y dan fe de su fiabilidad por un período de tiempo definido, certificando una disminución de potencia dentro de unos límites. Existe también un estándar, en parte en desarrollo, el IEC 61853 (“Ensayos de rendimiento de módulos fotovoltaicos y evaluación energética") cuyo objetivo es la búsqueda de procedimientos y metodologías de prueba apropiados para calcular el rendimiento energético de los módulos fotovoltaicos en diferentes condiciones climáticas. Sin embargo, no existen ensayos normalizados en las condiciones específicas de la instalación (p. ej. sistemas BIPV de fachada). Eso significa que es imposible conocer las efectivas prestaciones de estos sistemas y las condiciones ambientales que se generan en el interior del edificio. La potencia nominal de pico Wp, de un módulo fotovoltaico identifica la máxima potencia eléctrica que éste puede generar bajo condiciones estándares de medida (STC: irradición 1000 W/m2, 25 °C de temperatura del módulo y distribución espectral, AM 1,5) caracterizando eléctricamente el módulo PV en condiciones específicas con el fin de poder comparar los diferentes módulos y tecnologías. El vatio pico (Wp por su abreviatura en inglés) es la medida de la potencia nominal del módulo PV y no es suficiente para evaluar el comportamiento y producción del panel en términos de vatios hora en las diferentes condiciones de operación, y tampoco permite predecir con convicción la eficiencia y el comportamiento energético de un determinado módulo en condiciones ambientales y de instalación reales. Un adecuado elemento de integración arquitectónica de fachada, por ejemplo, debería tener en cuenta propiedades térmicas y de aislamiento, factores como la transparencia para permitir ganancias solares o un buen control solar si es necesario, aspectos vinculados y dependientes en gran medida de las condiciones climáticas y del nivel de confort requerido en el edificio, lo que implica una necesidad de adaptación a cada contexto específico para obtener el mejor resultado. Sin embargo, la influencia en condiciones reales de operación de las diferentes soluciones fotovoltaicas de integración, en el consumo de energía del edificio no es fácil de evaluar. Los aspectos térmicos del interior del ambiente o de iluminación, al utilizar módulos BIPV semitransparentes por ejemplo, son aún desconocidos. Como se dijo antes, la utilización de componentes de integración arquitectónica fotovoltaicos y el uso de energía renovable ya es un hecho para producir energía limpia, pero también sería importante conocer su posible contribución para mejorar el confort y la salud de los ocupantes del edificio. Aspectos como el confort, la protección o transmisión de luz natural, el aislamiento térmico, el consumo energético o la generación de energía son aspectos que suelen considerarse independientemente, mientras que todos juntos contribuyen, sin embargo, al balance energético global del edificio. Además, la necesidad de dar prioridad a una orientación determinada del edificio, para alcanzar el mayor beneficio de la producción de energía eléctrica o térmica, en el caso de sistemas activos y pasivos, respectivamente, podría hacer estos últimos incompatibles, pero no necesariamente. Se necesita un enfoque holístico que permita arquitectos e ingenieros implementar sistemas tecnológicos que trabajen en sinergia. Se ha planteado por ello un nuevo concepto: "C-BIPV, elemento fotovoltaico consciente integrado", esto significa necesariamente conocer los efectos positivos o negativos (en términos de confort y de energía) en condiciones reales de funcionamiento e instalación. Propósito de la tesis, método y resultados Los sistemas fotovoltaicos integrados en fachada son a menudo soluciones de vidrio fácilmente integrables, ya que por lo general están hechos a medida. Estos componentes BIPV semitransparentes, integrados en el cerramiento proporcionan iluminación natural y también sombra, lo que evita el sobrecalentamiento en los momentos de excesivo calor, aunque como componente estático, asimismo evitan las posibles contribuciones pasivas de ganancias solares en los meses fríos. Además, la temperatura del módulo varía considerablemente en ciertas circunstancias influenciada por la tecnología fotovoltaica instalada, la radiación solar, el sistema de montaje, la tipología de instalación, falta de ventilación, etc. Este factor, puede suponer un aumento adicional de la carga térmica en el edificio, altamente variable y difícil de cuantificar. Se necesitan, en relación con esto, más conocimientos sobre el confort ambiental interior en los edificios que utilizan tecnologías fotovoltaicas integradas, para abrir de ese modo, una nueva perspectiva de la investigación. Con este fin, se ha diseñado, proyectado y construido una instalación de pruebas al aire libre, el BIPV Env-lab "BIPV Test Laboratory", para la caracterización integral de los diferentes módulos semitransparentes BIPV. Se han definido también el método y el protocolo de ensayos de caracterización en el contexto de un edificio y en condiciones climáticas y de funcionamiento reales. Esto ha sido posible una vez evaluado el estado de la técnica y la investigación, los aspectos que influyen en la integración arquitectónica y los diferentes tipos de integración, después de haber examinado los métodos de ensayo para los componentes de construcción y fotovoltaicos, en condiciones de operación utilizadas hasta ahora. El laboratorio de pruebas experimentales, que consiste en dos habitaciones idénticas a escala real, 1:1, ha sido equipado con sensores y todos los sistemas de monitorización gracias a los cuales es posible obtener datos fiables para evaluar las prestaciones térmicas, de iluminación y el rendimiento eléctrico de los módulos fotovoltaicos. Este laboratorio permite el estudio de tres diferentes aspectos que influencian el confort y consumo de energía del edificio: el confort térmico, lumínico, y el rendimiento energético global (demanda/producción de energía) de los módulos BIPV. Conociendo el balance de energía para cada tecnología solar fotovoltaica experimentada, es posible determinar cuál funciona mejor en cada caso específico. Se ha propuesto una metodología teórica para la evaluación de estos parámetros, definidos en esta tesis como índices o indicadores que consideran cuestiones relacionados con el bienestar, la energía y el rendimiento energético global de los componentes BIPV. Esta metodología considera y tiene en cuenta las normas reglamentarias y estándares existentes para cada aspecto, relacionándolos entre sí. Diferentes módulos BIPV de doble vidrio aislante, semitransparentes, representativos de diferentes tecnologías fotovoltaicas (tecnología de silicio monocristalino, m-Si; de capa fina en silicio amorfo unión simple, a-Si y de capa fina en diseleniuro de cobre e indio, CIS) fueron seleccionados para llevar a cabo una serie de pruebas experimentales al objeto de demostrar la validez del método de caracterización propuesto. Como resultado final, se ha desarrollado y generado el Diagrama Caracterización Integral DCI, un sistema gráfico y visual para representar los resultados y gestionar la información, una herramienta operativa útil para la toma de decisiones con respecto a las instalaciones fotovoltaicas. Este diagrama muestra todos los conceptos y parámetros estudiados en relación con los demás y ofrece visualmente toda la información cualitativa y cuantitativa sobre la eficiencia energética de los componentes BIPV, por caracterizarlos de manera integral. ABSTRACT A sustainable design process today is intended to produce high-performance buildings that are energy-efficient, healthy and economically feasible, by wisely using renewable resources to minimize the impact on the environment and to reduce, as much as possible, the energy demand. In the last decade, the reduction of energy needs in buildings has become a top priority. The Directive 2002/91/EC “Energy Performance of Buildings” (and its subsequent updates) established a general regulatory framework’s methodology for calculation of minimum energy requirements. Since then, the aim of fulfilling new directives and protocols has led the energy policies in several countries in a similar direction that is, focusing on the need of increasing energy efficiency in buildings, taking measures to reduce energy consumption, and fostering the use of renewable sources. Zero Energy Buildings or Net Zero Energy Buildings will become a standard in the European building industry and in order to balance energy consumption, buildings, in addition to reduce the end-use consumption should necessarily become selfenergy producers. For this reason, the façade system plays an important role for achieving these energy and environmental goals and Photovoltaic can play a leading role in this challenge. To promote the use of photovoltaic technology in buildings, international research programs encourage and support solutions, which favors the complete integration of photovoltaic devices as an architectural element, the so-called BIPV (Building Integrated Photovoltaic), furthermore facing to next future towards net-zero energy buildings. Therefore, the BIPV module/system becomes a multifunctional building layer, not only physically and functionally “integrated” in the building, but also used as an innovative chance for the building envelope design. It has been found in this study that there is still a lack of useful information about BIPV for architects and designers even though the market is providing more and more interesting solutions, sometimes comparable to the existing traditional building systems. However at the moment, the lack of an harmonized regulation and standardization besides to the non-accuracy in the technical BIPV datasheets (not yet comparable with the same ones available for building materials), makes difficult for a designer to properly evaluate the fesibility of this BIPV components when used as a technological system of the building skin. International organizations are working to establish the most suitable standards and test procedures to check the safety, feasibility and reliability of BIPV systems. Anyway, nowadays, there are no specific rules for a complete characterization and evaluation of a BIPV component according to the European Construction Product Regulation, CPR 305/2011. BIPV products, as building components, must comply with different practical aspects such as mechanical resistance and stability; structural integrity; safety in use; protection against weather (rain, snow, wind, hail); fire and noise: aspects that have become essential requirements in the perspective of more and more environmentally sustainable, healthy, energy efficient and economically affordable products. IEC standards, commonly used in Europe to certify PV modules (IEC 61215 and IEC 61646 respectively crystalline and thin-film ‘Terrestrial PV Modules-Design Qualification and Type Approval’), attest the feasibility and reliability of PV modules for a defined period of time with a limited power decrease. There is also a standard (IEC 61853, ‘Performance Testing and Energy Rating of Terrestrial PV Modules’) still under preparation, whose aim is finding appropriate test procedures and methodologies to calculate the energy yield of PV modules under different climate conditions. Furthermore, the lack of tests in specific conditions of installation (e.g. façade BIPV devices) means that it is difficult knowing the exact effective performance of these systems and the environmental conditions in which the building will operate. The nominal PV power at Standard Test Conditions, STC (1.000 W/m2, 25 °C temperature and AM 1.5) is usually measured in indoor laboratories, and it characterizes the PV module at specific conditions in order to be able to compare different modules and technologies on a first step. The “Watt-peak” is not enough to evaluate the panel performance in terms of Watt-hours of various modules under different operating conditions, and it gives no assurance of being able to predict the energy performance of a certain module at given environmental conditions. A proper BIPV element for façade should take into account thermal and insulation properties, factors as transparency to allow solar gains if possible or a good solar control if necessary, aspects that are linked and high dependent on climate conditions and on the level of comfort to be reached. However, the influence of different façade integrated photovoltaic solutions on the building energy consumption is not easy to assess under real operating conditions. Thermal aspects, indoor temperatures or luminance level that can be expected using building integrated PV (BIPV) modules are not well known. As said before, integrated photovoltaic BIPV components and the use of renewable energy is already a standard for green energy production, but would also be important to know the possible contribution to improve the comfort and health of building occupants. Comfort, light transmission or protection, thermal insulation or thermal/electricity power production are aspects that are usually considered alone, while all together contribute to the building global energy balance. Besides, the need to prioritize a particular building envelope orientation to harvest the most benefit from the electrical or thermal energy production, in the case of active and passive systems respectively might be not compatible, but also not necessary. A holistic approach is needed to enable architects and engineers implementing technological systems working in synergy. A new concept have been suggested: “C-BIPV, conscious integrated BIPV”. BIPV systems have to be “consciously integrated” which means that it is essential to know the positive and negative effects in terms of comfort and energy under real operating conditions. Purpose of the work, method and results The façade-integrated photovoltaic systems are often glass solutions easily integrable, as they usually are custommade. These BIPV semi-transparent components integrated as a window element provides natural lighting and shade that prevents overheating at times of excessive heat, but as static component, likewise avoid the possible solar gains contributions in the cold months. In addition, the temperature of the module varies considerably in certain circumstances influenced by the PV technology installed, solar radiation, mounting system, lack of ventilation, etc. This factor may result in additional heat input in the building highly variable and difficult to quantify. In addition, further insights into the indoor environmental comfort in buildings using integrated photovoltaic technologies are needed to open up thereby, a new research perspective. This research aims to study their behaviour through a series of experiments in order to define the real influence on comfort aspects and on global energy building consumption, as well as, electrical and thermal characteristics of these devices. The final objective was to analyze a whole set of issues that influence the global energy consumption/production in a building using BIPV modules by quantifying the global energy balance and the BIPV system real performances. Other qualitative issues to be studied were comfort aspect (thermal and lighting aspects) and the electrical behaviour of different BIPV technologies for vertical integration, aspects that influence both energy consumption and electricity production. Thus, it will be possible to obtain a comprehensive global characterization of BIPV systems. A specific design of an outdoor test facility, the BIPV Env-lab “BIPV Test Laboratory”, for the integral characterization of different BIPV semi-transparent modules was developed and built. The method and test protocol for the BIPV characterization was also defined in a real building context and weather conditions. This has been possible once assessed the state of the art and research, the aspects that influence the architectural integration and the different possibilities and types of integration for PV and after having examined the test methods for building and photovoltaic components, under operation conditions heretofore used. The test laboratory that consists in two equivalent test rooms (1:1) has a monitoring system in which reliable data of thermal, daylighting and electrical performances can be obtained for the evaluation of PV modules. The experimental set-up facility (testing room) allows studying three different aspects that affect building energy consumption and comfort issues: the thermal indoor comfort, the lighting comfort and the energy performance of BIPV modules tested under real environmental conditions. Knowing the energy balance for each experimented solar technology, it is possible to determine which one performs best. A theoretical methodology has been proposed for evaluating these parameters, as defined in this thesis as indices or indicators, which regard comfort issues, energy and the overall performance of BIPV components. This methodology considers the existing regulatory standards for each aspect, relating them to one another. A set of insulated glass BIPV modules see-through and light-through, representative of different PV technologies (mono-crystalline silicon technology, mc-Si, amorphous silicon thin film single junction, a-Si and copper indium selenide thin film technology CIS) were selected for a series of experimental tests in order to demonstrate the validity of the proposed characterization method. As result, it has been developed and generated the ICD Integral Characterization Diagram, a graphic and visual system to represent the results and manage information, a useful operational tool for decision-making regarding to photovoltaic installations. This diagram shows all concepts and parameters studied in relation to each other and visually provides access to all the results obtained during the experimental phase to make available all the qualitative and quantitative information on the energy performance of the BIPV components by characterizing them in a comprehensive way.
Resumo:
Esta tesis tiene como objetivo actualizar los criterios de proyecto de los buques cableros, analizando las nuevas tendencias en el uso de este tipo de barcos. Se estudian las operaciones realizadas para la instalación y reparación de los cables submarinos. Del estudio de estas técnicas se extraen unos requisitos para el proyecto. Se comprueba cómo han evolucionado a lo largo de la historia las características de los buques cableros. Comparando esta evolución con las características necesarias extraídas del estudio de las operaciones de cables, se concluyen los aspectos fundamentales a tener en cuenta por los ingenieros navales en el proyecto de estos buques cableros. Se presentan: datos concretos para el dimensionamiento, equipamiento, distribución y disposición general; soluciones utilizadas y desarrolladas por el autor para la configuración del manejo del cable de tiro del arado submarino; y se propone una disposición general más acorde con las necesidades modernas de uso de estos barcos. Todo está basado en la experiencia del autor de más de 20 años operando buques cableros de la empresa Transoceanic Cableship Company, Ltd.1 y TE Conectivity SubCom SL (antes TEMASA2), ambas filiales de la empresa norteamericana de telecomunicaciones submarinas TE SubCom, por ello su utilidad práctica queda garantizada. ABSTRACT The goal of this thesis is to update the design criteria applied to cableships by analyzing the new trends in the use of this type of ships. The methods of procedure for the installation and repair of fiber optic submarine cables are also explored. The study of these techniques draws conclusions regarding the design requirements. The evolution of the characteristics of the cableships throughout the history is also approached. The primary aspect that has to be taken into account by the naval architect is also stated, when comparing the evolution and the necessary requirements extracted from the study of cable operations. Specific data for dimensioning, outfitting, distribution and arrangement are presented, as well as solutions found and developed by the author for the tow wire handling configuration. Furthermore, a new general arrangement more in line with the modern needs for the purpose of these ships is suggested. Everything is based in the author´s experience of over twenty years in the operation of cableships owned by Transoceanic Cableship Company Ltd. and TE Connectivity SubCom SL (formerly called TEMASA), both subsidiaries of the US based company TE SubCom. For this reason, the practical value of the study is guaranteed.
Resumo:
Este proyecto tiene como objetivo principal dar un servicio de calidad a todos los usuarios de la instalación Severiano Ballesteros (Getafe), gestionada por Serviocio S.L., debido a la competencia de otras piscinas de la zona. Este trabajo se ha dividido en dos partes bien diferenciadas: La primera, de carácter teórico (revisión bibliográfica), que trata de orientar al monitor o profesor de natación cómo enfocar las clases, basándose en la técnica y metodología (siempre enfocada a la natación) que nos aportan numerosos autores. Y conocer en todo momento los ámbitos de aplicación de este proyecto sabiendo actuar en cada situación. La segunda parte, muestra el diseño de una programación de tres meses de trabajo, tanto de los alumnos como del profesor, para aprender o perfeccionar el estilo de crol, explicando detalladamente el método que se ha establecido y su posterior puesta en práctica con un grupo de trabajo estableciendo una evaluación y conocimiento de resultados para apoyar firmemente el aprendizaje de los alumnos. Por último, se ha establecido un apartado de anexos donde se pueden observar los vídeos que se han grabado a cada uno de los alumnos y alguna información adicional que sirva de complemento al proyecto y de ayuda para el lector.
Resumo:
La construcción en la actualidad de nuevas fuentes para el uso de haces de neutrones así como los programas de renovación en curso en algunas de las instalaciones experimentales existentes han evidenciado la necesidad urgente de desarrollar la tecnología empleada para la construcción de guías de neutrones con objeto de hacerlas mas eficientes y duraderas. Esto viene motivado por el hecho de que varias instalaciones de experimentación con haces de neutrones han reportado un número de incidentes mecánicos con tales guías, lo que hace urgente el progresar en nuestro conocimiento de los susbtratos vítreos sobre los cuales se depositan los espejos que permiten la reflexión total de los neutrones y como aquellos se degradan con la radiación. La presente tesis se inscribe en un acuerdo de colaboración establecido entre el Institut Max von Laue - Paul Langevin (ILL) de Grenoble y el Consorcio ESS-Bilbao con objeto de mejorar el rendimiento y sostenibilidad de los sistemas futuros de guiado de neutrones. El caso de la Fuente Europea de Espalación en construcción en Lund sirve como ejemplo ya que se contempla la instalación de guías de neutrones de más de 100 metros en algunos de los instrumentos. Por otro lado, instalaciones como el ILL prevén también dentro del programa Endurance de rejuvenecimiento la reconstrucción de varias líneas de transporte de haz. Para el presente estudio se seleccionaron cuatro tipos de vidrios borosilicatados que fueron el Borofloat, N-ZK7, N-BK7 y SBSL7. Los tres primeros son bien conocidos por los especialistas en instrumentación neutrónica ya que se han empleado en la construcción de varias instalaciones mientras que el último es un candidato potencial en la fabricación de substratos para espejos neutrónicos en un futuro. Los cuatro vidrios tiene un contenido en óxido de Boro muy similar, approximadamente un 10 mol.%. Tal hecho que obedece a las regulaciones para la fabricación de estos dispositivos hace que tales substratos operen como protección radiológica absorbiendo los neutrones transmitidos a través del espejo de neutrones. Como contrapartida a tal beneficio, la reacción de captura 10B(n,_)7Li puede degradar el substrato vítreo debido a los 2.5 MeV de energía cinética depositados por la partícula _ y los núcleos en retroceso y de hecho la fragilidad de tales vidrios bajo radiación ha sido atribuida desde hace ya tiempo a los efectos de esta reacción. La metodología empleada en esta tesis se ha centrado en el estudio de la estructura de estos vidrios borosilicatados y como esta se comporta bajo condiciones de radiación. Los materiales en cuestión presentan estructuras que dependen de su composición química y en particular del ratio entre formadores y modificadores de la red iono-covalente. Para ello se han empleado un conjunto de técnicas de caracterización tanto macro- como microscópicas tales como estudios de dureza, TEM, Raman, SANS etc. que se han empleado también para determinar el comportamiento de estos materiales bajo radiación. En particular, algunas propiedades macroscópicas relacionadas con la resistencia de estos vidrios como elementos estructurales de las guías de neutrones han sido estudiadas así como también los cambios en la estructura vítrea consecuencia de la radiación. Para este propósito se ha diseñado y fabricado por el ILL un aparato para irradiación de muestras con neutrones térmicos en el reactor del ILL que permite controlar la temperatura alcanzada por la muestra a menos de 100 °C. Tal equipo en comparación con otros ya existences permite en cuestión de dias acumular las dosis recibidas por una guía en operación a lo largo de varios años. El uso conjunto de varias técnicas de caracterización ha llevado a revelar que los vidrios aqui estudiados son significativamente diferentes en cuanto a su estructura y que tales diferencias afectan a sus propiedades macroscópicas asi como a su comportamiento bajo radiación. Tal resultado ha sido sorprendente ya que, como se ha mencionado antes, algunos de estos vidrios eran bien conocidos por los fabricantes de guías de neutrones y hasta el momento eran considerados prácticamente similares debido a su contenido comparable en óxido de Boro. Sin embargo, los materiales N-BK7 and S-BSL7 muetran gran homogeneidad a todas las escalas de longitud, y más específicamente, a escalas nanométricas las subredes de Sílice y óxido de Boro se mezclan dando logar a estructuras locales que recuerdan a la del cristal de Reedmergnerita. Por el contrario, N-ZK7 y Borofloat muestran dominios separados ricos en Sílice o Boro. Como era de esperar, las importantes diferencias arriba mencionadas se traducen en comportamientos dispares de estos materiales bajo un haz de neutrones térmicos. Los resultados muestran que el N-BK7 y el S-BSL7 son los más estables bajo radiación, lo que macroscópicamente hace que estos materiales muestren un comportamiento similar expandiéndose lentamente en función de la dosis recibida. Por el contario, los otros dos materiales muestran un comportamiento mucho más reactivo, que hace que inicialmente se compacten con la dosis recibida lo que hace que las redes de Silicio y Boro se mezclen resultando en un incremento en densidad hasta alcanzar un valor límite, seguido por un proceso de expansión lenta que resulta comparable al observado para N-BK7 y SBSL7. Estos resultados nos han permitido explicar el origen de las notorias diferencias observadas en cuanto a las dosis límite a partir de las cuales estos materiales desarrollan procesos de fragmentación en superficie. ABSTRACT The building of new experimental neutron beam facilities as well as the renewal programmes under development at some of the already existing installations have pinpointed the urgent need to develop the neutron guide technology in order to make such neutron transport devices more efficient and durable. In fact, a number of mechanical failures of neutron guides have been reported by several research centres. It is therefore important to understand the behaviour of the glass substrates on top of which the neutron optics mirrors are deposited and how these materials degrade under radiation conditions. The case of the European Spallation Source (ESS) at present under construction at Lund is a good example. It previews the deployment of neutron guides having more than 100 metres of length for most of the instruments. Also, the future renovation programme of the ILL, called Endurance, foresees the refurbishment of several beam lines. This Ph.D. thesis was the result of a collaboration agreement between the ILL and ESS-Bilbao aiming to improve the performance and sustainability of future neutron delivery systems. Four different industrially produced alkali-borosilicate glasses were selected for this study: Borofloat, N-ZK7, N-BK7 and SBSL7. The first three are well known within the neutron instrumentation community as they have already been used in several installations whereas the last one is at present considered as a candidate for making future mirror substrates. All four glasses have a comparable content of boron oxide of about 10 mol.%. The presence of such a strong neutron absorption element is in fact a mandatory component for the manufacturing of neutron guides because it provides a radiological shielding for the environment. This benefit is however somewhat counterbalanced since the resulting 10B(n,_)7Li reactions degrade the glass due to the deposited energy of 2.5 MeV by the _ particle and the recoil nuclei. In fact, the brittleness of some of these materials has been ascribed to this reaction. The methodology employed by this study consisted in understanding the general structure of borosilicates and how they behave under irradiation. Such materials have a microscopic structure strongly dependent upon their chemical content and particularly on the ratios between network formers and modifiers. The materials have been characterized by a suite of macroscopic and structural techniques such as hardness, TEM, Raman, SANS, etc. and their behaviour under irradiation was analysed. Some macroscopic properties related to their resistance when used as guide structural elements were monitored. Also, changes in the vitreous structure due to radiation were observed by means of several experimental tools. For such a purpose, an irradiation apparatus has been designed and manufactured to enable irradiation with thermal neutrons within the ILL reactor while keeping the samples below 100 °C. The main advantage of this equipment if compared to others previously available was that it allowed to reach in just some days an equivalent neutron dose to that accumulated by guides after several years of use. The concurrent use of complementary characterization techniques lead to the discovery that the studied glasses were deeply different in terms of their glass network. This had a strong impact on their macroscopic properties and their behaviour under irradiation. This result was a surprise since, as stated above, some of these materials were well known by the neutron guide manufacturers, and were considered to be almost equivalent because of their similar boron oxide content. The N-BK7 and S-BSL7 materials appear to be fairly homogeneous glasses at different length scales. More specifically, at nanometre scales, silicon and boron oxide units seem to mix and generate larger structures somewhat resembling crystalline Reedmergnerite. In contrast, N-ZK7 and Borofloat are characterized by either silicon or boron rich domains. As one could expect, these drastic differences lead to their behaviour under thermal neutron flux. The results show that N-BK7 and S-BSL7 are structurally the most stable under radiation. Macroscopically, such stability results in the fact that these two materials show very slow swelling as a function or radiation dose. In contrast, the two other glasses are much more reactive. The whole glass structure compacts upon radiation. Specifically, the silica network, and the boron units tend to blend leading to an increase in density up to some saturation, followed by a very slow expansion which comes to be of the same order than that shown by N-BK7 and S-BSL7. Such findings allowed us to explain the drastic differences in the radiation limits for macroscopic surface splintering for these materials when they are used in neutron guides.
Resumo:
Históricamente la estrategia de localización de la infraestructura religiosa católica en Chile ha estado condicionada por intenciones destinadas a la captación y tutela de feligreses, proceso desarrollado a través de intervenciones que han generado externalidades difíciles de anticipar y posibles de visualizar en un marco temporal mayor. En este contexto la producción e instalación de los templos católicos en distintos lugares de la ciudad condicionaron los territorios y marcaron presencia en su afán por colonizar y mantener el dominio, mecanismo propio de la institución religiosa que se adaptó al medio y a las circunstancias político social para cumplir su misión y mantener el poder. En esta investigación se buscó identificar desde las edificaciones destinadas al culto, la relación escalar entre localización, modo de instalación y morfología que incluye la forma y técnica de construcción, reconociendo la manera cómo modifican los entornos, el efecto que provocan y las expectativas que abren a nuevas intervenciones. El escenario escogido para realizar el estudio correspondió a un período de la historia de la ciudad de Santiago de Chile no documentado en que las circunstancias políticas, económicas, sociales y culturales contribuyeron a que el modo de disposición de las edificaciones de culto condicionaron el desarrollo urbano y orientaron el crecimiento de la ciudad. El período en que se desarrolló el estudio correspondió a la época de mayor riqueza material y cultural de la historia del país y estuvo modelada por las intenciones y planes de desarrollo tendientes a consolidar lo que se ha denominado el modelo Republicano. Escenario en que el espacio público cobró interés y se transformó en el motor de los cambios e indicador de la escala de la ciudad, estableciendo las condiciones para que las distintas corrientes europeas se manifestaran en el hacer arquitectónico cambiando la imagen original de la ciudad colonial. Este proceso que ocurrió sobre la estructura existente, densificó la manzana a través de la subdivisión predial, que complementado con los avances tecnológicos permitieron mayores alturas de edificación, situación que dio origen a nuevas concepciones espaciales, posibles de desarrollar con los recursos materiales, intelectuales y técnicos disponibles. El estudio se centró en la centuria 1850-1950 analizando la forma como la infraestructura religiosa Católica se localizó en el tejido urbano adoptando distintas tipologías edilicias, en una época caracterizada por el eclecticismo arquitectónico. Específicamente se estudiaron las edificaciones que utilizaron reminiscencias góticas, identificando los casos más significativos, estableciendo el contexto en que se originaron e indagando en la significación que tuvieron por la función que cumplieron, considerando emplazamiento y conexión con el entorno construido, conformación, dimensiones, destino y patrocinios. El área de estudio se fundamentó por la concentración de construcciones con la tendencia historicista, producciones que en el corto y mediano plazo orientaron las transformaciones de la ciudad y por la presencia que conservan hasta estos días. Se observó la incidencia de la acción de la Iglesia Católica en las políticas de Estado, orientando las decisiones de planificación y ocupación del territorio, condicionando la localización de los templos a fin de conseguir las mayores coberturas de la población y el mayor rendimiento de las inversiones. En el contexto latinoamericano la construcción de iglesias, templos y catedrales con reminiscencias góticas fue una constante que caracterizó al último cuarto del siglo XIX y las tres primeras décadas del siglo XX. El estudio permitió conocer en términos cuantitativos y cualitativos la producción, destacando la morfología y materialidad caracterizada por la adopción de estrategias contemporáneas estructuralmente exigentes. Se observó la utilización de la arquitectura como un medio de acercamiento a la población, capaz de transformar a los edificios en símbolos barriales, que facilitaron la generación de identidad, al convertirse en los referentes materiales que se destacan, que se recuerdan y que asumen la representatividad de barrios, permaneciendo en el tiempo y convirtiéndose en íconos asociados a la cultura local. En síntesis, la instalación de las infraestructuras religiosas en la ciudad de Santiago fue consecuencia de un modo de producción, que entregó lugares de encuentro y símbolos para la ciudad, a través de la localización de los edificios que buscaron ocupar áreas visibles, relevantes y convocantes, lo que consiguieron mediante la instalación geográfica, central y equidistante de conglomerados residenciales consolidados o en vías de desarrollo, como también a través de edificaciones monumentales y siempre destacadas respecto de su entorno, lo que marcó exclusividad y dominio. La elección de tipos arquitectónicos fue coyuntural a los tiempos e inspirada en intelectuales y profesionales mayoritariamente foráneos que aportaron conocimientos y experiencia para auspiciar edificaciones que fueron reconocidas como señeras y precursoras de la época. La intensidad en el uso de los recursos que demandaron las exigentes estructuras obligó a la iglesia católica a establecer estrategias de financiación destinadas a suplir la falta de recursos provenientes del Estado. Para lo cual convocaron a distintos actores los que participaron desde sus fronteras y en función de sus intereses cubriendo desde el altruismo hasta la rentabilización de su patrimonio. La organización iglesia católica se comporta de la misma manera que cualquier otra organización: busca expandirse, concentrar, controlar y administrar. Busca codificar todo su entorno (Raffestin, 2011), busca trascender y materialmente lo logra desde sus construcciones. ABSTRACT Historically the location strategies of the catholic religious infrastructure in Chile has been conditioned by intentions aimed at attracting and guardianship of parishioners, process developed through interventions that have generated externalities difficult to anticipate and possible to visualize in a in a major temporary frame. In this context, the production and installation of the catholic churches in different places in the city determined the territories and marked presence in their quest to colonize and maintain domain, mechanism of the religious institution that was adapted to the environment and in the political and social circumstances to fulfill its mission and maintain power. This research sought to identify from the buildings intended for worship in a multi-scale relationship between location, the placement mode, morphology and shape and construction technique and the effect caused by them, the way how they alter the environments and the expectations that are open to new interventions. The chosen scenario for the study corresponded to a not documented period in the history of the city of Santiago de Chile in which political, economic, social and cultural circumstances contributed to the form of disposition of the buildings of worship that determined the urban development and guided the growth of the city. The study period was the epoch of largest material and cultural wealth of Chile history and it was modeled by the intentions and development plans tending to consolidate what has been named the Republican ideal. Scenario in which public space gained interest and became the engine of change and indicator of the scale of the city, establishing the conditions for the various European trends manifested themselves in transforming the original image of the colonial city. This process that took place on the existing structure, produced a higher density of the original blocks through the predial compartimentation, which supplemented with technological advances enabled greater building heights, a situation that gave rise to new spatial conceptions, possible of developing with the material resources, intellectuals and technicians available at the moment. The study focused on the century 1850-1950 by analyzing how the Catholic religious infrastructure was located in the urban fabric by adopting different typologies locality, in an epoch characterised by architectural eclecticism. Specifica lly, it is studied the buildings that used gothic reminiscences, identifying the most significant cases, establishing the context in which they originated and inquiring about the significance that they had for the role it played, considering location and connection to the built environment, shaping, dimensions, destination, and sponsorships. The study area was established by the concentration of buildings with this historicist trend, productions that in the short and medium term guided the transformation of the city and the presence that keeps up to these days. It was noted the incidence of the of the Catholic Church actions in guiding State policies, planning decisions and occupation of the territory, as well as conditioning the location of the temples in order to achieve greater coverage of the population and the greatest return on investment. In the context of Latin America the construction of churches, temples and cathedrals with reminiscences gothic was a constant that characterized the last quarter of the nineteenth century and the first three decades of the twentieth century. The study allowed to know in quantitative and qualitative terms the production of the period, highlighting the morphology and materiality characterized by contemporary and structurally challenging strategies. It was noted the use of architecture as a means of approaching to the population, able to transform buildings into neighborhood symbols, which facilitated the production of identity, to become the reference materials that stand out, that will be remembered and that assume the representativeness of neighborhoods, remaining in the time and becoming icons associated with the local culture. In synthesis, the installation of religious infrastructure in the city of Santiago was result of a mode of production, that provided meeting places and symbols for the city, through the location of buildings that sought to occupy visible, relevant and summoning areas, what they obtained by means of the geographical, central and equidistant installation of consolidated residential conglomerates cluster or about to development, as also through always outstanding and monumental buildings with respect to its surroundings, which marked uniqueness and domain. The choice of architectural types was related to the time and inspired by intellectuals and professionals mostly outsiders who contributed with expertise and experience to sponsor buildings were recognized as outstanding and precursor of the time. The intensity of use of the resources that requested the demanding structures forced to the Catholic church to establish funding strategies designed to compensate for the lack of funds from the State. For which convened to different actors who participated from their borders and depending on their interests covering from the altruism up to the rentabilización of its patrimony. The Catholic Church organization behaves the same way as any other organization: seeks to expand, focus, control and manage. Looking for coding the entire environment (Raffestin, 2011), seeks to transcend and succeeds materially from its building.