98 resultados para Generation Y -- Employment.


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El modelo económico actual basado en el consumo y en la búsqueda permanente de una mayor calidad de vida, unido a una población mundial en aumento, contribuye a incrementar la demanda de servicios energéticos para cubrir las necesidades de energía de las personas y las industrias. Desde finales del siglo XIX la energía se ha generado fundamentalmente a partir de combustibles fósiles (carbón, petróleo y gas), convertidos en el suministro energético predominante mundialmente. Las emisiones de gases de efecto invernadero que genera la prestación de servicios energéticos han contribuido considerablemente al aumento histórico de las concentraciones de esos gases en la atmósfera, hasta el punto de que el consumo de combustibles fósiles es responsable de la mayoría de las emisiones antropogénicas (IPCC, 2012). Existen diversas opciones para disminuir las emisiones de gases de efecto invernadero del sector energético y con ello contribuir a mitigar el cambio climático, entre otras sería viable aumentar la eficiencia energética y sustituir combustibles de origen fósil por combustibles de origen renovable, pudiendo garantizar un suministro de energía sostenible, competitivo y seguro. De todas las energías renovables susceptibles de formar parte de una cartera de opciones de mitigación, esta tesis se centra en la bioenergía generada a partir de la valorización energética de las biomasas agrícolas, forestales, ganaderas o de otro tipo, con fines eléctricos y térmicos. Con objeto de mostrar su capacidad para contribuir a mitigar el cambio climático y su potencial contribución al desarrollo socioeconómico, a la generación de energía distribuida y a reducir determinados efectos negativos sobre el medio ambiente, se ha analizado minuciosamente el sector español de la biomasa en su conjunto. Desde el recurso biomásico que existe en España, las formas de extraerlo y procesarlo, las tecnologías de valorización energética, sus usos energéticos principales y la capacidad de implementación del sector en España. Asimismo se ha examinado el contexto energético tanto internacional y europeo como nacional, y se han analizado pormenorizadamente los instrumentos de soporte que han contribuido de manera directa e indirecta al desarrollo del sector en España. Además, la tesis integra el análisis de los resultados obtenidos mediante dos metodologías diferentes con fines también distintos. Por un lado se han obtenido los resultados medioambientales y socioeconómicos de los análisis de ciclo de vida input-output generados a partir de las cinco tecnologías biomásicas más ampliamente utilizadas en España. Y por otro lado, en base a los objetivos energéticos y medioambientales establecidos, se han obtenido distintas proyecciones de la implementación del sector a medio plazo, en forma de escenarios energéticos con horizonte 2035, mediante el modelo TIMES-Spain. La tesis ofrece también una serie de conclusiones y recomendaciones que podrían resultar pertinentes para los agentes que constituyen la cadena de valor del propio sector e interesados, así como para la formulación de políticas y mecanismos de apoyo para los agentes decisores, tanto del ámbito de la Administración General del Estado como autonómico y regional, sobre las características y ventajas de determinadas formas de valorización, sobre los efectos sociales y medioambientales que induce su uso, y sobre la capacidad de sector para contribuir a determinadas políticas más allá de las puramente energéticas. En todo caso, esta tesis doctoral aspira a contribuir a la toma de decisiones idóneas tanto a los agentes del sector como a responsables públicos, con objeto de adoptar medidas orientadas a fomentar modificaciones del sistema energético que incrementen la proporción de energía renovable y, de esta forma, contribuir a mitigar la amenaza que supone el cambio climático no solo en la actualidad, sino especialmente en los próximos años para las generaciones venideras. ABSTRACT The current economic model based on both, consumption and the constant search for greater quality of life, coupled with a growing world population, contribute to increase the demand for energy services in order to meet the energy needs of people and industries. Since the late nineteenth century, energy has been basically generated from fossil fuels (coal, oil and gas), which converted fossil fuels into the predominant World energy supply source. Emissions of greenhouse gases generated by the provision of energy services have contributed significantly to the historical increase in the concentrations of these gases in the atmosphere, to the extent that the consumption of fossil fuels is responsible for most of the anthropogenic emissions (IPCC, 2012). There are several options to reduce emissions of greenhouse gases in the energy sector and, thereby, to contribute to mitigate climate change. Among others, would be feasible to increase energy efficiency and progressively replacing fossil fuels by renewable fuels, which are able to ensure a sustainable, competitive and secure energy supply. Of all the renewable energies likely to form part of a portfolio of mitigation options, this thesis focuses on bioenergy generated from agricultural, forestry, farming or other kind of biomass, with electrical and thermal purposes. In order to show their ability to contribute to mitigate climate change and its potential contribution to socio-economic development, distributed energy generation and to reduce certain negative effects on the environment, the Spanish biomass sector as a whole has been dissected. From the types of biomass resources that exist in Spain, ways of extracting and processing them, energy production technologies, its main energy uses and the implementation capacity of the sector in Spain. It has also examined the international, European and national energy context, and has thoroughly analyzed the support instruments that have contributed directly and indirectly to the development of the sector in Spain, so far. Furthermore, the thesis integrates the analysis of results obtained using two different methodologies also with different purposes. On the one hand, the environmental and socio-economic results of the analysis of input-output cycle life generated from the five biomass technologies most widely used in Spain, have been obtained. On the other hand, different projections of the implementation of the sector in the medium term, as energy scenarios with horizon 2035, have been obtained by the model TIMES-Spain, based on several energy and environmental objectives. The thesis also offers a series of conclusions and recommendations that could be relevant to the agents that constitute the value chain of the biomass sector itself and other stakeholders. As well as policy and support mechanisms for decision-makers, from both: The Central and Regional Governments, on the characteristics and advantages of certain forms of valorization, on the social and environmental effects that induce their use, and the ability of the biomass sector to contribute to certain policies beyond the purely energy ones. In any case, this thesis aims to contribute to decision making, suitable for both: Industry players and to public officials. In order to adopt measures to promote significant changes in the energy system that increase the proportion of renewable energy and, consequently, that contribute to mitigate the threat of climate change; not only today but in the coming years, especially for future generations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El sector energético, en España en particular, y de forma similar en los principales países de Europa, cuenta con una significativa sobrecapacidad de generación, debido al rápido y significativo crecimiento de las energías renovables en los últimos diez años y la reducción de la demanda energética, como consecuencia de la crisis económica. Esta situación ha hecho que las centrales térmicas de generación de electricidad, y en concreto los ciclos combinados de gas, operen con un factor de utilización extremadamente bajo, del orden del 10%. Además de la reducción de ingresos, esto supone para las plantas trabajar continuamente fuera del punto de diseño, provocando una significativa pérdida de rendimiento y mayores costes de explotación. En este escenario, cualquier contribución que ayude a mejorar la eficiencia y la condición de los equipos, es positivamente considerada. La gestión de activos está ganando relevancia como un proceso multidisciplinar e integrado, tal y como refleja la reciente publicación de las normas ISO 55000:2014. Como proceso global e integrado, la gestión de activos requiere el manejo de diversos procesos y grandes volúmenes de información, incluso en tiempo real. Para ello es necesario utilizar tecnologías de la información y aplicaciones de software. Esta tesis desarrolla un concepto integrado de gestión de activos (Integrated Plant Management – IPM) aplicado a centrales de ciclo combinado y una metodología para estimar el beneficio aportado por el mismo. Debido a las incertidumbres asociadas a la estimación del beneficio, se ha optado por un análisis probabilístico coste-beneficio. Así mismo, el análisis cuantitativo se ha completado con una validación cualitativa del beneficio aportado por las tecnologías incorporadas al concepto de gestión integrada de activos, mediante una entrevista realizada a expertos del sector de generación de energía. Los resultados del análisis coste-beneficio son positivos, incluso en el desfavorable escenario con un factor de utilización de sólo el 10% y muy prometedores para factores de utilización por encima del 30%. ABSTRACT The energy sector particularly in Spain, and in a similar way in Europe, has a significant overcapacity due to the big growth of the renewable energies in the last ten years, and it is seriously affected by the demand decrease due to the economic crisis. That situation has forced the thermal plants and in particular, the combined cycles to operate with extremely low annual average capacity factors, very close to 10%. Apart from the incomes reduction, working in out-of-design conditions, means getting a worse performance and higher costs than expected. In this scenario, anything that can be done to improve the efficiency and the equipment condition is positively received. Asset Management, as a multidisciplinary and integrated process, is gaining prominence, reflected in the recent publication of the ISO 55000 series in 2014. Dealing Asset Management as a global, integrated process needs to manage several processes and significant volumes of information, also in real time, that requires information technologies and software applications to support it. This thesis proposes an integrated asset management concept (Integrated Plant Management-IPM) applied to combined cycle power plants and develops a methodology to assess the benefit that it can provide. Due to the difficulties in getting deterministic benefit estimation, a statistical approach has been adopted for the cot-benefit analysis. As well, the quantitative analysis has been completed with a qualitative validation of the technologies included in the IPM and their contribution to key power plant challenges by power generation sector experts. The cost- benefit analysis provides positive results even in the negative scenario of annual average capacity factor close to 10% and is promising for capacity factors over 30%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de la tesis es estudiar la bondad del almacenamiento de energía en hidrógeno para minorar los desvíos de energía respecto a su previsión de parques eólicos y huertas solares. Para ello se ha partido de datos de energías horarias previstas con 24 h de antelación y la energía real generada. Se ha procedido a dimensionar la planta de hidrógeno, a partir de una modelización de la operación de la misma, teniendo siempre como objetivo la limitación de los desvíos. Posteriormente, se ha procedido a simular la operación de la planta con dos objetivos en mente, uno limitar los desvíos y por otro lado operar la planta como una central de bombeo, generando hidrógeno en horas valle y generando electricidad en horas punta. Las dos simulaciones se han aplicado a tres parques eólicos de diferentes potencias, y a una huerta solar fotovoltaica. Se ha realizado un estudio económico para determinar la viabilidad de las plantas dimensionadas, obteniendo como resultado que no son viables a día de hoy y con la estimación de precios considerada, necesitando disminuir considerablemente los costes, dependiendo fuertemente de la bondad de los métodos de previsión de viento. Por último se ha estudiado la influencia de la disminución de los desvíos generados sobre una red tipo de 30 nudos, obteniendo como resultado, que si bien no disminuyen sensiblemente los extra costes generados en regulación, sí que mejora la penetración de las energías renovables no despachables en la red. Se observa disminuyen los vertidos eólicos cuando se usa la planta de hidrógeno. ABSTRACT The aim of this thesis is to study the benefit of hydrogen energy storage to minimize energy deviations of Wind Power and Solar Photovoltaic (PV) Power Plants compared to its forecast. To achieve this goal, first of all we have started with hourly energy data provided 24 h in advance (scheduled energy), and real generation (measured energy). Secondly, It has been sized the hydrogen plant, from a modeling of its working mode, always keeping the goal in mind of limiting energy imbalances. Subsequently, It have been simulated the plant working mode following two goals, one, to limit energy imbalances and secondly to operate the plant as a pumping power plant, generating hydrogen-in valley hours and generating electricity at peak hours. The two simulations have been applied to three wind power plants with different installed power capacities, and a photovoltaic solar power plant. It has been done an economic analysis in order to determine the viability of this sized plants, turning out not viable plants today with the estimated prices considered, requiring significantly lower costs, depending heavily on the reliability of the Wind Power forecast methods. Finally, It has been studied the influence of decreasing measured imbalances (of energy) in a 30 grid node, resulting that, while it not reduces significantly the extra costs generated by reserve power, it does improve the penetration of non-manageable renewable energy on the grid, by reducing the curtailments of power of these plants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesis doctoral, “Aprovechamiento térmico de residuos estériles de carbón para generación eléctrica mediante tecnologías de combustión y gasificación eficientes y con mínimo impacto ambiental”, desarrolla la valorización energética de los residuos del carbón, estériles de carbón, producidos durante las etapas de extracción y lavado del carbón. El sistema energético se encuentra en una encrucijada, estamos asistiendo a un cambio en el paradigma energético y, en concreto, en el sector de la generación eléctrica. Se precipita un cambio en la generación y el consumo eléctricos. Una mayor concienciación por la salud está forzando la contención y eliminación de agentes contaminantes que se generan por la utilización de combustibles fósiles de la forma en la que se viene haciendo. Aumenta la preocupación por el cambio climático y por contener en 2°C el aumento de la temperatura de la Tierra para final de este siglo, circunstancia que está impulsando el desarrollo e implantación definitiva de tecnología de control y reducción de emisiones CO2. Generar electricidad de una manera sostenible se está convirtiendo en una obligación. Esto se materializa en generar electricidad respetando el medioambiente, de una forma eficiente en la utilización de los recursos naturales y a un coste competitivo, pensando en el desarrollo de la sociedad y en el beneficio de las personas. En la actualidad, el carbón es la principal fuente de energía utilizada para generar electricidad, y su empleo presenta la forma de energía más barata para mejorar el nivel de vida de cualquier grupo y sociedad. Además, se espera que el carbón siga presente en el mix de generación eléctrica, manteniendo una significativa presencia y extrayéndose en elevadas cantidades. Pero la producción de carbón lleva asociada la generación de un residuo, estéril, que se produce durante la extracción y el lavado del mineral de carbón. Durante décadas se ha estudiado la posibilidad de utilizar el estéril y actualmente se utiliza, en un limitado porcentaje, en la construcción de carreteras, terraplenes y rellenos, y en la producción de algunos materiales de construcción. Esta tesis doctoral aborda la valorización energética del estéril, y analiza el potencial aprovechamiento del residuo para generar electricidad, en una instalación que integre tecnología disponible para minimizar el impacto medioambiental. Además, persigue aprovechar el significativo contenido en azufre que presenta el estéril para producir ácido sulfúrico (H2SO4) como subproducto de la instalación, un compuesto químico muy demandado por la industria de los fertilizantes y con multitud de aplicaciones en otros mercados. Se ha realizado el análisis de caracterización del estéril, los parámetros significativos y los valores de referencia para su empleo como combustible, encontrándose que su empleo como combustible para generar electricidad es posible. Aunque en España se lleva extrayendo carbón desde principios del siglo XVIII, se ha evaluado para un período más reciente la disponibilidad del recurso en España y la normativa existente que condiciona su aplicación en el territorio nacional. Para el período evaluado, se ha calculado que podrían estar disponibles más de 68 millones de toneladas de estéril susceptibles de ser valorizados energéticamente. Una vez realizado el análisis de la tecnología disponible y que podría considerarse para emplear el estéril como combustible, se proponen cuatro configuraciones posibles de planta, tres de ellas basadas en un proceso de combustión y una de ellas en un proceso de gasificación. Tras evaluar las cuatro configuraciones por su interés tecnológico, innovador y económico, se desarrolla el análisis conceptual de una de ellas, basada en un proceso de combustión. La instalación propuesta tiene una capacidad de 65 MW y emplea como combustible una mezcla de carbón y estéril en relación 20/80 en peso. La instalación integra tecnología para eliminar en un 99,8% el SO2 presente en el gas de combustión y en más de un 99% las partículas generadas. La instalación incorpora una unidad de producción de H2SO4, capaz de producir 18,5 t/h de producto, y otra unidad de captura para retirar un 60% del CO2 presente en la corriente de gases de combustión, produciendo 48 tCO2/h. La potencia neta de la planta es 49,7 MW. Se ha calculado el coste de inversión de la instalación, y su cálculo resulta en un coste de inversión unitario de 3.685 €/kW. ABSTRACT The present doctoral thesis, “Thermal utilisation of waste coal for electricity generation by deployment of efficient combustion and gasification technologies with minimum environmental impact”, develops an innovative waste-to-energy concept of waste coals produced during coal mining and washing. The energy system is at a dilemma, we are witnessing a shift in the energy paradigm and specifically in the field of electricity generation. A change in the generation and electrical consumption is foreseen. An increased health consciousness is forcing the containment and elimination of pollutants that are generated by the use of fossil fuels in the way that is being done. Increasing concern about climate change and to contain the rise of global temperature by 2°C by the end of this century, is promoting the development and final implementation of technology to control and reduce the CO2 emission. Electricity generation in a sustainable manner is becoming an obligation. This concept materialised in generating electricity while protecting the environment and deployment of natural resources at a competitive cost, considering the development of society and people´s benefit. Currently, coal is the main source of energy employ to generate electricity, and its use represents the most cost competitive form of energy to increase the standard of living of any group or society. Moreover, coal will keep playing a key role in the global electricity generation mix, maintaining a significant presence and being extracting in large amounts. However, coal production implies the production of waste, termed waste coal or culm in Pennsylvania anthracite extraction, produced during coal mining and coal washing activities. During the last decades, the potential use of waste coal has been studied, and currently, in a limited amount, waste coal is used in roads construction, embankments and fillings, and to produce some construction materials. This doctoral thesis evaluates the waste to energy of waste coals and assesses its potential use to generate electricity, implementing available technology to minimise the environment impact. Additionally, it pursues the significant advantage that presents sulphur content in waste coal to produce sulphuric acid (H2SO4) as a byproduct of the waste-to-energy process, a chemical compound highly demanded by the fertiliser industry and many applications in other markets. It analyses the characteristics of waste coal, and assesses the significant parameters and reference values for its use as fuel, being its fuel use for electricity generation very possible. While mining coal is taking place in Spain since the 1700s, it has been evaluated for a more recent period the waste coal available in Spain and the existing legislation that affects its application and deploy to generate electricity in the country. For the evaluation period has been calculated that may be available more than 68 million tons of waste coal that can be waste-toenergy. The potential available technology to deploy waste coal as fuel has been evaluated and assessed. After considering this, the doctoral thesis proposes four innovative alternatives of facility configuration, three of them based on a combustion process and one in a gasification process. After evaluating the four configurations for its technological, innovative and economic interest, the conceptual analysis of one of alternatives, based on a combustion process, takes place. The proposed alternative facility developed has a capacity of 65 MW, using as fuel a mixture of coal and waste coal 80/20 by weight. The facility comprises technology to remove 99.8% SO2 present in the flue gas and more than 99% of the particles. The facility includes a unit capable of producing 18.5 t/h of H2SO4, and another capture facility, removing 60% of CO2 present in the flue gas stream, producing 48 tCO2/h. The net capacity of the power station is 49.7 MW. The facility unitary cost of investment is 3,685 €/kW.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El período de la Historia comprendido entre 1570 y 1620 nos ha dejado un importante conjunto de documentos relacionados con la construcción naval en la Península Ibérica. En una época convulsa en la que los reinos de España y Portugal se aglutinaron bajo una misma Corona, surgen una serie de manuscritos, libros y leyes que reflejan la creciente preocupación de la sociedad por el tema naval. Entre sus páginas encontramos las descripciones del proceso constructivo de los buques que sus autores consideraban más significativos para las demandas que se planteaban en ese momento. Este proceso que combinaba generación de formas y construcción del buque provenía de una secular tradición nacida en el Mediterráneo. Mediante reglas geométricas sencillas, el constructor naval trazaba las secciones centrales y el perfil de la nao, quedando los extremos de la misma (hasta más de la mitad de la eslora) a su buen hacer y experiencia. Las herramientas informáticas de generación de superficies mediante NURBs (Non- Uniform Rational B-spline) permiten reconstruir las formas de los navíos reproduciendo con fiabilidad las carenas de los mismos a partir de los documentos de la época. Mediante un estudio detallado de interpretación de los textos y transcribiendo los procesos, llegamos a obtener con un buen grado de precisión las carenas de los buques descritos en sus páginas. A partir de ahí y mediante el análisis cualitativo y cuantitativo de los parámetros obtenidos es posible valorar si las soluciones representadas por los barcos respondían a las preguntas planteadas por sus autores , la influencia de factores externos a la construcción naval tales como las regulaciones del Estado o identificar su relación con el germen y la expansión de la teoría que ha determinado los efectos de la Ciencia en la Arquitectura Naval. Comenzando por la nao veneciana de 1550, heredera de la secular tradición constructiva mediterránea, hasta llegar a las Reales Ordenanzas promulgadas en 1618, se reproducen hasta nueve carenas a partir de otros tantos documentos, se dibujan sus planos de formas y se exportan para su análisis hidrostático. El trabajo requiere la realización de otros estudios en paralelo necesarios para entender aquellos factores que formaron parte del desarrollo tecnológico naval como son, las unidades de medida en uso en los astilleros, los distintos sistemas de arqueo impuestos por la Corona y la representación de los diferentes instrumentos geométricos de modificación de los parámetros de diseño. A lo largo del trabajo se dan respuesta a interrogantes planteados por la arqueología en relación con el desarrollo de la arquitectura naval poniendo en evidencia que durante este período quedaron establecidos los fundamentos teórico-prácticos de lo que más adelante se convirtió en la ciencia de la ingeniería naval y se plantean nuevos retos para aquellos que deseen continuar la apasionante tarea de la investigación científica de nuestra historia. ABSTRACT The period of the History comprised between 1570 and 1620 has left an important set of shipbuilding documents in the Iberian Peninsula. In a turbulent time in which the kingdoms of Spain and Portugal were ruled under the same Crown, manuscripts, books and laws that reflect the growing concern of society for the naval theme arose. We found among their pages shipbuilding process descriptions of the more relevant vessels that responded to claims that arose at that time. This process brought together hull generation and shipbuilding and came from a secular tradition born in the Mediterranean. By means of simple geometric rules, the shipbuilder traced the central sections and profile of the ship, leaving the ends thereof (almost half of the length) to its good performance and experience. 3D computer modelling software by NURBs (Non-Uniform Rational B-spline) surfaces helps to reconstruct ships hulls from contemporary documents. Through a detailed texts interpretation and transcription processes, we manage to reach with a good degree of accuracy the ship hulls described in its pages. From there and through qualitative and quantitative analysis of the parameters obtained we can assess whether the solutions represented by ships gave response to the questions raised by the authors, the influence of external factors such as shipbuilding state regulations or identify their relationship to the origin and expansion of the theory that has determined the effects of Science in Naval Architecture. From the 1550 Venetian nao, inheritor of the secular Mediterranean building tradition, to the Royal Ordinances enacted in 1618, as nine hulls are reproduced, their line drawings are traced and exported for analysis hydrostatic. Further studies are needed to understand the factors that were part of shipbuilding technology development as the units of measure in use in shipyards, the different official regulations for calculating ship tonnage and the different geometric instruments to amend the design parameters. The work gives response to questions raised by archaeology in relation to the development of naval architecture highlighting that during this period were established the theoretical and practical foundations of what later became the science of naval engineering and raising new challenges for those wishing to continue the exciting task of scientific research of our History.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesis propone un nuevo método de cartografía de ensayos no destructivos en edificios históricos mediante el uso de técnicas basadas en SIG. Primeramente, se define el método por el cual es posible elaborar y convertir una cartografía 3D basada en nubes de puntos de un elemento arquitectónico obtenida mediante fotogrametría, en cartografía raster y vectorial, legible por los sistemas SIG mediante un sistema de coordenadas particular que referencian cada punto de la nube obtenida por fotogrametría. A esta cartografía inicial la denominaremos cartografía base. Después, se define el método por el cual los puntos donde se realiza un ensayo NDT se referencian al sistema de coordenadas del plano base, lo que permite la generación de cartografías de los ensayos referenciadas y la posibilidad de obtener sobre un mismo plano base diferentes datos de múltiples ensayos. Estas nuevas cartografías las denominaremos cartografías de datos, y se demostrará la utilidad de las mismas en el estudio del deterioro y la humedad. Se incluirá el factor tiempo en las cartografías, y se mostrará cómo este nuevo hecho posibilita el trabajo interdisciplinar en la elaboración del diagnóstico. Finalmente, se generarán nuevas cartografías inéditas hasta entonces consistentes en la combinación de diferentes cartografías de datos con la misma planimetría base. Estas nuevas cartografías, darán pie a la obtención de lo que se ha definido como mapas de isograma de humedad, mapa de isograma de salinidad, factor de humedad, factor de evaporación, factor de salinidad y factor de degradación del material. Mediante este sistema se facilitará una mejor visión del conjunto de los datos obtenidos en el estudio del edificio histórico, lo que favorecerá la correcta y rigurosa interpretación de los datos para su posterior restauración. ABSTRACT This research work proposes a new mapping method of non-destructive testing in historical buildings, by using techniques based on GIS. First of all, the method that makes it possible to produce and convert a 3D map based on cloud points from an architectural element obtained by photogrammetry, are defined, as raster and vector, legible by GIS mapping systems using a particular coordinate system that will refer each cloud point obtained by photogrammetry. This initial mapping will be named base planimetry. Afterwards, the method by which the points where the NDT test is performed are referenced to the coordinate system of the base plane , which allows the generation of maps of the referenced tests and the possibility of obtaining different data from multiple tests on the same base plane. These new maps will be named mapping data and their usefulness will be demonstrated in the deterioration and moisture study. The time factor in maps will be included, and how this new fact will enable the interdisciplinary work in the elaboration of the diagnosis will be proved. Finally, new maps (unpublished until now) will be generated by combining different mapping from the same planimetry data base. These new maps will enable us to obtain what have been called isograma moisture maps, isograma salinity- maps, humidity factor, evaporation factor, salinity factor and the material degradation factor. This system will provide a better vision of all data obtained in the study of historical buildings , and will ease the proper and rigorous data interpretation for its subsequent restoration.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno de los aspectos más complicados del diseño de sistemas HVAC en buques es la correcta evaluación de las necesidades de aire fresco y el correcto dimensionado de los conductos que suministran dicho aire y evacuan el calor generado a bordo. Contrariamente a lo que sucede en los sistemas de tuberías, las características particulares del caudal de aire hacen que el dimensionado de los conductos sea muy sensible al trazado y geometría de los mismos, por lo que para obtener un buen diseño es necesaria una relación muy estrecha y una integración bidireccional entre los cálculos y el trazado de los propios conductos en el buque. Asumida la utilización de sistemas CAD/CAM para las tareas de diseño, históricamente, aquellos que permitían modelar conductos HVAC no incluían en su alcance de suministro los aspectos de cálculo, y como consecuencia de ello, el trazado de conductos se reducía a la inclusión en el modelo 3D de circuitos y sistemas previamente calculados y dimensionados, Así, servían únicamente para calcular interferencias con otros elementos del modelo 3D y para obtener posteriormente planos de fabricación y montaje. Esto, que por sí no es poco, dejaba el diseño de sistemas HVAC pendiente de una importante interacción manual y de habituales retrabajos, ya que cualquier modificación en el trazado de los conductos, consecuencia de otras necesidades del diseño, obligaba a los diseñadores a recalcular y redimensionar los conductos en un entorno diferente al del propio sistema CAD/CAM, y volver a realizar el modelado de los mismos, reduciendo significativamente las ventajas de la utilización de un modelo 3D. Partiendo de esta situación real, y con objeto de solucionar el problema que para el diseño y la propia producción del buque se creaba, se concibió una herramienta que permitiera la definición en el modelo 3D de diagramas de ventilación, el cálculo de pérdidas de presión, el dimensionado automático de los conductos, y que toda esta información pudiera estar disponible y reutilizarse en las etapas posteriores del diseño. Con ello, los diseñadores podrían realizar su trabajo en un entorno único, totalmente integrado con el resto de disciplinas. El objeto de esta Tesis Doctoral es analizar en detalle el problema y las ineficiencias actuales del diseño de HVAC, describir la innovadora herramienta concebida para paliar estas ineficiencias, detallando las bases sobre la que se construye, y destacar las ventajas que se obtienen de su uso. La herramienta en cuestión fue concebida como una funcionalidad adicional del sistema CAD/CAM naval FORAN, referente tecnológico en el mundo del diseño y la construcción navales, y como consecuencia de ellos se llevó a cabo el desarrollo correspondiente. En la actualidad, el sistema FORAN incluye en su alcance de suministro una primera versión de esta herramienta, cuya utilidad queda avalada por el uso que de la misma hacen astilleros y oficinas técnicas en todo el mundo. Esta Tesis Doctoral es eminentemente práctica. No es un estudio teórico de dudosa aplicación, sino que tiene por objeto aportar una solución eficiente a un problema real que muchos astilleros y oficinas técnicas, incluidas los más avanzados, padecen hoy en día. No tiene otra motivación que servir de ayuda para lograr diseñar y construir mejores barcos, en un plazo más corto, y a un coste menor. Nada más, pero nada menos. ABSTRACT One of the most complicated aspects of the design of HVAC systems in shipbuilding is the correct evaluation of the fresh air needs, the correct balancing of the ducts that supply this air and evacuate the existing heat on board. In opposition to piping systems, due to the particular characteristics of the air flow, the balancing of the ducts is very sensitive to the routing and the aspect of the ducts, so the correct design requires a close interconnectivity between calculations and routing. Already assumed the use of CAD/CAM systems for design tasks, historically, those CAD/CAM systems capable of modelling HVAC ducts did not cover calculation aspects, with the result that the routing of HVAC ducts was reduced solely to the input of previously balanced circuits into the 3D Product Model for the purpose of interference checking and generation of fabrication and assembly drawings. This situation, not negligible at all, put the design of HVAC ducts very dependent on manual operations and common rework task, as any modification in the routing of the HVAC ducts, derived from design needs, obliged engineers to re-balance the ducts and eventually to re-size them independently of the CAD-CAM environment, thus annulling the advantages of the 3D Product Model. With this situation in mind, and with the objective of filling the gap created in the design and construction of the ship, it was conceived a tool allowing the definition, within the 3D Product model, of HVAC diagrams, the calculation of pressure drops, the automatic dimensioning of ducts. With this, engineers could make the complete HVAC design in a single working environment, fully integrated with the rest of the disciplines. The present Ph. D. thesis analyses in deep the existing problem and the current lack of efficiency in HVAC design, describes the innovative tool conceived to minimize it, details the basis on which the tool is built, and highlights the advantages of its use. This tool was conceived as an additional functionality of the marine CAD/CAM system FORAN, a technological reference in the shipdesign and shipbuilding industry. As a consequence, it was developed, and nowadays FORAN System includes in its scope of supply a first version of the tool, with its usefulness endorsed by the fact that it is used by shipyards and shipdesign offices all over the world. This Ph. D. thesis is on top everything, of practical nature. It is not a theoretical study with doubtful application. On the contrary, its objective is to provide with an efficient solution for solving a real problem that many shipyards and shipdesign offices, including those more advanced, suffer nowadays. It has no other motivation that to help in the process of designing and building better and cheaper ships, within a shorter deliver time. Nothing more, but nothing less.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los recientes desarrollos tecnológicos permiten la transición de la oceanografía observacional desde un concepto basado en buques a uno basado en sistemas autónomos en red. Este último, propone que la forma más eficiente y efectiva de observar el océano es con una red de plataformas autónomas distribuidas espacialmente y complementadas con sistemas de medición remota. Debido a su maniobrabilidad y autonomía, los planeadores submarinos están jugando un papel relevante en este concepto de observaciones en red. Los planeadores submarinos fueron específicamente diseñados para muestrear vastas zonas del océano. Estos son robots con forma de torpedo que hacen uso de su forma hidrodinámica, alas y cambios de flotabilidad para generar movimientos horizontales y verticales en la columna de agua. Un sensor que mide conductividad, temperatura y profundidad (CTD) constituye un equipamiento estándar en la plataforma. Esto se debe a que ciertas variables dinámicas del Océano se pueden derivar de la temperatura, profundidad y salinidad. Esta última se puede estimar a partir de las medidas de temperatura y conductividad. La integración de sensores CTD en planeadores submarinos no esta exenta de desafíos. Uno de ellos está relacionado con la precisión de los valores de salinidad derivados de las muestras de temperatura y conductividad. Específicamente, las estimaciones de salinidad están significativamente degradadas por el retardo térmico existente, entre la temperatura medida y la temperatura real dentro de la celda de conductividad del sensor. Esta deficiencia depende de las particularidades del flujo de entrada al sensor, su geometría y, también se ha postulado, del calor acumulado en las capas de aislamiento externo del sensor. Los efectos del retardo térmico se suelen mitigar mediante el control del flujo de entrada al sensor. Esto se obtiene generalmente mediante el bombeo de agua a través del sensor o manteniendo constante y conocida su velocidad. Aunque recientemente se han incorporado sistemas de bombeo en los CTDs a bordo de los planeadores submarinos, todavía existen plataformas equipadas con CTDs sin dichos sistemas. En estos casos, la estimación de la salinidad supone condiciones de flujo de entrada al sensor, razonablemente controladas e imperturbadas. Esta Tesis investiga el impacto, si existe, que la hidrodinámica de los planeadores submarinos pudiera tener en la eficiencia de los sensores CTD. Específicamente, se investiga primero la localización del sensor CTD (externo al fuselaje) relativa a la capa límite desarrollada a lo largo del cuerpo del planeador. Esto se lleva a cabo mediante la utilización de un modelo acoplado de fluido no viscoso con un modelo de capa límite implementado por el autor, así como mediante un programa comercial de dinámica de fluidos computacional (CFD). Los resultados indican, en ambos casos, que el sensor CTD se encuentra fuera de la capa límite, siendo las condiciones del flujo de entrada las mismas que las del flujo sin perturbar. Todavía, la velocidad del flujo de entrada al sensor CTD es la velocidad de la plataforma, la cual depende de su hidrodinámica. Por tal motivo, la investigación se ha extendido para averiguar el efecto que la velocidad de la plataforma tiene en la eficiencia del sensor CTD. Con este propósito, se ha desarrollado un modelo en elementos finitos del comportamiento hidrodinámico y térmico del flujo dentro del CTD. Los resultados numéricos indican que el retardo térmico, atribuidos originalmente a la acumulación de calor en la estructura del sensor, se debe fundamentalmente a la interacción del flujo que atraviesa la celda de conductividad con la geometría interna de la misma. Esta interacción es distinta a distintas velocidades del planeador submarino. Específicamente, a velocidades bajas del planeador (0.2 m/s), la mezcla del flujo entrante con las masas de agua remanentes en el interior de la celda, se ralentiza debido a la generación de remolinos. Se obtienen entonces desviaciones significantes entre la salinidad real y aquella estimada. En cambio, a velocidades más altas del planeador (0.4 m/s) los procesos de mezcla se incrementan debido a la turbulencia e inestabilidades. En consecuencia, la respuesta del sensor CTD es mas rápida y las estimaciones de la salinidad mas precisas que en el caso anterior. Para completar el trabajo, los resultados numéricos se han validado con pruebas experimentales. Específicamente, se ha construido un modelo a escala del sensor CTD para obtener la confirmación experimental de los modelos numéricos. Haciendo uso del principio de similaridad de la dinámica que gobierna los fluidos incompresibles, los experimentos se han realizado con flujos de aire. Esto simplifica significativamente la puesta experimental y facilita su realización en condiciones con medios limitados. Las pruebas experimentales han confirmado cualitativamente los resultados numéricos. Más aun, se sugiere en esta Tesis que la respuesta del sensor CTD mejoraría significativamente añadiendo un generador de turbulencia en localizaciones adecuadas al interno de la celda de conductividad. ABSTRACT Recent technological developments allow the transition of observational oceanography from a ship-based to a networking concept. The latter suggests that the most efficient and effective way to observe the Ocean is through a fleet of spatially distributed autonomous platforms complemented by remote sensing. Due to their maneuverability, autonomy and endurance at sea, underwater gliders are already playing a significant role in this networking observational approach. Underwater gliders were specifically designed to sample vast areas of the Ocean. These are robots with a torpedo shape that make use of their hydrodynamic shape, wings and buoyancy changes to induce horizontal and vertical motions through the water column. A sensor to measure the conductivity, temperature and depth (CTD) is a standard payload of this platform. This is because certain ocean dynamic variables can be derived from temperature, depth and salinity. The latter can be inferred from measurements of temperature and conductivity. Integrating CTD sensors in glider platforms is not exempted of challenges. One of them, concerns to the accuracy of the salinity values derived from the sampled conductivity and temperature. Specifically, salinity estimates are significantly degraded by the thermal lag response existing between the measured temperature and the real temperature inside the conductivity cell of the sensor. This deficiency depends on the particularities of the inflow to the sensor, its geometry and, it has also been hypothesized, on the heat accumulated by the sensor coating layers. The effects of thermal lag are usually mitigated by controlling the inflow conditions through the sensor. Controlling inflow conditions is usually achieved by pumping the water through the sensor or by keeping constant and known its diving speed. Although pumping systems have been recently implemented in CTD sensors on board gliders, there are still platforms with unpumped CTDs. In the latter case, salinity estimates rely on assuming reasonable controlled and unperturbed flow conditions at the CTD sensor. This Thesis investigates the impact, if any, that glider hydrodynamics may have on the performance of onboard CTDs. Specifically, the location of the CTD sensor (external to the hull) relative to the boundary layer developed along the glider fuselage, is first investigated. This is done, initially, by applying a coupled inviscid-boundary layer model developed by the author, and later by using a commercial software for computational fluid dynamics (CFD). Results indicate, in both cases, that the CTD sensor is out of the boundary layer, being its inflow conditions those of the free stream. Still, the inflow speed to the CTD sensor is the speed of the platform, which largely depends on its hydrodynamic setup. For this reason, the research has been further extended to investigate the effect of the platform speed on the performance of the CTD sensor. A finite element model of the hydrodynamic and thermal behavior of the flow inside the CTD sensor, is developed for this purpose. Numerical results suggest that the thermal lag effect is mostly due to the interaction of the flow through the conductivity cell and its geometry. This interaction is different at different speeds of the glider. Specifically, at low glider speeds (0.2 m/s), the mixing of recent and old waters inside the conductivity cell is slowed down by the generation of coherent eddy structures. Significant departures between real and estimated values of the salinity are found. Instead, mixing is enhanced by turbulence and instabilities for high glider speeds (0.4 m/s). As a result, the thermal response of the CTD sensor is faster and the salinity estimates more accurate than for the low speed case. For completeness, numerical results have been validated against model tests. Specifically, a scaled model of the CTD sensor was built to obtain experimental confirmation of the numerical results. Making use of the similarity principle of the dynamics governing incompressible fluids, experiments are carried out with air flows. This significantly simplifies the experimental setup and facilitates its realization in a limited resource condition. Model tests qualitatively confirm the numerical findings. Moreover, it is suggested in this Thesis that the response of the CTD sensor would be significantly improved by adding small turbulators at adequate locations inside the conductivity cell.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis, Edén: relato, imagen y proyecto. El concepto de Paraíso terrenal como generador de arquitecturas se realiza con el objetivo de estudiar los vínculos entre la idea de Edén, o Paraíso y la arquitectura. Siempre trabajando desde los tres niveles de representación, relato, imagen y proyecto. En la aproximación al objeto de estudio, se procede a estudiar el relato en sí, y se hallan, en la forma misma del relato, unas implicaciones relacionadas con el mundo mitológico y arquetípico. Estos resultados iniciales son la detección de que cada una de las partes que forman el conjunto edénico, han sido previamente objetos de culto en religiones corte pagano o chamánico, desde la prehistoria. El agua, los árboles, los animales, la tierra y los surcos del huerto, todos ellos han sido objetos de veneración desde tiempos inmemoriales. Trazando la genealogía de estos objetos de culto se acude al análisis arquetípico, que relaciona estos objetos venerados con el inconsciente y con la manifestación espontanea de los mismos en la realidad. Estos estudios arrojan resultados con implicaciones espaciales, arquitectónicas y se concluye que más que un ideal o un lugar en concreto, en el mito o en la realidad, lo que definitivamente parece (y demuestra) ser, es una tipología arquitectónica relacionada en su estructura formal y teórica con la del jardín cerrado. La manifestación en imagen de estos resultados y la investigación misma, llevan a acudir a unas de las imágenes más primitivas del Jardín del Edén, y que de hecho son previas a la “invención” del Hortus Conclusus como tal. Estas son las representaciones mozárabes del Paraíso Terrenal como lugar cierto en la tierra, que aparecen en los mappaemundi incluidos en los Códices de los Beatos. En el estudio de los mismos se comprende la estructura formal y teórica de lo que son las arquitecturas paradisíacas. Su calado en la cultura occidental hace que estos documentos sirvan como exoesqueletos del proyecto paradisíaco. Además, por su variedad arrojan gran número de resultados de índole espacial. Los resultados arrojados por el estudio de las representaciones edénicas de los Beatos llevan la investigación a otro momento e imágenes de la historia de la arquitectura donde, por su radicalidad de planteamientos y tabula rasa con las arquitecturas previas son necesarios nuevos lenguajes de aproximación al tema proyectual por el deseo globalizador que implican estas arquitecturas, esto es en el periodo de la arquitectura moderna. Se utiliza como elemento calibrador El poema del ángulo recto de Le Corbusier. Este documento gráfico no sólo nos da la clave que bullía en este periodo con respecto a una nueva aproximación a la superficie terrestre y al medio. Este instrumento también sirve de catalizador entre lo real y lo ideal y es una síntesis de operaciones arquitectónicas, que mediante la comparación y/o oposición con los resultados previos del estudio arquetípico y de los Beatos, genera grandes grupos de características que se hallan entrelazadas en los proyectos paradisíacos. Gracias a estos documentos se puede concluir con una síntesis de características que comparten los proyectos paradisiacos, que en todo caso son esto, proyectos en plural. No existe la unicidad, ya que se infiere de este estudio que son, en conjunto, una forma de hacer ciertas arquitecturas. Tienen características medibles y reproducibles y unas condiciones tipológicas y de generación de campos que permiten producir muchos tipos de proyectos, todos ellos de tipología paradisíaca. ABSTRACT This thesis, Eden: Tale, Image and Project. The Concept of Terrestrial Paradise as a Generator of Architectures, is carried out with the objective of studying the relations between the idea of Eden or Paradise and architecture. In every case working from the three levels of representation, tale, image and project. On the approximation to the object of study, the investigation is centered on the tale itself, and in the same core of it, are found some implications that relate it with the world of mythology and archetype. These initial results consist of detecting that each one of the parts that form the edenic set; have previously been objects of cult in religions of a pagan or shamanic nature, since pre-historic times. Water, animals, earth and the grooves of the orchard, have all been objects of reverence since the dawn of time. Tracing the genealogy of these objects an archetypal type of analysis is taken on, which relates the revered objects with the subconscious and with the spontaneous manifestation of these in reality. These studies also provide results with spatial and architectonic implications, and it is concluded that more than an ideal or a concrete place, in myth or reality, what it definitely seems (and shows to be) is an architectonic typology, related in its formal and theoretical structure with that of the enclosed garden. The manifestation in image of these results, and the investigation itself, lead to reach for one of the most primitive set of images of the Garden of Eden, and that are in fact previous to the “invention” of the Hortus Conclusus as such. A collection of mozárabe representations of the Terrestrial Paradise as a concrete place on Earth. These are the mappaemundi included in the Codexes of the Beatos. By their study, the formal and theoretical structure of paradisal architectures is understood. Their importance in occidental culture makes these documents bring out their side as exoskeletons of the paradisal Project. Also, for their variety, they cast a great number of results of a spatial nature. The results released by the study of the edenic representations of the Beatos take the investigation to another moment and set of images within the history of architecture, where the radicality of the approaches to architecture, and the tabula rasa in relation to previous architectures make it necessary to invent new languages of approximation to the subject of project. This happens because of the globalizing tones that imply these architectures. The lapse of time referred to would be during the general practice of modern architecture. The object of calibration would be The Poem of the Right Angle, by Le Corbusier. The graphic document not only gives us the key of what flowed during that time when a new approximation to the surface of earth and to the environment was retrieved. This instrument also serves as a catalyst between real and ideal, and it is a synthesis of architectural operations that by comparison and/or opposition with the previous results of the archetypal study, and of the Beatos, generates large groups of characteristics that are intertwined in the paradisal project. Due to these documents we can conclude the investigation with a series of characteristics that share the paradisal projects, which in any case are this, projects, in plural. There is no uniqueness. From these findings, it can be inferred that a Paradisal Project is a way to undertake a project, and certain kinds of architecture. They are measurable and are underlaid by a consistent pattern, they also have typological conditions and of field generation, that make it possible to produce many kinds of projects, all of a paradisal typology.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existen en el mercado numerosas aplicaciones para la generación de reverberación y para la medición de respuestas al impulso acústicas. Sin embargo, éstas son de precios muy elevados y/o no se permite acceder a su código y, mucho menos, distribuir de forma totalmente libre. Además, las herramientas que ofrecen para la medición de respuestas al impulso requieren de un tedioso proceso para la generación de la señal de excitación, su reproducción y grabación y, finalmente, su post-procesado. Este procedimiento puede llevar en ocasiones al usuario a cometer errores debido a la falta de conocimientos técnicos. El propósito de este proyecto es dar solución a algunos de los inconvenientes planteados. Con tal fin se llevó a cabo el desarrollo e implementación de un módulo de reverberación por convolución particionada en tiempo real, haciendo uso de software gratuito y de libre distribución. En concreto, se eligió la estación digital de trabajo (DAW. Digital Audio Worksation) REAPER de la compañía Cockos. Además de incluir las funcionalidades básicas de edición y secuenciación presentes en cualquier DAW, el programa incluye un entorno para la implementación de efectos de audio en lenguaje JS (Jesusonic), y se distribuye con licencias completamente gratuitas y sin limitaciones de uso. Complementariamente, se propone una extensión para REAPER que permite la medición de respuestas al impulso de recintos acústicos de una forma completamente automatizada y amigable para el usuario. Estas respuestas podrán ser almacenadas y posteriormente cargadas en el módulo de reverberación, permitiendo aplicar sobre nuestras pistas de audio la respuesta acústica de cualquier recinto en el que se hayan realizado medidas. La implementación del sistema de medida de respuestas se llevó a cabo empleando la herramienta ReaScript de REAPER, que permite la ejecución de pequeños scripts Python. El programa genera un Barrido Sinusoidal Logarítmico que excita el recinto acústico cuya respuesta se desea medir, grabando la misma en un archivo .wav. Este procedimiento es sencillo, intuitivo y está al alcance de cualquier usuario doméstico, ya que no requiere la utilización de sofisticado instrumental de medida. ABSTRACT. There are numerous applications in the market for the generation of reverb and measurement of acoustic impulse responses. However, they are usually very costly and closed source. In addition, the provided tools for measuring impulse responses require tedious processes for the generation and reproduction of the excitation signal, the recording of the response and its final post-processing. This procedure can sometimes drive the user to make mistakes due to the lack of technical knowledge. The purpose of this project is to solve some of the mentioned problems. To that end we developed and implemented a real-time partitioned convolution reverb module using free open source software. Specifically, the chosen software was the Cockos’ digital audio workstation (DAW) REAPER. In addition to the basic features included in any DAW, such as editing and sequencing, the program includes an environment for implementing audio effects in JS (Jesusonic) language of free distribution and features an unrestricted license. As an extension for REAPER, we propose a fully automated and user-friendly method for measuring rooms’ acoustic impulse responses. These will be stored and then loaded into the reverb module, allowing the user to apply the acoustical response of any room where measurement have been taken to any audio track. The implementation of the impulse response measurement system was done using REAPER’s ReaScript tool that allows the execution of small Python scripts. The program generates a logarithmic sine sweep that excites the room and its response is recorded in a .wav file. This procedure is simple, intuitive and it is accessible to any home user as it does not require the use of sophisticated measuring equipment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno de los temas más importantes dentro del debate contemporáneo, es el que se refiere a la sostenibilidad a largo plazo de la sociedad tal y como la entendemos hoy. El ser humano está recuperando la sensibilidad perdida que le concebía como una pieza más dentro del ciclo natural de la vida. Por fin hemos entendido que no podemos ser auto suficientes e independientes del entorno natural que nos rodea. Más allá del respeto y del cuidado, está abierta la puerta del conocimiento infinito que nos brinda la naturaleza a todos los niveles y a todas las escalas. Dentro de la disciplina arquitectónica han existido ejemplos como Antoni Gaudí o Frei Otto que han referenciado su obra en el mundo Natural, encontrando en él las estrategias y bases para el diseño arquitectónico. Sin embargo han sido una minoría dentro del enorme elenco de arquitectos defensores del ángulo recto. En las últimas décadas, la tendencia está cambiando. No nos referimos tanto a la sensibilidad creciente por conseguir una mayor eficiencia energética que ha llevado a una puesta en valor de la arquitectura vernácula, trasladando su sabiduría a las estrategias bioclimáticas. Nos referimos a un caso específico dentro del amplio abanico de formas arquitectónicas que han aparecido gracias a la incorporación de las herramientas computacionales en el diseño y la producción. Las arquitecturas que nos interesan son las que aprovechan estas técnicas para analizar e interpretar las estrategias complejas y altamente eficientes que encontramos en la naturaleza, y trasladarlas a la disciplina arquitectónica. Esta tendencia que se enmarca dentro de la Biomímesis o Biomimética es conocida con el nombre de Bioarquitectura. La presente tesis trata de morfología y sobre todo de morfogénesis. El término morfología se refiere al estudio de una forma concreta que nos permite entender un caso específico, nuestro foco de atención se centra sin embargo en la morfogénesis, es decir, en el estudio de los procesos de generación de esas formas, para poder reproducir patrones y generar abanicos de casos adaptables y reconfigurables. El hecho de estudiar la forma no quiere decir que ésta sea una tesis “formalista” con la connotación peyorativa y gestual que se le suele atribuir a este término. La investigación concibe el concepto de forma como lo hace el mundo natural: forma como síntesis de eficiencia. No hay ninguna forma natural gratuita, que no cumpla una función determinada y que no se desarrolle con el mínimo material y gaste la mínima energía posible. Este afán por encontrar la “forma eficaz” es lo que nos hace traspasar la frontera de la arquitectura formalista. El camino de investigación morfológica se traza, como el título de la tesis indica, siguiendo el hilo conductor concreto de los radiolarios. Estos microorganismos unicelulares poseen unos esqueletos tan complejos que para poder entender su morfología es necesario establecer un amplio recorrido que abarca más de 4.000 años de conocimiento humano. Desde el descubrimiento de los sólidos platónicos, poliedros que configuran muchas de las formas globales de estos esqueletos; hasta la aplicación de los algoritmos generativos, que permiten entender y reproducir los patrones de comportamiento que existen detrás de los sistemas de compactación y teselación irregular de los esqueletos radiolarios. La tesis no pretende plantear el problema desde un punto de vista biológico, ni paleontológico, aunque inevitablemente en el primer capítulo se realiza un análisis referenciado del estado del conocimiento científico actual. Sí se analizan en mayor profundidad cuestiones morfológicas y se tratan los diferentes posicionamientos desde los cuales estos microorganismos han servido de referencia en la disciplina arquitectónica. Además encontramos necesario analizar otros patrones naturales que comparten estrategias generativas con los esqueletos radiolarios. Como ya hemos apuntado, en el segundo capítulo se aborda un recorrido desde las geometrías más básicas a las más complejas, que tienen relación con las estrategias de generación de las formas detectadas en los microorganismos. A su vez, el análisis de estas geometrías se intercala con ejemplos de aplicaciones dentro de la arquitectura, el diseño y el arte. Finalizando con un cronograma que sintetiza y relaciona las tres vías de investigación abordadas: natural, geométrica y arquitectónica. Tras los dos capítulos centrales, el capítulo final recapitula las estrategias analizadas y aplica el conocimiento adquirido en la tesis, mediante la realización de diferentes prototipos que abarcan desde el dibujo analítico tradicional, a la fabricación digital y el diseño paramétrico, pasando por modelos analógicos de escayola, barras metálicas, resina, silicona, látex, etc. ABSTRACT One of the most important issues in the contemporary debate, is the one concerning the long-term sustainability of society as we understand it today. The human being is recovering the lost sensitivity that conceived us as part of the natural cycle of life. We have finally understood that we cannot be self-sufficient and independent of the natural environment which surrounds us. Beyond respect and care, we’ll find that the gateway to the infinite knowledge that nature provides us at all levels and at all scales is open. Within the architectural discipline, there have been remarkable examples such as Antoni Gaudí or Frei Otto who have inspired their work in the natural world. Both, found in nature the strategies and basis of their architectural designs. However, they have been a minority within the huge cast of architects defenders of the right angle. In recent decades, the trend is changing. We are not referring to the growing sensitivity in trying to achieve energy efficiency that has led to an enhancement of vernacular architecture, transferring its wisdom to bioclimatic strategies. We refer to a specific case within the wide range of architectural forms that have appeared thanks to the integration of computer tools in both design and production processes. We are interested in architectures that exploit these techniques to analyse and interpret the complex and highly efficient strategies found in nature, and shift them to the discipline of architecture. This trend, which is being implemented in the framework of the Biomimicry or biomimetics, is called Bioarchitecture. This thesis deals with morphology and more specifically with morphogenesis. Morphology is the study of a concrete form that allows us to understand a specific case. However, our focus is centered in morphogenesis or, in other words, the study of the processes of generation of these forms, in order to replicate patterns and generate a range of adaptable and reconfigurable cases. The fact of studying shapes does not mean that this is a “formalistic” thesis with the pejorative connotation that is often attributed to this term. This study conceives the concept of shape as Nature does: as a synthesis of efficiency. There is no meaningless form in nature. Furthermore, forms and shapes in nature play a particular role and are developed with minimum energetic consumption. This quest to find the efficient shape is what makes us go beyond formalistic architecture. The road of morphological investigation is traced, as the title of the thesis suggests, following the thread of radiolaria. These single-cell microorganisms possess very complex skeletons, so to be able to understand their morphology we must establish a wide spectrum which spans throughout more than 4.000 years of human knowledge. From the discovery of the platonic solids, polyhedrons which configure a huge range of global shapes of these skeletons, through the application of generative algorithms which allow us to understand and recreate the behavioral patterns behind the systems of compression and irregular tessellation of the radiolarian skeletons. The thesis does not pretend to lay out the problem from a biological, paleontological standpoint, although inevitably the first chapter is developed through an analysis in reference to the current state of the science. A deeper analysis of morphological aspects and different positionings is taken into account where these microorganisms have served as reference in the architectonic discipline. In addition we find necessary to analyse other natural patterns which share generative strategies with radiolarian skeletons. Aforementioned, in the second chapter an itinerary of the most basic geometries to the more complex ones is addressed. These are related, in this chapter, to the generative strategies of the shapes found in microorganisms. At the same time, the analysis of these geometries is placed among examples of applications inside the fields of architecture, design and the arts. To come to an end, a time chart synthesizes and relates the three investigation paths addressed: natural, geometrical and architectonic. After the two central chapters, the final chapter summarises the strategies analysed and applies the knowledge acquired throughout the thesis. This final chapter is shaped by the realization of different prototypes which range from traditional analytical drawings, to digital fabrication and parametric design, going through plaster analogical models, metal bars, resin, silicone, latex, etc.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las limitaciones en la capacidad de movilidad pueden ser consideradas en la actualidad como una forma de discriminación tremenda y a la vez invisible dentro de la sociedad. Para poder evitar esta discriminación es necesario que las políticas de transporte, que hasta ahora han basado sus actuaciones particularmente sobre las necesidades de acceso al empleo, reconozcan las exigencias de las personas dependientes y de aquellas que realizan las tareas no remuneradas del cuidado de otros y de atención a la familia. Las personas que trabajan en las tareas domésticas, en la mayoría de los casos mujeres, tienen muchas dificultades para sincronizar sus obligaciones con los tiempos y las distancias. Estas personas desempeñan un trabajo diario, que tiene lugar tanto fuera como dentro del hogar y tienen necesidades específicas de movilidad. El problema principal es que este tipo de trabajo no suele ser tomado en consideración, ya que no entra en la esfera del trabajo remunerado. Pero es una labor que está estrictamente ligada a la actividad de la sociedad y es un elemento indispensable para el funcionamiento de la vida urbana. Es un trabajo real, que tiene lugar en el espacio urbano, que exige un considerable esfuerzo físico y emocional, y que ayuda a garantizar la calidad de la vida cotidiana. Es un aspecto indispensable a tener en cuenta en el ejercicio de las políticas públicas y sociales. Sobre la base de estas consideraciones se introduce el concepto “Movilidad del cuidado” (Sánchez de Madariaga, 2009a y 2009b), mediante el cual se reconoce la necesidad de evaluar y hacer visible los desplazamientos diarios asociados con el trabajo del cuidado. Por trabajo del cuidado se entiende el trabajo no remunerado, realizado por los adultos para los niños u otras personas dependientes, incluido el trabajo relacionado con el mantenimiento del hogar. El análisis de este tipo de viajes exige ciertos cambios significativos en las formas de recoger datos estadísticos. No se trata solo de sumar los desplazamientos que actualmente aparecen en las estadísticas como viajes de compras, acompañamiento, gestiones, cuidado de otros, etc. El problema es que los datos sobre movilidad se recogen con una serie de sesgos que infravaloran los viajes de cuidado: las estadísticas no cuentan los viajes cortos a pie y tampoco reflejan bien los viajes encadenados, ambos típicamente femeninos; no se deslindan con precisión los viajes de cuidado de otro tipo de viajes, de manera que muchos desplazamientos relacionados con la esfera reproductiva aparecen como viajes personales o de ocio y en muchos casos se encasillan en la categoría otros. Mediante esta investigación se pretende estimar el peso que la movilidad del cuidado tiene en el total de la movilidad y describirla de manera precisa en un contexto geográfico determinado, en el caso específico Madrid. Los estudios sobre el tema realizados hasta el momento reconocen la necesidad de llevar a cabo encuestas de movilidad que tengan en cuenta las variables socio económicas que caracterizan a la población y también se demanda la segregación de los datos recogidos por sexo, así como el uso del género como una categoría analítica. Igualmente es indispensable atribuir la misma importancia que tienen los viajes relacionados con la esfera productiva a los que están relacionados con la esfera reproductiva. No obstante, es solo mediante la introducción del concepto de “movilidad del cuidado” que se propone una nueva categorización de los motivos de desplazamiento dentro de las “clásicas” encuestas de movilidad y, por primera vez, mediante esta investigación se aplica este concepto a un ejemplo práctico a partir del cual queda en evidencia la necesidad de un cambio de enfoque en las políticas de transporte. Así, a través el uso de encuestas cuantitativas y cualitativas realizadas ad hoc sobre la base de la metodología propuesta, se capturan los patrones de viajes significativos para poder describir en maneara exhaustiva la movilidad de las personas que tienen responsabilidades de cuidado. El objetivo es crear una base de conocimiento más amplia sobre los patrones de movilidad, comportamientos y necesidades, además de mejorar los conceptos operacionales y establecer políticas de transporte más equitativas, que respondan de mejor manera a las necesidades de género, beneficiando así a toda la sociedad. ABSTRACT Nowadays, limitations in urban mobility can be considered as some type of extreme discrimination, which remains invisible to the society. In order to avoid this kind of discrimination, new transport policies are required, especially considering that so far they have been based and organized particularly in relation to the needs derived from the access to employment. These policies must take into account the demands of people depending on the support of others as well as of unpaid caregivers in charge of looking after other individuals and taking care of the family. Most of the people devoted to domestic work, which in the vast majority of cases is carried out by women, find it difficult to coordinate their obligations with time and distances. These people carry out a daily job that takes place both inside their homes as well as outside, and they have specific mobility needs. The main issue is that this type of work is usually not taken into consideration, since it is not included under the scope of paid employment. However, this work is strictly related to the activities of society and is therefore a crucial element in the functioning of urban life. It is an actual job that takes place in an urban space, requires a considerable amount of physical and emotional effort and guarantees quality of life on a daily basis. This is an important aspect that should be taken into account when drafting public and social policies. The concept of “Mobility of care” (Sánchez de Madariaga, 2009a and 2009b) is introduced under these considerations. This concept acknowledges the need to evaluate and identify daily movements from one place to another that are related to caregiving. Caregiving is understood, in this case, as unpaid work that is carried out by adults for children and other people that depend on the support of others, and it also includes duties related to home maintenance. The analysis of these types of movements requires some significant changes in the way in which statistic data is gathered. The idea is to not only add up the movements that appear in statistics such as shopping trips, accompanying someone, dealings, caregiving, etc. The problem with data on mobility is that it is gathered with bias that undervalues mobility related to caregiving: statistics do not take into consideration short trips that are made walking nor do they properly reflect connected trips, both of which are typically feminine; moreover, there is an imprecise differentiation of trips related to caregiving and other kind of trips, and because of that, many of the trips related to the reproductive sphere are considered personal or recreational trips, and are many times labelled as others. This investigation aims to evaluate the importance that mobility of care has in mobility in general, describing it in a precise manner within a specific geographical context that in this case is Madrid. To this date, most of the studies on this subject have acknowledged the need to carry out mobility surveys that include socio economic variables that characterize the population and they have also requested that collected data is segregated by sex and that gender is used as an analytical category. Likewise, it is fundamental to give the same importance to mobility related to the sphere of reproduction as to that related to the sphere of productiveness. However, it is only through the implementation of the concept of “mobility of care” that a new categorization of mobility, within classic mobility surveys, is proposed. Also, for the first time and by this investigation, this concept is applied to a practical case, shining a light on the need to change the focus of transport policies. Through the use of ad hoc quantitative and qualitative surveys based on the proposed methodology, the patterns of relevant movements are identified in order to thoroughly describe the mobility of people responsible of caregiving. The aim is to create a broader knowledge base on patterns of mobility, behaviour and necessities, in addition to improving functional concepts and transport policies to make them more equitable and responsive to gender needs, thus benefitting society as a whole.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Como indica el título, esta tesis plantea el estudio de la arquitectura doméstica elaborada por los arquitectos japoneses Kazuyo Sejima y Ryue Nishizawa. Más concretamente, la investigación se ciñe a un conjunto integrado por veinticinco casas que los arquitectos proyectaron entre 1987, momento en el que Sejima establece su propia oficina, y 2010, fecha en la que el reconocimiento del trabajo que ambos venían desarrollando queda certificado a nivel internacional, ya que ese año son galardonados con el premio Pritzker y comisarían la Bienal deVenecia. Del estudio conjunto y sistemático de estos proyectos, y de sus distintas versiones se espera poder obtener una serie de criterios exegéticos que permitan comprenderlos y explicarlos mejor, relacionándolos entre sí de manera coherente. A estos criterios es a lo que hemos denominado estrategias. En el momento en el que se inicia esta investigación se detectó un vacío editorial respecto al tema tratado, apenas había textos, propios o ajenos que abordaran esta faceta de la obra de Sejima y Nishizawa en profundidad. No en vano, algunos críticos han acuñado el apelativo de "arquitectos sin palabras" para referirse, tanto a ellos como a la generación de arquitectos que la pareja encabeza, dando a entender que se trata de una arquitectura carente de explicación.1 Sin embargo, esta investigación sostiene que el hecho de que los arquitectos no hablen en exceso de su obra y mantengan una actitud centrada en desarrollar de forma práctica su trabajo no quiere decir que prescindan de realizar operaciones compositivas altamente idealizadas y abstractas, refrendadas por un marco cultural y teórico que se pueda describir. Tras recopilar, ordenar y analizar un número lo suficientemente amplio como para ser significativo de las manifestaciones verbales que los arquitectos han realizado a lo largo del periodo estudiado, se ha observado que de entre todos los términos que los dos socios que integran SANAA emplean para describir sus proyectos, uno de los más relevantes y quizás también el más general resulta la palabra “sistema”.2 El modo en el que ambos describen los principios de su arquitectura, diferenciando entre los componentes del programa, y las relaciones que se establecen entre éstos, y entre ellos y el exterior permiten sostener que no se trata de un uso accidental término. Paralelamente, al mismo tiempo que se indaga sobre el corpus intelectual de esta teoría se intenta detallar las circunstancias que favorecieron tal trasvase de ideas entre Occidente y Japón y como acabaron llegando al ámbito de estos arquitectos. Al amparo de este marco teórico y tras redibujar las viviendas documentadas, se intentará describir los rasgos de la estructura material de las viviendas analizadas, así como cartografiar los patrones organizativos que las caracterizan. Para ello se empleará el rigor instrumental que aporta la teoría de grafos como método habitual para la representación, estudio y caracterización de sistemas. Los resultados de la investigación evidencian que hay una serie de estrategias — tanto materiales como organizativas— que enunciadas en sus primeros proyectos se van desarrollando en obras posteriores, conformado sistemas que están paulatinamente más organizados. Y que llegado un punto en la trayectoria de estos arquitectos, se observa que tales estrategias, se van superponiendo de distinta forma en diversos proyectos, por lo que es posible agruparlos y hablar de ellos atendiendo a características comunes. Finalmente, el estudio concluye que tanto a nivel material como reladonal, bien podría decirse que en el periodo estudiado, las estrategias empleadas por Sejima y Nishizawa para elaborar su arquitectura doméstica persiguen un objetivo común que se fundamenta en la elaboración de planteamientos sintéticos que les permiten explorar y responder creativamente ante las disyuntivas previamente establecidas, precisamente explotando el potencial de las paradojas que las originan. ABSTRACT As the title suggest itself, this thesis deals about the study of domestic architecture developed by Japanese architects Kazuyo Sejima and Ryue Nishizawa. More specifically, research focus its attention on a group of twenty five houses that both architects projected from 1987, when Sejima establishes her own practice, and 2010, as the moment in which their work obtains international acknowledgment, since this year they are awarded the Pritzker prize and cúrate the Venice Biennale. From the combined and systematic study of all these projects, and their different versions are expected to obtain a series of exegetical criteria to relate to each other, understand and explain better. These criteria are what we cali strategies. By the time when this research began, an editorial emptiness about the treaty issue was detected; there were barely texts that addressed this aspect of the work of Sejima and Nishizawa in depth, neither the ones written by the architects themselves ñor by other authors. Some critics have coined the ñame "wordless generation" to refer to both them as to the generation of architects that the couple leads, implying that it is an architecture devoid of explanation.3 However, this study argües that the fact that architects do not speak too much about his work and keep themselves focused on developing practical work attitude does not mean that dispense perform highly idealized and abstract compositional operations, fueled by a frame cultural and theoretical that can be described. After collect, sort and analyze a large enough number of verbal statements done by the architects about their work as to be meaningful, it was observed that of all the terms that the two partners that intégrate SANAA used to describe their projects, one of the most important and, perhaps one of the most general, is the word "system".4 The way in which both describe the principies of their architecture distinguishing between program components and the relationships established between them, and between them and the outside allow us the view that it is not accidental use of a term. Similarly, while it investigates the intellectual corpus of this theory it attempts to explain some of the circumstances that favored such transfer of ideas between the West and Japan and how eventually reaching the scope of these architects. Under this framework and after redraw the documented houses we attempt to describe the characteristics of the material structure of the projects tested, as well as mapping the organizational patterns that characterize them. For this, we use the instrumental rigor that brings graph theory, as a regular method of representation, study and characterization of systems used. The research results show that there are a number of strategies -both material and organizational level- that once they are set out in its first projects are developed in later works. Bringing up systems that are gradually more and more organized. And at one point in the career of these architects, such strategies are observed, they are superimposed differently on various projects, making it possible to group them and discuss them according to common characteristics. Finally, the study condueles that both materially and organizational it could be said that in the period studied, the strategies employed by Sejima and Nishizawa to develop its domestic architecture pursue a common goal, which is based on the development of synthetic approaches that allow them explore and respond creatively to the previously established dilemmas precisely exploiting the paradoxical potential that originates them.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.