973 resultados para Installation of equipment


Relevância:

90.00% 90.00%

Publicador:

Resumo:

The Spanish NGO "Alianza por la Solidaridad" has installed improved cookstoves in 3000 households during 2012 and 2013 to improve energy efficiency reducing fuelwood consumption and to improve in-door air quality. The type of cookstoves were Noflaye Jeeg and Noflaye Jaboot and were installed in the Cassamance Natural Subregion covering part of Senegal, The Gambia and Guinea-Bissau. The Technical University of Madrid (UPM) has conducted a field study on a sample of these households to assess the effect of improved cookstoves on kitchen air quality. Measurements of carbon monoxide (CO) and fine particle matter (PM2.5) were taken for 24-hr period before and after the installation of improved cook-stoves. The 24-hr mean CO concentrations were lower than the World Health Organization (WHO) guidelines for Guinea-Bissau but higher for Senegal and Gambia, even after the installation of improved cookstoves. As for PM2.5 concentrations, 24-hr mean were always higher than these guidelines. However, improved cookstoves produced significant reductions on 24-hr mean CO and PM2.5 concentrations in Senegal and for mean and maximum PM2.5 concentration on Gambia. Although this variability needs to be explained by further research to determine which other factors could affect indoor air pollution, the study provided a better understanding of the problem and envisaged alternatives to be implemented in fu-ture phases of the NGO project.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Starting on June 2011, NGCPV is the first project funded jointly between the European Commission (EC) and the New Energy and Industrial Technology Development Organization (NEDO) of Japan to research on new generation concentration photovoltaics (CPV). The Project, through a collaborative research between seven European and nine Japanese leading research centers in the field of CPV, aims at lowering the cost of the CPVproduced photovoltaic kWh down to 5 ?cents. The main objective of the project is to improve the present concentrator cell, module and system efficiency, as well as developing advanced characterization tools for CPV components and systems. As particular targets, the project aims at achieving a cell efficiency of at least 45% and a CPV module with an efficiency greater than 35%. This paper describes the R&D activities that are being carried out within the NGCPV project and summarizes some of the most relevant results that have already been attained, for instance: the manufacturing of a 44.4% world record efficiency triple junction solar cell (by Sharp Corp.) and the installation of a 50 kWp experimental CPV plant in Spain, which will be used to obtain accurate forecasts of the energy produced at system level.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo del presente proyecto es el diseño de una vivienda unifamiliar de manera que el aporte de energía no renovable sea el mínimo para conseguir las condiciones de confort óptimas para los ocupantes durante todo el año. Para su diseño se tendrá en cuenta el aporte de energía solar pasiva y el uso de aislantes térmicos a lo largo de la envolvente para la reducción de las necesidades de energía. Se dimensiona una instalación geotérmica para el abastecimiento de calefacción, refrigeración y agua caliente sanitaria (ACS). En este dimensionamiento se incluyen los sondeos geotérmicos, el equipo de bomba de calor y la instalación de suelo radiante. En el estudio de iluminación se analizan las necesidades de alumbrado de la vivienda utilizando luminarias led. Por último se evalúa la viabilidad económica que supone sustituir una instalación de caldera de gasoil por la instalación geotérmica dimensionada y la viabilidad de sustituir luminarias incandescentes por luminarias led. ABSTRACT The purpose of this paper is the design of a single family home with the lowest nonrenewable energy input, so optimum comfort living conditions for the occupants during the whole year can be reached. In order to design the house, both passive solar energy input and the use of thermal insulators will be taken into account. A geothermal installation for the heating, cooling and Domestic Hot Water (DHC) supply will be measured. In this measuring, the boreholls, the heat pump equipment and the radiant floor heating installation are included. In the study of illumination of the house, the lighting needs using LED luminaires are analised. Finally, the economic viability when replacing the installation of a diesel boiler for the measured geothermal installation is assessed, as well as the viability when replacing incandescent luminaires for LED luminaires

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La siniestralidad por salida izquierda de vía en carreteras de gran capacidad es un problema que, además de las dramáticas situaciones a las que da lugar, inflige a la sociedad elevados costes. Por ello, debe prestarse una intensa atención al diseño de las medianas y a la disposición de barreras en ellas, con el objetivo de evitar que se produzcan este tipo de accidentes y limitar las consecuencias de los que aún así tengan lugar. Habitualmente las medianas de autovías se diseñan aplicando casi sistemáticamente los parámetros mínimos exigidos normativamente y generalmente con barreras de seguridad adosadas o muy próximas a uno de los arcenes interiores. Sin embargo, tanto las recomendaciones técnicas nacionales como la bibliografía internacional recomiendan llevar a cabo un estudio económico de alternativas antes que colocar barreras y, si está justificada su disposición, alejarla de la calzada disponiéndola próxima al eje de la mediana. En esta tesis se analizan las ventajas y limitaciones que tiene la disposición de barrera próxima al eje de la mediana. Se ha investigado sobre el comportamiento de los vehículos al circular por la mediana y se muestra cómo se ha instalado en la obra de la autovía A‐40, Tramo: Villarrubia de Santiago‐Santa Cruz de la Zarza, destacando los aspectos más novedosos y llamativos pero que se ajustan a las mejores prácticas en la materia y también a la normativa de aplicación. ABSTRACT Many dramatic situations are caused by cross‐median traffic accidents which imply high costs for society, both in human and economic terms. It is therefore important that special attention should be paid to the design of highway medians and to the installation of safety barriers so as to avoid these kinds of incidents and to reduce their consequences. Highway median are usually designed with the application of minimum parameters, according to regulations, with the installation of safety barriers against or close to the inside border. However, Spanish technical regulations and international bibliography recommend a prior study to be carried out with the purpose of finding alternatives to this installation of safety barriers and if necessary, the installation of the safety barrier close to the centre of the median. This thesis directs its analysis towards the advantages and restrictions of installing the safety barrier close to the centre of the median. Research has shown vehicle response when within the median and we show the installation of safety barriers in the A‐40 highway stretch: Villarrubia de Santiago – Santa Cruz de la Zarza, highlighting the aspects that should be taken into account as best practices for road safety and technical regulations.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo de este Proyecto Fin de Grado es el diseño de megafonía y PAGA (Public Address /General Alarm) de la estación de tren Waipahu Transit Center en la ciudad de Honolulú, Hawái. Esta estación forma parte de una nueva línea de tren que está en proceso de construcción actualmente llamada Honolulu Rail Transit. Inicialmente la línea de tren constará de 21 estaciones, en las que prácticamente todas están diseñadas como pasos elevados usando como referencia las autopistas que cruzan la isla. Se tiene prevista su fecha de finalización en el año 2019, aunque las primeras estaciones se inaugurarán en 2017. Se trata en primer lugar un estudio acústico del recinto a sonorizar, eligiendo los equipos necesarios: conmutadores, altavoces, amplificadores, procesador, equipo de control y micrófonos. Este primer estudio sirve para obtener una aproximación de equipos necesarios, así como la posible situación de estos dentro de la estación. Tras esto, se procede a la simulación de la estación mediante el programa de simulación acústica y electroacústica EASE 4.4. Para ello, se diseña la estación en un modelo 3D, en el que cada superficie se asocia a su material correspondiente. Para facilitar el diseño y el cómputo de las simulaciones se divide la estación en 3 partes por separado. Cada una corresponde a un nivel de la estación: Ground level, el nivel inferior que contiene la entrada; Concourse Level, pasillo que comunica los dos andenes; y Platform Level, en el que realizarán las paradas los trenes. Una vez realizado el diseño se procede al posicionamiento de altavoces en los diferentes niveles de la estación. Debido al clima existente en la isla, el cual ronda los 20°C a lo largo de todo el año, no es necesaria la instalación de sistemas de aire acondicionado o calefacción, por lo que la estación no está totalmente cerrada. Esto supone un problema al realizar las simulaciones en EASE, ya que al tratarse de un recinto abierto se deberán hallar parámetros como el tiempo de reverberación o el volumen equivalente por otros medios. Para ello, se utilizará el método Ray Tracing, mediante el cual se halla el tiempo de reverberación por la respuesta al impulso de la sala; y a continuación se calcula un volumen equivalente del recinto mediante la fórmula de Eyring. Con estos datos, se puede proceder a calcular los parámetros necesarios: nivel de presión sonora directo, nivel de presión sonora total y STI (Speech Transmission Index). Para obtener este último será necesario ecualizar antes en cada uno de los niveles de la estación. Una vez hechas las simulaciones, se comprueba que el nivel de presión sonora y los valores de inteligibilidad son acordes con los requisitos dados por el cliente. Tras esto, se procede a realizar los bucles de altavoces y el cálculo de amplificadores necesarios. Se estudia la situación de los micrófonos, que servirán para poder variar la potencia emitida por los altavoces dependiendo del nivel de ruido en la estación. Una vez obtenidos todos los equipos necesarios en la estación, se hace el conexionado entre éstos, tanto de una forma simplificada en la que se pueden ver los bucles de altavoces en cada nivel de la estación, como de una forma más detallada en la que se muestran las conexiones entre cada equipo del rack. Finalmente, se realiza el etiquetado de los equipos y un presupuesto estimado con los costes del diseño del sistema PAGA. ABSTRACT. The aim of this Final Degree Project is the design of the PAGA (Public Address / General Alarm) system in the train station Waipahu Transit Center in the city of Honolulu, Hawaii. This station is part of a new rail line that is currently under construction, called Honolulu Rail Transit. Initially, the rail line will have 21 stations, in which almost all are designed elevated using the highways that cross the island as reference. At first, it is treated an acoustic study in the areas to cover, choosing the equipment needed: switches, loudspeakers, amplifiers, DPS, control station and microphones. This first study helps to obtain an approximation of the equipments needed, as well as their placement inside the station. Thereafter, it is proceeded to do the simulation of the station through the acoustics and electroacoustics simulation software EASE 4.4. In order to do that, it is made the 3D design of the station, in which each surface is associated with its material. In order to ease the design and calculation of the simulations, the station has been divided in 3 zones. Each one corresponds with one level of the station: Ground Level, the lower level that has the entrance; Concourse Level, a corridor that links the two platforms; and Platform Level, where the trains will stop. Once the design is made, it is proceeded to place the speakers in the different levels of the station. Due to the weather in the island, which is about 20°C throughout the year, it is not necessary the installation of air conditioning or heating systems, so the station is not totally closed. This cause a problem when making the simulations in EASE, as the project is open, and it will be necessary to calculate parameters like the reverberation time or the equivalent volume by other methods. In order to do that, it will be used the Ray Tracing method, by which the reverberation time is calculated by the impulse response; and then it is calculated the equivalent volume of the area with the Eyring equation. With this information, it can be proceeded to calculate the parameters needed: direct sound pressure level, total sound pressure level and STI (Speech Transmission Index). In order to obtain the STI, it will be needed to equalize before in each of the station’s levels. Once the simulations are done, it is checked that the sound pressure level and the intelligibility values agree with the requirements given by the client. After that, it is proceeded to perform the speaker’s loops and the calculation of the amplifiers needed. It is studied the placement of the microphones, which will help to vary the power emitted by the speakers depending on the background noise level in the station. Once obtained all the necessary equipment in the station, it is done the connection diagram, both a simplified diagram in which there can be seen the speaker’s loops in each level of the station, or a more detailed diagram in which it is shown the wiring between each equipment of the rack. At last, it is done the labeling of the equipments and an estimated budget with the expenses for the PAGA design.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dada la importancia de conocer la humedad del suelo de forma precisa y en tiempo real, se ha realizado este trabajo de investigación cuyo objetivo principal ha sido seleccionar un Balance Hídrico del Suelo (BHS) diario y validar sus estimaciones de humedad del suelo frente a medidas obtenidas “in situ”, aplicándolo a tres emplazamientos seleccionados en la zona centro con características edáficas y climáticas diferentes, y de este modo estimar con cierta precisión la humedad del suelo como Agua Disponible (AD) para las plantas y a su vez permitir la realización de estudios climáticos. Los observatorios meteorológicos seleccionados fueron: Guadalajara/El Serranillo en la zona aluvial del río Henares; Colmenar Viejo/Base Famet en la rampa sur del Guadarrama sobre rocas metamórficas; y Radiosondeo/Madrid(Barajas) en arenas arcósicas de grano grueso. Se realizó una caracterización morfológica y un estudio de las propiedades físicas, químicas e hidrofísicas de los suelos en cada emplazamiento. El suelo de Guadalajara, Xerorthent Típico presenta una secuencia genética de horizontes (Ap-AC-C1-C2) siendo su clase textural entre franco-arenosa a franca, con menos del 2% de elementos gruesos, presencia de caliza a lo largo de todo el perfil, destacando la homogeneidad en vertical y horizontal de sus propiedades. El suelo de Colmenar, Xerorthent Dystrico, presenta una secuencia genética de horizontes (A-C-C/R) apareciendo el horizonte C/R entre 20-30 cm; y la roca aproximadamente a unos 30 cm; destacando en este perfil su acidez y el alto contenido de elementos gruesos. El suelo de Radiosondeo, Haploxeralf Típico, presenta la secuencia normal de horizontes de los alfisoles (A-Bt1-Bt2-C/Bt); destacando su heterogeneidad principalmente en el plano horizontal, con presencia del Bt a diferentes profundidades en un corto espacio longitudinal. En una primera fase de experimentación (2007-2008) se seleccionaron BHS diarios que sólo utilizaban como datos de entrada la información de variables meteorológicas y el valor del Agua Disponible Total (ADT) para cada tipo de suelo y profundidad. Se probaron BHS diarios con agotamiento exponencial y directo de la reserva, utilizando la evapotranspiración de referencia de Penman-Monteith recomendada por FAO. Al mismo tiempo que se disponía de los datos estimados de humedad de suelo mediante diferentes BHS diarios en los tres emplazamientos, también se realizó una monitorización de la humedad del suelo “in situ” mediante el método gravimétrico, con adaptación de dicha metodología a la problemática de cada suelo, para determinar en cada fecha tanto la humedad del suelo como su contenido de AD para una profundidad de 0 a 30 cm. Se tomaron en cada fecha de muestreo 5 muestras para la profundidad 0- 10 cm, otras cinco para 10-20 cm y otras cinco para 20-30 cm, realizándose el correspondiente tratamiento estadístico de los datos. El ADT se calculó a partir de los datos de capacidad de campo y punto de marchitez obtenidos en laboratorio con membrana de Richards. Los resultados de esta primera fase permitieron conocer que el BHS exponencial diario era el que mejor estimaba el AD en Guadalajara considerando la capacidad de campo a una presión de 33 kPa, mientras que en Colmenar se debían considerar para un mejor ajuste, 10 kPa en lugar de 33 kPa. En el observatorio de Radiosondeo debido a que en cada fecha de muestreo la profundidad en la que aparecía el horizonte Bt era diferente, no se pudo demostrar si el BHS exponencial diario tenía un buen comportamiento. En una segunda fase de experimentación (2009-2012) y con el objeto de aminorar los problemas encontrados en Radiosondeo para la medida de humedad del suelo por el método gravimétrico, se procedió a la instalación y utilización de diferentes sensores de medida de humedad de suelo en el mismo observatorio: TDR (time domain reflectometry - TRIME T3 de IMKO); FDR capacitivo (frecuency domain reflectometry - ECH2O EC-20 de DECAGON) y otros. Esta segunda fase de experimentación tuvo una duración de 4 años y se compararon las medidas de humedad de suelo obtenidas a partir de los sensores con las estimadas del BHS exponencial hasta una profundidad de 0 a 85 cm. En laboratorio se realizaron calibraciones específicas de los sensores TDR y FDR para cada uno de los horizontes más diferenciados del Haploxeralf Típico, utilizando diferentes tipos de regresión. Los valores de humedad de suelo con el equipo TDR, corregidos mediante la calibración específica de laboratorio, fueron los que más se ajustaron a las medidas realizadas por método gravimétrico “in situ”, por lo que se utilizó el TDR para las comparaciones con los valores obtenidos del BHS exponencial diario durante los cuatro años de esta segunda fase experimental. Se realizaron diferentes estimaciones del ADT, partiendo de datos de laboratorio y/o de datos procedentes de humedad de los sensores en campo. Los resultados mostraron de nuevo la conveniencia de utilizar el BHS exponencial diario, pero en este caso, con la estimación del ADT realizada a partir de las gráficas de los sensores. Mediante la utilización de los datos de humedad del BHS exponencial diario se han realizado comparaciones con el mismo tipo de balance pero utilizando un periodo semanal o mensual en lugar de diario, para conocer las diferencias. Los valores obtenidos con periodicidad mensual han dado valores de AD inferiores a los balances calculados semanalmente o diariamente. Por último se ha comprobado que los resultados de un BHS exponencial diario pueden complementar la información que se obtiene del Índice de Precipitación Estandarizado (SPI) y pueden mejorar el estudio de la sequía agrícola. ABSTRACT Due to the importance of a better knowledge of soil water at real time and in a more precisely way, this research work has being carried out with the main objective of selecting a daily Soil Water Balance (SWB) to estimate soil water content, and validate it in comparison to “in situ” measurements. Three locations, differing in soil and climate characteristics, were selected in central Spain in order to estimate with certain acuity soil water as plant-Available Water (AW) and to serve as a tool for the climatic studies. The selected places near meteorology stations were: Guadalajara/El Serranillo an alluvium of the Henares watershed; Colmenar Viejo/Base Famet, in the south raised area of the Guadarrama river basin, over metamorphic rocks; and Radiosondeo/Madrid (Barajas) in coarse arkosic sandstone. Morphology characterization, physical, chemical and hydrologic soil properties were studied in each area. In Guadalajara the soil is a Typic Xerorthent with a (Ap-AC-C1- C2) genetic horizon sequence, loam-sandy to loam textural class, less than 2% of rock fragments, presence of equivalent CaCO3 through the whole profile, outstanding the vertical and horizontal homogeneity of the properties. In Colmenar the soil is represented by a Dystric Xerorthent with a (A-C-C/R) genetic horizon sequence, the C/R is 20-30 cm deep where rock outcrops are approximately at 30 cm; a characteristic feature of this profile is its high acidity and high rock fragments content. In Radiosondeo the soil is represented by a Typic Haploxeralf, with the usual alfisol genetic horizon sequence (A-Bt1-Bt2-C/Bt); outstanding its horizontal heterogeneity, “the variability of the Bt (clay enriched horizon) depth in short distances”. In a first experimental stage (2007-2008), the daily SWB chosen was that which only uses as input data the information from the meteorology variables and plant-Total Available Water (TAW) for each soil type and depth. Different daily SWB (with exponential or direct plant-Available Water depletion) were applied, using the Penman- Monteith reference evapotranspiration (ETo) recommended by FAO. At the same time as soil water content was estimated from the different daily SWB at the three locations, also soil water content was being monitored by “in situ” gravimetric methodology, adapting it to each soil characteristic, to determine every time soil water content and AW to a depth of 0 to 30 cm. In each sampling date, 5 samples for each depth were taken: 0-10 cm; 10-20 cm and 20-30 cm and the data were submitted to the corresponding statistical analysis. The TAW was calculated based on field capacity (FC) and permanent wilting point (PWP) data obtained from laboratory by the Richards pressure plate. Results from this first experimental stage show that the daily exponential SWB was the one which better estimated the AW in Guadalajara considering field capacity at -33 kPa, though in Colmenar, field capacity at -10 kPa must be considered instead of -33 kPa for a better estimation. In Radiosondeo due to the fact that the Bt horizon depth varied in different sampling dates, it could not be established if the daily exponential SWB had a good performance. In a second experimental stage (20019-2012) and with the objective of minimizing the problems encountered in Radiosondeo for measuring “in situ” soil water content by the gravimetric method, the installation of different sensors for measuring soil water content were established and used in the same field location: TDR (time domain reflectometry - TRIME T3 from IMKO), capacitance FDR (frecuency domain reflectometry - ECH2O EC-20 from DECAGON) and others. This second experimental stage lasted 4 years in order to compare the soil water measures from the sensors with the estimations by the exponential SWB form 0 to 85 cm soil depths. At laboratory, specific calibrations for TDR and FDR sensors of the Typic Haploxeralf more differentiated horizons were done using different types of regressions. The results showed that soil water data obtained by the TDR equipment, corrected by the specific laboratory calibration, best fitted to “in situ” gravimetric soil water measures. In this way TDR was used for comparing to the daily exponential SWB during the four years of this second experimentation stage. Various estimations for obtaining TAW were tested; based on laboratory data – and/or on the data obtained of the soil water content field sensors. Results confirmed again, the convenience of using the daily exponential SWB, though in this case, with the TAW obtained from the field sensors graphics. Soil water estimated by exponential SWB on daily basis was compared to weekly and monthly periods, in order to know their reliability. The results obtained for a monthly period gave less AW than the ones obtained in a weekly or daily period. Finally it has been proved that the results obtained from the exponential SWB in a daily bases can be used as a useful tool in order to give complementary information to the SPI (Precipitation Standardized Index) and to help in agricultural drought studies.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Son numerosos los expertos que predicen que hasta pasado 2050 no se utilizarán masivamente las energías de origen renovable, y que por tanto se mantendrá la emisión de dióxido de carbono de forma incontrolada. Entre tanto, y previendo que este tipo de uso se mantenga hasta un horizonte temporal aún más lejano, la captura, concentración y secuestro o reutilización de dióxido de carbono es y será una de las principales soluciones a implantar para paliar el problema medioambiental causado. Sin embargo, las tecnologías existentes y en desarrollo de captura y concentración de este tipo de gas, presentan dos limitaciones: las grandes cantidades de energía que consumen y los grandes volúmenes de sustancias potencialmente dañinas para el medioambiente que producen durante su funcionamiento. Ambas razones hacen que no sean atractivas para su implantación y uso de forma extensiva. La solución planteada en la presente tesis doctoral se caracteriza por la ausencia de residuos producidos en la operación de captura y concentración del dióxido de carbono, por no utilizar substancias químicas y físicas habituales en las técnicas actuales, por disminuir los consumos energéticos al carecer de sistemas móviles y por evitar la regeneración química y física de los materiales utilizados en la actualidad. Así mismo, plantea grandes retos a futuras innovaciones sobre la idea propuesta que busquen fundamentalmente la disminución de la energía utilizada durante su funcionamiento y la optimización de sus componentes principales. Para conseguir el objetivo antes citado, la presente tesis doctoral, una vez establecido el planteamiento del problema al que se busca solución (capítulo 1), del estudio de las técnicas de separación de gases atmosféricos utilizadas en la actualidad, así como del de los sistemas fundamentales de las instalaciones de captura y concentración del dióxido de carbono (capítulo 2) y tras una definición del marco conceptual y teórico (capítulo 3), aborda el diseño de un prototipo de ionización fotónica de los gases atmosféricos para su posterior separación electrostática, a partir del estudio, adaptación y mejora del funcionamiento de los sistemas de espectrometría de masas. Se diseñarán y desarrollarán los sistemas básicos de fotoionización, mediante el uso de fuentes de fotones coherentes, y los de separación electrostática (capítulo 4), en que se basa el funcionamiento de este sistema de separación de gases atmosféricos y de captura y concentración de dióxido de carbono para construir un prototipo a nivel laboratorio. Posteriormente, en el capítulo 5, serán probados utilizando una matriz experimental que cubra los rangos de funcionamiento previstos y aporte suficientes datos experimentales para corregir y desarrollar el marco teórico real, y con los que se pueda establecer y corregir un modelo físico– matemático de simulación (capítulo 6) aplicable a la unidad en su conjunto. Finalmente, debido a la utilización de unidades de ionización fotónica, sistemas láseres intensos y sistemas eléctricos de gran potencia, es preciso analizar el riesgo biológico a las personas y al medioambiente debido al impacto de la radiación electromagnética producida (capítulo 7), minimizando su impacto y cumpliendo con la legislación vigente. En el capítulo 8 se planteará un diseño escalable a tamaño piloto de la nueva tecnología propuesta y sus principales modos de funcionamiento, así como un análisis de viabilidad económica. Como consecuencia de la tesis doctoral propuesta y del desarrollo de la unidad de separación atmosférica y de captura y concentración de dióxido de carbono, surgen diversas posibilidades de estudio que pueden ser objeto de nuevas tesis doctorales y de futuros desarrollos de ingeniería. El capítulo 9 tratará de incidir en estos aspectos indicando líneas de investigación para futuras tesis y desarrollos industriales. ABSTRACT A large number of experts predict that until at least 2050 renewable energy sources will not be massively used, and for that reason, current Primary Energy sources based on extensive use of fossil fuel will be used maintaining out of control emissions, Carbon Dioxide above all. Meanwhile, under this scenario and considering its extension until at least 2050, Carbon Capture, Concentration, Storage and/or Reuse is and will be one of the main solutions to minimise Greenhouse Gasses environmental effect. But, current Carbon Capture and Storage technology state of development has two main problems: it is a too large energy consuming technology and during normal use it produces a large volume of environmentally dangerous substances. Both reasons are limiting its development and its extensive use. This Ph Degree Thesis document proposes a solution to get the expected effect using a new atmospheric gasses separation system with the following characteristics: absence of wastes produced, it needs no chemical and/or physical substances during its operation, it reduces to minimum the internal energy consumptions due to absence of mobile equipment and it does not need any chemical and/or physical regeneration of substances. This system is beyond the State of the Art of current technology development. Additionally, the proposed solution raises huge challenges for future innovations of the proposed idea finding radical reduction of internal energy consumption during functioning, as well as regarding optimisation of main components, systems and modes of operation. To achieve this target, once established the main problem, main challenge and potential solving solutions (Chapter 1), it is established an initial starting point fixing the Atmospheric Gasses Separation and Carbon Capture and Storage developments (Chapter 2), as well as it will be defined the theoretical and basic model, including existing and potential new governing laws and mathematical formulas to control its system functioning (Chapter 3), this document will deal with the design of an installation of an operating system based on photonic ionization of atmospheric gasses to be separated in a later separation system based on the application of electrostatic fields. It will be developed a basic atmospheric gasses ionization prototype based on intense radioactive sources capable to ionize gasses by coherent photonic radiation, and a basic design of electrostatic separation system (Chapter 4). Both basic designs are the core of the proposed technology that separates Atmospheric Gasses and captures and concentrates Carbon Dioxide. Chapter 5 will includes experimental results obtained from an experimental testing matrix covering expected prototype functioning regimes. With the obtained experimental data, theoretical model will be corrected and improved to act as the real physical and mathematical model capable to simulate real system function (Chapter 6). Finally, it is necessary to assess potential biological risk to public and environment due to the proposed use of units of intense energy photonic ionization, by laser beams or by non–coherent sources and large electromagnetic systems with high energy consumption. It is necessary to know the impact in terms of and electromagnetic radiation taking into account National Legislation (Chapter 7). On Chapter 8, an up scaled pilot plant will be established covering main functioning modes and an economic feasibility assessment. As a consequence of this PhD Thesis, a new field of potential researches and new PhD Thesis are opened, as well as future engineering and industrial developments (Chapter 9).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The installation of offshore scour protection systems in offshore wind farms allows avoid the effect of scour phenomenon around these structures. Up to date, numerous research projects have been carried out to justify the necessity of the scour protection systems and also to optimize their design. Protection systems based on riprap is frequently used due to its low cost and easy availability compared to other solutions such as geotextile bags or prefabricated concrete blocks. The sizing of these structures can be performed according to a series of recommendations that can optimize the costs associated with them, but there have been only few studies with real data up to now which have allowed identify the need for such protections. This investigation aims to assess the functionality of the scour protections adopted through the available data about their characteristics and the scour depth developed around the foundations. In this sense, this paper presents the results of a study that analyzes the functionality of scour protections in different European offshore wind farms.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The Spanish NGO "Alianza por la Solidaridad" has installed improved cookstoves in 3000 households during 2012 and 2013 to improve energy efficiency reducing fuelwood consumption and to improve indoor air quality. The type of cookstoves were Noflaye Jeeg and Noflaye Jaboot and were installed in the Cassamance Natural Subregion covering part of Senegal, The Gambia and Guinea-Bissau. The Technical University of Madrid (UPM) has conducted a field study on a sample of these households to assess the effect of improved cookstoves on kitchen air quality. Measurements of carbon monoxide (CO) and fine particle matter (PM2.5) were taken for 24-hr period before and after the installation of improved cookstoves. The 24-hr mean CO concentrations were lower than the World Health Organization (WHO) guidelines for Guinea-Bissau but higher for Senegal and Gambia, even after the installation of improved cookstoves. As for PM2.5 concentrations, 24-hr mean were always higher than these guidelines. However, improved cookstoves produced significant reductions on 24-hr mean CO and PM2.5 concentrations in Senegal and for mean and maximum PM2.5 concentration on Gambia. Although this variability needs to be explained by further research to determine which other factors could affect indoor air pollution, the study provided a better understanding of the problem and envisaged alternatives to be implemented in future phases of the NGO project.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The use of residual biomass for energy purposes is of great interest in isolated areas like Majorca for waste reduction, energy sufficiency and renewable energies development. In addition, densification processes lead to easy-to-automate solid biofuels which additionally have higher energy density. The present study aims at (i) the estimation of the potential of residual biomass from woody crops as well as from agri-food and wood industries in Majorca, and (ii) the analysis of the optimal location of potential pellet plants by means of a GIS approach (location-allocation analysis) and a cost evaluation of the pellets production chain. The residual biomass potential from woody crops in Majorca Island was estimated at 35,874 metric tons dry matter (t DM) per year, while the wood and agri-food industries produced annually 21,494 t DM and 2717 t DM, respectively. Thus, there would be enough resource available for the installation of 10 pellet plants of 6400 t·year−1 capacity. These plants were optimally located throughout the island of Mallorca with a maximum threshold distance of 28 km for biomass transport from the production points. Values found for the biomass cost at the pellet plant ranged between 57.1 €·t−1 and 63.4 €·t−1 for biomass transport distance of 10 and 28 km. The cost of pelleting amounted to 56.7 €·t−1; adding the concepts of business fee, pellet transport and profit margin (15%), the total cost of pelleting was estimated at 116.6 €·t−1. The present study provides a proposal for pellet production from residual woody biomass that would supply up to 2.8% of the primary energy consumed by the domestic and services sector in the Balearic Islands.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In this paper we report on a first part of a study on the mechanisms leading to brittle fracture in neutron guides made of glass as structural element. Such devices are widely used to deliver thermal and cold neu tron beams to experimental lines in most large neutron research facilities. We present results on macroscopic properties of samples of guide glass substrates which are subjected to neutron irradiation at relatively large fluences. The results show a striking dependence of some of the macroscopic properties such as density, shape or surface curvature upon the specific chemical composition of a given glass. The relevance of the present findings for the installation of either replacement guides at the existing facilities or for the deployment of instruments for ongoing projects such as the European Spallation Source is briefly discussed.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El programa Europeo HORIZON2020 en Futuras Ciudades Inteligentes establece como objetivo que el 20% de la energía eléctrica sea generada a partir de fuentes renovables. Este objetivo implica la necesidad de potenciar la generación de energía eólica en todos los ámbitos. La energía eólica reduce drásticamente las emisiones de gases de efecto invernadero y evita los riesgos geo-políticos asociados al suministro e infraestructuras energéticas, así como la dependencia energética de otras regiones. Además, la generación de energía distribuida (generación en el punto de consumo) presenta significativas ventajas en términos de elevada eficiencia energética y estimulación de la economía. El sector de la edificación representa el 40% del consumo energético total de la Unión Europea. La reducción del consumo energético en este área es, por tanto, una prioridad de acuerdo con los objetivos "20-20-20" en eficiencia energética. La Directiva 2010/31/EU del Parlamento Europeo y del Consejo de 19 de mayo de 2010 sobre el comportamiento energético de edificaciones contempla la instalación de sistemas de suministro energético a partir de fuentes renovables en las edificaciones de nuevo diseño. Actualmente existe una escasez de conocimiento científico y tecnológico acerca de la geometría óptima de las edificaciones para la explotación de la energía eólica en entornos urbanos. El campo tecnológico de estudio de la presente Tesis Doctoral es la generación de energía eólica en entornos urbanos. Específicamente, la optimization de la geometría de las cubiertas de edificaciones desde el punto de vista de la explotación del recurso energético eólico. Debido a que el flujo del viento alrededor de las edificaciones es exhaustivamente investigado en esta Tesis empleando herramientas de simulación numérica, la mecánica de fluidos computacional (CFD en inglés) y la aerodinámica de edificaciones son los campos científicos de estudio. El objetivo central de esta Tesis Doctoral es obtener una geometría de altas prestaciones (u óptima) para la explotación de la energía eólica en cubiertas de edificaciones de gran altura. Este objetivo es alcanzado mediante un análisis exhaustivo de la influencia de la forma de la cubierta del edificio en el flujo del viento desde el punto de vista de la explotación energética del recurso eólico empleando herramientas de simulación numérica (CFD). Adicionalmente, la geometría de la edificación convencional (edificio prismático) es estudiada, y el posicionamiento adecuado para los diferentes tipos de aerogeneradores es propuesto. La compatibilidad entre el aprovechamiento de las energías solar fotovoltaica y eólica también es analizado en este tipo de edificaciones. La investigación prosigue con la optimización de la geometría de la cubierta. La metodología con la que se obtiene la geometría óptima consta de las siguientes etapas: - Verificación de los resultados de las geometrías previamente estudiadas en la literatura. Las geometrías básicas que se someten a examen son: cubierta plana, a dos aguas, inclinada, abovedada y esférica. - Análisis de la influencia de la forma de las aristas de la cubierta sobre el flujo del viento. Esta tarea se lleva a cabo mediante la comparación de los resultados obtenidos para la arista convencional (esquina sencilla) con un parapeto, un voladizo y una esquina curva. - Análisis del acoplamiento entre la cubierta y los cerramientos verticales (paredes) mediante la comparación entre diferentes variaciones de una cubierta esférica en una edificación de gran altura: cubierta esférica estudiada en la literatura, cubierta esférica integrada geométricamente con las paredes (planta cuadrada en el suelo) y una cubierta esférica acoplada a una pared cilindrica. El comportamiento del flujo sobre la cubierta es estudiado también considerando la posibilidad de la variación en la dirección del viento incidente. - Análisis del efecto de las proporciones geométricas del edificio sobre el flujo en la cubierta. - Análisis del efecto de la presencia de edificaciones circundantes sobre el flujo del viento en la cubierta del edificio objetivo. Las contribuciones de la presente Tesis Doctoral pueden resumirse en: - Se demuestra que los modelos de turbulencia RANS obtienen mejores resultados para la simulación del viento alrededor de edificaciones empleando los coeficientes propuestos por Crespo y los propuestos por Bechmann y Sórensen que empleando los coeficientes estándar. - Se demuestra que la estimación de la energía cinética turbulenta del flujo empleando modelos de turbulencia RANS puede ser validada manteniendo el enfoque en la cubierta de la edificación. - Se presenta una nueva modificación del modelo de turbulencia Durbin k — e que reproduce mejor la distancia de recirculación del flujo de acuerdo con los resultados experimentales. - Se demuestra una relación lineal entre la distancia de recirculación en una cubierta plana y el factor constante involucrado en el cálculo de la escala de tiempo de la velocidad turbulenta. Este resultado puede ser empleado por la comunidad científica para la mejora del modelado de la turbulencia en diversas herramientas computacionales (OpenFOAM, Fluent, CFX, etc.). - La compatibilidad entre las energías solar fotovoltaica y eólica en cubiertas de edificaciones es analizada. Se demuestra que la presencia de los módulos solares provoca un descenso en la intensidad de turbulencia. - Se demuestran conflictos en el cambio de escala entre simulaciones de edificaciones a escala real y simulaciones de modelos a escala reducida (túnel de viento). Se demuestra que para respetar las limitaciones de similitud (número de Reynolds) son necesarias mediciones en edificaciones a escala real o experimentos en túneles de viento empleando agua como fluido, especialmente cuando se trata con geometrías complejas, como es el caso de los módulos solares. - Se determina el posicionamiento más adecuado para los diferentes tipos de aerogeneradores tomando en consideración la velocidad e intensidad de turbulencia del flujo. El posicionamiento de aerogeneradores es investigado en las geometrías de cubierta más habituales (plana, a dos aguas, inclinada, abovedada y esférica). - Las formas de aristas más habituales (esquina, parapeto, voladizo y curva) son analizadas, así como su efecto sobre el flujo del viento en la cubierta de un edificio de gran altura desde el punto de vista del aprovechamiento eólico. - Se propone una geometría óptima (o de altas prestaciones) para el aprovechamiento de la energía eólica urbana. Esta optimización incluye: verificación de las geometrías estudiadas en el estado del arte, análisis de la influencia de las aristas de la cubierta en el flujo del viento, estudio del acoplamiento entre la cubierta y las paredes, análisis de sensibilidad del grosor de la cubierta, exploración de la influencia de las proporciones geométricas de la cubierta y el edificio, e investigación del efecto de las edificaciones circundantes (considerando diferentes alturas de los alrededores) sobre el flujo del viento en la cubierta del edificio objetivo. Las investigaciones comprenden el análisis de la velocidad, la energía cinética turbulenta y la intensidad de turbulencia en todos los casos. ABSTRACT The HORIZON2020 European program in Future Smart Cities aims to have 20% of electricity produced by renewable sources. This goal implies the necessity to enhance the wind energy generation, both with large and small wind turbines. Wind energy drastically reduces carbon emissions and avoids geo-political risks associated with supply and infrastructure constraints, as well as energy dependence from other regions. Additionally, distributed energy generation (generation at the consumption site) offers significant benefits in terms of high energy efficiency and stimulation of the economy. The buildings sector represents 40% of the European Union total energy consumption. Reducing energy consumption in this area is therefore a priority under the "20-20-20" objectives on energy efficiency. The Directive 2010/31/EU of the European Parliament and of the Council of 19 May 2010 on the energy performance of buildings aims to consider the installation of renewable energy supply systems in new designed buildings. Nowadays, there is a lack of knowledge about the optimum building shape for urban wind energy exploitation. The technological field of study of the present Thesis is the wind energy generation in urban environments. Specifically, the improvement of the building-roof shape with a focus on the wind energy resource exploitation. Since the wind flow around buildings is exhaustively investigated in this Thesis using numerical simulation tools, both computational fluid dynamics (CFD) and building aerodynamics are the scientific fields of study. The main objective of this Thesis is to obtain an improved (or optimum) shape of a high-rise building for the wind energy exploitation on the roof. To achieve this objective, an analysis of the influence of the building shape on the behaviour of the wind flow on the roof from the point of view of the wind energy exploitation is carried out using numerical simulation tools (CFD). Additionally, the conventional building shape (prismatic) is analysed, and the adequate positions for different kinds of wind turbines are proposed. The compatibility of both photovoltaic-solar and wind energies is also analysed for this kind of buildings. The investigation continues with the buildingroof optimization. The methodology for obtaining the optimum high-rise building roof shape involves the following stages: - Verification of the results of previous building-roof shapes studied in the literature. The basic shapes that are compared are: flat, pitched, shed, vaulted and spheric. - Analysis of the influence of the roof-edge shape on the wind flow. This task is carried out by comparing the results obtained for the conventional edge shape (simple corner) with a railing, a cantilever and a curved edge. - Analysis of the roof-wall coupling by testing different variations of a spherical roof on a high-rise building: spherical roof studied in the litera ture, spherical roof geometrically integrated with the walls (squared-plant) and spherical roof with a cylindrical wall. The flow behaviour on the roof according to the variation of the incident wind direction is commented. - Analysis of the effect of the building aspect ratio on the flow. - Analysis of the surrounding buildings effect on the wind flow on the target building roof. The contributions of the present Thesis can be summarized as follows: - It is demonstrated that RANS turbulence models obtain better results for the wind flow around buildings using the coefficients proposed by Crespo and those proposed by Bechmann and S0rensen than by using the standard ones. - It is demonstrated that RANS turbulence models can be validated for turbulent kinetic energy focusing on building roofs. - A new modification of the Durbin k — e turbulence model is proposed in order to obtain a better agreement of the recirculation distance between CFD simulations and experimental results. - A linear relationship between the recirculation distance on a flat roof and the constant factor involved in the calculation of the turbulence velocity time scale is demonstrated. This discovery can be used by the research community in order to improve the turbulence modeling in different solvers (OpenFOAM, Fluent, CFX, etc.). - The compatibility of both photovoltaic-solar and wind energies on building roofs is demonstrated. A decrease of turbulence intensity due to the presence of the solar panels is demonstrated. - Scaling issues are demonstrated between full-scale buildings and windtunnel reduced-scale models. The necessity of respecting the similitude constraints is demonstrated. Either full-scale measurements or wind-tunnel experiments using water as a medium are needed in order to accurately reproduce the wind flow around buildings, specially when dealing with complex shapes (as solar panels, etc.). - The most adequate position (most adequate roof region) for the different kinds of wind turbines is highlighted attending to both velocity and turbulence intensity. The wind turbine positioning was investigated for the most habitual kind of building-roof shapes (flat, pitched, shed, vaulted and spherical). - The most habitual roof-edge shapes (simple edge, railing, cantilever and curved) were investigated, and their effect on the wind flow on a highrise building roof were analysed from the point of view of the wind energy exploitation. - An optimum building-roof shape is proposed for the urban wind energy exploitation. Such optimization includes: state-of-the-art roof shapes test, analysis of the influence of the roof-edge shape on the wind flow, study of the roof-wall coupling, sensitivity analysis of the roof width, exploration of the aspect ratio of the building-roof shape and investigation of the effect of the neighbouring buildings (considering different surrounding heights) on the wind now on the target building roof. The investigations comprise analysis of velocity, turbulent kinetic energy and turbulence intensity for all the cases.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta tesis integra un estudio reflexivo sobre la relación de dependencia entre la creación y la memoria a través del análisis de la última obra del escultor Juan Muñoz: Double Bind (Tate Modern, Londres, 2001). Desde esta posición es obligado replantear el análisis de la obra, lo que hace necesario su estudio cubriendo el mayor espectro posible de información accesible más allá de la obra en sí, para aproximarse a la convergencia entre memoria y creación. La perspectiva de análisis propuesta abre camino a nuevas consideraciones so¬bre la relevancia del conocimiento en el desarrollo del proceso creativo. Este análisis no debe tan sólo suponer una aportación al conocimiento del trabajo de Juan Muñoz. Debe también desprenderse de él la innegable participación y necesaria lectura del pasado en el presente. La amnesia de los tiempos pasados impide completar el atlas de imágenes en las que se apoya la creación impidiendo el conocimiento del origen de las fuentes de inspi¬ración y las bases de la creación de una determinada obra. Este hecho limita y distorsiona sus posibles interpretaciones. Pretendo un acercamiento al entendimiento de la forma de mirar y de crear a través del tiempo que es memoria. La memoria tiene un cometido de crucial importancia para la actividad mental y juega un papel fundamental en la conducta y en la creación. La obra es el resultado de la búsqueda de una idea que exprese algo que el creador no puede ex¬presar de otra manera. Es la necesidad de expresar las ideas mediante un lenguaje que se desarrolla en el tiempo y en el espacio, reflejo del ser que responde al pensamiento. Es una forma de experiencia donde subyacen las sendas del pasado y donde se plantea el futuro. Sólo el creador accede a la obra desde dentro, el observador llega a ella desde el exterior y mediante su propia subjetividad. Las obras son formas de experiencia de sus autores, comunicar el mensaje de dicha experiencia supone por tanto interpretar. Persiguiendo la necesidad de saber y entender, pretender explicar el sentido de una cosa implica una apreciación intencionada asociada al entendimiento del intérprete. Las obras son produc¬tos que portan un mensaje y que contienen en su estructura las trazas del tiempo vivido por su creador. Si se quiere adquirir un acercamiento que represente la posición de un autor, será necesario no solo mirar a través de ella, si no introducirse en el contexto de su historia. Mirar hacia atrás, hacia la profundidad del presente para tener conciencia del pensamiento presente y futuro. Recorrer de este modo la instalación Double Bind de Juan Muñoz proporciona una síntesis de sus preocupaciones e intereses a la vez que aporta un conocimiento no necesariamente inmediato, pero relevante y trascendente de la obra, su creador y la historia. ABSTRACT This thesis comprises a reflective study of the dependence relationship between creation and memory through the analysis of the latest work by the sculptor Juan Muñoz: Double Bind (Tate Modern, London, 2001). From this position, it is mandatory to rethink the analysis of the work, making it necessary to cover the widest possible range of information available beyond the work itself, in order to obtain a closer view of the convergence between memory and creation. The proposed analytical approach opens up new considerations on the relevance of knowledge during the development of the creative process. This analysis should not only make a contribution to the knowledge of the work of Juan Muñoz. It should also infer the undeniable involvement and the necessary reading of the past in the present. Amnesia regarding past makes it impossible to complete the atlas of images on which the creation is based, blocking knowledge of the origin of the sources of inspiration and the basis for the creation of a specific work. This fact limits and distorts its possible interpretations. My intention is an approach to how to understand memory as the way of looking and creating over time. Memory has a crucial role to mental activity and plays a key role in behaviour and creation. The work is the result of finding an idea that expresses something that the creator can not express otherwise. It is the need to express ideas by means of a language that develops throughout time and space, a reflection of the being that responds to the thought. It is a way of experience underlying the paths of the past and where the future is set out. Only the creator can access the work from the inside. The observer sees it from the outside and in accordance with his/her own subjectivity. The works form a part of the experience of their authors, thus implying the interpretation of the message of their experience being passed on. The pursuit of knowledge and understanding, and trying to explain the meaning of something implies a deliberate appreciation associated with the understanding of the interpreter. The works are products bearing a message and containing in their structure traces of the time lived by their creator. If one wants to come close to what the author’s posture represents, it will not only be necessary to penetrate it, but also to introduce oneself into the context of its history. Take a look back, towards the depth of the present in order to become aware of present and future thinking. To go across the installation of Double Bind by Juan Muñoz in this way offers a synthesis of his concerns and interests while also providing a not necessarily immediate knowledge, but one which is relevant and important to the work, its creator and history.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This article has been extracted from the results of a thesis entitled “Potential bioelectricity production of the Madrid Community Agricultural Regions based on rye and triticale biomass.” The aim was, first, to quantify the potential of rye (Secale Cereale L.) and triticale ( Triticosecale Aestivum L.) biomass in each of the Madrid Community agricultural regions, and second, to locate the most suitable areas for the installation of power plants using biomass. At least 17,339.9 t d.m. of rye and triticale would be required to satisfy the biomass needs of a 2.2 MW power plant, (considering an efficiency of 21.5%, 8,000 expected operating hours/year and a biomass LCP of 4,060 kcal/kg for both crops), and 2,577 ha would be used (which represent 2.79% of the Madrid Community fallow dry land surface). Biomass yields that could be achieved in Madrid Community using 50% of the fallow dry land surface (46,150 ha representing 5.75% of the Community area), based on rye and triticale crops, are estimated at 84,855, 74,906, 70,109, 50,791, 13,481, and 943 t annually for the Campiña, Vegas, Sur Occidental, Área Metropolitana, Lozoya-Somosierra, and Guadarrama regions. The latter represents a bioelectricity potential of 10.77, 9.5, 8.9, 6.44, 1.71, and 0.12 MW, respectively.