16 resultados para Chuva simulada

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La utilización de armaduras de acero inoxidable, de los tipos austeníticos y dúplex, con el objetivo de prolongar la vida útil de las estructuras de hormigón, es una alternativa que está recibiendo cada vez más consideración. Los aceros inoxidables son aleaciones fundamentalmente de cromo y níquel, con muy alta resistencia a la corrosión, especialmente por cloruros. El elevado coste del níquel y sus grandes fluctuaciones en el mercado, han favorecido la aparición de nuevos aceros inoxidables con bajo contenido en dicha aleación y, por lo tanto, más económicos, que sin embargo presentan una resistencia a la corrosión similar a los tradicionales. En este trabajo se ha evaluado la resistencia a la corrosión por cloruros de dos nuevos aceros inoxidables de bajo contenido en níquel. Uno de los aceros es austenítico, de producción en forma de chapa, y el otro dúplex, que se comercializa como barra corrugada. La resistencia a la corrosión se ha evaluado, respectivamente, mediante ensayos electroquímicos de dichos aceros embebidos en solución simulada de poros de hormigón y en probetas de mortero contaminados con diferentes cuantías de cloruros. Los resultados de los ensayos se han comparado con los del acero austenítico tradicional AISI 304 y del acero al carbono B500SD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En regiones en las que no se dispone de un modelo hidrológico correctamente calibrado para estimar la escorrentía, se puede recurrir a la utilización de la escorrentía directa simulada por los modelos climáticos o a la escorrentía calculada a partir de fórmulas climatológicas que emplean variables climáticas básicas como la precipitación, temperatura y radiación solar, simuladas por los modelos regionales de clima (MRC). El presente trabajo compara el comportamiento de la escorrentía directa obtenida por 10 simulaciones de los MRC del proyecto europeo PRUDENCE y la escorrentía media anual calculada a partir de la aplicación de cinco fórmulas climatológicas (Schreiber, Ol’dekop, Budyko, Turc-Pike, Zhang et al.) basadas en el índice de aridez, definido por la relación entre la evapotranspiración potencial y la precipitación. Series temporales mensuales de escorrentía, precipitación, temperatura y radiación solar son generadas a partir de las simulaciones de los MRC en 338 cuencas de España que cubren la totalidad del territorio peninsular, bajo condiciones de clima actual (periodo 1961-1990). La evapotranspiración potencial se obtiene usando el método presentado por Hargreaves. Estas formas funcionales estiman la relación entre la evapotranspiración actual y la precipitación y a través de un balance hídrico se calculan los valores de escorrentía anual. El comportamiento general de las variables climáticas simuladas por los MRC se caracteriza por presentar menor sesgo para precipitación y temperatura que para escorrentía. Empleando estadísticos de comparación se analiza la capacidad que tiene la escorrentía directa y la escorrentía anual calculada a partir de las fórmulas climáticas para reproducir los valores observados de escorrentía natural estimada por el modelo hidrológico distribuido SIMPA en las cuencas españolas. En total se generaron 10 series mensuales de escorrentía directa y 50 series de escorrentía anual basadas en el índice de aridez (cada fórmula climática aplicada a las 10 simulaciones de los MRC). Los resultados muestran que la fórmula de Schreiber produce la mejor aproximación a los valores observados y por tanto minimiza el sesgo predominante en la variable escorrentía. Adicionalmente, estos resultados se validan con las capas de escorrentía media anual de alta resolución proporcionada por la UNH/GRDC (University of New Hampshire/Global Runoff Data Centre) que preservan la exactitud de las medidas de las aportaciones observadas en las principales estaciones hidrológicas de todo el mundo, y que en la actualidad es el “mejor estimador” de la escorrentía terrestre sobre grandes extensiones. En este caso, los resultados muestran también que la fórmula de Schreiber estima mejor los valores de escorrentía anual que la escorrentía directa simulada por MRC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis realiza una contribución metodológica al estudio del impacto del cambio climático sobre los usos del agua, centrándose particularmente en la agricultura. Tomando en consideración su naturaleza distinta, la metodología aborda de forma integral los impactos sobre la agricultura de secano y la agricultura de regadío. Para ello incorpora diferentes modelos agrícolas y de agua que conjuntamente con las simulaciones de los escenarios climáticos permiten determinar indicadores de impacto basados en la productividad de los cultivos, para el caso de la agricultura de secano, e indicadores de impacto basados en la disponibilidad de agua para irrigación, para el caso de la agricultura de regadío. La metodología toma en consideración el efecto de la variabilidad climática en la agricultura, evaluando las necesidades de adaptación y gestión asociadas a los impactos medios y a la variabilidad en la productividad de los cultivos y el efecto de la variabilidad hidrológica en la disponibilidad de agua para regadío. Considerando la gran cantidad de información proporcionada por las salidas de las simulaciones de los escenarios climáticos y su complejidad para procesarla, se ha desarrollado una herramienta de cálculo automatizada que integra diferentes escenarios climáticos, métodos y modelos que permiten abordar el impacto del cambio climático sobre la agricultura, a escala de grandes extensiones. El procedimiento metodológico parte del análisis de los escenarios climáticos en situación actual (1961-1990) y futura (2071-2100) para determinar su fiabilidad y conocer qué dicen exactamente las proyecciones climáticas a cerca de los impactos esperados en las principales variables que intervienen en el ciclo hidrológico. El análisis hidrológico se desarrolla en los ámbitos territoriales de la planificación hidrológica en España, considerando la disponibilidad de información para validar los resultados en escenario de control. Se utilizan como datos observados las series de escorrentía en régimen natural estimadas el modelo hidrológico SIMPA que está calibrado en la totalidad del territorio español. Al trabajar a escala de grandes extensiones, la limitada disponibilidad de datos o la falta de modelos hidrológicos correctamente calibrados para obtener los valores de escorrentía, muchas veces dificulta el proceso de evaluación, por tanto, en este estudio se plantea una metodología que compara diferentes métodos de interpolación y alternativas para generar series anuales de escorrentía que minimicen el sesgo con respecto a los valores observados. Así, en base a la alternativa que genera los mejores resultados, se obtienen series mensuales corregidas a partir de las simulaciones de los modelos climáticos regionales (MCR). Se comparan cuatro métodos de interpolación para obtener los valores de las variables a escala de cuenca hidrográfica, haciendo énfasis en la capacidad de cada método para reproducir los valores observados. Las alternativas utilizadas consideran la utilización de la escorrentía directa simulada por los MCR y la escorrentía media anual calculada utilizando cinco fórmulas climatológicas basadas en el índice de aridez. Los resultados se comparan además con la escorrentía global de referencia proporcionada por la UNH/GRDC que en la actualidad es el “mejor estimador” de la escorrentía actual a gran escala. El impacto del cambio climático en la agricultura de secano se evalúa considerando el efecto combinado de los riesgos asociados a las anomalías dadas por los cambios en la media y la variabilidad de la productividad de los cultivos en las regiones agroclimáticas de Europa. Este procedimiento facilita la determinación de las necesidades de adaptación y la identificación de los impactos regionales que deben ser abordados con mayor urgencia en función de los riesgos y oportunidades identificadas. Para ello se utilizan funciones regionales de productividad que han sido desarrolladas y calibradas en estudios previos en el ámbito europeo. Para el caso de la agricultura de regadío, se utiliza la disponibilidad de agua para irrigación como un indicador del impacto bajo escenarios de cambio climático. Considerando que la mayoría de estudios se han centrado en evaluar la disponibilidad de agua en régimen natural, en este trabajo se incorpora el efecto de las infraestructuras hidráulicas al momento de calcular el recurso disponible bajo escenarios de cambio climático Este análisis se desarrolla en el ámbito español considerando la disponibilidad de información, tanto de las aportaciones como de los modelos de explotación de los sistemas hidráulicos. Para ello se utiliza el modelo de gestión de recursos hídricos WAAPA (Water Availability and Adaptation Policy Assessment) que permite calcular la máxima demanda que puede atenderse bajo determinados criterios de garantía. Se utiliza las series mensuales de escorrentía observadas y las series mensuales de escorrentía corregidas por la metodología previamente planteada con el objeto de evaluar la disponibilidad de agua en escenario de control. Se construyen proyecciones climáticas utilizando los cambios en los valores medios y la variabilidad de las aportaciones simuladas por los MCR y también utilizando una fórmula climatológica basada en el índice de aridez. Se evalúan las necesidades de gestión en términos de la satisfacción de las demandas de agua para irrigación a través de la comparación entre la disponibilidad de agua en situación actual y la disponibilidad de agua bajo escenarios de cambio climático. Finalmente, mediante el desarrollo de una herramienta de cálculo que facilita el manejo y automatización de una gran cantidad de información compleja obtenida de las simulaciones de los MCR se obtiene un proceso metodológico que evalúa de forma integral el impacto del cambio climático sobre la agricultura a escala de grandes extensiones, y a la vez permite determinar las necesidades de adaptación y gestión en función de las prioridades identificadas. ABSTRACT This thesis presents a methodological contribution for studying the impact of climate change on water use, focusing particularly on agriculture. Taking into account the different nature of the agriculture, this methodology addresses the impacts on rainfed and irrigated agriculture, integrating agricultural and water planning models with climate change simulations scenarios in order to determine impact indicators based on crop productivity and water availability for irrigation, respectively. The methodology incorporates the effect of climate variability on agriculture, assessing adaptation and management needs associated with mean impacts, variability in crop productivity and the effect of hydrologic variability on water availability for irrigation. Considering the vast amount of information provided by the outputs of the regional climate model (RCM) simulations and also its complexity for processing it, a tool has been developed to integrate different climate scenarios, methods and models to address the impact of climate change on agriculture at large scale. Firstly, a hydrological analysis of the climate change scenarios is performed under current (1961-1990) and future (2071-2100) situation in order to know exactly what the models projections say about the expected impact on the main variables involved in the hydrological cycle. Due to the availability of information for validating the results in current situation, the hydrological analysis is developed in the territorial areas of water planning in Spain, where the values of naturalized runoff have been estimated by the hydrological model SIMPA, which are used as observed data. By working in large-scale studies, the limited availability of data or lack of properly calibrated hydrological model makes difficult to obtain runoff time series. So as, a methodology is proposed to compare different interpolation methods and alternatives to generate annual times series that minimize the bias with respect to observed values. Thus, the best alternative is selected in order to obtain bias-corrected monthly time series from the RCM simulations. Four interpolation methods for downscaling runoff to the basin scale from different RCM are compared with emphasis on the ability of each method to reproduce the observed behavior of this variable. The alternatives consider the use of the direct runoff of the RCMs and the mean annual runoff calculated using five functional forms of the aridity index. The results are also compared with the global runoff reference provided by the UNH/GRDC dataset, as a contrast of the “best estimator” of current runoff on a large scale. Secondly, the impact of climate change on rainfed agriculture is assessed considering the combined effect of the risks associated with anomalies given by changes in the mean and variability of crop productivity in the agro-climatic regions of Europe. This procedure allows determining adaptation needs based on the regional impacts that must be addressed with greater urgency in light of the risks and opportunities identified. Statistical models of productivity response are used for this purpose which have been developed and calibrated in previous European study. Thirdly, the impact of climate change on irrigated agriculture is evaluated considering the water availability for irrigation as an indicator of the impact. Given that most studies have focused on assessing water availability in natural regime, the effect of regulation is incorporated in this approach. The analysis is developed in the Spanish territory considering the available information of the observed stream flows and the regulation system. The Water Availability and Adaptation Policy Assessment (WAAPA) model is used in this study, which allows obtaining the maximum demand that could be supplied under certain conditions (demand seasonal distribution, water supply system management, and reliability criteria) for different policy alternatives. The monthly bias corrected time series obtained by previous methodology are used in order to assess water availability in current situation. Climate change projections are constructed taking into account the variation in mean and coefficient of variation simulated by the RCM. The management needs are determined by the agricultural demands satisfaction through the comparison between water availability under current conditions and under climate change projections. Therefore, the methodology allows evaluating the impact of climate change on agriculture to large scale, using a tool that facilitates the process of a large amount of complex information provided by the RCM simulations, in order to determine the adaptation and management needs in accordance with the priorities of the indentified impacts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha desarrollado un método de calibración de interrogadores de redes de Bragg en fibra óptica que compara la respuesta del equipo de prueba con un simulador de red de Bragg compuesto por un filtro sintonizable unido a un espejo de fibra óptica. La longitud de onda simulada obtenida se mide con un interferómetro de referencia calibrado en el Instituto de Óptica del Consejo Superior de Investigaciones Científicas (IO?CSIC). Este método de calibración ha sido aplicado para calibrar varios tipos de interrogadores de redes de Bragg: estáticos y dinámicos. La incertidumbre en la calibración absoluta de los interrogadores es de ±88 pm, y es debida principalmente a la anchura espectral del filtro que simula la red de Bragg. Sin embrago, en calibraciones relativas la incertidumbre baja a ±3 pm, dominado por la incertidumbre en la calibración del interferómetro de referencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de este estudio fue analizar y comparar el comportamiento visual de taekwondistas de diferente nivel de pericia (17 expertos, 7 experimentados y 9 novatos) ante una situación de combate simulada en laboratorio. Se empleó el pupilómetro Mobile Eye ASL para registrar la mirada mientras visionaban acciones de ataque grabadas y presentadas a tamaño real. Los resultados mostraron que mientras que los taekwondistas novatos mostraron un mayor número de fijaciones de menor duración en zonas corporales como la cabeza o piernas del oponente a medida que aumentaban el nivel de pericia (experimentados y expertos)el comportamiento visual se caracterizó por un menor número de fijaciones pero de mayor duración en la zona del torso del oponente. Los taekwondistas expertos mostraron una estrategia visual muy diferenciada basada en un pivote visual y una estabilización de la mirada, quite eye, antes de la toma de decisiones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo, se han llevado a cabo distintos experimentos en laboratorio, con el objetivo de estudiar el efecto de la aplicación de residuos orgánicos como fuentes de P en las pérdidas de este elemento, que se producen en suelo, tanto por escorrentía superficial como por lixiviación. El interés por evaluar las pérdidas de P se debe a la necesidad de conocer mejor los factores que influyen en los procesos de pérdidas de este elemento y así, poder reducir los problemas de eutrofización de aguas, tanto superficiales como subterráneas, provocadas por un exceso de este nutriente, junto con otros como el nitrógeno. Los trabajos experimentales que se han llevado a cabo se detallan a continuación: Se ha realizado el estudio de las formas de P contenidas en una serie de 14 residuos orgánicos, de distinto origen y tratamiento (compost, lodos, purines y digestato), comparando la información aportada por tres protocolos de fraccionamientos de P diferentes, seleccionados entre los principales métodos utilizados: protocolo de fraccionamiento de Ruttemberg (1992), protocolo de Normas, medidas y ensayos (Ruban et al., 2001a) y protocolo de Huang et al. (2008). Todos los métodos de fraccionamiento empleados aportaron información útil para conocer las formas de P de los residuos, a pesar de que alguno de ellos fue descrito para sedimentos o suelos. Sin embargo, resulta difícil comparar los resultados entre unos y otros, ya que cada uno emplea extractantes y tiempos de ensayos diferentes. Las cantidades de P total determinadas por cada método mantienen una relación lineal, aunque el método SMT, por ser más directo, obtiene las cantidades más elevadas para todos los residuos. Los métodos secuenciales (métodos de Huang y Ruttemberg), a pesar de ser más largos y tediosos, aportan información más detallada de la disponibilidad de las formas de P, y con ello, permiten obtener una mejor estimación de las pérdidas potenciales de este elemento tras su aplicación en suelo. Se han encontrado relaciones positivas entre las fracciones determinadas por estos dos métodos. Así mismo, se encuentra una correlación entre las formas solubles de P y la concentración de los iones [Ca + Fe + Al] de los residuos, útiles como indicadores de la disponibilidad de este elemento. Sin embargo, el protocolo SMT, no obtiene información de la solubilidad o disponibilidad de las formas de P contenidas, ni las formas determinadas mantienen relaciones directas con las de los otros métodos, con excepción del P total. Para el estudio del comportamiento de los residuos aplicados en suelos, se pusieron a punto sistemas de lluvia simulada, con el objetivo de caracterizar las pérdidas de P en la escorrentía superficial generada. Por otra parte, se emplearon columnas de suelos enmendados con residuos orgánicos, para el estudio de las pérdidas de P por lixiviación. Los ensayos de simulación de lluvia se llevaron a cabo de acuerdo al “National Phosphorus Research proyect“ (2001), que consigue simular eventos sucesivos de lluvia en unas condiciones semejantes a la realidad, empleando cajas llenas de suelo del horizonte superficial, con residuos aplicados tanto superficialmente como mediante mezcla con el propio suelo. Los ensayos se realizaron con seis residuos de diferente naturaleza y sometidos a distintos tratamientos. Se encontraron diferencias significativas en las pérdidas de las formas de P analizadas, tanto disueltas como particuladas, en las aguas de escorrentía generadas. En general, las pérdidas en el primer evento de lluvia tras la aplicación de los residuos fueron mayores a las generadas en el segundo evento, predominando las formas de P particuladas respecto a las disueltas en ambos. Se encontró una relación positiva entre las pérdidas de P en las aguas de escorrentía generadas en cada ensayo, con los contenidos de P soluble en agua y fácilmente disponible de los residuos empleados, determinados por los protocolos de fraccionamientos secuenciales. Además, se emplearon los modelos matemáticos desarrollados por Vadas et al. (2005, 2007), de evaluación de las pérdidas de P por escorrentía para fertilizantes y estiércoles. La predicción de estos modelos no se cumple en el caso de todos los residuos. Las distintas propiedades físicas de los residuos pueden afectar a las diferencias entre las pérdidas experimentales y las esperadas. Los ensayos de simulación del proceso de lixiviación se llevaron a cabo en columnas de percolación, con suelos enmendados con residuos orgánicos, de acuerdo a la norma “CEN/TS 14405–2004: Caracterización de los residuos – Test de comportamiento de lixiviación – Test de flujo ascendente”. Las pérdidas de P por procesos de lixiviación de agua, han sido despreciadas durante mucho tiempo respecto a las pérdidas por escorrentía. Sin embargo, se ha demostrado que deben tenerse en consideración, principalmente en algunos tipos de suelos o zonas cercanas a acuíferos. Se utilizaron tres suelos de distinta procedencia para los ensayos, de manera que se pudo estudiar la influencia del tipo de suelo en las pérdidas de P para cada tipo de residuo (purín, compost, digestato y lodo de EDAR). Los índices de adsorción de P determinados para cada suelo permiten evaluar aquellos que presentarán más riesgo de producir pérdidas de este elemento al aplicarse fuentes externas de P, encontrando una relación positiva entre ambos. Las pérdidas de P en los lixiviados varían en función tanto del residuo como del suelo empleado. Para el compost, el purín y el lodo, se encontró una relación entre las pérdidas generadas en el agua lixiviada de las columnas y las formas de P soluble contenidas en los residuos. Sin embargo, en el caso del digestato, no existía esta correlación. Las pérdidas para este residuo fueron en todos los casos menores a las estimadas, considerando las formas de P contenido. El estudio de la mojabilidad, propiedad física del residuo que evalúa la capacidad de interacción residuo-agua, permitió explicar el comportamiento anómalo de este residuo, con una mayor resistencia a que el agua entrara en su estructura y por tanto, una mayor dificultad de solubilizar el P contenido en el propio residuo, que en el caso de otros residuos. En general, podemos considerar que el estudio de las formas de P más disponibles o solubles en agua, aporta información útil de las pérdidas potenciales de P. Sin embargo, es necesario estudiar las propiedades físicas de los residuos orgánicos aplicados y la capacidad de adsorción de P de los suelos, para estimar las pérdidas de P y con ello, colaborar a controlar los procesos de eutrofización en aguas. ABSTRACT This dissertation explores the effect of organic wastes application as sources of P in losses of this element that occur by both surface runoff and leaching in soil. To do so, diverse laboratory experiments are conducted and presented here. Evaluating P losses is necessary to better understand the factors that influence the processes behind the loss of this element. Reducing P losses reduces eutrophication problems of both surface water and groundwater caused by an excess of this nutrient, along with other as nitrogen. Details of the experiments are presented below: The first experiment studies the forms of P contained in a series of 14 organic wastes of different origin and treatment (compost, sludge, slurry and digestate), comparing the information provided by three methods of P fractionation. The methods selected were: Ruttemberg protocol (1992); Standards, Measurements and Testing protocol (Ruban et al., 2001a); and Huang protocol (Huang et al., 2008). All fractionation methods employed successfully contribute to our knowledge of P forms in wastes, even though one of them was originally described for sediments or soils information. However, it is difficult to compare results among each other, as each protocol employs different extractants and time in the trials. Total amounts of P obtained by each method show a linear relationship, although the SMT method, which is more direct, obtains the highest amounts for all residues. Sequential methods (Huang and Ruttemberg’s protocols), despite being longer and more tedious, provide more detailed information on the availability of the forms of P. Therefore, allow the estimation of the potential losses of P after application in soil. Furthermore, positive relationships have been found among fractions obtained by these methods. Positive relationship has been found also among soluble forms of P and the concentration of ions Fe + Ca + Al, which is useful as an indicator of the availability of this element. However, the SMT protocol does not collect information about solubility or availability of forms of P contained; neither do certain forms maintain direct relations with the forms from other methods, with the exception of total P methods. To study the behavior of wastes applied to soils two experiments were conducted. Simulated rain systems were prepared to characterize P losses in the surface runoff generated. In addition, columns of soils amended with organic waste were developed for the study of P leaching losses. Simulated rain systems were carried out according to the ’National Phosphorus Research Project’ (2001), which manages to simulate successive rainfall events in conditions resembling reality. The experiment uses boxes filled with soil from the surface horizon amended with residues, both superficially and by mixing with the soil. Tests were conducted with six residues of different type and subjected to diverse treatments. Findings show significant differences in losses of the P forms analyzed in the generated runoff water, in both solution and particulate forms. In general, losses in the first rainfall event after application of waste were higher than the losses generated in the second event, predominating particulate forms of P over dissolved forms in both events. In all trials, a positive relationship was found between various P forms determined by sequential fractionation protocols (water soluble P and readily available P forms) and P losses in runoff. Furthermore, results from Vadas´s mathematical models (Vadas et al., 2005; 2007) to assess P losses by runoff fertilizers and manures indicate that the prediction of this model is not fulfilled in the case of all residues. The diverse physical properties of wastes may affect the differences between experimental and expected losses. Finally, leaching simulation processes were carried out in percolation columns, filled with soils amended with organic wastes, following the ‘CEN/TS 14405-2004 standard: Characterization of waste - Leaching behavior test - Test Flow ascending ’. P losses by leaching have been neglected for a long time with respect to runoff losses. However, findings corroborate previous studies showing that these P losses have to be taken into account, especially in certain types of soils and in zones near aquifers. To study the influence of soil type on P losses, experiments were carried out with three different soils and for each type of waste (manure, compost, digestate and sludge WWTP). Each soil’s P adsorption rates allow assessing which soils imply a higher risk of P losses when external sources of P are applied. P losses in leachate vary according to the type of soil employed and according to the specific residue. In the case of compost, manure and sludge, there is a relationship between leaching losses and residues’ soluble forms of P. The exception being the digestate, where there was no such correlation. Digestate P losses by leaching were lower than expected in all cases considering the forms of P contained. Moreover, examining digestate wettability -- that is, the physical property of the residue that assesses the capacity of waste-water interaction -- allowed explaining the anomalous behavior of this residue. Digestate has a high resistance to water entering its structure and thus higher difficulty to solubilize the P contained. Overall, studying the more available or soluble P forms provides useful information about the potential loss of P. However, this dissertation shows that it is necessary to examine the physical properties of organic residues applied as well as the P adsorption capacity of soils to estimate P losses, and thus to control eutrophication in water.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el proyecto se realiza el estudio del comportamiento acústico y electroacústico de la sala 5 de los cines Kinépolis de Madrid. El objetivo es determinar las características acústicas de la sala mediante la realización de las medidas in-situ para después analizar y simular la misma con EASE4.4, realizar una sonorización apropiada para reproducción de cine, valorar la sala actual y proponer algunas mejoras. El desarrollo del proyecto se ha dividido en tres partes. En primer lugar, se realizan las medidas espaciales y acústicas in-situ con el programa de toma de medidas Dirac 5.5. En este paso, se obtienen las medidas reales (usadas en la simulación 3D posterior) y los dos parámetros acústicos importantes inherentes a la sala, el tiempo de reverberación y el ruido de fondo. Además, se estudia el conexionado de altavoces y de los equipos instalados en sala. En segundo lugar, se hace la simulación de la sala, para ello se realiza su diseño con el programa de simulación acústica EASE 4.4, con el que se ajustan las condiciones de campo a las existentes en Kinépolis, asegurando que el comportamiento acústico de la sala simulada sea similar al real. También se distribuirá el sistema electroacústico con la descripción del conexionado y la configuración de los altavoces. En la simulación, durante el estudio acústico, además de desarrollar el dimensionado del recinto, se ajustan los materiales de tal manera que el tiempo de reverberación sea el de la sala de estudio considerando también el ruido de fondo. En cuanto al estudio electroacústico, se distribuyen los altavoces en las posiciones medidas in-situ de la instalación y se detalla su conexionado. De esta manera, se realizan los cálculos para ajustar sus respuestas para proporcionar un recubrimiento sonoro uniforme y el efecto precedencia desde la zona frontal al oyente deseado. Finalmente, y a partir de los datos obtenidos en la simulación, se hace una valoración a través de diversos criterios de inteligibilidad, se extraen las conclusiones del estudio y se proponen una serie de mejoras en la sala real para obtener unas prestaciones sonoras óptimas. Se consigue con el proyecto, tras el aprendizaje de las herramientas específicas utilizadas, la recopilación de documentación y el análisis de datos de la sala, aplicar los conceptos teóricos de manera práctica a un caso real. ABSTRACT. During the project is carried out the acoustic and electroacoustic study of the room cinema 5 of the Kinépolis group in Madrid. The objective is to determine the acoustic characteristics of the room by performing the in-situ measurements in order to analyze and simulate it with the software EASE 4.4 making an appropriate sound for movie playback, assess the current room, and propose some improvements. Development of the project is composed of three parts. First, the performing of the spatial and acoustic in-situ measurements with the program Dirac 5.5. On this step, the real measures are obtained (that will be used on the next 3D simulation) and the two important parameters inherent to the room, the reverberation time and the noise level. In addition, the speaker connections and the installations of the cinema’s equipment are studied. Secondly, the simulation of the room cinema is performed. This simulation is done with the acoustic simulation program EASE 4.4 in which its field conditions conform to the conditions of Kinépolis, ensuring that the acoustic behavior of the simulated room is similar to the real room. Also, the electroacustic system is distributed with the wiring and the speaker setup. During the acoustic study of the simulation, in addition to do the dimensions of the cinema room, the materials are adjusted in order to synchronize reverberation time to that of the real room. The noise level is taking in account too. For the electroacustic studio, the speakers will be distributed in the positions measured in-situ to do the installation and its detailed connection. By this way, the calculations are done to adjust to the responses in a way to give a sound uniform coating with the precedence effect desired on the front area of the listeners. Lastly, and from the data obtained in the simulation, an assessment is done through the various criteria of intelligibility, conclusions are drawn from the study and a number of improvements are proposed in the actual room for obtain optimal sound benefits. With this project is achieved, after gain learning of the specific tolls used, the documentation collected and the data analysis of the room, to apply theoretical concepts in a practical way for a real case.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas de telealimentación han tomado gran importancia en diferentes campos, incluido el de las telecomunicaciones, algunos ejemplos pueden ser: En la red conmutada telefónica junto con la señal de información y llamada existe una alimentación de 48v que se transmite a través de toda la línea de transmisión hasta los terminales. En algunos ferrocarriles eléctricos, se aprovecha la producción de energía eléctrica cuando un tren baja una cuesta y el motor funciona como generador, devolviendo la energía excedente a la propia catenaria por medio de superposición, y siendo esta recuperada en otro lugar y aprovechada por ejemplo por otro tren que requiere energía. Otro uso en ferrocarriles de la telealimentación es la llamada "tecnología del transpondedor magnético", en la que el tren transmite a las balizas una señal en 27MHz además de otras de información propias, que se convierte en energía útil para estas balizas. En este proyecto pretendemos implementar un pequeño ejemplo de sistema de telealimentación trabajando en 5 MHz (RF). Este sistema transforma una señal de CC en una señal de potencia de CA que podría ser, por ejemplo, transmitida a lo largo de una línea de transmisión o radiada por medio de una antena. Después, en el extremo receptor, esta señal RF se transforma finalmente en DC. El objetivo es lograr el mejor rendimiento de conversión de energía, DC a AC y AC a DC. El sistema se divide en dos partes: El inversor, que es la cadena de conversión DC-AC y el rectificador, que es la cadena de conversión AC-DC. Cada parte va a ser calculada, simulada, implementada físicamente y medida aparte. Finalmente el sistema de telealimentación completo se va a medir mediante la interconexión de cada parte por medio de un adaptador o una línea de transmisión. Por último, se mostrarán los resultados obtenidos. ABSTRACT. Remote powering systems have become very important in different fields, including telecommunications, some examples include: In the switched telephone network with the information signal and call there is a 48v supply that is transmitted across the transmission line to the terminals. In some electric railways, the production of electrical energy is used when a train is coming down a hill and the motor acts as a generator, returning the surplus energy to the catenary itself by overlapping, and this being recovered elsewhere and used by other train. Home TV amplifiers that are located in places (storage, remote locations ..) where there is no outlet, remote power allows to carry information and power signal by the same physical medium, for instance a coax. The AC power signal is transformed into DC at the end to feed the amplifier. In medicine, photovoltaic converters and fiber optics can be used as means for feeding devices implanted in patients. Another use of the remote powering systems on railways is the "magnetic transponder technology", in which the station transmits a beacon signal at 27MHz own as well as other information, which is converted into useful energy to these beacons. In this Project we are pretending to implement a little example of remote powering system working in 5 MHz (RF). This system transform DC into an AC-RF power signal which could be, for instance, transmitted throughout a transmission line or radiated by means of an aerial. At the receiving end, this RF signal is then transformed to DC. The objective is to achieve the best power conversion performance, DC to AC and AC to DC. The system is divided in two parts: The inverter, that is the DC-AC conversion chain and the rectifier that is the AC-DC conversion chain. Each part is going to be calculated, simulated, implemented physically and measured apart. Then the complete remote-powering system is to be measured by interconnecting each part by means of a interconnector or a transmission line. Finally, obtained results will be shown.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tiempo de concentración de una cuenca sigue siendo relativamente desconocido para los ingenieros. El procedimiento habitual en un estudio hidrológico es calcularlo según varias fórmulas escogidas entre las existentes para después emplear el valor medio obtenido. De esta media se derivan los demás resultados hidrológicos, resultados que influirán en el futuro dimensionamiento de las infraestructuras. Este trabajo de investigación comenzó con el deseo de conseguir un método más fiable y objetivo que permitiera obtener el tiempo de concentración. Dada la imposibilidad de poner en práctica ensayos hidrológicos en una cuenca física real, ya que no resulta viable monitorizar perfectamente la precipitación ni los caudales de salida, se planteó llevar a cabo los ensayos de forma simulada, con el empleo de modelos hidráulicos bidimensionales de lluvia directa sobre malla 2D de volúmenes finitos. De entre todos los disponibles, se escogió InfoWorks ICM, por su rapidez y facilidad de uso. En una primera fase se efectuó la validación del modelo hidráulico elegido, contrastando los resultados de varias simulaciones con la formulación analítica existente. Posteriormente, se comprobaron los valores de los tiempos de concentración obtenidos con las expresiones referenciadas en la bibliografía, consiguiéndose resultados muy satisfactorios. Una vez verificado, se ejecutaron 690 simulaciones de cuencas tanto naturales como sintéticas, incorporando variaciones de área, pendiente, rugosidad, intensidad y duración de las precipitaciones, a fin de obtener sus tiempos de concentración y retardo. Esta labor se realizó con ayuda de la aceleración del cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo). Basándose en el análisis dimensional, se agruparon los resultados del tiempo de concentración en monomios adimensionales. Utilizando regresión lineal múltiple, se obtuvo una nueva formulación para el tiempo de concentración. La nueva expresión se contrastó con las formulaciones clásicas, habiéndose obtenido resultados equivalentes. Con la exposición de esta nueva metodología se pretende ayudar al ingeniero en la realización de estudios hidrológicos. Primero porque proporciona datos de manera sencilla y objetiva que se pueden emplear en modelos globales como HEC-HMS. Y segundo porque en sí misma se ha comprobado como una alternativa realmente válida a la metodología hidrológica habitual. Time of concentration remains still fairly imprecise to engineers. A normal hydrological study goes through several formulae, obtaining concentration time as the median value. Most of the remaining hydrologic results will be derived from this value. Those results will determine how future infrastructures will be designed. This research began with the aim to acquire a more reliable and objective method to estimate concentration times. Given the impossibility of carrying out hydrological tests in a real watershed, due to the difficulties related to accurate monitoring of rainfall and derived outflows, a model-based approach was proposed using bidimensional hydraulic simulations of direct rainfall over a 2D finite-volume mesh. Amongst all of the available software packages, InfoWorks ICM was chosen for its speed and ease of use. As a preliminary phase, the selected hydraulic model was validated, checking the outcomes of several simulations over existing analytical formulae. Next, concentration time values were compared to those resulting from expressions referenced in the technical literature. They proved highly satisfactory. Once the model was properly verified, 690 simulations of both natural and synthetic basins were performed, incorporating variations of area, slope, roughness, intensity and duration of rainfall, in order to obtain their concentration and lag times. This job was carried out in a reasonable time lapse with the aid of the parallel computing platform technology CUDA (Compute Unified Device Architecture). Performing dimensional analysis, concentration time results were isolated in dimensionless monomials. Afterwards, a new formulation for the time of concentration was obtained using multiple linear regression. This new expression was checked against classical formulations, obtaining equivalent results. The publication of this new methodology intends to further assist the engineer while carrying out hydrological studies. It is effective to provide global parameters that will feed global models as HEC-HMS on a simple and objective way. It has also been proven as a solid alternative to usual hydrology methodology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El control del estado en el que se encuentran las estructuras ha experimentado un gran auge desde hace varias décadas, debido a que los costes de rehabilitación de estructuras tales como los oleoductos, los puentes, los edificios y otras más son muy elevados. En las últimas dos décadas, se han desarrollado una gran cantidad de métodos que permiten identificar el estado real de una estructura, basándose en modelos físicos y datos de ensayos. El ensayo modal es el más común; mediante el análisis modal experimental de una estructura se pueden determinar parámetros como la frecuencia, los modos de vibración y la amortiguación y también la función de respuesta en frecuencia de la estructura. Mediante estos parámetros se pueden implementar diferentes indicadores de daño. Sin embargo, para estructuras complejas y grandes, la implementación de metodologías basadas en la función de respuesta en frecuencia requeriría realizar hipótesis sobre la fuerza utilizada para excitar la estructura. Dado que el análisis modal operacional utiliza solamente las señales de respuesta del sistema para extraer los parámetros dinámicos estructurales y, por tanto, para evaluar el estado de una estructura, el uso de la transmisibilidad sería posible. En este sentido, dentro del análisis modal operacional, la transmisibilidad ha concentrado mucha atención en el mundo científico en la última década. Aunque se han publicado muchos trabajos sobre el tema, en esta Tesis se proponen diferentes técnicas para evaluar el estado de una estructura basándose exclusivamente en la transmisibilidad. En primer lugar, se propone un indicador de daño basado en un nuevo parámetro, la coherencia de transmisibilidad; El indicador se ha valido mediante resultados numéricos y experimentales obtenidos sobre un pórtico de tres pisos. En segundo lugar, la distancia de Mahalanobis se aplica sobre la transmisibilidad como procedimiento para detectar variaciones estructurales provocadas por el daño. Este método se ha validado con éxito sobre una viga libre-libre ensayada experimentalmente. En tercer lugar, se ha implementado una red neuronal basada en medidas de transmisibilidad como metodología de predicción de daño sobre una viga simulada numéricamente. ABSTRACT Structural health monitoring has experienced a huge development from several decades ago since the cost of rehabilitation of structures such as oil pipes, bridges and tall buildings is very high. In the last two decades, a lot of methods able to identify the real stage of a structure have been developed basing on both models and experimental data. Modal testing is the most common; by carrying out the experimental modal analysis of a structure, some parameters, such as frequency, mode shapes and damping, as well as the frequency response function of the structure can be obtained. From these parameters, different damage indicators have been proposed. However, for complex and large structures, any frequency domain approach that relies on frequency response function estimation would be of difficult application since an assumption of the input excitations to the system should be carried out. Operational modal analysis uses only output signals to extract the structural dynamic parameters and, therefore, to identify the structural stage. In this sense, within operational modal analysis, transmissibility has attracted a lot of attention in the scientific field in the last decade. In this work new damage detection approaches based on transmissibility are developed. Firstly, a new theory of transmissibility coherence is developed and it is tested with a three-floor-structure both in simulation and in experimental data analysis; secondly, Mahalanobis distance is taken into use with the transmissibility, and a free-free beam is used to test the approach performance; thirdly, neural networks are used in transmissibility for structural health monitoring; a simulated beam is used to validate the proposed method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El control del estado en el que se encuentran las estructuras ha experimentado un gran auge desde hace varias décadas, debido a que los costes de rehabilitación de estructuras tales como los oleoductos, los puentes, los edificios y otras más son muy elevados. En las últimas dos décadas, se han desarrollado una gran cantidad de métodos que permiten identificar el estado real de una estructura, basándose en modelos físicos y datos de ensayos. El ensayo modal es el más común; mediante el análisis modal experimental de una estructura se pueden determinar parámetros como la frecuencia, los modos de vibración y la amortiguación y también la función de respuesta en frecuencia de la estructura. Mediante estos parámetros se pueden implementar diferentes indicadores de daño. Sin embargo, para estructuras complejas y grandes, la implementación de metodologías basadas en la función de respuesta en frecuencia requeriría realizar hipótesis sobre la fuerza utilizada para excitar la estructura. Dado que el análisis modal operacional utiliza solamente las señales de respuesta del sistema para extraer los parámetros dinámicos estructurales y, por tanto, para evaluar el estado de una estructura, el uso de la transmisibilidad sería posible. En este sentido, dentro del análisis modal operacional, la transmisibilidad ha concentrado mucha atención en el mundo científico en la última década. Aunque se han publicado muchos trabajos sobre el tema, en esta Tesis se proponen diferentes técnicas para evaluar el estado de una estructura basándose exclusivamente en la transmisibilidad. En primer lugar, se propone un indicador de daño basado en un nuevo parámetro, la coherencia de transmisibilidad; El indicador se ha valido mediante resultados numéricos y experimentales obtenidos sobre un pórtico de tres pisos. En segundo lugar, la distancia de Mahalanobis se aplica sobre la transmisibilidad como procedimiento para detectar variaciones estructurales provocadas por el daño. Este método se ha validado con éxito sobre una viga libre-libre ensayada experimentalmente. En tercer lugar, se ha implementado una red neuronal basada en medidas de transmisibilidad como metodología de predicción de daño sobre una viga simulada numéricamente. ABSTRACT Structural health monitoring has experienced a huge development from several decades ago since the cost of rehabilitation of structures such as oil pipes, bridges and tall buildings is very high. In the last two decades, a lot of methods able to identify the real stage of a structure have been developed basing on both models and experimental data. Modal testing is the most common; by carrying out the experimental modal analysis of a structure, some parameters, such as frequency, mode shapes and damping, as well as the frequency response function of the structure can be obtained. From these parameters, different damage indicators have been proposed. However, for complex and large structures, any frequency domain approach that relies on frequency response function estimation would be of difficult application since an assumption of the input excitations to the system should be carried out. Operational modal analysis uses only output signals to extract the structural dynamic parameters and, therefore, to identify the structural stage. In this sense, within operational modal analysis, transmissibility has attracted a lot of attention in the scientific field in the last decade. In this work new damage detection approaches based on transmissibility are developed. Firstly, a new theory of transmissibility coherence is developed and it is tested with a three-floor-structure both in simulation and in experimental data analysis; secondly, Mahalanobis distance is taken into use with the transmissibility, and a free-free beam is used to test the approach performance; thirdly, neural networks are used in transmissibility for structural health monitoring; a simulated beam is used to validate the proposed method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La situación energética actual es insostenible y como consecuencia se plantea un escenario próximo orientado a conseguir un futuro energético sostenible que permita el desarrollo económico y el bienestar social. La situación ambiental actual está afectada directamente por la combustión de combustibles fósiles que en 2013 constituyeron el 81% de la energía primaria utilizada por el ser humano y son la principal fuente antropogénica de gases de efecto invernadero. Los informes del IPCC1, ponen de manifiesto que el cambio climático se ha consolidado durante los últimos años y en la conferencia de la ONU sobre cambio climático de París que se celebrará a finales de 2015, se pretende que los gobiernos suscriban un acuerdo universal para limitar las emisiones de gases de efecto invernadero y evitar que el incremento de la temperatura media global supere los 2°C. Por otra parte, en el interior de las ciudades es especialmente preocupante, por su efecto directo sobre la salud humana, el impacto ambiental producido por las emisiones de NOx que generan el transporte de personas y mercancías. El sector del transporte fue responsable en 2012 del 27,9% del consumo final de energía. Una vez expuesto el escenario energético y ambiental actual, en esta tesis, se analiza la eficiencia de un sistema autónomo fotovoltaico para la carga de baterías de vehículos eléctricos y el uso del mismo con otras cargas, con el objetivo de aprovechar al máximo la energía eléctrica generada y contribuir a la utilización de energía limpia que no produzca impacto ambiental. Como primer paso para el desarrollo de la tesis se hizo un estudio de trabajos previos comenzando por las primeras aplicaciones de la energía fotovoltaica en los vehículos solares para después pasar a trabajos más recientes enfocados al suministro de energía a los vehículos eléctricos. También se hizo este estudio sobre las metodologías de simulación en los sistemas fotovoltaicos y en el modelado de distintos componentes. Posteriormente se eligieron, dentro de la amplia oferta existente en el mercado, los componentes con características técnicas más adecuadas para este tipo de instalaciones y para las necesidades que se pretenden cubrir. A partir de los parámetros técnicos de los componentes elegidos para configurar la instalación autónoma y utilizando modelos contrastados de distintos componentes, se ha desarrollado un modelo de simulación en ordenador del sistema completo con el que se han hecho simulaciones con distintos modos de demanda de energía eléctrica, según los modos de carga disponibles en el vehículo eléctrico para corriente alterna monofásica de 230 V. También se han simulado distintos tamaños del generador fotovoltaico y del sistema de acumulación de energía eléctrica para poder determinar la influencia de estos parámetros en los balances energéticos del sistema. Utilizando recursos propios el doctorando ha realizado la instalación real de un sistema fotovoltaico que incluye sistema de acumulación e inversor en un edificio de su propiedad. Para la realización de la tesis, La Fundación de Fomento e Innovación Industrial (F2I2) ha facilitado al doctorando un dispositivo que permite realizar la alimentación del vehículo eléctrico en modo 2 (este modo emplea un adaptador que incorpora dispositivos de seguridad y se comunica con el vehículo permitiendo ajustar la velocidad de recarga) y que ha sido necesario para los trabajos desarrollados. Se ha utilizado la red eléctrica como sistema de apoyo de la instalación fotovoltaica para permitir la recarga en el modo 2 que requiere más potencia que la proporcionada por el sistema fotovoltaico instalado. Se han analizado mediante simulación distintos regímenes de carga que se han estudiado experimentalmente en la instalación realizada, a la vez que se han hecho ensayos que se han reproducido mediante simulación con los mismos valores de radiación solar y temperatura con objeto de contrastar el modelo. Se han comparado los resultados experimentales con los obtenidos mediante simulación con objeto de caracterizar el comportamiento del sistema de acumulación (energía eléctrica suministrada y tensión de salida en las baterías) y del generador fotovoltaico (energía eléctrica fotovoltaica suministrada). Por último, se ha realizado un estudio económico de la instalación autónoma fotovoltaica ejecutada y simulada. En el mismo se ha planteado la utilización de fondos propios (como realmente se ha llevado a cabo) y la utilización de financiación, para determinar dos posibles escenarios que pudieran ser de utilidad a un propietario de vehículo eléctrico. Se han comparado los resultados obtenidos en los dos escenarios propuestos del estudio económico del sistema, en cuanto a los parámetros de tiempo de retorno de la inversión, valor actual neto de la inversión y tasa interna de retorno de la misma. Las conclusiones técnicas obtenidas, permiten la utilización del sistema con los modos de carga ensayados y otro tipo de cargas que aprovechen la generación eléctrica del sistema. Las baterías ofrecen mejor comportamiento cuando el aporte fotovoltaico está presente, pero no considera adecuado la conexión de cargas elevadas a un sistema de acumulación de gel (plomo-acido) como el que se ha utilizado, debido al comportamiento de este tipo de baterías ante demandas de intensidad de corriente eléctrica elevadas. Por otra parte, el comportamiento de este tipo de baterías con valores de intensidad de corriente eléctrica inferiores a 10 A en ausencia de energía fotovoltaica, con el objetivo de utilizar la generación de energía eléctrica diaria acumulada en el sistema, sí resulta interesante y ofrece un buen comportamiento del sistema de acumulación. Las circunstancias actuales de mercado, que carece de sistemas de acumulación de litio con precios de compra interesantes, no han permitido poder experimentar este sistema de acumulación en la instalación autónoma fotovoltaica ejecutada, tampoco se ha podido obtener el favor de ningún fabricante para ello. Actualmente hay disponibles sistemas de acumulación en litio que no se comercializan en España y que serían adecuados para el sistema de acumulación de energía propuesto en este estudio, que deja abierta las puertas para futuros trabajos de investigación. Las conclusiones económicas obtenidas, rentabilizan el uso de una instalación autónoma fotovoltaica con consumo instantáneo, sin acumulación de energía eléctrica. El futuro de conexión a red por parte de estas instalaciones, cuando se regule, aportará un incentivo económico para rentabilizar con menos tiempo las instalaciones autónomas fotovoltaicas, esto también deja la puerta abierta a futuros trabajos de investigación. El sistema de acumulación de energía aporta el mayor peso económico de inversión en este tipo de instalaciones. La instalación estudiada aporta indicadores económicos que la hacen rentable, pero se necesitaría que los precios de acumulación de la energía en sistemas eficientes estén comprendidos entre 100-200 €/kWh para que el sistema propuesto en este trabajo resulte atractivo a un potencial propietario de un vehículo eléctrico. ABSTRACT The current energy situation is untenable; it poses a scenario next focused on reaching a sustainable energy future, to allow economic development and social welfare. The environmental current situation is affected directly by the combustion of fossil fuels that in 2013 constituted 81 % of the primary energy used by the human being and they are the principal source human of greenhouse gases. The reports of the IPCC2, they reveal that the climate change has consolidated during the last years and in the conference of the UNO on climate change of Paris that will be celebrated at the end of 2015, there is claimed that the governments sign a universal agreement to limit the emission of greenhouse gases and to prevent that the increase of the global average temperature overcomes them 2°C. On the other hand, inside the cities it is specially worrying, for his direct effect on the human health, the environmental impact produced by the NOx emissions that generate the persons' transport and goods. The sector of the transport was responsible in 2012 of 27,9 % of the final consumption of energy. Once exposed the scenario and present environmental energy, in this thesis, it has analyzed the efficiency of an autonomous photovoltaic system for charging electric vehicles, and the use of the same with other workloads, with the objective to maximize the electrical energy generated and contribute to the use of clean energy that does not produce environmental impact. Since the first step for the development of the thesis did to itself a study of previous works beginning for the first applications of the photovoltaic power in the solar vehicles later to go on to more recent works focused on the power supply to the electrical vehicles. Also this study was done on the methodologies of simulation in the photovoltaic systems and in the shaped one of different components. Later they were chosen, inside the wide existing offer on the market, the components with technical characteristics more adapted for this type of facilities and for the needs that try to cover. From the technical parameters of the components chosen to form the autonomous installation and using models confirmed of different components, a model of simulation has developed in computer of the complete system with which simulations have been done by different manners of demand of electric power, according to the available manners of load in the electrical vehicle for single-phase alternating current of 230 V. Also there have been simulated different sizes of the photovoltaic generator and of the system of accumulation of electric power to be able to determine the influence of these parameters in the energy balances of the system. Using own resources the PhD student has realized a real installation of a photovoltaic system that includes system of accumulation and investing in a building of his property. For the accomplishment of the thesis, The Foundation of Promotion and Industrial Innovation (F2I2) it has facilitated to the PhD student a device that allows to realize the supply of the electrical vehicle in way 2 (this way uses an adapter that incorporates safety devices and communicates with the vehicle allowing to fit the speed of recharges) and that has been necessary for the developed works. The electrical network has been in use as system of support of the photovoltaic installation for allowing it her recharges in the way 2 that more power needs that provided by the photovoltaic installed system. There have been analyzed by means of simulation different rate of load that have been studied experimentally in the realized installation, simultaneously that have done to themselves tests that have reproduced by means of simulation with the same values of solar radiation and temperature in order the model contrasted. The experimental results have been compared by the obtained ones by means of simulation in order to characterize the behavior of the system of accumulation (supplied electric power and tension of exit in the batteries) and of the photovoltaic generator (photovoltaic supplied electric power). Finally, there has been realized an economic study of the autonomous photovoltaic executed and simulated installation. In the same one there has appeared the utilization of own funds (since really it has been carried out) and the utilization of financing, to determine two possible scenes that could be of usefulness to an owner of electrical vehicle. There have been compared the results obtained in both scenes proposed of the economic study of the system, as for the parameters of time of return of the investment, current clear value of the investment and rate hospitalizes of return of the same one. The technical obtained conclusions, they make the utilization of the system viable with the manners of load tested and another type of loads of that they take advantage the electrical generation of the system. The batteries offer better behavior when the photovoltaic contribution is present, but he does not consider to be suitable the connection of loads risen up to a system of accumulation of gel (lead - acid) as the one that has been in use, due to the behavior of this type of batteries before demands of intensity of electrical current raised. On the other hand, the behavior of this type of batteries with low values of intensity of electrical current to 10 To in absence of photovoltaic power, with the aim to use the generation of daily electric power accumulated in the system, yes turns out to be interesting and offers a good behavior of the system of accumulation. The current circumstances of market, which lacks systems of accumulation of lithium with interesting purchase prices, have not allowed to be able to experience this system of accumulation in the autonomous photovoltaic executed installation, neither one could have obtained the favor of any manufacturer for it. Nowadays there are available systems of accumulation in lithium that is not commercialized in Spain and that they would be adapted for the system of accumulation of energy proposed in this study, which makes the doors opened for future works of investigation. The economic obtained conclusions; they make more profitable the use of an autonomous photovoltaic installation with instantaneous consumption, without accumulation of electric power. The future of connection to network on the part of these facilities, when it is regulated, will contribute an economic incentive to make profitable with less time the autonomous photovoltaic facilities, this also leaves the door opened for future works of investigation. The system of accumulation of energy contributes the major economic weight of investment in this type of facilities. The studied installation contributes economic indicators that make her profitable, but it would be necessary that the prices of accumulation of the energy in efficient systems are understood between 100-200 € in order that the system proposed in this work turns out to be attractive to a proprietary potential of an electrical vehicle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La medida de calidad de vídeo sigue siendo necesaria para definir los criterios que caracterizan una señal que cumpla los requisitos de visionado impuestos por el usuario. Las nuevas tecnologías, como el vídeo 3D estereoscópico o formatos más allá de la alta definición, imponen nuevos criterios que deben ser analizadas para obtener la mayor satisfacción posible del usuario. Entre los problemas detectados durante el desarrollo de esta tesis doctoral se han determinado fenómenos que afectan a distintas fases de la cadena de producción audiovisual y tipo de contenido variado. En primer lugar, el proceso de generación de contenidos debe encontrarse controlado mediante parámetros que eviten que se produzca el disconfort visual y, consecuentemente, fatiga visual, especialmente en lo relativo a contenidos de 3D estereoscópico, tanto de animación como de acción real. Por otro lado, la medida de calidad relativa a la fase de compresión de vídeo emplea métricas que en ocasiones no se encuentran adaptadas a la percepción del usuario. El empleo de modelos psicovisuales y diagramas de atención visual permitirían ponderar las áreas de la imagen de manera que se preste mayor importancia a los píxeles que el usuario enfocará con mayor probabilidad. Estos dos bloques se relacionan a través de la definición del término saliencia. Saliencia es la capacidad del sistema visual para caracterizar una imagen visualizada ponderando las áreas que más atractivas resultan al ojo humano. La saliencia en generación de contenidos estereoscópicos se refiere principalmente a la profundidad simulada mediante la ilusión óptica, medida en términos de distancia del objeto virtual al ojo humano. Sin embargo, en vídeo bidimensional, la saliencia no se basa en la profundidad, sino en otros elementos adicionales, como el movimiento, el nivel de detalle, la posición de los píxeles o la aparición de caras, que serán los factores básicos que compondrán el modelo de atención visual desarrollado. Con el objetivo de detectar las características de una secuencia de vídeo estereoscópico que, con mayor probabilidad, pueden generar disconfort visual, se consultó la extensa literatura relativa a este tema y se realizaron unas pruebas subjetivas preliminares con usuarios. De esta forma, se llegó a la conclusión de que se producía disconfort en los casos en que se producía un cambio abrupto en la distribución de profundidades simuladas de la imagen, aparte de otras degradaciones como la denominada “violación de ventana”. A través de nuevas pruebas subjetivas centradas en analizar estos efectos con diferentes distribuciones de profundidades, se trataron de concretar los parámetros que definían esta imagen. Los resultados de las pruebas demuestran que los cambios abruptos en imágenes se producen en entornos con movimientos y disparidades negativas elevadas que producen interferencias en los procesos de acomodación y vergencia del ojo humano, así como una necesidad en el aumento de los tiempos de enfoque del cristalino. En la mejora de las métricas de calidad a través de modelos que se adaptan al sistema visual humano, se realizaron también pruebas subjetivas que ayudaron a determinar la importancia de cada uno de los factores a la hora de enmascarar una determinada degradación. Los resultados demuestran una ligera mejora en los resultados obtenidos al aplicar máscaras de ponderación y atención visual, los cuales aproximan los parámetros de calidad objetiva a la respuesta del ojo humano. ABSTRACT Video quality assessment is still a necessary tool for defining the criteria to characterize a signal with the viewing requirements imposed by the final user. New technologies, such as 3D stereoscopic video and formats of HD and beyond HD oblige to develop new analysis of video features for obtaining the highest user’s satisfaction. Among the problems detected during the process of this doctoral thesis, it has been determined that some phenomena affect to different phases in the audiovisual production chain, apart from the type of content. On first instance, the generation of contents process should be enough controlled through parameters that avoid the occurrence of visual discomfort in observer’s eye, and consequently, visual fatigue. It is especially necessary controlling sequences of stereoscopic 3D, with both animation and live-action contents. On the other hand, video quality assessment, related to compression processes, should be improved because some objective metrics are adapted to user’s perception. The use of psychovisual models and visual attention diagrams allow the weighting of image regions of interest, giving more importance to the areas which the user will focus most probably. These two work fields are related together through the definition of the term saliency. Saliency is the capacity of human visual system for characterizing an image, highlighting the areas which result more attractive to the human eye. Saliency in generation of 3DTV contents refers mainly to the simulated depth of the optic illusion, i.e. the distance from the virtual object to the human eye. On the other hand, saliency is not based on virtual depth, but on other features, such as motion, level of detail, position of pixels in the frame or face detection, which are the basic features that are part of the developed visual attention model, as demonstrated with tests. Extensive literature involving visual comfort assessment was looked up, and the development of new preliminary subjective assessment with users was performed, in order to detect the features that increase the probability of discomfort to occur. With this methodology, the conclusions drawn confirmed that one common source of visual discomfort was when an abrupt change of disparity happened in video transitions, apart from other degradations, such as window violation. New quality assessment was performed to quantify the distribution of disparities over different sequences. The results confirmed that abrupt changes in negative parallax environment produce accommodation-vergence mismatches derived from the increasing time for human crystalline to focus the virtual objects. On the other side, for developing metrics that adapt to human visual system, additional subjective tests were developed to determine the importance of each factor, which masks a concrete distortion. Results demonstrated slight improvement after applying visual attention to objective metrics. This process of weighing pixels approximates the quality results to human eye’s response.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral presenta el desarrollo, verificación y aplicación de un método original de regionalización estadística para generar escenarios locales de clima futuro de temperatura y precipitación diarias, que combina dos pasos. El primer paso es un método de análogos: los "n" días cuya configuración atmosférica de baja resolución es más parecida a la del día problema, se seleccionan de un banco de datos de referencia del pasado. En el segundo paso, se realiza un análisis de regresión múltiple sobre los "n" días más análogos para la temperatura, mientras que para la precipitación se utiliza la distribución de probabilidad de esos "n" días análogos para obtener la estima de precipitación. La verificación de este método se ha llevado a cabo para la España peninsular y las Islas Baleares. Los resultados muestran unas buenas prestaciones para temperatura (BIAS cerca de 0.1ºC y media de errores absolutos alrededor de 1.9ºC); y unas prestaciones aceptables para la precipitación (BIAS razonablemente bajo con una media de -18%; error medio absoluto menor que para una simulación de referencia (la persistencia); y una distribución de probabilidad simulada similar a la observada según dos test no-paramétricos de similitud). Para mostrar la aplicabilidad de la metodología desarrollada, se ha aplicado en detalle en un caso de estudio. El método se aplicó a cuatro modelos climáticos bajo diferentes escenarios futuros de emisiones de gases de efecto invernadero, para la región de Aragón, produciendo así proyecciones futuras de precipitación y temperaturas máximas y mínimas diarias. La fiabilidad de la técnica de regionalización fue evaluada de nuevo para el caso de estudio mediante un proceso de verificación. Para determinar la capacidad de los modelos climáticos para simular el clima real, sus simulaciones del pasado (la denominada salida 20C3M) se regionalizaron y luego se compararon con el clima observado (los resultados son bastante robustos para la temperatura y menos concluyentes para la precipitación). Las proyecciones futuras a escala local presentan un aumento significativo durante todo el siglo XXI de las temperaturas máximas y mínimas para todos los futuros escenarios de emisiones considerados. Las simulaciones de precipitación presentan mayores incertidumbres. Además, la aplicabilidad práctica del método se demostró también mediante su utilización para producir escenarios climáticos futuros para otros casos de estudio en los distintos sectores y regiones del mundo. Se ha prestado especial atención a una aplicación en Centroamérica, una región que ya está sufriendo importantes impactos del cambio climático y que tiene un clima muy diferente. ABSTRACT This doctoral thesis presents the development, verification and application of an original downscaling method for daily temperature and precipitation, which combines two statistical approaches. The first step is an analogue approach: the “n” days most similar to the day to be downscaled are selected. In the second step, a multiple regression analysis using the “n” most analogous days is performed for temperature, whereas for precipitation the probability distribution of the “n” analogous days is used to obtain the amount of precipitation. Verification of this method has been carried out for the Spanish Iberian Peninsula and the Balearic Islands. Results show good performance for temperature (BIAS close to 0.1ºC and Mean Absolute Errors around 1.9ºC); and an acceptable skill for precipitation (reasonably low BIAS with a mean of - 18%, Mean Absolute Error lower than for a reference simulation, i.e. persistence, and a well-simulated probability distribution according to two non-parametric tests of similarity). To show the applicability of the method, a study case has been analyzed. The method was applied to four climate models under different future emission scenarios for the region of Aragón, thus producing future projections of daily precipitation and maximum and minimum temperatures. The reliability of the downscaling technique was re-assessed for the study case by a verification process. To determine the ability of the climate models to simulate the real climate, their simulations of the past (the 20C3M output) were downscaled and then compared with the observed climate – the results are quite robust for temperature and less conclusive for the precipitation. The downscaled future projections exhibit a significant increase during the entire 21st century of the maximum and minimum temperatures for all the considered future emission scenarios. Precipitation simulations exhibit greater uncertainties. Furthermore, the practical applicability of the method was demonstrated also by using it to produce future climate scenarios for some other study cases in different sectors and regions of the world. Special attention was paid to an application of the method in Central America, a region that is already suffering from significant climate change impacts and that has a very different climate from others where the method was previously applied.