76 resultados para Descargas atmosféricas directas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo constituye la simulación de un entorno para un sistema de separación de aeronaves basada en tiempos (TBS). El trabajo se divide en dos secciones: la generación de modelos atmosféricos, y la generación y simulación de trayectoria. Se pretende así recrear la ejecución de una maniobra de aproximación final en diferentes escenarios. La sección de generación de modelos atmosféricos es responsable de construir diferentes modelos de atmósfera, en los que poder obtener valores de presión, temperatura, viento y otras variables atmosféricas, para cualquier posición y tiempo deseados. La sección de generación y simulación de trayectoria se centra en la maniobra de aproximación final a pista, construyendo una trayectoria típica de aproximación final. Después, utilizando los datos atmosféricos de la primera sección, se realiza una simulación de una aeronave realizando dicha aproximación final, obteniéndose todos los datos relativos a velocidades respecto al aire y respecto a tierra, posiciones, tiempo transcurrido, etc. Como resultado, se obtiene información sobre la ejecución de la maniobra de aproximación final. Esta información es sensible a las variaciones de las condiciones atmosféricas de la simulación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La inferencia del rendimiento final que los sistemas fotovoltaicos multifunción para edificación, más conocidos como Buiding Integrated PhotoVoltaics (BIPV), es decir, su funcionamiento y la viabilidad de los mismos, es hoy posible gracias a las herramientas de simulación disponibles. Estas requieren del conocimiento previo de los parámetros característicos de dichos elementos fotovoltaicos. Unos son obtenidos por mediciones directas o indirectas en el laboratorio, y otros mediante su monitorización en condiciones de funcionamiento reales. En este trabajo se ha abordado la caracterización óptica de los módulos fotovoltaicos comerciales de capa fina (a-Si) que están siendo utilizados en un proyecto propio del IES, en el cual se estudian estos aspectos. La característica más destacada de estos módulos es la gradación en su transparencia para adecuarlos a la integración como envolventes tipo muro cortina en edificios del sector terciario. En particular, el objetivo de este trabajo ha sido la medición de la transmitancia y la reflectancia espectrales, en los rangos UV/Vis/NIR, tanto en incidencia normal como bajo otros ángulos más próximos a los de operación. Con los resultados obtenidos, se han calculado los valores de la radiación reflejada y la transmitida, totales y por rangos UV, Vis y NIR, lo que permite la correcta caracterización de los módulos fotovoltaicos integrados en fachadas y la posterior evaluación de su impacto sobre el rendimiento eléctrico, térmico y la iluminación en un edificio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente investigación tiene como objetivo principal diseñar un Modelo de Gestión de Riesgos Operacionales (MGRO) según las Directrices de los Acuerdos II y III del Comité de Supervisión Bancaria de Basilea del Banco de Pagos Internacionales (CSBB-BPI). Se considera importante realizar un estudio sobre este tema dado que son los riesgos operacionales (OpR) los responsables en gran medida de las últimas crisis financieras mundiales y por la dificultad para detectarlos en las organizaciones. Se ha planteado un modelo de gestión subdividido en dos vías de influencias. La primera acoge el paradigma holístico en el que se considera que hay múltiples maneras de percibir un proceso cíclico, así como las herramientas para observar, conocer y entender el objeto o sujeto percibido. La segunda vía la representa el paradigma totalizante, en el que se obtienen datos tanto cualitativos como cuantitativos, los cuales son complementarios entre si. Por otra parte, este trabajo plantea el diseño de un programa informático de OpR Cualitativo, que ha sido diseñado para determinar la raíz de los riesgos en las organizaciones y su Valor en Riesgo Operacional (OpVaR) basado en el método del indicador básico. Aplicando el ciclo holístico al caso de estudio, se obtuvo el siguiente diseño de investigación: no experimental, univariable, transversal descriptiva, contemporánea, retrospectiva, de fuente mixta, cualitativa (fenomenológica y etnográfica) y cuantitativa (descriptiva y analítica). La toma de decisiones y recolección de información se realizó en dos fases en la unidad de estudio. En la primera se tomó en cuenta la totalidad de la empresa Corpoelec-EDELCA, en la que se presentó un universo estadístico de 4271 personas, una población de 2390 personas y una unidad de muestreo de 87 personas. Se repitió el proceso en una segunda fase, para la Central Hidroeléctrica Simón Bolívar, y se determinó un segundo universo estadístico de 300 trabajadores, una población de 191 personas y una muestra de 58 profesionales. Como fuentes de recolección de información se utilizaron fuentes primarias y secundarias. Para recabar la información primaria se realizaron observaciones directas, dos encuestas para detectar las áreas y procesos con mayor nivel de riesgos y se diseñó un cuestionario combinado con otra encuesta (ad hoc) para establecer las estimaciones de frecuencia y severidad de pérdidas operacionales. La información de fuentes secundarias se extrajo de las bases de datos de Corpoelec-EDELCA, de la IEA, del Banco Mundial, del CSBB-BPI, de la UPM y de la UC at Berkeley, entre otras. Se establecieron las distribuciones de frecuencia y de severidad de pérdidas operacionales como las variables independientes y el OpVaR como la variable dependiente. No se realizó ningún tipo de seguimiento o control a las variables bajo análisis, ya que se consideraron estas para un instante especifico y solo se determinan con la finalidad de establecer la existencia y valoración puntual de los OpR en la unidad de estudio. El análisis cualitativo planteado en el MGRO, permitió detectar que en la unidad de investigación, el 67% de los OpR detectados provienen de dos fuentes principales: procesos (32%) y eventos externos (35%). Adicionalmente, la validación del MGRO en Corpoelec-EDELCA, permitió detectar que el 63% de los OpR en la organización provienen de tres categorías principales, siendo los fraudes externos los presentes con mayor regularidad y severidad de pérdidas en la organización. La exposición al riesgo se determinó fundamentándose en la adaptación del concepto de OpVaR que generalmente se utiliza para series temporales y que en el caso de estudio presenta la primicia de aplicarlo a datos cualitativos transformados con la escala Likert. La posibilidad de utilizar distribuciones de probabilidad típicas para datos cuantitativos en distribuciones de frecuencia y severidad de pérdidas con datos de origen cualitativo fueron analizadas. Para el 64% de los OpR estudiados se obtuvo que la frecuencia tiene un comportamiento semejante al de la distribución de probabilidad de Poisson y en un 55% de los casos para la severidad de pérdidas se obtuvo a las log-normal como las distribuciones de probabilidad más comunes, con lo que se concluyó que los enfoques sugeridos por el BCBS-BIS para series de tiempo son aplicables a los datos cualitativos. Obtenidas las distribuciones de frecuencia y severidad de pérdidas, se convolucionaron estas implementando el método de Montecarlo, con lo que se obtuvieron los enfoques de distribuciones de pérdidas (LDA) para cada uno de los OpR. El OpVaR se dedujo como lo sugiere el CSBB-BPI del percentil 99,9 o 99% de cada una de las LDA, obteniéndose que los OpR presentan un comportamiento similar al sistema financiero, resultando como los de mayor peligrosidad los que se ubican con baja frecuencia y alto impacto, por su dificultad para ser detectados y monitoreados. Finalmente, se considera que el MGRO permitirá a los agentes del mercado y sus grupos de interés conocer con efectividad, fiabilidad y eficiencia el status de sus entidades, lo que reducirá la incertidumbre de sus inversiones y les permitirá establecer una nueva cultura de gestión en sus organizaciones. ABSTRACT This research has as main objective the design of a Model for Operational Risk Management (MORM) according to the guidelines of Accords II and III of the Basel Committee on Banking Supervision of the Bank for International Settlements (BCBS- BIS). It is considered important to conduct a study on this issue since operational risks (OpR) are largely responsible for the recent world financial crisis and due to the difficulty in detecting them in organizations. A management model has been designed which is divided into two way of influences. The first supports the holistic paradigm in which it is considered that there are multiple ways of perceiving a cyclical process and contains the tools to observe, know and understand the subject or object perceived. The second way is the totalizing paradigm, in which both qualitative and quantitative data are obtained, which are complementary to each other. Moreover, this paper presents the design of qualitative OpR software which is designed to determine the root of risks in organizations and their Operational Value at Risk (OpVaR) based on the basic indicator approach. Applying the holistic cycle to the case study, the following research design was obtained: non- experimental, univariate, descriptive cross-sectional, contemporary, retrospective, mixed-source, qualitative (phenomenological and ethnographic) and quantitative (descriptive and analytical). Decision making and data collection was conducted in two phases in the study unit. The first took into account the totality of the Corpoelec-EDELCA company, which presented a statistical universe of 4271 individuals, a population of 2390 individuals and a sampling unit of 87 individuals. The process was repeated in a second phase to the Simon Bolivar Hydroelectric Power Plant, and a second statistical universe of 300 workers, a population of 191 people and a sample of 58 professionals was determined. As sources of information gathering primary and secondary sources were used. To obtain the primary information direct observations were conducted and two surveys to identify the areas and processes with higher risks were designed. A questionnaire was combined with an ad hoc survey to establish estimates of frequency and severity of operational losses was also considered. The secondary information was extracted from the databases of Corpoelec-EDELCA, IEA, the World Bank, the BCBS-BIS, UPM and UC at Berkeley, among others. The operational loss frequency distributions and the operational loss severity distributions were established as the independent variables and OpVaR as the dependent variable. No monitoring or control of the variables under analysis was performed, as these were considered for a specific time and are determined only for the purpose of establishing the existence and timely assessment of the OpR in the study unit. Qualitative analysis raised in the MORM made it possible to detect that in the research unit, 67% of detected OpR come from two main sources: external processes (32%) and external events (35%). Additionally, validation of the MORM in Corpoelec-EDELCA, enabled to estimate that 63% of OpR in the organization come from three main categories, with external fraud being present more regularly and greater severity of losses in the organization. Risk exposure is determined basing on adapting the concept of OpVaR generally used for time series and in the case study it presents the advantage of applying it to qualitative data transformed with the Likert scale. The possibility of using typical probability distributions for quantitative data in loss frequency and loss severity distributions with data of qualitative origin were analyzed. For the 64% of OpR studied it was found that the frequency has a similar behavior to that of the Poisson probability distribution and 55% of the cases for loss severity it was found that the log-normal were the most common probability distributions. It was concluded that the approach suggested by the BCBS-BIS for time series can be applied to qualitative data. Once obtained the distributions of loss frequency and severity have been obtained they were subjected to convolution implementing the Monte Carlo method. Thus the loss distribution approaches (LDA) were obtained for each of the OpR. The OpVaR was derived as suggested by the BCBS-BIS 99.9 percentile or 99% of each of the LDA. It was determined that the OpR exhibits a similar behavior to the financial system, being the most dangerous those with low frequency and high impact for their difficulty in being detected and monitored. Finally, it is considered that the MORM will allows market players and their stakeholders to know with effectiveness, efficiency and reliability the status of their entities, which will reduce the uncertainty of their investments and enable them to establish a new management culture in their organizations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El 10 de octubre de 2008 la Organización Marítima Internacional (OMI) firmó una modificación al Anexo VI del convenio MARPOL 73/78, por la que estableció una reducción progresiva de las emisiones de óxidos de azufre (SOx) procedentes de los buques, una reducción adicional de las emisiones de óxidos de nitrógeno (NOx), así como límites en las emisiones de dióxido de Carbono (CO2) procedentes de los motores marinos y causantes de problemas medioambientales como la lluvia ácida y efecto invernadero. Centrándonos en los límites sobre las emisiones de azufre, a partir del 1 de enero de 2015 esta normativa obliga a todos los buques que naveguen por zonas controladas, llamadas Emission Control Area (ECA), a consumir combustibles con un contenido de azufre menor al 0,1%. A partir del 1 de enero del año 2020, o bien del año 2025, si la OMI decide retrasar su inicio, los buques deberán consumir combustibles con un contenido de azufre menor al 0,5%. De igual forma que antes, el contenido deberá ser rebajado al 0,1%S, si navegan por el interior de zonas ECA. Por su parte, la Unión Europea ha ido más allá que la OMI, adelantando al año 2020 la aplicación de los límites más estrictos de la ley MARPOL sobre las aguas de su zona económica exclusiva. Para ello, el 21 de noviembre de 2013 firmó la Directiva 2012 / 33 / EU como adenda a la Directiva de 1999. Tengamos presente que la finalidad de estas nuevas leyes es la mejora de la salud pública y el medioambiente, produciendo beneficios sociales, en forma de reducción de enfermedades, sobre todo de tipo respiratorio, a la vez que se reduce la lluvia ácida y sus nefastas consecuencias. La primera pregunta que surge es ¿cuál es el combustible actual de los buques y cuál será el que tengan que consumir para cumplir con esta Regulación? Pues bien, los grandes buques de navegación internacional consumen hoy en día fuel oil con un nivel de azufre de 3,5%. ¿Existen fueles con un nivel de azufre de 0,5%S? Como hemos concluido en el capítulo 4, para las empresas petroleras, la producción de fuel oil como combustible marino es tratada como un subproducto en su cesta de productos refinados por cada barril de Brent, ya que la demanda de fuel respecto a otros productos está bajando y además, el margen de beneficio que obtienen por la venta de otros productos petrolíferos es mayor que con el fuel. Así, podemos decir que las empresas petroleras no están interesadas en invertir en sus refinerías para producir estos fueles con menor contenido de azufre. Es más, en el caso de que alguna compañía decidiese invertir en producir un fuel de 0,5%S, su precio debería ser muy similar al del gasóleo para poder recuperar las inversiones empleadas. Por lo tanto, el único combustible que actualmente cumple con los nuevos niveles impuestos por la OMI es el gasóleo, con un precio que durante el año 2014 estuvo a una media de 307 USD/ton más alto que el actual fuel oil. Este mayor precio de compra de combustible impactará directamente sobre el coste del trasporte marítimo. La entrada en vigor de las anteriores normativas está suponiendo un reto para todo el sector marítimo. Ante esta realidad, se plantean diferentes alternativas con diferentes implicaciones técnicas, operativas y financieras. En la actualidad, son tres las alternativas con mayor aceptación en el sector. La primera alternativa consiste en “no hacer nada” y simplemente cambiar el tipo de combustible de los grandes buques de fuel oil a gasóleo. Las segunda alternativa es la instalación de un equipo scrubber, que permitiría continuar con el consumo de fuel oil, limpiando sus gases de combustión antes de salir a la atmósfera. Y, por último, la tercera alternativa consiste en el uso de Gas Natural Licuado (GNL) como combustible, con un precio inferior al del gasóleo. Sin embargo, aún existen importantes incertidumbres sobre la evolución futura de precios, operación y mantenimiento de las nuevas tecnologías, inversiones necesarias, disponibilidad de infraestructura portuaria e incluso el desarrollo futuro de la propia normativa internacional. Estas dudas hacen que ninguna de estas tres alternativas sea unánime en el sector. En esta tesis, tras exponer en el capítulo 3 la regulación aplicable al sector, hemos investigado sus consecuencias. Para ello, hemos examinado en el capítulo 4 si existen en la actualidad combustibles marinos que cumplan con los nuevos límites de azufre o en su defecto, cuál sería el precio de los nuevos combustibles. Partimos en el capítulo 5 de la hipótesis de que todos los buques cambian su consumo de fuel oil a gasóleo para cumplir con dicha normativa, calculamos el incremento de demanda de gasóleo que se produciría y analizamos las consecuencias que este hecho tendría sobre la producción de gasóleos en el Mediterráneo. Adicionalmente, calculamos el impacto económico que dicho incremento de coste producirá sobre sector exterior de España. Para ello, empleamos como base de datos el sistema de control de tráfico marítimo Authomatic Identification System (AIS) para luego analizar los datos de todos los buques que han hecho escala en algún puerto español, para así calcular el extra coste anual por el consumo de gasóleo que sufrirá el transporte marítimo para mover todas las importaciones y exportaciones de España. Por último, en el capítulo 6, examinamos y comparamos las otras dos alternativas al consumo de gasóleo -scrubbers y propulsión con GNL como combustible- y, finalmente, analizamos en el capítulo 7, la viabilidad de las inversiones en estas dos tecnologías para cumplir con la regulación. En el capítulo 5 explicamos los numerosos métodos que existen para calcular la demanda de combustible de un buque. La metodología seguida para su cálculo será del tipo bottom-up, que está basada en la agregación de la actividad y las características de cada tipo de buque. El resultado está basado en la potencia instalada de cada buque, porcentaje de carga del motor y su consumo específico. Para ello, analizamos el número de buques que navegan por el Mediterráneo a lo largo de un año mediante el sistema AIS, realizando “fotos” del tráfico marítimo en el Mediterráneo y reportando todos los buques en navegación en días aleatorios a lo largo de todo el año 2014. Por último, y con los datos anteriores, calculamos la demanda potencial de gasóleo en el Mediterráneo. Si no se hace nada y los buques comienzan a consumir gasóleo como combustible principal, en vez del actual fuel oil para cumplir con la regulación, la demanda de gasoil en el Mediterráneo aumentará en 12,12 MTA (Millones de Toneladas Anuales) a partir del año 2020. Esto supone alrededor de 3.720 millones de dólares anuales por el incremento del gasto de combustible tomando como referencia el precio medio de los combustibles marinos durante el año 2014. El anterior incremento de demanda en el Mediterráneo supondría el 43% del total de la demanda de gasóleos en España en el año 2013, incluyendo gasóleos de automoción, biodiesel y gasóleos marinos y el 3,2% del consumo europeo de destilados medios durante el año 2014. ¿Podrá la oferta del mercado europeo asumir este incremento de demanda de gasóleos? Europa siempre ha sido excedentaria en gasolina y deficitaria en destilados medios. En el año 2009, Europa tuvo que importar 4,8 MTA de Norte América y 22,1 MTA de Asia. Por lo que, este aumento de demanda sobre la ya limitada capacidad de refino de destilados medios en Europa incrementará las importaciones y producirá también aumentos en los precios, sobre todo del mercado del gasóleo. El sector sobre el que más impactará el incremento de demanda de gasóleo será el de los cruceros que navegan por el Mediterráneo, pues consumirán un 30,4% de la demanda de combustible de toda flota mundial de cruceros, lo que supone un aumento en su gasto de combustible de 386 millones de USD anuales. En el caso de los RoRos, consumirían un 23,6% de la demanda de la flota mundial de este tipo de buque, con un aumento anual de 171 millones de USD sobre su gasto de combustible anterior. El mayor incremento de coste lo sufrirán los portacontenedores, con 1.168 millones de USD anuales sobre su gasto actual. Sin embargo, su consumo en el Mediterráneo representa sólo el 5,3% del consumo mundial de combustible de este tipo de buques. Estos números plantean la incertidumbre de si semejante aumento de gasto en buques RoRo hará que el transporte marítimo de corta distancia en general pierda competitividad sobre otros medios de transporte alternativos en determinadas rutas. De manera que, parte del volumen de mercancías que actualmente transportan los buques se podría trasladar a la carretera, con los inconvenientes medioambientales y operativos, que esto produciría. En el caso particular de España, el extra coste por el consumo de gasóleo de todos los buques con escala en algún puerto español en el año 2013 se cifra en 1.717 millones de EUR anuales, según demostramos en la última parte del capítulo 5. Para realizar este cálculo hemos analizado con el sistema AIS a todos los buques que han tenido escala en algún puerto español y los hemos clasificado por distancia navegada, tipo de buque y potencia. Este encarecimiento del transporte marítimo será trasladado al sector exterior español, lo cual producirá un aumento del coste de las importaciones y exportaciones por mar en un país muy expuesto, pues el 75,61% del total de las importaciones y el 53,64% del total de las exportaciones se han hecho por vía marítima. Las tres industrias que se verán más afectadas son aquellas cuyo valor de mercancía es inferior respecto a su coste de transporte. Para ellas los aumentos del coste sobre el total del valor de cada mercancía serán de un 2,94% para la madera y corcho, un 2,14% para los productos minerales y un 1,93% para las manufacturas de piedra, cemento, cerámica y vidrio. Las mercancías que entren o salgan por los dos archipiélagos españoles de Canarias y Baleares serán las que se verán más impactadas por el extra coste del transporte marítimo, ya que son los puertos más alejados de otros puertos principales y, por tanto, con más distancia de navegación. Sin embargo, esta no es la única alternativa al cumplimiento de la nueva regulación. De la lectura del capítulo 6 concluimos que las tecnologías de equipos scrubbers y de propulsión con GNL permitirán al buque consumir combustibles más baratos al gasoil, a cambio de una inversión en estas tecnologías. ¿Serán los ahorros producidos por estas nuevas tecnologías suficientes para justificar su inversión? Para contestar la anterior pregunta, en el capítulo 7 hemos comparado las tres alternativas y hemos calculado tanto los costes de inversión como los gastos operativos correspondientes a equipos scrubbers o propulsión con GNL para una selección de 53 categorías de buques. La inversión en equipos scrubbers es más conveniente para buques grandes, con navegación no regular. Sin embargo, para buques de tamaño menor y navegación regular por puertos con buena infraestructura de suministro de GNL, la inversión en una propulsión con GNL como combustible será la más adecuada. En el caso de un tiempo de navegación del 100% dentro de zonas ECA y bajo el escenario de precios visto durante el año 2014, los proyectos con mejor plazo de recuperación de la inversión en equipos scrubbers son para los cruceros de gran tamaño (100.000 tons. GT), para los que se recupera la inversión en 0,62 años, los grandes portacontenedores de más de 8.000 TEUs con 0,64 años de recuperación y entre 5.000-8.000 TEUs con 0,71 años de recuperación y, por último, los grandes petroleros de más de 200.000 tons. de peso muerto donde tenemos un plazo de recuperación de 0,82 años. La inversión en scrubbers para buques pequeños, por el contrario, tarda más tiempo en recuperarse llegando a más de 5 años en petroleros y quimiqueros de menos de 5.000 toneladas de peso muerto. En el caso de una posible inversión en propulsión con GNL, las categorías de buques donde la inversión en GNL es más favorable y recuperable en menor tiempo son las más pequeñas, como ferris, cruceros o RoRos. Tomamos ahora el caso particular de un buque de productos limpios de 38.500 toneladas de peso muerto ya construido y nos planteamos la viabilidad de la inversión en la instalación de un equipo scrubber o bien, el cambio a una propulsión por GNL a partir del año 2015. Se comprueba que las dos variables que más impactan sobre la conveniencia de la inversión son el tiempo de navegación del buque dentro de zonas de emisiones controladas (ECA) y el escenario futuro de precios del MGO, HSFO y GNL. Para realizar este análisis hemos estudiado cada inversión, calculando una batería de condiciones de mérito como el payback, TIR, VAN y la evolución de la tesorería del inversor. Posteriormente, hemos calculado las condiciones de contorno mínimas de este buque en concreto para asegurar una inversión no sólo aceptable, sino además conveniente para el naviero inversor. En el entorno de precios del 2014 -con un diferencial entre fuel y gasóleo de 264,35 USD/ton- si el buque pasa más de un 56% de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) en el equipo scrubber que será igual o superior al 9,6%, valor tomado como coste de oportunidad. Para el caso de inversión en GNL, en el entorno de precios del año 2014 -con un diferencial entre GNL y gasóleo de 353,8 USD/ton FOE- si el buque pasa más de un 64,8 % de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) que será igual o superior al 9,6%, valor del coste de oportunidad. Para un tiempo en zona ECA estimado de un 60%, la rentabilidad de la inversión (TIR) en scrubbers para los inversores será igual o superior al 9,6%, el coste de oportunidad requerido por el inversor, para valores del diferencial de precio entre los dos combustibles alternativos, gasóleo (MGO) y fuel oil (HSFO) a partir de 244,73 USD/ton. En el caso de una inversión en propulsión GNL se requeriría un diferencial de precio entre MGO y GNL de 382,3 USD/ton FOE o superior. Así, para un buque de productos limpios de 38.500 DWT, la inversión en una reconversión para instalar un equipo scrubber es más conveniente que la de GNL, pues alcanza rentabilidades de la inversión (TIR) para inversores del 12,77%, frente a un 6,81% en el caso de invertir en GNL. Para ambos cálculos se ha tomado un buque que navegue un 60% de su tiempo por zona ECA y un escenario de precios medios del año 2014 para el combustible. Po otro lado, las inversiones en estas tecnologías a partir del año 2025 para nuevas construcciones son en ambos casos convenientes. El naviero deberá prestar especial atención aquí a las características propias de su buque y tipo de navegación, así como a la infraestructura de suministros y vertidos en los puertos donde vaya a operar usualmente. Si bien, no se ha estudiado en profundidad en esta tesis, no olvidemos que el sector marítimo debe cumplir además con las otras dos limitaciones que la regulación de la OMI establece sobre las emisiones de óxidos de Nitrógeno (NOx) y Carbono (CO2) y que sin duda, requerirán adicionales inversiones en diversos equipos. De manera que, si bien las consecuencias del consumo de gasóleo como alternativa al cumplimiento de la Regulación MARPOL son ciertamente preocupantes, existen alternativas al uso del gasóleo, con un aumento sobre el coste del transporte marítimo menor y manteniendo los beneficios sociales que pretende dicha ley. En efecto, como hemos demostrado, las opciones que se plantean como más rentables desde el punto de vista financiero son el consumo de GNL en los buques pequeños y de línea regular (cruceros, ferries, RoRos), y la instalación de scrubbers para el resto de buques de grandes dimensiones. Pero, por desgracia, estas inversiones no llegan a hacerse realidad por el elevado grado de incertidumbre asociado a estos dos mercados, que aumenta el riesgo empresarial, tanto de navieros como de suministradores de estas nuevas tecnologías. Observamos así una gran reticencia del sector privado a decidirse por estas dos alternativas. Este elevado nivel de riesgo sólo puede reducirse fomentando el esfuerzo conjunto del sector público y privado para superar estas barreras de entrada del mercado de scrubbers y GNL, que lograrían reducir las externalidades medioambientales de las emisiones sin restar competitividad al transporte marítimo. Creemos así, que los mismos organismos que aprobaron dicha ley deben ayudar al sector naviero a afrontar las inversiones en dichas tecnologías, así como a impulsar su investigación y promover la creación de una infraestructura portuaria adaptada a suministros de GNL y a descargas de vertidos procedentes de los equipos scrubber. Deberían además, prestar especial atención sobre las ayudas al sector de corta distancia para evitar que pierda competitividad frente a otros medios de transporte por el cumplimiento de esta normativa. Actualmente existen varios programas europeos de incentivos, como TEN-T o Marco Polo, pero no los consideramos suficientes. Por otro lado, la Organización Marítima Internacional debe confirmar cuanto antes si retrasa o no al 2025 la nueva bajada del nivel de azufre en combustibles. De esta manera, se eliminaría la gran incertidumbre temporal que actualmente tienen tanto navieros, como empresas petroleras y puertos para iniciar sus futuras inversiones y poder estudiar la viabilidad de cada alternativa de forma individual. ABSTRACT On 10 October 2008 the International Maritime Organization (IMO) signed an amendment to Annex VI of the MARPOL 73/78 convention establishing a gradual reduction in sulphur oxide (SOx) emissions from ships, and an additional reduction in nitrogen oxide (NOx) emissions and carbon dioxide (CO2) emissions from marine engines which cause environmental problems such as acid rain and the greenhouse effect. According to this regulation, from 1 January 2015, ships travelling in an Emission Control Area (ECA) must use fuels with a sulphur content of less than 0.1%. From 1 January 2020, or alternatively from 2025 if the IMO should decide to delay its introduction, all ships must use fuels with a sulphur content of less than 0.5%. As before, this content will be 0.1%S for voyages within ECAs. Meanwhile, the European Union has gone further than the IMO, and will apply the strictest limits of the MARPOL directives in the waters of its exclusive economic zone from 2020. To this end, Directive 2012/33/EU was issued on 21 November 2013 as an addendum to the 1999 Directive. These laws are intended to improve public health and the environment, benefiting society by reducing disease, particularly respiratory problems. The first question which arises is: what fuel do ships currently use, and what fuel will they have to use to comply with the Convention? Today, large international shipping vessels consume fuel oil with a sulphur level of 3.5%. Do fuel oils exist with a sulphur level of 0.5%S? As we conclude in Chapter 4, oil companies regard marine fuel oil as a by-product of refining Brent to produce their basket of products, as the demand for fuel oil is declining in comparison to other products, and the profit margin on the sale of other petroleum products is higher. Thus, oil companies are not interested in investing in their refineries to produce low-sulphur fuel oils, and if a company should decide to invest in producing a 0.5%S fuel oil, its price would have to be very similar to that of marine gas oil in order to recoup the investment. Therefore, the only fuel which presently complies with the new levels required by the IMO is marine gas oil, which was priced on average 307 USD/tonne higher than current fuel oils during 2014. This higher purchasing price for fuel will have a direct impact on the cost of maritime transport. The entry into force of the above directive presents a challenge for the entire maritime sector. There are various alternative approaches to this situation, with different technical, operational and financial implications. At present three options are the most widespread in the sector. The first option consists of “doing nothing” and simply switching from fuel oil to marine gas oil in large ships. The second option is installing a scrubber system, which would enable ships to continue consuming fuel oil, cleaning the combustion gases before they are released to the atmosphere. And finally, the third option is using Liquefied Natural Gas (LNG), which is priced lower than marine gas oil, as a fuel. However, there is still significant uncertainty on future variations in prices, the operation and maintenance of the new technologies, the investments required, the availability of port infrastructure and even future developments in the international regulations themselves. These uncertainties mean that none of these three alternatives has been unanimously accepted by the sector. In this Thesis, after discussing all the regulations applicable to the sector in Chapter 3, we investigate their consequences. In Chapter 4 we examine whether there are currently any marine fuels on the market which meet the new sulphur limits, and if not, how much new fuels would cost. In Chapter 5, based on the hypothesis that all ships will switch from fuel oil to marine gas oil to comply with the regulations, we calculate the increase in demand for marine gas oil this would lead to, and analyse the consequences this would have on marine gas oil production in the Mediterranean. We also calculate the economic impact such a cost increase would have on Spain's external sector. To do this, we also use the Automatic Identification System (AIS) system to analyse the data of every ship stopping in any Spanish port, in order to calculate the extra cost of using marine gas oil in maritime transport for all Spain's imports and exports. Finally, in Chapter 6, we examine and compare the other two alternatives to marine gas oil, scrubbers and LNG, and in Chapter 7 we analyse the viability of investing in these two technologies in order to comply with the regulations. In Chapter 5 we explain the many existing methods for calculating a ship's fuel consumption. We use a bottom-up calculation method, based on aggregating the activity and characteristics of each type of vessel. The result is based on the installed engine power of each ship, the engine load percentage and its specific consumption. To do this, we analyse the number of ships travelling in the Mediterranean in the course of one year, using the AIS, a marine traffic monitoring system, to take “snapshots” of marine traffic in the Mediterranean and report all ships at sea on random days throughout 2014. Finally, with the above data, we calculate the potential demand for marine gas oil in the Mediterranean. If nothing else is done and ships begin to use marine gas oil instead of fuel oil in order to comply with the regulation, the demand for marine gas oil in the Mediterranean will increase by 12.12 MTA (Millions Tonnes per Annum) from 2020. This means an increase of around 3.72 billion dollars a year in fuel costs, taking as reference the average price of marine fuels in 2014. Such an increase in demand in the Mediterranean would be equivalent to 43% of the total demand for diesel in Spain in 2013, including automotive diesel fuels, biodiesel and marine gas oils, and 3.2% of European consumption of middle distillates in 2014. Would the European market be able to supply enough to meet this greater demand for diesel? Europe has always had a surplus of gasoline and a deficit of middle distillates. In 2009, Europe had to import 4.8 MTA from North America and 22.1 MTA from Asia. Therefore, this increased demand on Europe's already limited capacity for refining middle distillates would lead to increased imports and higher prices, especially in the diesel market. The sector which would suffer the greatest impact of increased demand for marine gas oil would be Mediterranean cruise ships, which represent 30.4% of the fuel demand of the entire world cruise fleet, meaning their fuel costs would rise by 386 million USD per year. ROROs in the Mediterranean, which represent 23.6% of the demand of the world fleet of this type of ship, would see their fuel costs increase by 171 million USD a year. The greatest cost increase would be among container ships, with an increase on current costs of 1.168 billion USD per year. However, their consumption in the Mediterranean represents only 5.3% of worldwide fuel consumption by container ships. These figures raise the question of whether a cost increase of this size for RORO ships would lead to short-distance marine transport in general becoming less competitive compared to other transport options on certain routes. For example, some of the goods that ships now carry could switch to road transport, with the undesirable effects on the environment and on operations that this would produce. In the particular case of Spain, the extra cost of switching to marine gas oil in all ships stopping at any Spanish port in 2013 would be 1.717 billion EUR per year, as we demonstrate in the last part of Chapter 5. For this calculation, we used the AIS system to analyse all ships which stopped at any Spanish port, classifying them by distance travelled, type of ship and engine power. This rising cost of marine transport would be passed on to the Spanish external sector, increasing the cost of imports and exports by sea in a country which relies heavily on maritime transport, which accounts for 75.61% of Spain's total imports and 53.64% of its total exports. The three industries which would be worst affected are those with goods of lower value relative to transport costs. The increased costs over the total value of each good would be 2.94% for wood and cork, 2.14% for mineral products and 1.93% for manufactured stone, cement, ceramic and glass products. Goods entering via the two Spanish archipelagos, the Canary Islands and the Balearic Islands, would suffer the greatest impact from the extra cost of marine transport, as these ports are further away from other major ports and thus the distance travelled is greater. However, this is not the only option for compliance with the new regulations. From our readings in Chapter 6 we conclude that scrubbers and LNG propulsion would enable ships to use cheaper fuels than marine gas oil, in exchange for investing in these technologies. Would the savings gained by these new technologies be enough to justify the investment? To answer this question, in Chapter 7 we compare the three alternatives and calculate both the cost of investment and the operating costs associated with scrubbers or LNG propulsion for a selection of 53 categories of ships. Investing in scrubbers is more advisable for large ships with no fixed runs. However, for smaller ships with regular runs to ports with good LNG supply infrastructure, investing in LNG propulsion would be the best choice. In the case of total transit time within an ECA and the pricing scenario seen in 2014, the best payback periods on investments in scrubbers are for large cruise ships (100,000 gross tonnage), which would recoup their investment in 0.62 years; large container ships, with a 0.64 year payback period for those over 8,000 TEUs and 0.71 years for the 5,000-8,000 TEU category; and finally, large oil tankers over 200,000 deadweight tonnage, which would recoup their investment in 0.82 years. However, investing in scrubbers would have a longer payback period for smaller ships, up to 5 years or more for oil tankers and chemical tankers under 5,000 deadweight tonnage. In the case of LNG propulsion, a possible investment is more favourable and the payback period is shorter for smaller ship classes, such as ferries, cruise ships and ROROs. We now take the case of a ship transporting clean products, already built, with a deadweight tonnage of 38,500, and consider the viability of investing in installing a scrubber or changing to LNG propulsion, starting in 2015. The two variables with the greatest impact on the advisability of the investment are how long the ship is at sea within emission control areas (ECA) and the future price scenario of MGO, HSFO and LNG. For this analysis, we studied each investment, calculating a battery of merit conditions such as the payback period, IRR, NPV and variations in the investors' liquid assets. We then calculated the minimum boundary conditions to ensure the investment was not only acceptable but advisable for the investor shipowner. Thus, for the average price differential of 264.35 USD/tonne between HSFO and MGO during 2014, investors' return on investment (IRR) in scrubbers would be the same as the required opportunity cost of 9.6%, for values of over 56% ship transit time in ECAs. For the case of investing in LNG and the average price differential between MGO and LNG of 353.8 USD/tonne FOE in 2014, the ship must spend 64.8% of its time in ECAs for the investment to be advisable. For an estimated 60% of time in an ECA, the internal rate of return (IRR) for investors equals the required opportunity cost of 9.6%, based on a price difference of 244.73 USD/tonne between the two alternative fuels, marine gas oil (MGO) and fuel oil (HSFO). An investment in LNG propulsion would require a price differential between MGO and LNG of 382.3 USD/tonne FOE. Thus, for a 38,500 DWT ship carrying clean products, investing in retrofitting to install a scrubber is more advisable than converting to LNG, with an internal rate of return (IRR) for investors of 12.77%, compared to 6.81% for investing in LNG. Both calculations were based on a ship which spends 60% of its time at sea in an ECA and a scenario of average 2014 prices. However, for newly-built ships, investments in either of these technologies from 2025 would be advisable. Here, the shipowner must pay particular attention to the specific characteristics of their ship, the type of operation, and the infrastructure for supplying fuel and handling discharges in the ports where it will usually operate. Thus, while the consequences of switching to marine gas oil in order to comply with the MARPOL regulations are certainly alarming, there are alternatives to marine gas oil, with smaller increases in the costs of maritime transport, while maintaining the benefits to society this law is intended to provide. Indeed, as we have demonstrated, the options which appear most favourable from a financial viewpoint are conversion to LNG for small ships and regular runs (cruise ships, ferries, ROROs), and installing scrubbers for large ships. Unfortunately, however, these investments are not being made, due to the high uncertainty associated with these two markets, which increases business risk, both for shipowners and for the providers of these new technologies. This means we are seeing considerable reluctance regarding these two options among the private sector. This high level of risk can be lowered only by encouraging joint efforts by the public and private sectors to overcome these barriers to entry into the market for scrubbers and LNG, which could reduce the environmental externalities of emissions without affecting the competitiveness of marine transport. Our opinion is that the same bodies which approved this law must help the shipping industry invest in these technologies, drive research on them, and promote the creation of a port infrastructure which is adapted to supply LNG and handle the discharges from scrubber systems. At present there are several European incentive programmes, such as TEN-T and Marco Polo, but we do not consider these to be sufficient. For its part, the International Maritime Organization should confirm as soon as possible whether the new lower sulphur levels in fuels will be postponed until 2025. This would eliminate the great uncertainty among shipowners, oil companies and ports regarding the timeline for beginning their future investments and for studying their viability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto de fin de grado pretende demostrar la importancia y la utilidad de la creación de redes de dispositivos móviles conectados entre sí. Para ello se explicarán varios tipos de redes inalámbricas que permiten estas conexiones directas entre dispositivos sin la necesidad de un servidor. En estas redes inalámbricas se destacan las redes P2P y las redes Ad-hoc, las cuales se explicarán posteriormente. El despliegue de estas redes se puede encontrar en un amplio rango de campos como puede ser la agricultura, la medicina e incluso en el ámbito militar. Es objetivo de este proyecto, además, el estudio de la tecnología Wi-Fi Direct creada por la Wi-Fi Alliance. Como se explicará a lo largo del proyecto, Wi-Fi Direct está basado en las redes P2P. Esta tecnología permite a los dispositivos cercanos crear redes P2P a través de la red Wi-Fi sin la necesidad de un punto de acceso a Internet. Por otro lado, una gran cantidad de los dispositivos móviles que existen actualmente poseen el sistema operativo Android. Android ha incorporado en sus dispositivos más recientes la tecnología Wi-Fi Direct. Debido a ello han ido surgiendo aplicaciones que usando esta tecnología consiguen desde enviar ficheros hasta indicar la localización de un usuario. Esta tecnología combinada con este tipo de dispositivos puede ser muy útil para utilizar en casos de emergencia donde las infraestructuras de comunicaciones no estén disponibles ya que al no necesitar un punto de acceso a internet es posible la comunicación entre un usuario en peligro y otro que se encuentre dentro de un radio cercano. Por estos motivos otro de los principales objetivos de este proyecto es la implementación de una aplicación para dispositivos Android que use la tecnología Wi-Fi Direct para realizar varias funcionalidades diferentes, como es el intercambio de ficheros entre dispositivos y la creación de un chat para la comunicación simultanea entre dos dispositivos. Con esto se pretende conocer mejor el funcionamiento de la tecnología Wi-Fi Direct y demostrar su utilidad en los dispositivos móviles como son los dispositivos Android. ABSTRACT. This final degree Project tries to demonstrate the importance and utility of networking mobile devices. For this purpose several types of wireless networks will be explained. These networks allow direct connections between devices. The most prominent Wireless networks are P2P and Ad-hoc which will be explained later. The use of these networks can be found in a wide range of fields such as agriculture medicine, and even in the military sector. Besides, other aim of this project is the study of Wi-Fi Direct Technology which is created by Wi-Fi Alliance. As it explained along the project, Wi-Fi Direct is based on P2P networks. This technology lets nearby devices create P2P networks through Wi-Fi network without an Internet access point. On the other hand, a large number of mobile devices have the Android OS. Android has integrated Wi-Fi Direct technology in its latest devices. Because of this applications have emerged that using this technology they get from sending files to send the user’s location. This technology combined with these devices can be very useful to use in emergencies where communications infrastructures are not available. Since not need an Internet access point, communication between a user in danger and another within close radius is possible. For these reasons another of the main aims of this project is the implementation of an application for Android devices which use Wi-Fi Direct technology to perform several different functionalities, such as file exchange or chat for simultaneous communication between devices. This is intended to better understand the operation of Wi-Fi Direct technology and prove its utility on mobile devices such as Android devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El modelo aplicado en el estudio, se basa en una metodología publicada en trabajos anteriores en bosques tropicales. El análisis se apoya en información obtenida con tecnología LiDAR aerotransportada y datos de censo de una mega-parcela forestal de 50 ha, en el Parque Nacional ?Yasuní? (PNY) en Ecuador. La metodología considera los hábitats topográficos, la distribución espacial de las parcelas de ajuste y validación en el diseño de muestreo y un modelo general para estimación de densidad de carbono. El modelo se ajusta usando técnicas de análisis de regresión lineal (R2=0,89, RMSE=8,67 MgC ha-1). Este enfoque metodológico hace posible calibraciones más precisas y permite cartografiar la distribución espacial de la biomasa sobre el suelo en alta resolución para una mejor estimación de las reservas de carbono en bosque tropical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesis constituye un avance en el conocimiento de los efectos de la variabilidad climática en los cultivos en la Península Ibérica (PI). Es bien conocido que la temperatura del océano, particularmente de la región tropical, es una de las variables más convenientes para ser utilizado como predictor climático. Los océanos son considerados como la principal fuente de almacenamiento de calor del planeta debido a la alta capacidad calorífica del agua. Cuando se libera esta energía, altera los regímenes globales de circulación atmosférica por mecanismos de teleconexión. Estos cambios en la circulación general de la atmósfera afectan a la temperatura, precipitación, humedad, viento, etc., a escala regional, los cuales afectan al crecimiento, desarrollo y rendimiento de los cultivos. Para el caso de Europa, esto implica que la variabilidad atmosférica en una región específica se asocia con la variabilidad de otras regiones adyacentes y/o remotas, como consecuencia Europa está siendo afectada por los patrones de circulaciones globales, que a su vez, se ven afectados por patrones oceánicos. El objetivo general de esta tesis es analizar la variabilidad del rendimiento de los cultivos y su relación con la variabilidad climática y teleconexiones, así como evaluar su predictibilidad. Además, esta Tesis tiene como objetivo establecer una metodología para estudiar la predictibilidad de las anomalías del rendimiento de los cultivos. El análisis se centra en trigo y maíz como referencia para otros cultivos de la PI, cultivos de invierno en secano y cultivos de verano en regadío respectivamente. Experimentos de simulación de cultivos utilizando una metodología en cadena de modelos (clima + cultivos) son diseñados para evaluar los impactos de los patrones de variabilidad climática en el rendimiento y su predictibilidad. La presente Tesis se estructura en dos partes: La primera se centra en el análisis de la variabilidad del clima y la segunda es una aplicación de predicción cuantitativa de cosechas. La primera parte está dividida en 3 capítulos y la segundo en un capitulo cubriendo los objetivos específicos del presente trabajo de investigación. Parte I. Análisis de variabilidad climática El primer capítulo muestra un análisis de la variabilidad del rendimiento potencial en una localidad como indicador bioclimático de las teleconexiones de El Niño con Europa, mostrando su importancia en la mejora de predictibilidad tanto en clima como en agricultura. Además, se presenta la metodología elegida para relacionar el rendimiento con las variables atmosféricas y oceánicas. El rendimiento de los cultivos es parcialmente determinado por la variabilidad climática atmosférica, que a su vez depende de los cambios en la temperatura de la superficie del mar (TSM). El Niño es el principal modo de variabilidad interanual de la TSM, y sus efectos se extienden en todo el mundo. Sin embargo, la predictibilidad de estos impactos es controversial, especialmente aquellos asociados con la variabilidad climática Europea, que se ha encontrado que es no estacionaria y no lineal. Este estudio mostró cómo el rendimiento potencial de los cultivos obtenidos a partir de datos de reanálisis y modelos de cultivos sirve como un índice alternativo y más eficaz de las teleconexiones de El Niño, ya que integra las no linealidades entre las variables climáticas en una única serie temporal. Las relaciones entre El Niño y las anomalías de rendimiento de los cultivos son más significativas que las contribuciones individuales de cada una de las variables atmosféricas utilizadas como entrada en el modelo de cultivo. Además, la no estacionariedad entre El Niño y la variabilidad climática europea se detectan con mayor claridad cuando se analiza la variabilidad de los rendimiento de los cultivos. La comprensión de esta relación permite una cierta predictibilidad hasta un año antes de la cosecha del cultivo. Esta predictibilidad no es constante, sino que depende tanto la modulación de la alta y baja frecuencia. En el segundo capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de verano en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de maíz en la PI para todo el siglo veinte, usando un modelo de cultivo calibrado en 5 localidades españolas y datos climáticos de reanálisis para obtener series temporales largas de rendimiento potencial. Este estudio evalúa el uso de datos de reanálisis para obtener series de rendimiento de cultivos que dependen solo del clima, y utilizar estos rendimientos para analizar la influencia de los patrones oceánicos y atmosféricos. Los resultados muestran una gran fiabilidad de los datos de reanálisis. La distribución espacial asociada a la primera componente principal de la variabilidad del rendimiento muestra un comportamiento similar en todos los lugares estudiados de la PI. Se observa una alta correlación lineal entre el índice de El Niño y el rendimiento, pero no es estacionaria en el tiempo. Sin embargo, la relación entre la temperatura del aire y el rendimiento se mantiene constante a lo largo del tiempo, siendo los meses de mayor influencia durante el período de llenado del grano. En cuanto a los patrones atmosféricos, el patrón Escandinavia presentó una influencia significativa en el rendimiento en PI. En el tercer capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de invierno en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de trigo en secano del Noreste (NE) de la PI. La variabilidad climática es el principal motor de los cambios en el crecimiento, desarrollo y rendimiento de los cultivos, especialmente en los sistemas de producción en secano. En la PI, los rendimientos de trigo son fuertemente dependientes de la cantidad de precipitación estacional y la distribución temporal de las mismas durante el periodo de crecimiento del cultivo. La principal fuente de variabilidad interanual de la precipitación en la PI es la Oscilación del Atlántico Norte (NAO), que se ha relacionado, en parte, con los cambios en la temperatura de la superficie del mar en el Pacífico Tropical (El Niño) y el Atlántico Tropical (TNA). La existencia de cierta predictibilidad nos ha animado a analizar la posible predicción de los rendimientos de trigo en la PI utilizando anomalías de TSM como predictor. Para ello, se ha utilizado un modelo de cultivo (calibrado en dos localidades del NE de la PI) y datos climáticos de reanálisis para obtener series temporales largas de rendimiento de trigo alcanzable y relacionar su variabilidad con anomalías de la TSM. Los resultados muestran que El Niño y la TNA influyen en el desarrollo y rendimiento del trigo en el NE de la PI, y estos impactos depende del estado concurrente de la NAO. Aunque la relación cultivo-TSM no es igual durante todo el periodo analizado, se puede explicar por un mecanismo eco-fisiológico estacionario. Durante la segunda mitad del siglo veinte, el calentamiento (enfriamiento) en la superficie del Atlántico tropical se asocia a una fase negativa (positiva) de la NAO, que ejerce una influencia positiva (negativa) en la temperatura mínima y precipitación durante el invierno y, por lo tanto, aumenta (disminuye) el rendimiento de trigo en la PI. En relación con El Niño, la correlación más alta se observó en el período 1981 -2001. En estas décadas, los altos (bajos) rendimientos se asocian con una transición El Niño - La Niña (La Niña - El Niño) o con eventos de El Niño (La Niña) que están finalizando. Para estos eventos, el patrón atmosférica asociada se asemeja a la NAO, que también influye directamente en la temperatura máxima y precipitación experimentadas por el cultivo durante la floración y llenado de grano. Los co- efectos de los dos patrones de teleconexión oceánicos ayudan a aumentar (disminuir) la precipitación y a disminuir (aumentar) la temperatura máxima en PI, por lo tanto el rendimiento de trigo aumenta (disminuye). Parte II. Predicción de cultivos. En el último capítulo se analiza los beneficios potenciales del uso de predicciones climáticas estacionales (por ejemplo de precipitación) en las predicciones de rendimientos de trigo y maíz, y explora métodos para aplicar dichos pronósticos climáticos en modelos de cultivo. Las predicciones climáticas estacionales tienen un gran potencial en las predicciones de cultivos, contribuyendo de esta manera a una mayor eficiencia de la gestión agrícola, seguridad alimentaria y de subsistencia. Los pronósticos climáticos se expresan en diferentes formas, sin embargo todos ellos son probabilísticos. Para ello, se evalúan y aplican dos métodos para desagregar las predicciones climáticas estacionales en datos diarios: 1) un generador climático estocástico condicionado (predictWTD) y 2) un simple re-muestreador basado en las probabilidades del pronóstico (FResampler1). Los dos métodos se evaluaron en un caso de estudio en el que se analizaron los impactos de tres escenarios de predicciones de precipitación estacional (predicción seco, medio y lluvioso) en el rendimiento de trigo en secano, sobre las necesidades de riego y rendimiento de maíz en la PI. Además, se estimó el margen bruto y los riesgos de la producción asociada con las predicciones de precipitación estacional extremas (seca y lluviosa). Los métodos predWTD y FResampler1 usados para desagregar los pronósticos de precipitación estacional en datos diarios, que serán usados como inputs en los modelos de cultivos, proporcionan una predicción comparable. Por lo tanto, ambos métodos parecen opciones factibles/viables para la vinculación de los pronósticos estacionales con modelos de simulación de cultivos para establecer predicciones de rendimiento o las necesidades de riego en el caso de maíz. El análisis del impacto en el margen bruto de los precios del grano de los dos cultivos (trigo y maíz) y el coste de riego (maíz) sugieren que la combinación de los precios de mercado previstos y la predicción climática estacional pueden ser una buena herramienta en la toma de decisiones de los agricultores, especialmente en predicciones secas y/o localidades con baja precipitación anual. Estos métodos permiten cuantificar los beneficios y riesgos de los agricultores ante una predicción climática estacional en la PI. Por lo tanto, seríamos capaces de establecer sistemas de alerta temprana y diseñar estrategias de adaptación del manejo del cultivo para aprovechar las condiciones favorables o reducir los efectos de condiciones adversas. La utilidad potencial de esta Tesis es la aplicación de las relaciones encontradas para predicción de cosechas de la próxima campaña agrícola. Una correcta predicción de los rendimientos podría ayudar a los agricultores a planear con antelación sus prácticas agronómicas y todos los demás aspectos relacionados con el manejo de los cultivos. Esta metodología se puede utilizar también para la predicción de las tendencias futuras de la variabilidad del rendimiento en la PI. Tanto los sectores públicos (mejora de la planificación agrícola) como privados (agricultores, compañías de seguros agrarios) pueden beneficiarse de esta mejora en la predicción de cosechas. ABSTRACT The present thesis constitutes a step forward in advancing of knowledge of the effects of climate variability on crops in the Iberian Peninsula (IP). It is well known that ocean temperature, particularly the tropical ocean, is one of the most convenient variables to be used as climate predictor. Oceans are considered as the principal heat storage of the planet due to the high heat capacity of water. When this energy is released, it alters the global atmospheric circulation regimes by teleconnection1 mechanisms. These changes in the general circulation of the atmosphere affect the regional temperature, precipitation, moisture, wind, etc., and those influence crop growth, development and yield. For the case of Europe, this implies that the atmospheric variability in a specific region is associated with the variability of others adjacent and/or remote regions as a consequence of Europe being affected by global circulations patterns which, in turn, are affected by oceanic patterns. The general objective of this Thesis is to analyze the variability of crop yields at climate time scales and its relation to the climate variability and teleconnections, as well as to evaluate their predictability. Moreover, this Thesis aims to establish a methodology to study the predictability of crop yield anomalies. The analysis focuses on wheat and maize as a reference crops for other field crops in the IP, for winter rainfed crops and summer irrigated crops respectively. Crop simulation experiments using a model chain methodology (climate + crop) are designed to evaluate the impacts of climate variability patterns on yield and its predictability. The present Thesis is structured in two parts. The first part is focused on the climate variability analyses, and the second part is an application of the quantitative crop forecasting for years that fulfill specific conditions identified in the first part. This Thesis is divided into 4 chapters, covering the specific objectives of the present research work. Part I. Climate variability analyses The first chapter shows an analysis of potential yield variability in one location, as a bioclimatic indicator of the El Niño teleconnections with Europe, putting forward its importance for improving predictability in both climate and agriculture. It also presents the chosen methodology to relate yield with atmospheric and oceanic variables. Crop yield is partially determined by atmospheric climate variability, which in turn depends on changes in the sea surface temperature (SST). El Niño is the leading mode of SST interannual variability, and its impacts extend worldwide. Nevertheless, the predictability of these impacts is controversial, especially those associated with European climate variability, which have been found to be non-stationary and non-linear. The study showed how potential2 crop yield obtained from reanalysis data and crop models serves as an alternative and more effective index of El Niño teleconnections because it integrates the nonlinearities between the climate variables in a unique time series. The relationships between El Niño and crop yield anomalies are more significant than the individual contributions of each of the atmospheric variables used as input in the crop model. Additionally, the non-stationarities between El Niño and European climate variability are more clearly detected when analyzing crop-yield variability. The understanding of this relationship allows for some predictability up to one year before the crop is harvested. This predictability is not constant, but depends on both high and low frequency modulation. The second chapter identifies the oceanic and atmospheric patterns of climate variability affecting summer cropping systems in the IP. Moreover, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of maize yield variability in IP for the whole twenty century, using a calibrated crop model at five contrasting Spanish locations and reanalyses climate datasets to obtain long time series of potential yield. The study tests the use of reanalysis data for obtaining only climate dependent time series of simulated crop yield for the whole region, and to use these yield to analyze the influences of oceanic and atmospheric patterns. The results show a good reliability of reanalysis data. The spatial distribution of the leading principal component of yield variability shows a similar behaviour over all the studied locations in the IP. The strong linear correlation between El Niño index and yield is remarkable, being this relation non-stationary on time, although the air temperature-yield relationship remains on time, being the highest influences during grain filling period. Regarding atmospheric patterns, the summer Scandinavian pattern has significant influence on yield in IP. The third chapter identifies the oceanic and atmospheric patterns of climate variability affecting winter cropping systems in the IP. Also, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of rainfed wheat yield variability in IP. Climate variability is the main driver of changes in crop growth, development and yield, especially for rainfed production systems. In IP, wheat yields are strongly dependent on seasonal rainfall amount and temporal distribution of rainfall during the growing season. The major source of precipitation interannual variability in IP is the North Atlantic Oscillation (NAO) which has been related in part with changes in the Tropical Pacific (El Niño) and Atlantic (TNA) sea surface temperature (SST). The existence of some predictability has encouraged us to analyze the possible predictability of the wheat yield in the IP using SSTs anomalies as predictor. For this purpose, a crop model with a site specific calibration for the Northeast of IP and reanalysis climate datasets have been used to obtain long time series of attainable wheat yield and relate their variability with SST anomalies. The results show that El Niño and TNA influence rainfed wheat development and yield in IP and these impacts depend on the concurrent state of the NAO. Although crop-SST relationships do not equally hold on during the whole analyzed period, they can be explained by an understood and stationary ecophysiological mechanism. During the second half of the twenty century, the positive (negative) TNA index is associated to a negative (positive) phase of NAO, which exerts a positive (negative) influence on minimum temperatures (Tmin) and precipitation (Prec) during winter and, thus, yield increases (decreases) in IP. In relation to El Niño, the highest correlation takes place in the period 1981-2001. For these decades, high (low) yields are associated with an El Niño to La Niña (La Niña to El Niño) transitions or to El Niño events finishing. For these events, the regional associated atmospheric pattern resembles the NAO, which also influences directly on the maximum temperatures (Tmax) and precipitation experienced by the crop during flowering and grain filling. The co-effects of the two teleconnection patterns help to increase (decrease) the rainfall and decrease (increase) Tmax in IP, thus on increase (decrease) wheat yield. Part II. Crop forecasting The last chapter analyses the potential benefits for wheat and maize yields prediction from using seasonal climate forecasts (precipitation), and explores methods to apply such a climate forecast to crop models. Seasonal climate prediction has significant potential to contribute to the efficiency of agricultural management, and to food and livelihood security. Climate forecasts come in different forms, but probabilistic. For this purpose, two methods were evaluated and applied for disaggregating seasonal climate forecast into daily weather realizations: 1) a conditioned stochastic weather generator (predictWTD) and 2) a simple forecast probability resampler (FResampler1). The two methods were evaluated in a case study where the impacts of three scenarios of seasonal rainfall forecasts on rainfed wheat yield, on irrigation requirements and yields of maize in IP were analyzed. In addition, we estimated the economic margins and production risks associated with extreme scenarios of seasonal rainfall forecasts (dry and wet). The predWTD and FResampler1 methods used for disaggregating seasonal rainfall forecast into daily data needed by the crop simulation models provided comparable predictability. Therefore both methods seem feasible options for linking seasonal forecasts with crop simulation models for establishing yield forecasts or irrigation water requirements. The analysis of the impact on gross margin of grain prices for both crops and maize irrigation costs suggests the combination of market prices expected and the seasonal climate forecast can be a good tool in farmer’s decision-making, especially on dry forecast and/or in locations with low annual precipitation. These methodologies would allow quantifying the benefits and risks of a seasonal weather forecast to farmers in IP. Therefore, we would be able to establish early warning systems and to design crop management adaptation strategies that take advantage of favorable conditions or reduce the effect of adverse conditions. The potential usefulness of this Thesis is to apply the relationships found to crop forecasting on the next cropping season, suggesting opportunity time windows for the prediction. The methodology can be used as well for the prediction of future trends of IP yield variability. Both public (improvement of agricultural planning) and private (decision support to farmers, insurance companies) sectors may benefit from such an improvement of crop forecasting.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La disponibilidad hídrica es uno de los principales factores que determinan el rendimiento del viñedo en muchas regiones vitícolas, por lo que sus consecuencias han sido ampliamente estudiadas. Sin embargo, para una cantidad de agua de riego determinada, otros aspectos como la frecuencia de aplicación, o la combinación entre el caudal de los goteros y la distancia entre los mismos (es decir, el patrón de distribución de agua en el suelo), pueden jugar un papel relevante, pero estos factores han sido poco estudiados. El objetivo de este trabajo ha sido evaluar las implicaciones agronómicas y fisiológicas de dos frecuencias de riego (IrrF, cada 2 y 4 días) y dos patrones de distribución de agua (DisP, goteros de 2 L h-1 separados 0,6 m vs. goteros de 4 L h-1 separados 1,2 m). El experimento se llevó a cabo durante cuatro temporadas consecutivas en un viñedo cv. Syrah con un suelo arcilloso en el centro de España, y los dos factores fueron evaluados bajo dos condiciones de disponibilidad hídrica (Baja: 20% de ETo y Media: 40% de ETo). El efecto de la frecuencia de riego y el patrón de distribución de agua en la respuesta agronómica del cv. Syrah se ha estudiado en el capítulo 1. La frecuencia de riego y el patrón de distribución de agua en el suelo afectaron a algunos aspectos de los componentes de rendimiento y desarrollo vegetativo en las dos condiciones de disponibilidad hídrica, aunque los efectos observados no fueron los mismos todos los años. Los efectos fueron más evidentes para IrrF en condiciones de baja disponibilidad hídrica y para DisP en condiciones de disponibilidad hídrica media. Dos de los cuatro años del experimento, el pasar de frecuencia de riego de 2 días a 4 días causó un incremento medio de rendimiento del 20% para la situación de baja disponibilidad hídrica. La textura del suelo, sin duda ha condicionado los resultados obtenidos en los tratamientos regados con el 20% de la ETo, ya que regar cada dos días implicaba la aplicación de pequeñas cantidades de agua y se formaban bulbos de riego superficiales, probablemente favoreciendo las pérdidas por evaporación. En el capítulo 2, se ha analizado el efecto de la frecuencia de riego y del patrón de distribución de agua en el estado hídrico de la planta y el intercambio gaseoso a nivel de hoja con el fin de explicar las diferencias observadas en la respuesta agronómica. En lo que respecta a la frecuencia de riego, en condiciones de baja disponibilidad hídrica, las plantas regadas cada 4 días (plantas 4d), mostraron mayores tasas de asimilación neta y conductancia estomática que las plantas regadas cada 2 días (plantas 2d), lo que es consistente con la hipótesis de que con la frecuencia de riego de 2 días se produjo una pérdida de eficiencia del uso del agua, probablemente debido a una mayor evaporación como consecuencia del hecho de que el volumen de suelo mojado creado era pequeño y cerca de la superficie. En condiciones de disponibilidad hídrica media, las diferencias en el intercambio gaseoso a nivel de hoja fueron mucho más pequeñas. Al comienzo del verano cada frecuencia de riego se comportó mejor uno de los días de medida, compensando al final del ciclo de riego de 4 días. Sin embargo, a medida que avanzó el verano y el déficit de agua se hizo más alto, las diferencias significativas aparecieron sólo en el 'día 4' del ciclo de riego, cuando las plantas 2d se comportaron mejor que las plantas regadas 4d que llevaban tres días sin regarse. Estas diferencias fisiológicas fueron menores que en condiciones de baja disponibilidad hídrica y al parecer no suficientes para afectar el comportamiento agronómico. En cuanto al patrón de distribución de agua, el efecto fue poco significativo, pero la mayor densidad de goteros tendió a presentar un mayor intercambio gaseoso a nivel de hoja, especialmente a media mañana. El efecto fue más importante para las condiciones de disponibilidad hídrica media. En el capítulo 3, se han comparado las relaciones entre el intercambio gaseoso a nivel de hoja, el estado hídrico y la demanda atmosférica, con el fin de explicar los cambios en la intensidad de la respuesta fisiológica observados en el Capítulo 2. No se han encontrado diferencias en dichas relaciones para el patrón de distribución de agua, por lo que sólo se ha analizado el efecto de la frecuencia de riego. El estudio se ha centrado fundamentalmente en si las plantas mostraron una respuesta fisiológica diferente a los cambios en el estado hídrico y en la demanda atmosférica según el tiempo transcurrido desde el último riego. Las diferencias observadas explican los resultados obtenidos en los capítulos anteriores, y sugieren la existencia de procesos de aclimatación vinculados a la frecuencia de riego y a la disponibilidad hídrica. Las plantas bajo condiciones de baja disponibilidad hídrica se mostraron más aclimatadas al estrés hídrico que aquellas en condiciones de disponibilidad hídrica media. La frecuencia de riego afectó claramente la relación entre los parámetros de intercambio gaseoso a nivel de hoja, el estado hídrico de la planta y las condiciones atmosféricas, y junto con la cantidad de agua aplicada tuvo implicaciones en el desarrollo de mecanismos de aclimatación que afectaron a la respuesta fisiológica de la planta, afectando a la eficiencia del riego. ABSTRACT Water availability is one of the major factors that determine vineyard performance in many grape growing regions, so its implications have been widely studied before. However, for a given irrigation water amount, other aspects such as application frequency, or emitter spacing and flow rate (i.e., distribution pattern), may play a relevant role, but these factors have been scarcely studied. The aim of this work was to evaluate the agronomic and physiological implications of two irrigation frequencies (IrrF, every 2 and 4 days) and two water distribution patterns (DisP, 2 L h−1 emitters every 0.6 m vs. 4 L h−1 emitters every 1.2 m). The experiment was carried out during four consecutive seasons in a cv. Syrah vineyard with a clay soil in central Spain, and the two factors were evaluated under two water availability conditions (LOW WA: 20% of ETo and MEDIUM WA: 40% of ETo). The effect of irrigation frequency and water distribution pattern on the agronomical response of cv. Syrah was studied in Chapter 1. IrrF and DisP affected some aspects of vegetative development and yield components under both water availability conditions, although the effects observed were not the same every year. The effects were more evident for IrrF under low water availability and for DisP under medium water availability. Two out of the four years of the experiment, the change of irrigation frequency from 2 days to 4 days promoted an average yield increase of 20% for the LOW WA situation. Soil texture certainly conditioned the results obtained under LOW WA conditions, since high frequency irrigation implied applying small amounts of water that resulted in limited superficial water bulbs, which probably favored water evaporation. In Chapter 2, the effect of irrigation frequency and water distribution pattern on plant water status and leaf gas exchange was analyzed to explain the differences observed in the agronomical response. Concerning irrigation frequency, under LOW WA conditions, applying irrigation every 4 days, resulted in higher net assimilation rates and stomatal conductance than doing it every 2 days, supporting the hypothesis that the latter frequency resulted in a water use efficiency loss, probably due to higher evaporation as a consequence of the fact the wetted soil volume created was small and close to the surface. Under MEDIUM WA conditions, differences in leaf gas exchange were much smaller. At the beginning of the summer each irrigation frequency behaved better one of the measurements days, compensating at the end of the 4-day irrigation cycle. However, as the summer progressed and water deficit became higher, significant differences appeared only on ‘day 4’ of the irrigation cycle, when 2d plants behaved better than 4d plants. These physiological differences were smaller than under LOW WA conditions and apparently not sufficient to affect agronomical performance. Regarding water distribution pattern, the effect was less significant but the closest emitter spacing resulted in general terms in a higher leaf gas exchange, especially at midmorning. The effect was more noticeable for MEDIUM WA conditions. In Chapter 3, the relationships between leaf gas exchange and leaf water status and atmospheric demand were compared to explain the changes in the intensity of the physiological response observed in Chapter 2. No differences were found in the relationships for water distribution pattern, so only the effect of irrigation frequency was analyzed focusing on whether the plants have a different physiological response to changes in water status and atmospheric demand according to the time elapsed since the last irrigation. Differences observed in the relationships explained the results obtained in the previous chapters, and point at the occurrence of acclimation processes linked to irrigation frequency and to water availability. Plants under LOW WATER AVAILABILITY conditions seemed to be more acclimated to water stress than those under MEDIUM WATER AVAILABILITY conditions. Irrigation frequency clearly affected the relationship between leaf gas exchange parameters, plant water status and atmospheric conditions, and together with the amount of water applied had implications in the development of acclimation mechanisms that affected plant physiological response, thus affecting irrigation efficiency.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis doctoral se estudian las variaciones de radón en el interior de dos viviendas similares de construcción nueva en Madrid, una de ellas ocupada y la otra no, que forman parte del mismo edificio residencial. La concentración de radón y los parámetros ambientales (presión, temperatura y humedad) se midieron durante ocho meses. La monitorización del gas radón se realizó mediante detectores de estado sólido. Simultáneamente, se adquirieron algunas variables atmosféricas de un modelo atmosférico. En el análisis de los datos, se utilizó principalmente el método de la Transformada Wavelet. Los resultados muestran que el nivel de radón es ligeramente más alto en la vivienda ocupada que en la otra. A partir del análisis desarrollado en este estudio, se encontró que había un patrón específico estacional en la concentración de radón interior. Además, se analizó también la influencia antropogénica. Se pudieron observar patrones periódicos muy similares en intervalos concretos sin importar si la vivienda está ocupada o no. Por otra parte, los datos se almacenaron en cubos OLAP. El análisis se realizó usando unos algoritmos de agrupamiento (clustering) y de asociación. El objetivo es descubrir las relaciones entre el radón y las condiciones externas como la presión, estabilidad, etc. Además, la metodología aplicada puede ser útil para estudios ambientales en donde se mida radón en espacios interiores. ABSTRACT The present thesis studies the indoor radon variations in two similar new dwellings, one of them occupied and the other unoccupied, from the same residential building in Madrid. Radon concentration and ambient parameters were measured during eight months. Solid state detectors were used for the radon monitoring. Simultaneously, several atmospheric variables were acquired from an atmospheric model. In the data analysis, the Wavelet Transform Method was mainly used. The results show that radon level is slightly higher in the unoccupied dwelling than in the other one. From the analysis developed in this study, it is found that a specific seasonal pattern exists in the indoor radon concentration. Besides, the anthropogenic influence is also analysed. Nearly periodical patterns could be observed in specific periods whether dwelling is occupied or not. Otherwise, data were stored in cubes OLAP. Analysis was carried out using clustering and association algorithms. The aim is to find out the relationships among radon and external conditions like pressure, stability, etc. Besides, the methodology could be useful to assess environmental studies, where indoor radon is measured.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Si el hombre es el cuidador de las palabras y sólo de ellas emerge el sentido de las cosas, la arquitectura tiene un cometido preciso: hacer de las condiciones ya dadas de cada lugar palabras que signifiquen las cualidades de la existencia, y que desvelen la riqueza y contenidos que en ellas se contienen potencialmente" Ignasi Solá Morales. Lugar: permanencia o producción, 1992. Esta tesis surge tanto del afán por comprender la identidad de uno de los espacios más representativos de mi ciudad, asumido familiarmente pero que plantea muchas dudas respecto a su caracterización, como de la preocupación personal respecto a la aparente hegemonía del modelo urbano de la "ciudad genérica", crudamente expuesto por Rem Koolhaas a finales del siglo XX, que pone en crisis la ciudad histórica. El territorio, espacio físico concreto, y la memoria asociada a este, obliterados, son considerados como punto de partida para confrontarlos con la proclamación del nuevo modelo de "ciudad genérica", de raíz eminentemente económica y tecnológica. La realidad tangible de un espacio, aparentemente forjado en base a los valores denostados por el nuevo modelo propuesto, se estudia desde las premisas opuestas. La idea del no-lugar, teorizado por Marc Augé y tomado como modelo por Koolhaas, supone éste emancipado tanto de las preexistencias históricas como de su ubicación física concreta, planteando un tipo de espacio de representación al margen del territorio y la memoria. Sin pretender adoptar una postura resistente u opuesta, sino antitética y complementaria, se toman aquí las premisas de Koolhaas para contrastarlas con una porción del territorio a medio camino entre la arquitectura y la ciudad, a fin de desarrollar una reflexión que sirva de complemento y contrapeso al paradigma espacial que la “ciudad genérica” implica y cuya inmediatez y supuesta anomia parecen anular cualquier intención interpretativa al neutralizar los centros históricos y proclamar el agotamiento de la historia. El planteamiento de una teoría dicotómica frente al espacio y las teorías arquitectónicas asociadas a este ya fue formulado por Colin Rowe y Fred Koetter a finales de los años setenta del siglo pasado. Se plantea aquí la idea de una “ciudad tangible” como opuesta a la idea de la "ciudad genérica" enunciada por Koolhaas. Tomando el territorio y la memoria como referencia principal en un lugar concreto y huyendo de la premisa de la inmediatez del instante y el "presente perpetuo" proclamado por Koolhaas, del que según él seríamos prisioneros, se establece una distancia respecto al objeto de análisis que desarrolla el estudio en la dirección opuesta al supuesto origen del mismo, planteando la posibilidad de reactivar una reflexión en torno al territorio y la memoria en el seno del proceso global de habitación para poner de manifiesto determinados mecanismos de configuración de un espacio de representación al margen de la urgencia del presente, reactivando la memoria y su relación con el territorio como punto de partida. Desde de la reconstrucción hipotética del territorio, partiendo de la propia presencia física del mismo, su orografía, la paleo-biología, las analogías etológicas, los restos arqueológicos, la antropología o la historia, se reivindica la reflexión arquitectónica como disciplina diversa y privilegiada en cuanto al análisis espacial, tratando de discernir el proceso mediante el cual el Prado pasó de territorio a escenario. La organización cronológica del estudio y la incorporación de muy diversas fuentes, en su mayoría directas, pretende poner de manifiesto la condición transitiva del espacio de representación y contrastar el pasado remoto del lugar y su construcción con el momento actual, inevitablemente encarnado por el punto de vista desde el cual se desarrolla la tesis. El Prado parece albergar, agazapado en su nombre, la raíz de un origen remoto y olvidado. Si como enunciaba Ignasi Solá-Morales la función de la arquitectura es hacer aflorar los significados inherentes al lugar, esta tesis se plantea como una recuperación de la idea del vínculo entre el territorio y la memoria como fuente fundamental en la definición de un espacio de representación específico. El escrutinio del pasado constituye un acto eminentemente contemporáneo, pues el punto de vista y la distancia, inevitablemente condicionados por el presente, determinan la mirada. El culto contemporáneo a la inmediatez y la proclamación de la superación de los procesos históricos han relegado el pasado, en cierto grado, a depósito de restos o referente a superar, obviando su ineluctable condición de origen o momento anterior condicionante. Partiendo de la reconstrucción del lugar sobre el cual se halla el Prado ubicado y reconsiderando, según las premisas desarrolladas por la moderna historiografía, fundamentalmente desarrolladas por la Escuela francesa de los Annales, la cotidianeidad y lo anónimo como fuente de la que dimanan muchos de los actuales significados de nuestros espacios de representación, tomando como punto de partida un lugar remoto y olvidado, se estudia como se fue consolidando el Prado hasta devenir un lugar insigne de referencia asociado a los poderes fácticos y el espacio áulico de la capital de las Españas en el siglo XVII. El proceso mediante el cual el Prado pasó de territorio a escenario implica la recuperación de la memoria de un espacio agropecuario anónimo y el análisis de cómo, poco a poco, se fue depositando sobre el mismo el acervo de los diversos pobladores de la región que con sus particularidades culturales y sociales fueron condicionando, en mayor o menor grado, un lugar cuyo origen se extiende retrospectivamente hasta hace más de dos mil años, cuando se considera que pudo darse la primera habitación a partir de la cual, de manera ininterrumpida, el Prado ha venido siendo parte de lo que devino, más tarde, Madrid. La llegada de nuevos agentes, vinculados con estructuras de poder y territoriales que trascendían la inmediatez del territorio sobre el que se comenzó a erigir dicho lugar, sirven para repasar los diferentes depósitos ideológicos y culturales que han ido conformando el mismo, reivindicando la diversidad y lo heterogéneo del espacio de representación frente a la idea homogeneizadora que el modelo genérico implica. La constitución del Prado como un espacio de referencia asociado al paganismo arcaico a partir de la praxis espacial cotidiana, su relación con las estructuras defensivas de Al-Andalus y la atalaya Omeya, la apropiación del los primitivos santuarios por parte la iglesia, su relación con un determinado tipo de espiritualidad y las órdenes religiosas más poderosas de la época, la preferencia de Carlos V por Madrid y sus vínculos con la cultura europea del momento, o la definitiva metamorfosis del lugar a partir del siglo XVI y el advenimiento de un nuevo paganismo emblemático y estetizado, culminan con el advenimiento de lo económico como representación del poder en el seno de la corte y la erección del Palacio del Buen Retiro como manifestación tangible de la definitiva exaltación del Prado a espacio de representación áulico. Decía T.S. Elliot que la pugna por el espacio de la memoria constituye el principal rasgo del clasicismo, y el Prado, ciertamente, participa de ese carácter al que está profundamente asociado en la conciencia espacial de los madrileños como lugar de referencia. Acaso la obliteración del territorio y la memoria, propuestas en la “ciudad genérica” también tengan algo que ver con ello. ABSTRACT "If man is the caretaker of words and only they provide the sense of things, the architecture has a precise mission: to make out from the given conditions of each place words that mean the qualities of existence, and which unveil the wealth and content they potentially contain " Ignasi Solá Morales. Place: permanence or production, 1992. This thesis arises from both the desire to understand the identity of one of the most representative spaces of my city, assumed in a familiar way but that raises many doubts about its characterization, and from a personal concern about the apparent hegemony of the urban model of the "generic city " so crudely exposed by Rem Koolhaas in the late twentieth century that puts a strain on the historic city. The obliteration of the territory, specific physical space, and its associated memory, are considered as a starting point to confront them with the proclamation of the new model of "generic city" raised from eminently economic and technological roots. The tangible reality of a space, apparently forged based on the values reviled by the proposed new model, is studied from opposite premises. The idea of non-place, theorized by Marc Augé and modeled by Koolhaas, implies the emancipation from both historical preexistences and physical location, posing a type of space representation outside the territory and memory. Without wishing to establish a confrontational or opposite position, but an antithetical and complementary stance, the premises of Koolhaas are here taken to contrast them with a portion of territory halfway between architecture and the city, to develop a study that will complement and counterbalance the spatial paradigm that the "generic city" means and whose alleged immediacy and anomie appear to nullify any interpretative intention by neutralizing the historic centers and proclaiming the exhaustion of history. The approach of a dichotomous theory versus space and architectural theories associated with this were already formulated by Colin Rowe and Fred Koetter during the late seventies of last century. The idea of a "tangible city" as opposed to the idea of the "generic city" enunciated by Koolhaas arises here. Taking the territory and memory as the main reference in a particular place and trying to avoid the premise of the immediacy of the moment and the "perpetual present" proclaimed by Koolhaas, of which he pleas we would be prisoners, a distance is established from the object of analysis developing the study in the opposite direction to the alleged origin of it, raising the possibility of reactivating a reflection on the territory and memory within the overall process of inhabiting to reveal certain representational space configuration mechanisms outside the urgency of the present, reviving the memory and its relationship with the territory as a starting point. From the hypothetical reconstruction of the territory, starting from its physical presence, geography, paleo-biology, ethological analogies, archaeological remains, anthropology or history, architecture is claimed as a diverse as privileged discipline for spatial analysis, trying to discern the process by which the Prado moved from territory to stage. The chronological organization of the study and incorporating a variety of sources, most direct, aims to highlight the transitive condition of representational space and contrast the remote past of the place and its construction with the current moment, inevitably played by the view point from which the thesis develops. The Prado seems to harbor, in its name, the root of a remote and forgotten origin. If, as Ignasi Sola-Morales said, the aim of architecture is to bring out the meanings inherent in the site, this thesis is presented as a recovery of the idea of the link between the territory and memory as a key source in defining a specific space of representation. The scrutiny of the past is an eminently contemporary act, for the view and distance inevitably conditioned by the present, determine the way we look. The contemporary cult of immediacy and the proclamation of overcoming historical processes have relegated the past, to some extent, to remains deposit or a reference to overcome, ignoring its ineluctable condition as origin or previous constraint. From rebuilding the site on which the Prado is located and reconsidering everyday life and the anonymous as a source of many arising current meanings of our space of representation, according to the premises developed by modern historiography mainly developed by the French school of Annales, trying to recover the remote and forgotten is attempted, the thesis studies how el Prado was consolidated to become the most significant place of Madrid, deeply associated with the power in the capital of Spain during the XVII century. The process by which the Prado evolved from territory to stage involves the recovery of the memory of an anonymous agricultural space and the analysis of how, little by little, the influence of the various inhabitants of the region with their own and how their cultural and social peculiarities was deposited through time on the common ground and how that determined, to a greater or lesser degree, a place whose origin retrospectively extends over more than two thousand years ago, when we can consider the first inhabiting from which, without interruption, the Prado has come to be part of what became, later, Madrid. The arrival of new players, linked to power structures and territorial issues which transcended the immediacy of the territory on which the place begun to be a characteristic space, serve to review the different ideological and cultural deposits that have shaped the place, claiming diversity and heterogeneous space of representation before the homogenizing idea which the generic model implies. The constitution of the Prado as a benchmark associated with the archaic paganism developed from the ancient everyday spatial praxis, its relationship with the defensive structures of Al-Andalus and the Umayyad watchtower, the appropriation of the early sanctuaries by the roman church, its relationship with a certain type of spirituality and the most powerful religious orders of the time, the preference of Carlos V towards Madrid and its links with the European culture of the moment and the final metamorphosis of the place during the sixteenth century, end at the moment on which the advent of the economic as a representation of power within the court and the erection of the Palacio del Buen Retiro, as a tangible manifestation of the ultimate exaltation of courtly Prado space representation, happened in the mid XVII century. T. S. Elliot said that the struggle for memory space is the main feature of classicism, and the Prado certainly shares part of that character deeply associated in the mental spatial structure of the locals as a landmark. Perhaps the obliteration of territory and memory proposed in the "generic city" might also have something to do with that.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de esta tesis es estudiar la aproximación a los fenómenos de transporte térmico en edificación acristalada a través de sus réplicas a escala. La tarea central de esta tesis es, por lo tanto, la comparación del comportamiento térmico de modelos a escala con el correspondiente comportamiento térmico del prototipo a escala real. Los datos principales de comparación entre modelo y prototipo serán las temperaturas. En el primer capítulo del Estado del Arte de esta tesis se hará un recorrido histórico por los usos de los modelos a escala desde la antigüedad hasta nuestro días. Dentro de éste, en el Estado de la Técnica, se expondrán los beneficios que tiene su empleo y las dificultades que conllevan. A continuación, en el Estado de la Investigación de los modelos a escala, se analizarán artículos científicos y tesis. Precisamente, nos centraremos en aquellos modelos a escala que son funcionales. Los modelos a escala funcionales son modelos a escala que replican, además, una o algunas de las funciones de sus prototipos. Los modelos a escala pueden estar distorsionados o no. Los modelos a escala distorsionados son aquellos con cambios intencionados en las dimensiones o en las características constructivas para la obtención de una respuesta específica por ejemplo, replicar el comportamiento térmico. Los modelos a escala sin distorsión, o no distorsionados, son aquellos que mantienen, en la medida de lo posible, las proporciones dimensionales y características constructivas de sus prototipos de referencia. Estos modelos a escala funcionales y no distorsionados son especialmente útiles para los arquitectos ya que permiten a la vez ser empleados como elementos funcionales de análisis y como elementos de toma de decisiones en el diseño constructivo. A pesar de su versatilidad, en general, se observará que se han utilizado muy poco estos modelos a escala funcionales sin distorsión para el estudio del comportamiento térmico de la edificación. Posteriormente, se expondrán las teorías para el análisis de los datos térmicos recogidos de los modelos a escala y su aplicabilidad a los correspondientes prototipos a escala real. Se explicarán los experimentos llevados a cabo, tanto en laboratorio como a intemperie. Se han realizado experimentos con modelos sencillos cúbicos a diferentes escalas y sometidos a las mismas condiciones ambientales. De estos modelos sencillos hemos dado el salto a un modelo reducido de una edificación acristalada relativamente sencilla. Los experimentos consisten en ensayos simultáneos a intemperie del prototipo a escala real y su modelo reducido del Taller de Prototipos de la Escuela Técnica Superior de Arquitectura de Madrid (ETSAM). Para el análisis de los datos experimentales hemos aplicado las teorías conocidas, tanto comparaciones directas como el empleo del análisis dimensional. Finalmente, las simulaciones nos permiten comparaciones flexibles con los datos experimentales, por ese motivo, hemos utilizado tanto programas comerciales como un algoritmo de simulación desarrollado ad hoc para esta investigación. Finalmente, exponemos la discusión y las conclusiones de esta investigación. Abstract The purpose of this thesis is to study the approximation to phenomena of heat transfer in glazed buildings through their scale replicas. The central task of this thesis is, therefore, the comparison of the thermal performance of scale models without distortion with the corresponding thermal performance of their full-scale prototypes. Indoor air temperatures of the scale model and the corresponding prototype are the data to be compared. In the first chapter on the State of the Art, it will be shown a broad vision, consisting of a historic review of uses of scale models, from antiquity to our days. In the section State of the Technique, the benefits and difficulties associated with their implementation are presented. Additionally, in the section State of the Research, current scientific papers and theses on scale models are reviewed. Specifically, we focus on functional scale models. Functional scale models are scale models that replicate, additionally, one or some of the functions of their corresponding prototypes. Scale models can be distorted or not. Scale models with distortion are considered scale models with intentional changes, on one hand, in dimensions scaled unevenly and, on the other hand, in constructive characteristics or materials, in order to get a specific performance for instance, a specific thermal performance. Consequently, scale models without distortion, or undistorted scale models scaled evenly, are those replicating, to the extent possible, without distortion, the dimensional proportions and constructive configurations of their prototypes of reference. These undistorted and functional scale models are especially useful for architects because they can be used, simultaneously, as functional elements of analysis and as decision-making elements during the design. Although they are versatile, in general, it is remarkable that these types of models are used very little for the study of the thermal performance of buildings. Subsequently, the theories related to the analysis of the experimental thermal data collected from the scale models and their applicability to the corresponding full-scale prototypes, will be explained. Thereafter, the experiments in laboratory and at outdoor conditions are detailed. Firstly, experiments carried out with simple cube models at different scales are explained. The prototype larger in size and the corresponding undistorted scale model have been subjected to same environmental conditions in every experimental test. Secondly, a step forward is taken carrying out some simultaneous experimental tests of an undistorted scale model, replica of a relatively simple lightweight and glazed building construction. This experiment consists of monitoring the undistorted scale model of the prototype workshop located in the School of Architecture (ETSAM) of the Technical University of Madrid (UPM). For the analysis of experimental data, known related theories and resources are applied, such as, direct comparisons, statistical analyses, Dimensional Analysis and last, but not least important, simulations. Simulations allow us, specifically, flexible comparisons with experimental data. Here, apart the use of the simulation software EnergyPlus, a simulation algorithm is developed ad hoc for this research. Finally, the discussion and conclusions of this research are exposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis “CAN LIS, La huella de la arquitectura de Jørn Utzon a través de su obra Can Lis” analiza en profundidad la vivienda que Jørn Utzon realizó para sí mismo en la entonces calle de la Media Luna, Porto Petro, Mallorca, entre los años 1970-74. La investigación plantea el análisis de esta obra maestra de la arquitectura, sus causas e intenciones, su proceso proyectual, su proceso constructivo, sus relaciones e influencias y sus significados últimos. Este estudio es fruto de una labor de investigación que comenzó hace más de 10 años. Enfrentarse a una obra cuya imagen es tan conocida es una tarea menos sencilla de lo que pudiera parecer. La descripción del proceso de trabajo de Jørn Utzon en Can Lis, y de su método en general, contiene un considerable número de mitificaciones que han sido comúnmente sostenidas por diversos estudiosos de prestigio, que han abordado esta obra sin un estudio razonable de la documentación existente, ni una investigación de los archivos, ni una comprobación de los hechos o una consulta de los testigos intervinientes. Por ello, cuestiones fundamentales habían quedado en el terreno de la conjetura y permanecía deformada la visión general de los procesos de Jørn Utzon en Mallorca. La tesis se ha estructurado en dos grandes apartados que permitan la comprensión de los elementos fundamentales para su gestación: por un lado, el proceso proyectual y constructivo con sus circunstancias y condicionantes y, por otro, el conjunto de hechos y conceptos que han influido de manera directa y significativa en su concreción. Esta investigación contiene una cantidad considerable de materiales y hechos inéditos, fruto de su desarrollo, así como documentación y dibujos nunca publicados anteriormente. Es por tanto, el estudio más completo realizado sobre Can Lis hasta la fecha. En la primera parte de la tesis “CAN LIS” se aborda todo el proceso proyectual de Can Lis desde los primeros croquis, con las condiciones y motivaciones iniciales, los proyectos sucesivos, el proyecto básico y el proyecto de ejecución, hasta el proceso de construcción, su desarrollo y circunstancias, así como las modificaciones posteriores introducidas. Estos elementos se estructuran en tres apartados 1) Las condiciones y condicionantes iniciales. 2) El proceso proyectual. 3) El proceso constructivo. En la segunda parte de la tesis “La huella de la arquitectura de Jørn Utzon a través de su obra Can Lis” se han analizado de manera particular algunos hechos arquitectónicos y vitales previos que fueron especialmente determinantes en la concepción de Can Lis y la serie de influencias directas que son imprescindibles para la comprensión de las condiciones en que se desarrolló y de las ideas que alumbra. Estudios previos de toda la trayectoria de Utzon y todo el corpus de influencias ayudaron a determinar cuáles de ellos son fundamentales para la comprensión del proceso. Estos elementos se pueden considerar directamente precursores de ideas desarrolladas específicamente en Can Lis: 4) La experimentación en Australia: la naturaleza, la dimensión humana y la técnica. La casa de Bayview. 5) Utzon y el descubrimiento de lo islámico: la secuencia espacial, la materia y la luz de la arquitectura islámica como experiencia de aprendizaje. 6) Paisaje sacro, hombre y arquitectura: la búsqueda de Utzon en Grecia. Las conclusiones de este estudio determinan una serie de certezas sobre los procesos de Jørn Utzon en Can Lis, y en su obra global, durante las diversas fases creativas que desmitifican muchos acercamientos precedentes: la visión universal de la arquitectura en su acercamiento al proyecto, el entretejido método proyectual de Utzon, la precisa búsqueda del desarrollo constructivo junto a la ejemplaridad en el rigor, la vitalidad y la espiritualidad con que Utzon aborda la arquitectura, la trascendencia de la forma de habitar de las personas y el valor que para Utzon tiene la arquitectura como medio para revelar el orden universal que nos rodea. ABSTRACT “CAN LIS. The footprint of Jørn Utzon´s architecture through his work Can Lis” carries out a thorough analysis of the house Jørn built for himself between 1970 and 1974 on the street formerly called Calle de la Media Luna, in Porto Petro on the island of Mallorca. The research focuses on the causes that brought about this masterpiece, its purposes, design and building processes, its relations with and influences on other buildings and its ultimate meanings. This study is the result of a research that started over 10 years ago. Approaching a piece of work whose image is so well-known is harder than one might think. Many aspects of Jørn Utzon´s working method in Can Lis particularly but also generally have been described inaccurately and mythicized by several renowned scholars, who hadn´t really studied the existing documents or archives nor confirmed their hypotheses or consulted witnesses of the creation of Can Lis. This is why many key issues have been uncertain all this time and the general idea about Utzon´s working process in Mallorca has been distorted. This dissertation has been structured into two main sections with the aim of helping understand all the facts that led to the creation of the building: the first part describes the design and building processes, as well as the circumstances and constraints under which they were carried out. The second part presents the events and ideas that directly and indirectly influenced the final work. This thesis contains a large amount of unpublished material and information, documents and drawings from the creation process as the inevitable result of a long lasting tenacious research. It probably is the most comprehensive study on Can Lis so far. The first section, “CAN LIS”, addresses the design process of Can Lis from the very first sketches all the way through the subsequent plans, including basic and execution plans and the building process up to the changes that were later carried out on the building. The project´s initial conditions and Utzon´s first motivations and the evolution and circumstances of the building process are also described in this section, which has been divided into three parts: 1. The initial conditions and constraints. 2. The design process. 3. The building process. The second section, “The footprint of Jørn Utzon´s architecture through his work Can Lis”, focuses on some events in Utzon´s life and some of his architectural experiences prior to the creation of Can Lis that were decisive to it. Also the direct influences on the process which are key to understanding the conditions under which the creation was carried out as well as the ideas Can Lis sheds a light on are illustrated in this section. A thorough study of the whole process Utzon went through and of all the influences he was subjected to helped determine what is crucial to comprehending Can Lis. These events or experiences can be considered as the direct precursors to the ideas that crystallised in this master piece: 4. Experiments carried out in Australia: nature, human and technical dimensions. The Bayview house. 5. Utzon´s discovery of Islamic architecture: spatial sequences, matter and light as a learning experience. 6. Sacred landscape, man and architecture: Utzon´s quest in Greece. The findings of this research determine some aspects of Utzon´s working methods at every stage of the creation process both in Can Lis and in general, thus shedding light on previous mistaken ideas about Utzon´s way of working. A universal understanding of architecture, an intertwined design method, a tenacious search for the exact construction solutions, an exemplary rigour, vitality and spirituality in the design approach, the transcendence of our way of living and architecture´s potential to reveal the Universal order that surrounds are all aspects that do define Utzon as an architect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La particular ubicación del Parque Nacional da Tijuca en el entorno urbano de la ciudad de Rio de Janeiro justifica la estrecha relación que sus habitantes han tenido históricamente con las montañas, sobre las que se asienta el P.N. Su población de más de 6 millones de habitantes, las altas temperaturas de su clima tropical húmedo, y el creciente interés por el turismo ecológico, hacen del baño en las cascadas de la Floresta da Tijuca una actividad habitual entre los cariocas. El posible impacto de los usos recreativos sobre las comunidades biológicas del entorno de las cascadas, en ocasiones localizadas en zonas de alto valor ecológico, aún no es suficientemente conocido, no ha sido evaluado, ni está contemplado en los planes oficiales del P.N. La decisión de permitir oficialmente el baño en una sucesión de cascadas concretas, situadas en un sector del Parque donde el baño no está permitido por el Plan de Gestión, pero donde se ha comprobado que este uso se produce con regularidad, y el potencial incremento en el número de visitantes que puede derivar de la divulgación al público de este permiso justifican el presente estudio. El trabajo, realizado bajo la co-dirección del profesor responsable del Laboratório de Ecologia de Florestal de la Universidad Federal del Estado de Rio de Janeiro, responde a la solicitud del P.N. de un estudio que evalúe el estado de conservación de la vegetación en el entorno de dichas cascadas, en el momento previo a la divulgación del permiso. Se pretende comprobar si existe degradación en el estrato arbóreo-arbustivo que pueda estar asociada a los usos recreativos que se dan en estas cascadas, bajo los niveles de visitación actuales. Se ha realizado una comparación del estado de conservación de dicho estrato, entre el entorno de las cascadas -representado por el muestreo de 10 parcelas que componen el conjunto CP-, y una zona alejada que se considera “libre” de presión antrópica debido a su menor accesibilidad -representada por el muestreo de 10 parcelas que componen el conjunto CL-. Dichos conjuntos se han comparado en lo referente a su composición florística (diversidad, en términos de riqueza observada, riqueza esperada, y equidad; especies predominantes y especies exóticas y amenazadas), atributos de desarrollo morfo-estructural (altura media, área basimétrica, proporción de individuos multicaules, densidad de individuos y proporción de individuos pertenecientes a especies exóticas y amenazadas) y atributos del medio físico que diferencian, fundamentalmente, las dos zonas comparadas (pendiente y exposición del suelo). Se han realizado comparaciones directas, en el caso de la composición florística, y comparaciones estadísticas básicas, de análisis de varianzas (ANOVA) y de análisis multivariante gráficos (de agrupamiento y NMDS) y numéricos (ANOSIM, NPMANOVA) para identificar diferencias significativas entre el entorno de las cascadas y la zona considerada “libre de impacto”. Los resultados muestran que en el momento inicial no es posible afirmar que exista degradación patente asociada a los usos recreativos en las cascadas, al no haber sido encontradas diferencias significativas en la mayor parte de las comparaciones, ni en la evaluación conjunta de todos los indicadores. Sin embargo, se han detectado importantes indicios de simplificación de la vegetación en el entorno del río, tanto en los indicadores de desarrollo estructural, como en la composición florística; y se han detectado diferencias relevantes en determinados indicadores que señalan la existencia de perturbación derivada del tránsito de visitantes, en especial sobre la exposición del suelo. Estos resultados podrían deberse a un estado incipiente de degradación, aún no claramente perceptible, y recalcan la importancia de estudiar, en los años sucesivos, la evolución del estado de conservación de la vegetación de esta zona, correlativamente a la evolución del volumen de visitantes, para comprobar y cuantificar el posible impacto antrópico derivado de los usos recreativos en estas cascadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El sistema kárstico de Pico Frentes se ha desarrollado a favor de un conjunto calcáreo del Cretácico Superior cuya geometría plegada muy bien definida ha condicionado que los acuíferos se sitúen principalmente en tres sinclinales hidráulicamente conectados, con una capacidad de reservas subterráneas de entre 5 y 7 hm3. La recarga en este acuífero libre y en penillanura es autógena y difusa. El flujo subterráneo va dirigido a gran escala por el fondo de los sinclinales y a pequeña escala mediante corrientes subterráneas hacia los manantiales de Fuentetoba (210 l/s) y nacimiento del rio Mazos (50 l/s), surgiendo en aguas altas otras descargas menores. El análisis de los hidrogramas de estos manantiales indica un sistema de régimen muy variable y poco poder de regulación natural, característica de un acuífero típicamente kárstico, con gran capacidad de renovación y poco tiempo de residencia. Gracias a la simulación de los hidrogramas de estas surgencias mediante un modelo matemático de precipitación –escorrentía, se ha cuantificado de manera detallada el balance hidráulico medio para una serie de 20 años: aportación pluviométrica 16,86 hm3 (100%), recarga natural 8,35 hm3 (49,53%), EVT 8,50 hm3 (50,41%), bombeo de agua subterránea 0,01hm3 (0,06%), escorrentía superficial 0 hm3, transferencias subterráneas a otros acuíferos 0 hm3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Construir es unir elementos de dimensiones reducidas para componer objetos de mucha mayor dimensión. Los adhesivos posibilitan realizar uniones directas por simple contacto a través de un tercer material. A diferencia de los adhesivos tradicionales de la construcción, basados en la penetración de un material en el otro formando vínculos mecánicos, los adhesivos modernos establecen uniones de naturaleza química. El autor analiza los adhesivos actuales a partir de su comportamiento mecánico y térmico y aborda sus propiedades y aplicaciones en la ejecución de uniones estructurales, refuerzo de estructuras, cerramientos y revestimientos y fábricas.