1000 resultados para Descargas atmosféricas directas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente investigación recoge una experiencia de innovación educativa de 13 años de duración que analiza las bondades e inconvenientes de utilizar redes temáticas orientadas a la educación de la ciudadanía. Esta experiencia se centra en la red temática Criptored fundada en 1999 en la Universidad Politécnica de Madrid. La experiencia publicada en este trabajo demuestra que una red temática puede ser no sólo un buen medio para difundir conocimiento de calidad entre especialistas, sino un buen generador de ideas y proyectos derivados con implicaciones formativas directas de la ciudadanía a través de Internet. Esta demostración se fundamenta en una serie de diferentes decisiones en la evolución de este proyecto, como son una estructuración docente de la información publicada, gestión de la calidad de los contenidos, definición de un esquema de difusión y compartición de información, generación de nuevo contenido basado en interacciones de miembros y no miembros de la red, etc., lo que facilita la apertura de una red temática a un público heterogéneo sin perder calidad ni excelencia. El impacto y la difusión de esta red en diversos sectores quedan retratados por los resultados. La red refleja un impacto significativo en universidades, centros de investigación, empresas TIC en España e Iberoamérica y en la sociedad en general: 243 universidades, centros de investigación y asociaciones de 22 países representados, 925 miembros de la red, 448 documentos para libre descarga, 14 libros electrónicos, 102 vídeos y más de 2.500.000 documentos servidos en 13 años.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente estudio está encaminado a un mejor conocimiento de las leyes biológicas que rigen la coordinación -organización- de movimientos del aparato locomotor humano, de los segmentos corporales del hombre. Tiene pues una finalidad explorativa, sin objetivo práctico inmediato. Ahora bien, tiene del mismo modo una finalidad práctica: el conocimiento de las relaciones de las pruebas testadas por los resultados obtenidos, que nos lo va a permitir de cada una de las pruebas realizadas; aparte de posibles aplicaciones más o menos directas al entrenamiento o desarrollo de la coordinación. La finalidad explorativa pretende justificarse como una colaboración más a los conocimientos que actualmente tenemos, a otros estudios ya realizados. La finalidad práctica pretende justificarse como una colaboración en la búsqueda de pruebas eficaces para medir la coordinación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante la Ilustración, el imperio español alcanzó su máxima amplitud y las instituciones oficiales incrementaron su apoyo a las ciencias. Para defender sus fronteras y ejercer con eficacia el poder político, económico y religioso, la Corona y la Iglesia necesitaban obtener información precisa --incluida la climatológica-- de las posesiones españolas y de los pobladores de éstas. Fueron varios los procedimientos empleados para ello: sistema de cuestionarios y relaciones geográficas, estudios medico-topográficos, visitas e inspecciones oficiales, expediciones político-científicas, correspondencia epistolar, artículos periodísticos, etc. Dichos procedimientos fueron aplicados por redes de informadores cuyas actuaciones se basaban en la división del trabajo, el reparto de colaboradores en diferentes lugares, el uso de códigos de comunicación comprensibles, el envío de los resultados a los superiores jerárquicos y la toma de decisiones por las autoridades competentes. Las redes de información estaban sometidas a dictámenes que normalizaban su creación y continuidad temporal, daban forma a su estructura interna, especificaban sus cometidos y obligaban a cumplir protocolos y plazos. En su seno se idearon planes de investigación integrados en el estudio general de la Tierra, el ser humano y la cultura. El beneficio de las actuaciones de sus miembros se plasmó en cubrir grandes ámbitos geográficos con el consiguiente ahorro de tiempo, esfuerzos y medios. En sus correspondientes contextos, los miembros de las redes efectuaron estudios climatológicos conforme a intereses, imposiciones y circunstancias específicas. Así, los médicos se interesaron por las condiciones climáticas que influían en la salud humana; los funcionarios reales y los ingenieros militares describieron los climas locales y regionales aptos para el fomento y el control político, jurídico y educativo de los habitantes de los territorios hispánicos; los expedicionarios estudiaron las interacciones entre los fenómenos naturales y las influencias de los accidentes geográficos en los climas; los clérigos se interesaron por los aspectos estéticos, apologéticos y contemplativos de los climas; finalmente, en la prensa de la época se publicaron registros meteorológicos periódicos y trabajos climatológicos varios. En definitiva, el saber climatológico en el mundo hispánico ilustrado aportó algunos rasgos esenciales a la climatología en una etapa pre-fundacional de esta disciplina. Dichos rasgos se desarrollaron generalmente en una escala local o regional y se refirieron a los siguientes asuntos: el calor como principal agente de las modificaciones atmosféricas, de la formación de vapor acuoso y de las precipitaciones; la influencia del suelo en el aumento de humedad y calor en el aire; el poder de los vientos para trasladar de un lugar a otro el frío o el calor, el vapor de agua, los fenómenos atmosféricos y los agentes responsables de las enfermedades contagiosas; las propiedades del aire atmosférico y su capacidad para interaccionar con el medio ambiente; la condición estática y repetitiva de los climas, si bien se admitió que dichos fenómenos podían sufrir modificaciones; la corroboración experimental de las diferencias climáticas entre las zonas tropicales y medias del planeta; la refutación de que la naturaleza americana y sus habitantes eran inferiores a los europeos; y la demostración de que los principios rectores de los fenómenos físicos del Viejo y el Nuevo Mundo eran idénticos. Desde el último tercio del siglo XVIII, los documentos producidos por los componentes de las redes de información incluyeron datos meteorológicos. Pero no siempre se emplearon los mismos instrumentos de medida ni se siguieron los mismos protocolos de indagación en idénticas condiciones. Además, y salvo excepciones, los períodos durante los cuales se recabaron datos atmosféricos fueron relativamente cortos, y los expertos no efectuaron las mismas operaciones aritméticas con los parámetros. Por esta razón, y por la orientación utilitaria de los ilustrados hispánicos, el saber climatológico no obtuvo en el período y en el ámbito geográfico considerados resultados teóricos apreciables; en cambio, dio lugar a una gran cantidad de actividades prácticas con aplicaciones a la medicina, la agricultura, la náutica, el fomento, la prevención de riesgos naturales, etc. La principal utilidad de este trabajo consiste en servir de complemento a los procedimientos actualmente en uso en historia de la hidrología y en climatología histórica. ABSTRACT During the Enlightenment, the Spanish Empire achieved its highest length and State institutions increased their support to sciences. In order to defend their frontiers and to exercise political, economical and religious power, the Crown and the Church needed exact information --including the climatologic one-- about its possessions and its habitants. Some of the procedures employed to get that objective were: system of questionnaires and geographic relations, medical-topographic studies, official visits and inspections, political-scientific expeditions, direct mail, journalistic articles, etc. Those procedures were applied by informers´ networks which obtained, manned and transmitted every kind of data about the natural and moral reality of the Hispanic territories; their actions were based on the division of tasks, the distribution of collaborators at several places, the use of understandable communication codes and the sending of results to the hierarchical superiors; after, the competent authorities took decisions. The information networks were subjected to rules witch regulated its creation, temporary continuity, interior structure, objectives, protocols and periods. Their memberships invented plans about the general research of the Earth, the human beings and the culture; and they contributed to get benefits because of covering large geographic frames and economizing time, effort and means. According to their specifics contexts, concerns, impositions and circumstances, the informers performed climatologic tasks. Thus, the physicians were interested in the climatic conditions which affected to human health; the royal officers and military engineers described the most propitious climates to patronage and political, lawful and educative control of inhabitants of Hispanic territories; the participants in politic-scientific expeditions studied the interactions among natural phenomena and the influence of geographic aspects on the climate; the clergymen underlined the esthetic, apologetic and contemplative face of climates; finally, in the newspapers were published a lot of meteorological data and climatologic works. So, the climatologic knowledge in the Hispanic enlightened world added these essential aspects --referred in a local and regional area-- during the pre-foundational epoch of the climatology: the heat as first agent of atmospheric modifications, aqueous vapor and precipitations; the influx of the land in the increment of humidity and heat of the air; the power of the winds to convey the cold, the heat, the aqueous vapor, the atmospheric phenomena and the agents which caused contagious maladies; the properties of the air and its faculty to mediate with the environs; the static and repetitive condition of the climate and its possibility to experience change; the experimental confirmation of climatic varieties between tropical and central areas of the planet; the negation of the inferiority of the American nature and inhabitants; the demonstration about the equality of the rules which conducted physical phenomena in the Old and the New world. Since the last third part of the eighteenth century, the documents produced by the members of the networks included meteorological data. But the informers were not used to employ the same measure instruments and homogeneous protocols completion in the same conditions. Exceptions besides, the times of taking atmospheric data, usually were very short; and the experts did not carry out the same arithmetical operations with parameters. Because of this reason and the utilitarian guidance of the informers, during the Hispanic Enlightenment, it was not possible to obtain theoretic conclusions about climatologic knowledge; but there were a lot of practical activities applied to Medicine, Agriculture, Navigation, patronage, prevention of natural risks, etc. The main utility of this work consist in favoring the present procedures of the History of Hydrology and Historic Climatology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La infiltración de agua en el suelo y la recarga profunda del agua subterránea contenida en los acuíferos es un proceso lento en relación con otros fenómenos hidrológicos. La redacción de esta tesis ha pretendido contribuir al estudio de la influencia que el almacenamiento de la precipitación sólida en forma de manto de nieve y su eventual fusión puedan tener sobre dicho proceso en áreas de media montaña (1.000 – 2.000 m.) en las que con gran frecuencia se sitúan las cabeceras de los ríos peninsulares. Para ello se ha partido del análisis de las diferentes variables intervinientes durante un determinado periodo temporal y sobre un espacio geográfico concreto, por lo que su metodología es de naturaleza empírica. La extensión del periodo (2002/03 a 2010/11) ha venido condicionada por la disponibilidad de los valores de algunas de sus principales variables, como han sido el equivalente en agua de la nieve acumulada y los caudales procedentes de su fusión. Éstos se han obtenido como resultado de la aplicación del modelo ASTER, desarrollado en el programa de Evaluación de los Recursos Hídricos procedentes de la Innivación (ERHIN), calibrado – entre otros- con datos de precipitaciones, temperatura y caudales provenientes a su vez del Sistema Automático de Información Hidrológica (SAIH). Ambos programas fueron implantados por la Administración en las diferentes Confederaciones Hidrográficas y en determinados Organismos de cuenca actuales, en cuyo desarrollo participó el autor de esta tesis. En cuanto a la zona de estudio se ha procedido a su elección considerando las posibles áreas de media montaña en las que la presencia de la nieve fuera hidrológicamente significativa y estuvieran constituidas litológicamente por afloramientos permeables que no impidieran la infiltración en el terreno y la formación de acuíferos de cierta relevancia. El interés se centró discrecionalmente en la cuenca del Tajo, tanto por el carácter estratégico de la misma -como suministradora en la actualidad de excedentes a otras cuencas deficitarias- como por el valor representativo de sus condiciones climáticas y orográficas en relación con otras cuencas hidrográficas peninsulares. Para ello se partió de las cabeceras de ríos identificadas por el programa ERHIN por su interés nivológico para la implantación del modelo ASTER y de las Masas de Agua Subterráneas MASb (antes Unidades Hidrogeológicas UUHH) definidas en los planes hidrológicos. La intersección en el territorio de ambos criterios condujo, finalmente, a la zona del Alto Tajo, en la que se cumplen ambos requisitos. El tramo quedó concretado en el comprendido entre las cabeceras de los ríos Tajo y Guadiela y la cola de los embalses de Entrepeñas y Buendía respectivamente, puntos de cierre para la calibración llevada a cabo en la modelización ASTER. Gran parte de éste discurre, en su parte alta, sobre rocas carbonatadas (calizas y dolomías del Jurásico y Cretácico), relacionados con las MASb de Tajuña-Montes Universales, Molina de Aragón y Sigüenza-Maranchón. Los valores diarios de las reservas de agua en forma de nieve, evapotranspiración y caudales procedentes de la fusión se han obtenido a partir de los resultados del mencionado modelo, procediéndose al cálculo de la infiltración por balance hídrico durante el periodo de estudio considerado, teniendo en cuenta los valores de precipitación, evapotranspiración y aportaciones de caudales. Esto ha requerido el estudio previo de las condiciones hidrogeológicas de la zona seleccionada con objeto de conocer las posibles interconexiones subterráneas que pudieran alterar los saldos entre las variables intervinientes anteriormente citadas. Para ello se ha llevado a cabo la recopilación y análisis de la información hidrogeológica correspondiente a la documentación de los planes hidrológicos del Tajo (Plan Hidrológico de la cuenca del Tajo RD 1664/1998 y el actual Plan Hidrológico de la parte española de la Demarcación Hidrográfica del Tajo RD 270/2014) y de los estudios previos realizados por el organismo de cuenca y el Instituto Geológico y Minero de España (lGME) fundamentalmente. En relación con la MASb Tajuña-Montes Universales -cuya extensión supera la zona seleccionada- dichos estudios consideran su estructura geológica y distribución litológica, con intercalaciones impermeables que actúan como barreras, dividiendo a éstas en Subunidades e identificando las zonas de drenaje de sus respectivos acuíferos. También se ha considerado la documentación y estudios previos del Plan Hidrológico Nacional sobre las Unidades Hidrogeológicas compartidas entre ámbitos geográficos de diferentes planes hidrológicos. Se concluye que las divisorias hidrográficas de las cabeceras son sensiblemente coincidentes o abarcan las Subunidades Montes Universales meridionales, Priego, Cifuentes, Zaorejas, u Montes Universales septentrionales, que drenan hacia el Tajo/Guadiela (bien directamente, bien a través de afluentes como el Gallo, Ablanquejo, Cabrillas, Cuervo…), MASb Molina de Aragón, que drena al Tajo a través del río Gallo y MASb Sigüenza—Maranchón, que drena su parte correspondiente hacia el Tajo a través del Ablanquejo. Se descartan – salvo la pequeña salvedad del manantial de Cifuentes- las conexiones hidrogeológicas con otras MASb o Subunidades por lo que las cabeceras del Tajo y del Guadiela pueden considerarse como un Sistema independiente donde las precipitaciones no evaporadas escurren superficialmente o se infiltran y descargan hacia los embalses de Entrepeñas y Buendía. La cuantificación diaria y acumulada de los balances hídricos ha permitido calcular la evolución aproximada de las reservas de agua subterránea desde la fecha inicial. Originalmente los balances se realizaron de forma separada en las cabeceras del Tajo y del Guadiela, cuyos valores acumulados manifestaron una tendencia creciente en la primera y decreciente en la segunda. Dicha situación se equilibra cuando el balance se practica conjuntamente en ambas, apreciándose en la variación del volumen de agua subterránea una evolución acorde hidrológicamente con los ciclos de verano/invierno y periodos de sequía, manteniéndose sus valores medios a largo/medio plazo, poniendo en evidencia la existencia de interconexiones subterráneas entre ambas cuencas. El balance conjunto, agregando la cabecera del Tajuña (que también comparte los materiales permeables de la MASb Tajuña-Montes Universales) no reveló la existencia de nuevas interrelaciones hidrogeológicas que influyeran en los balances hídricos realizados Tajo/Guadiela, confirmando las conclusiones de los estudios hidrogeológicos anteriormente analizados. Se ha procedido a confrontar y validar los resultados obtenidos de la evolución de las reservas de agua subterránea mediante los siguientes procedimientos alternativos: - Cálculo de los parámetros de desagüe de la curva de agotamiento correspondiente al volumen de agua subterránea drenante hacia el Tajo/Guadiela. Éste se ha realizado a partir de las aportaciones mensuales entrantes en los embalses de Entrepeñas y Buendía durante los meses de junio, julio, agosto y septiembre, cuyos valores responden al perfil típico de descargas de un acuífero. A partir de éstos se ha determinado el volumen drenante correspondiente al primero de junio de cada año de la serie histórica considerada. - Determinación del caudal base por el método Wallingford y deducción de los volúmenes drenantes. Estimación de las recarga anuales - Cuantificación de la recarga anual por el método Sanz, Menéndez Pidal de Navascués y Távara. Se obtuvieron valores de recarga muy aproximados entre los calculados por los dos últimos procedimientos citados. Respecto a las reservas de agua subterránea almacenadas siguen una evolución semejante en todos los casos, lo que ha permitido considerar válidos los resultados conseguidos mediante balance hídrico. Confirmada su solidez, se han buscado correlaciones simples entre el volumen de las reservas subterráneas (como indicador estimativo del efecto de la infiltración) y los volúmenes procedentes de la fusión. La conclusión es que estos últimos no tienen un efecto determinante a escala anual sobre la infiltración,recarga y variación de los volúmenes de agua subterránea, frente al peso de otras variables (precipitación y evapotranspiración). No obstante se ha encontrado una buena correlación múltiple entre la recarga estimada y la precipitación eficaz (precipitación menos evapotranspiración) y fusión, que ha permitido cuantificar la contribución de esta última. Posteriormente se ha recurrido a la selección de los episodios más intensos de acumulación /fusión en las cabeceras del Tajo y Guadiela. Y se procedió a la comparación entre los resultados obtenidos por aplicación del modelo de simulación en los mismos periodos (normalmente de varios días de duración) con datos reales y con datos ficticios de temperatura que anularan o disminuyeran la presencia de nieve, apreciándose una gran sensibilidad del efecto de la temperatura sobre la evapotranspiración y estableciéndose nuevamente correlaciones lineales entre los volúmenes de fusión y el incremento de reservas subterráneas. Las mismas confirman el efecto “favorecedor” de la acumulación de agua en forma de nieve y su posterior licuación, sobre sobre la infiltración de agua en el suelo y almacenamiento subterráneo. Finalmente se establecieron varios escenarios climáticos (+1ºC; +3ºC; +1ºC y – 10% precipitación; y 3ºC – 10% precipitación) compatibles con las previsiones del IPCC para mediados y finales del presente siglo, determinándose mediante simulación ASTER los correspondientes valores de fusión. La correlación establecida a escala anual ha permitido evaluar el efecto de la disminución del volumen de fusión - en los diferentes escenarios – sobre la recarga, pronosticando un descenso de los caudales de estiaje y la desaparición del “efecto nieve” sobre la infiltración y recarga con un aumento de 3ºC de temperatura. Teniendo en cuenta las condiciones de representatividad de la zona elegida, resulta verosímil la extensión de las anteriores conclusiones a otras cabeceras fluviales enclavadas en áreas de media montaña situadas entre 1000 a 2000m y sus efectos aguas abajo.Water infiltration into the soil and groundwater recharge deep water in aquifers is slow relative to other hydrological phenomena. The wording of this thesis aims to contribute to the study of the influence that the storage of solid precipitation as snow cover and its eventual melting may have on this process in mid-mountain areas (1000 - 2,000 m) where very often the headwaters of the peninsular rivers are located. For this party analysis of the different variables involved has over a given time period and a particular geographical area, so that their methodology is empirical in nature. The extension of the period (2002/03 to 2010/11) has been conditioned by the availability of the values of some of its key variables, as were the water equivalent of the snow and flows from melting. These have been obtained as a result of the application of ASTER model, developed in the program Evaluation of Water Resources from the Innivation (ERHIN), calibrated - among others data of rainfall, temperature and flow from turn System Automatic Hydrological Information (SAIH). Both programs were implemented by the Administration in the different Water Boards and to undertakings for current basin, in which the author participated development of this thesis. As for the study area has proceeded at its option considering the possible areas of midmountain in the presence of snow outside hydrological meaningful and they were lithology consisting of permeable outcrops that did not prevent infiltration into the ground and forming aquifers of some significance. We were interested discretion in the Tagus basin, therefore the strategic nature of it, as currently supplying surplus to other basins deficit- as the representative value of its climate and terrain conditions in relation to other peninsular river basins . To do this we started from the headwaters identified by the ERHIN program for its implementation snow interest to the ASTER model and Ground Water Bodies MASb (before UUHH Hydrogeological Units) defined in hydrological plans. The intersection in the territory of both criteria led eventually to the Alto Tajo, in which both requirements are met. The section was finalized in the period between the headwaters of the Tagus and Guadiela rivers and reservoirs end Entrepeñas and Buendia respectively checking points for calibration performed in ASTER modeling. Much of it runs on carbonate rocks (limestones and dolomites of Jurassic and Cretaceous) related MASb of Tajuña -Montes Universal, Molina de Aragón and Sigüenza-Maranchón. The daily values of water reserves in the form of snow, evapotranspiration and flow from melting were obtained from the results of this model, proceeding to the calculation of infiltration water balance during the study period considered, taking into account values of precipitation, evapotranspiration and input flow. This has required the prior examination of the hydrogeological conditions of your required in order to know the possible underground interconnections that could alter the balance between the intervening variables aforementioned area. For this we have carried out the collection and analysis of hydrogeological information relevant documentation Tagus river management plans (Hydrological Plan Tajo Basin RD 1664/1998 and the current Hydrological Plan of the Spanish part of the River Basin Tagus RD 270/2014) and previous studies by the basin organization and the Geological Survey of Spain (IGME) mainly. Regarding the MASb Tajuña- Montes Universal - whose length exceeds the area selected - these studies consider its geological structure and lithology distribution with waterproof collations that act as barriers, dividing it into subunits and identifying areas draining their respective aquifers. It has also considered the documentation and previous studies of the National Hydrological Plan on shared among different geographical areas management plans Hydrogeological Units. We conclude that river dividing the headers are substantially coincident or covering Subunits southern Universal Montes, Priego Cifuentes, Zaorejas and northern Universal Mounts, which drain into the Tagus / Guadiela (either directly or through tributaries such as Gallo, Ablanquejo , whitecaps , Raven ...), MASb Molina de Aragón which drains through the Tajo del Gallo and MASb Sigüenza- Maranchón river that drains into the Tagus using the Ablanquejo . Discarded - except the small exception of spring Cifuentes -hydrogeological connections with other MASb or Subunits so the headwaters of the Tagus and Guadiela be considered as a separate system, where rainfall not evaporated runs on surface or infiltrates and eventually discharged into reservoirs Entrepeñas and Buendia. The daily and cumulative quantification of water balances allowed us to compute the approximate evolution of groundwater reserves from its initial date. Initially balances were performed separately in the headwaters of the Tagus and Guadiela, whose cumulative values showed an increasing trend in the first and decreasing in the second. This situation is balanced when the balance is practiced together in both , appreciating the change in volume of groundwater hydrological evolution commensurate with the cycles of summer / winter and drought periods , keeping their average long / medium term values and putting in shows the existence of underground interconnections between the two basins. The overall balance, adding header Tajuña (which also shares the permeable materials MASb Tajuña -Montes Universal ) did not reveal the existence of new hydrogeological interrelationships that influenced water balances made Tajo / Guadiela, confirming the findings of the hydrogeological studies previously analyzed. We proceeded to confront and validate the results of the evolution of groundwater reserves by the following alternative procedures: - Calculate the parameters drain depletion curve corresponding to the volume of groundwater draining into the Tajo / Guadiela. This has been made from monthly inflows in the reservoirs of Entrepeñas and Buendia during the months of June, July, August and September, whose values match the typical profile of an aquifer discharges. From these has been determined for the first of June each year of the time series considered drainage volume - Determination of base flow by Wallingford method and deduction of drainage volumes. Estimate of annual recharge - Quantification of the annual recharge by the method Sanz Menéndez Pidal of Navascués and Távara. Very approximate values recharge between calculated for the last two mentioned methods were obtained. Concerning groundwater reserves stored follow a similar pattern in all cases, allowing consider valid the results achieved through water balance. Confirmed its robustness, simple correlations were sought between the volume of groundwater reserves (as estimated indicator of the effect of infiltration) and volumes from the melting. The conclusion is that the latter do not have a decisive effect on the annual scale infiltration, recharge and variation in volumes of groundwater, against the weight of other variables (precipitation and evapotranspiration). However found a good multiple correlation between the estimated recharge and effective precipitation (precipitation minus evapotranspiration) and fusion, which allowed quantify the contribution of the latter. Subsequently it has resorted to the selection of the most intense episodes of accumulation / melting in the headwaters of the Tagus and Guadiela. And we proceeded to the comparison between the results obtained by application of the simulation model in the same periods (usually several days) with real data and fictitious temperature data to annul or decrease the presence of snow, appreciating a great sensitivity of the effect of temperature on evapotranspiration and establishing linear correlations between the volumes of melting and increased groundwater reserves again. They confirm the “flattering " effect of water accumulation as snow and subsequent liquefaction of the infiltration of water into the soil and underground storage. Finally various climate scenarios (+1ºC; +3ºC; +1ºC y – 10% precipitation; y 3ºC – 10% precipitation) were established consistent with IPCC projections for mid - to late - century, determined through simulation ASTER corresponding values of melting. The correlation established on an annual scale has allowed to evaluate the effect of decreasing the volume of melt - in different scenarios - on recharge, predicting a decline in low flows and the disappearance of "snow effect" on infiltration and recharge with an increase of 3°C temperature. Given the conditions of representativeness of the chosen area, plausible extension of the above findings to other landlocked headwaters in mid-mountain areas located between 1000 to 2000m and its downstream effects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta tesis es estudiar la dinámica de la capa logarítmica de flujos turbulentos de pared. En concreto, proponemos un nuevo modelo estructural utilizando diferentes tipos de estructuras coherentes: sweeps, eyecciones, grupos de vorticidad y streaks. La herramienta utilizada es la simulación numérica directa de canales turbulentos. Desde los primeros trabajos de Theodorsen (1952), las estructuras coherentes han jugado un papel fundamental para entender la organización y dinámica de los flujos turbulentos. A día de hoy, datos procedentes de simulaciones numéricas directas obtenidas en instantes no contiguos permiten estudiar las propiedades fundamentales de las estructuras coherentes tridimensionales desde un punto de vista estadístico. Sin embargo, la dinámica no puede ser entendida en detalle utilizando sólo instantes aislados en el tiempo, sino que es necesario seguir de forma continua las estructuras. Aunque existen algunos estudios sobre la evolución temporal de las estructuras más pequeñas a números de Reynolds moderados, por ejemplo Robinson (1991), todavía no se ha realizado un estudio completo a altos números de Reynolds y para todas las escalas presentes de la capa logarítmica. El objetivo de esta tesis es llevar a cabo dicho análisis. Los problemas más interesantes los encontramos en la región logarítmica, donde residen las cascadas de vorticidad, energía y momento. Existen varios modelos que intentan explicar la organización de los flujos turbulentos en dicha región. Uno de los más extendidos fue propuesto por Adrian et al. (2000) a través de observaciones experimentales y considerando como elemento fundamental paquetes de vórtices con forma de horquilla que actúan de forma cooperativa para generar rampas de bajo momento. Un modelo alternativo fué ideado por del Álamo & Jiménez (2006) utilizando datos numéricos. Basado también en grupos de vorticidad, planteaba un escenario mucho más desorganizado y con estructuras sin forma de horquilla. Aunque los dos modelos son cinemáticamente similares, no lo son desde el punto de vista dinámico, en concreto en lo que se refiere a la importancia que juega la pared en la creación y vida de las estructuras. Otro punto importante aún sin resolver se refiere al modelo de cascada turbulenta propuesto por Kolmogorov (1941b), y su relación con estructuras coherentes medibles en el flujo. Para dar respuesta a las preguntas anteriores, hemos desarrollado un nuevo método que permite seguir estructuras coherentes en el tiempo y lo hemos aplicado a simulaciones numéricas de canales turbulentos con números de Reynolds lo suficientemente altos como para tener un rango de escalas no trivial y con dominios computacionales lo suficientemente grandes como para representar de forma correcta la dinámica de la capa logarítmica. Nuestros esfuerzos se han desarrollado en cuatro pasos. En primer lugar, hemos realizado una campaña de simulaciones numéricas directas a diferentes números de Reynolds y tamaños de cajas para evaluar el efecto del dominio computacional en las estadísticas de primer orden y el espectro. A partir de los resultados obtenidos, hemos concluido que simulaciones con cajas de longitud 2vr y ancho vr veces la semi-altura del canal son lo suficientemente grandes para reproducir correctamente las interacciones entre estructuras coherentes de la capa logarítmica y el resto de escalas. Estas simulaciones son utilizadas como punto de partida en los siguientes análisis. En segundo lugar, las estructuras coherentes correspondientes a regiones con esfuerzos de Reynolds tangenciales intensos (Qs) en un canal turbulento han sido estudiadas extendiendo a tres dimensiones el análisis de cuadrantes, con especial énfasis en la capa logarítmica y la región exterior. Las estructuras coherentes han sido identificadas como regiones contiguas del espacio donde los esfuerzos de Reynolds tangenciales son más intensos que un cierto nivel. Los resultados muestran que los Qs separados de la pared están orientados de forma isótropa y su contribución neta al esfuerzo de Reynolds medio es nula. La mayor contribución la realiza una familia de estructuras de mayor tamaño y autosemejantes cuya parte inferior está muy cerca de la pared (ligada a la pared), con una geometría compleja y dimensión fractal « 2. Estas estructuras tienen una forma similar a una ‘esponja de placas’, en comparación con los grupos de vorticidad que tienen forma de ‘esponja de cuerdas’. Aunque el número de objetos decae al alejarnos de la pared, la fracción de esfuerzos de Reynolds que contienen es independiente de su altura, y gran parte reside en unas pocas estructuras que se extienden más allá del centro del canal, como en las grandes estructuras propuestas por otros autores. Las estructuras dominantes en la capa logarítmica son parejas de sweeps y eyecciones uno al lado del otro y con grupos de vorticidad asociados que comparten las dimensiones y esfuerzos con los remolinos ligados a la pared propuestos por Townsend. En tercer lugar, hemos estudiado la evolución temporal de Qs y grupos de vorticidad usando las simulaciones numéricas directas presentadas anteriormente hasta números de Reynolds ReT = 4200 (Reynolds de fricción). Las estructuras fueron identificadas siguiendo el proceso descrito en el párrafo anterior y después seguidas en el tiempo. A través de la interseción geométrica de estructuras pertenecientes a instantes de tiempo contiguos, hemos creado gratos de conexiones temporales entre todos los objetos y, a partir de ahí, definido ramas primarias y secundarias, de tal forma que cada rama representa la evolución temporal de una estructura coherente. Una vez que las evoluciones están adecuadamente organizadas, proporcionan toda la información necesaria para caracterizar la historia de las estructuras desde su nacimiento hasta su muerte. Los resultados muestran que las estructuras nacen a todas las distancias de la pared, pero con mayor probabilidad cerca de ella, donde la cortadura es más intensa. La mayoría mantienen tamaños pequeños y no viven mucho tiempo, sin embargo, existe una familia de estructuras que crecen lo suficiente como para ligarse a la pared y extenderse a lo largo de la capa logarítmica convirtiéndose en las estructuras observas anteriormente y descritas por Townsend. Estas estructuras son geométricamente autosemejantes con tiempos de vida proporcionales a su tamaño. La mayoría alcanzan tamaños por encima de la escala de Corrsin, y por ello, su dinámica está controlada por la cortadura media. Los resultados también muestran que las eyecciones se alejan de la pared con velocidad media uT (velocidad de fricción) y su base se liga a la pared muy rápidamente al inicio de sus vidas. Por el contrario, los sweeps se mueven hacia la pared con velocidad -uT y se ligan a ella más tarde. En ambos casos, los objetos permanecen ligados a la pared durante 2/3 de sus vidas. En la dirección de la corriente, las estructuras se desplazan a velocidades cercanas a la convección media del flujo y son deformadas por la cortadura. Finalmente, hemos interpretado la cascada turbulenta, no sólo como una forma conceptual de organizar el flujo, sino como un proceso físico en el cual las estructuras coherentes se unen y se rompen. El volumen de una estructura cambia de forma suave, cuando no se une ni rompe, o lo hace de forma repentina en caso contrario. Los procesos de unión y rotura pueden entenderse como una cascada directa (roturas) o inversa (uniones), siguiendo el concepto de cascada de remolinos ideado por Richardson (1920) y Obukhov (1941). El análisis de los datos muestra que las estructuras con tamaños menores a 30η (unidades de Kolmogorov) nunca se unen ni rompen, es decir, no experimentan el proceso de cascada. Por el contrario, aquellas mayores a 100η siempre se rompen o unen al menos una vez en su vida. En estos casos, el volumen total ganado y perdido es una fracción importante del volumen medio de la estructura implicada, con una tendencia ligeramente mayor a romperse (cascada directa) que a unirse (cascade inversa). La mayor parte de interacciones entre ramas se debe a roturas o uniones de fragmentos muy pequeños en la escala de Kolmogorov con estructuras más grandes, aunque el efecto de fragmentos de mayor tamaño no es despreciable. También hemos encontrado que las roturas tienen a ocurrir al final de la vida de la estructura y las uniones al principio. Aunque los resultados para la cascada directa e inversa no son idénticos, son muy simétricos, lo que sugiere un alto grado de reversibilidad en el proceso de cascada. ABSTRACT The purpose of the present thesis is to study the dynamics of the logarithmic layer of wall-bounded turbulent flows. Specifically, to propose a new structural model based on four different coherent structures: sweeps, ejections, clusters of vortices and velocity streaks. The tool used is the direct numerical simulation of time-resolved turbulent channels. Since the first work by Theodorsen (1952), coherent structures have played an important role in the understanding of turbulence organization and its dynamics. Nowadays, data from individual snapshots of direct numerical simulations allow to study the threedimensional statistical properties of those objects, but their dynamics can only be fully understood by tracking them in time. Although the temporal evolution has already been studied for small structures at moderate Reynolds numbers, e.g., Robinson (1991), a temporal analysis of three-dimensional structures spanning from the smallest to the largest scales across the logarithmic layer has yet to be performed and is the goal of the present thesis. The most interesting problems lie in the logarithmic region, which is the seat of cascades of vorticity, energy, and momentum. Different models involving coherent structures have been proposed to represent the organization of wall-bounded turbulent flows in the logarithmic layer. One of the most extended ones was conceived by Adrian et al. (2000) and built on packets of hairpins that grow from the wall and work cooperatively to gen- ´ erate low-momentum ramps. A different view was presented by del Alamo & Jim´enez (2006), who extracted coherent vortical structures from DNSs and proposed a less organized scenario. Although the two models are kinematically fairly similar, they have important dynamical differences, mostly regarding the relevance of the wall. Another open question is whether such a model can be used to explain the cascade process proposed by Kolmogorov (1941b) in terms of coherent structures. The challenge would be to identify coherent structures undergoing a turbulent cascade that can be quantified. To gain a better insight into the previous questions, we have developed a novel method to track coherent structures in time, and used it to characterize the temporal evolutions of eddies in turbulent channels with Reynolds numbers high enough to include a non-trivial range of length scales, and computational domains sufficiently long and wide to reproduce correctly the dynamics of the logarithmic layer. Our efforts have followed four steps. First, we have conducted a campaign of direct numerical simulations of turbulent channels at different Reynolds numbers and box sizes, and assessed the effect of the computational domain in the one-point statistics and spectra. From the results, we have concluded that computational domains with streamwise and spanwise sizes 2vr and vr times the half-height of the channel, respectively, are large enough to accurately capture the dynamical interactions between structures in the logarithmic layer and the rest of the scales. These simulations are used in the subsequent chapters. Second, the three-dimensional structures of intense tangential Reynolds stress in plane turbulent channels (Qs) have been studied by extending the classical quadrant analysis to three dimensions, with emphasis on the logarithmic and outer layers. The eddies are identified as connected regions of intense tangential Reynolds stress. Qs are then classified according to their streamwise and wall-normal fluctuating velocities as inward interactions, outward interactions, sweeps and ejections. It is found that wall-detached Qs are isotropically oriented background stress fluctuations, common to most turbulent flows, and do not contribute to the mean stress. Most of the stress is carried by a selfsimilar family of larger wall-attached Qs, increasingly complex away from the wall, with fractal dimensions « 2. They have shapes similar to ‘sponges of flakes’, while vortex clusters resemble ‘sponges of strings’. Although their number decays away from the wall, the fraction of the stress that they carry is independent of their heights, and a substantial part resides in a few objects extending beyond the centerline, reminiscent of the very large scale motions of several authors. The predominant logarithmic-layer structures are sideby- side pairs of sweeps and ejections, with an associated vortex cluster, and dimensions and stresses similar to Townsend’s conjectured wall-attached eddies. Third, the temporal evolution of Qs and vortex clusters are studied using time-resolved DNS data up to ReT = 4200 (friction Reynolds number). The eddies are identified following the procedure presented above, and then tracked in time. From the geometric intersection of structures in consecutive fields, we have built temporal connection graphs of all the objects, and defined main and secondary branches in a way that each branch represents the temporal evolution of one coherent structure. Once these evolutions are properly organized, they provide the necessary information to characterize eddies from birth to death. The results show that the eddies are born at all distances from the wall, although with higher probability near it, where the shear is strongest. Most of them stay small and do not last for long times. However, there is a family of eddies that become large enough to attach to the wall while they reach into the logarithmic layer, and become the wall-attached structures previously observed in instantaneous flow fields. They are geometrically self-similar, with sizes and lifetimes proportional to their distance from the wall. Most of them achieve lengths well above the Corrsin’ scale, and hence, their dynamics are controlled by the mean shear. Eddies associated with ejections move away from the wall with an average velocity uT (friction velocity), and their base attaches very fast at the beginning of their lives. Conversely, sweeps move towards the wall at -uT, and attach later. In both cases, they remain attached for 2/3 of their lives. In the streamwise direction, eddies are advected and deformed by the local mean velocity. Finally, we interpret the turbulent cascade not only as a way to conceptualize the flow, but as an actual physical process in which coherent structures merge and split. The volume of an eddy can change either smoothly, when they are not merging or splitting, or through sudden changes. The processes of merging and splitting can be thought of as a direct (when splitting) or an inverse (when merging) cascade, following the ideas envisioned by Richardson (1920) and Obukhov (1941). It is observed that there is a minimum length of 30η (Kolmogorov units) above which mergers and splits begin to be important. Moreover, all eddies above 100η split and merge at least once in their lives. In those cases, the total volume gained and lost is a substantial fraction of the average volume of the structure involved, with slightly more splits (direct cascade) than mergers. Most branch interactions are found to be the shedding or absorption of Kolmogorov-scale fragments by larger structures, but more balanced splits or mergers spanning a wide range of scales are also found to be important. The results show that splits are more probable at the end of the life of the eddy, while mergers take place at the beginning of the life. Although the results for the direct and the inverse cascades are not identical, they are found to be very symmetric, which suggests a high degree of reversibility of the cascade process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo del modelo de la Contención de C.N. Cofrentes mediante GOTHIC se ha llevado a cabo introduciendo todos los datos geométricos y de estructuras de la Contención, pudiendo así modelar todos los recintos interiores y habitaciones que la componen. De esta forma se ha obtenido un modelo 3D detallado y con la precisión suficiente para el estudio global de la gestión del hidrógeno, permitiendo tener en cuenta, a la hora de la distribución del hidrógeno, la asimetría tanto de la contención como de las descargas de masa y en energía que en ella se realizan, permitiendo simular la distribución del vapor y el hidrógeno presentes en el accidente severo para poder determinar las zonas de mayor riesgo de deflagración o detonación durante la evolución del accidente

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Memoria constituye el trabajo encomendado al alumno que suscribe, como requisito indispensable para la terminación de sus estudios en la Escuela Especial de Ingenieros de Montes. Dicha Memoria ha sido redactada de acuerdo con las instrucciones recibidas de la Dirección General del Patrimonio Forestal del Estado, en la Brigada de Badajoz, a las órdenes directas de su Ingeniero Jefe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El interés de las administraciones públicas por promover el deporte escolar, suele justificarse por los beneficios educativos y saludables que los escolares obtendrían de las prácticas físico-deportivas. Mas allá de concepciones neutrales o excesivamente idealizadas sobre su valor educativo, las condiciones socioculturales que lo configuran y las intervenciones pedagógicas en el terreno marcan la orientación de la educación en valores propuesta en los programas de deporte escolar. El objeto de estudio de esta tesis doctoral es comprender la educación en valores desde el punto de vista de la estructura organizativa y de los actores implicados en dos programas de deporte escolar seleccionados de países diferentes: la “Union Nationale du Sport Scolaire” (UNSS) en Francia y los “Campeonatos Escolares en los IES de la Comunidad de Madrid” (CEIESCM) en España. El diseño metodológico es un estudio comparado internacional y de corte cualitativo, donde se han analizado 66 entrevistas semiestructuradas, 28 observaciones directas, 45 documentos y el cuaderno etnográfico del investigador por medio de análisis de contenido temático apoyado con el programa NVivo 10. Los resultados aportan dos concepciones distintas de deporte escolar con repercusión en la educación en valores: la UNSS complementa valores del sistema educativo y deportivo proporcionando cauces de implicación y compromiso del alumnado en el arbitraje y la organización asociativa, mientras que en CEIESCM, eximiéndoles de esas responsabilidades, se prioriza la máxima práctica de actividad físico-deportiva reforzando o sancionando durante la misma las conductas que vayan a promover valores del juego limpio propios del deporte. La explicación de estos resultados, contextualizados en sus países respectivos, permite proyectar un eventual deporte escolar europeo basado en valores ciudadanos y democráticos que recogería la perspectiva moral, jurídica y política propuesta a partir del estudio. RÉSUMÉ L’intérêt des administrations publiques pour promouvoir le sport scolaire est souvent justifié par les bénéfices éducatifs et ceux liés à la santé que les élèves obtiendraient des pratiques physiques et sportives. Au-delà des conceptions neutres et excessivement idéalistes sur sa valeur éducative, les conditions socio-culturelles qui le configurent et les interventions pédagogiques sur le terrain marquent l’orientation de l’éducation des valeurs proposée par les programmes de sport scolaire. L’objet de cette étude est de comprendre l’éducation des valeurs du point de vue de la structure organisationnelle et des acteurs impliqués dans deux programmes de sport scolaire sélectionnés de différents pays: l’« Union Nationale du Sport Scolaire » (UNSS) en France et les « Campeonatos Escolares de los IES de la Comunidad de Madrid » (CEIESCM) en Espagne. L’approche méthodologique est une étude comparée internationale et qualitative, où l’on a analysé 66 entretiens semi-directifs, 28 observations directes, 45 documents et le carnet ethnographique du chercheur par le biais d’une analyse de contenu thématique à l’aide du programme NVivo 10. Les résultats apportent deux conceptions différentes du sport scolaire qui ont des répercussions dans l’éducation des valeurs: l’UNSS regroupe les valeurs du système éducatif et sportif en proposant aux élèves des espaces d’implication et d’engagement avec l’arbitrage et l’organisation associative, alors que les CEISCM, les exemptent de ces responsabilités et donnent la priorité au maximum d’activité physique et sportive pratiquée où l’on renforce ou sanctionne pendant son déroulement les conduites qui encourageront les valeurs de fair-play liées au sport. L’explication des résultats, contextualisée dans leurs pays respectifs, permet de projeter un éventuel sport scolaire européen basé sur des valeurs citoyennes et démocratiques qui recueillerait la perspective morale, juridique et politique proposée suite à cette étude. ABSTRACT The interest of public institutions for promoting school sports is often justified by the educational and healthy benefits that the students obtained through physical activity and sports practice. Beyond neutral or overly idealised conceptions about the educational value of sport, sociocultural conditions and pedagogical interventions shape the orientation of education in values given in school sports programs. The aim of this thesis is to understand the values education from the perspectives of the organizational structure and actors involved in two school sports programs selected from different countries: the "Union Nationale du Sport Scolaire" (UNSS) in France and the "School Championships in the IES of the Community of Madrid" (CEIESCM) in Spain. The methodology is a comparative international and qualitative study, with 66 semistructured interviews, 28 direct observations, 45 documentary resources and the ethnographic research notebook being analysed through thematic content analysis using the program NVivo 10. The results provide two different conceptions of school sport that impact on values education: on the one hand, the UNSS complements values of the educational and sports system providing channels of participation and promoting the involvement of students in refereeing and associative organization; on the other hand, CEIESCM is does not assume these responsibilities and the maximum sportive practice is prioritized reinforcing or punishing behaviours that promote sport fair play. The explanation of these results, contextualized in their respective countries, can project an eventual European school sport based on citizens and democratic values and reflect moral, legal and political perspective proposed in this study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis pretende contribuir al fomento y utilización de la energía solar como alternativa para la producción de agua caliente en el sector agroindustrial. La demanda de agua caliente es un aspecto clave en un gran número de agroindustrias y explotaciones agrarias. Esta demanda presenta una gran variabilidad, tanto en los horarios en que se solicita como en la temperatura del agua del depósito requerida (TADr), difiriendo del perfil de demanda habitual para uso doméstico. Existe una necesidad de profundizar en la influencia que tiene la variación de la TADr en la eficiencia y viabilidad de estos sistemas. El objetivo principal de esta tesis es caracterizar el funcionamiento de un sistema solar térmico (SST) con captador de tubos de vacío (CTV) para producir agua a temperaturas superiores a las habituales en estos sistemas. Se pretende determinar la influencia que la TADr tiene sobre la eficiencia energética del sistema, cuantificar el volumen de agua caliente que es capaz de suministrar en función de la TADr y determinar la rentabilidad del SST como sistema complementario de suministro. Para ello, se ha diseñado, instalado y puesto a punto un sistema experimental de calentamiento de agua, monitorizando su funcionamiento a diferentes TADr bajo condiciones ambientales reales. Los resultados cuantifican cómo el aumento de la TADr provoca una disminución de la energía suministrada al depósito, pudiendo superar diferencias de 1000 Wh m-2 d-1 entre 40 ºC y 80 ºC, para valores de irradiación solar próximos a 8000 Wh m-2 d-1 (la eficiencia del sistema oscila entre 73% y 56%). Esta reducción es consecuencia de la disminución de la eficiencia del captador y del aumento de las pérdidas de calor en las tuberías del circuito. En cuanto al agua suministrada, cuanto mayor es la TADr, mayor es la irradiación solar requerida para que tenga lugar la primera descarga de agua, aumentando el tiempo entre descargas y disminuyendo el número de éstas a lo largo del día. A medida que se incrementa la TADr, se produce una reducción del volumen de agua suministrado a la TADr, por factores como la pérdida de eficiencia del captador, las pérdidas en las tuberías, la energía acumulada en el agua que no alcanza la TADr y la mayor energía extraída del sistema en el agua producida. Para una TADr de 80 ºC, una parte importante de la energía permanece acumulada en el depósito sin alcanzar la TADr al final del día. Para aprovechar esta energía sería necesario disponer de un sistema complementario de suministro, ya que las pérdidas de calor nocturnas en el depósito pueden reducir considerablemente la energía útil disponible al día siguiente. La utilización del sistema solar como sistema único de suministro es inviable en la mayoría de los casos, especialmente a TADr elevadas, al no ajustarse la demanda de agua caliente a la estacionalidad de la producción del sistema solar, y al existir muchos días sin producción de agua caliente por la ausencia de irradiación mínima. Por el contrario, la inversión del sistema solar como sistema complementario para suministrar parte de la demanda térmica de una instalación es altamente recomendable. La energía útil anual del sistema solar estimada oscila entre 1322 kWh m-2 y 1084 kWh m-2. La mayor rentabilidad se obtendría suponiendo la existencia de una caldera eléctrica, donde la inversión se recuperaría en pocos años -entre 5.7 años a 40 ºC y 7.2 años a 80 ºC -. La rentabilidad también es elevada suponiendo la existencia de una caldera de gasóleo, con periodos de recuperación inferiores a 10 años. En una industria ficticia con demanda de 100 kWh d-1 y caldera de gasóleo existente, la inversión en una instalación solar optimizada sería rentable a cualquier TADr, con valores de VAN cercanos a la inversión realizada -12000 € a 80 ºC y 15000€ a 40 ºC- y un plazo de recuperación de la inversión entre 8 y 10 años. Los resultados de este estudio pueden ser de gran utilidad a la hora de determinar la viabilidad de utilización de sistemas similares para suministrar la demanda de agua caliente de agroindustrias y explotaciones agropecuarias, o para otras aplicaciones en las que se demande agua a temperaturas distintas de la habitual en uso doméstico (60 ºC). En cada caso, los rendimientos y la rentabilidad vendrán determinados por la irradiación de la zona, la temperatura del agua requerida y la curva de demanda de los procesos específicos. ABSTRACT The aim of this thesis is to contribute to the development and use of solar energy as an alternative for producing hot water in the agribusiness sector. Hot water supply is a key issue for a great many agribusinesses and agricultural holdings. Both hot water demand times and required tank water temperature (rTWT) are highly variable, where the demand profile tends to differ from domestic use. Further research is needed on how differences in rTWT influence the performance and feasibility of these systems. The main objective of this thesis is to characterize the performance and test the feasibility of an evacuated tube collector (ETC) solar water heating (SWH) system providing water at a higher temperature than is usual for such systems. The aim is to determine what influence the rTWT has on the system’s energy efficiency, quantify the volume of hot water that the system is capable of supplying at the respective rTWT and establish whether SWH is feasible as a booster supply system for the different analysed rTWTs. To do this, a prototype water heating system has been designed, installed and commissioned and its performance monitored at different rTWTs under real operating conditions. The quantitative results show that a higher rTWT results in a lower energy supply to the tank, where the differences may be greater than 1000 Wh m-2 d-1 from 40 ºC to 80 ºC for insolation values of around 8000 Wh m-2 d-1 (system efficiency ranges from 73% to 56%). The drop in supply is due to lower collector efficiency and greater heat losses from the pipe system. As regards water supplied at the rTWT, the insolation required for the first withdrawal of water to take place is greater at higher rTWTs, where the time between withdrawals increases and the number of withdrawals decreases throughout the day. As rTWT increases, the volume of water supplied at the rTWT decreases due to factors such as lower collector efficiency, pipe system heat losses, energy stored in the water at below the rTWT and more energy being extracted from the system by water heating. For a rTWT of 80 ºC, much of the energy is stored in the tank at below the rTWT at the end of the day. A booster supply system would be required to take advantage of this energy, as overnight tank heat losses may significantly reduce the usable energy available on the following day. It is often not feasible to use the solar system as a single supply system, especially at high rTWTs, as, unlike the supply from the solar heating system which does not produce hot water on many days of the year because insolation is below the required minimum, hot water demand is not seasonal. On the other hand, investment in a solar system as a booster system to meet part of a plant’s heat energy demand is highly recommended. The solar system’s estimated annual usable energy ranges from 1322 kWh m-2 to 1084 kWh m-2. Cost efficiency would be greatest if there were an existing electric boiler, where the payback period would be just a few years —from 5.7 years at 40 ºC to 7.2 years at 80 ºC—. Cost efficiency is also high if there is an existing diesel boiler with payback periods of under 10 years. In a fictitious industry with a demand of 100 kWh day-1 and an existing diesel boiler, the investment in the solar plant would be highly recommended at any rTWT, with a net present value similar to investment costs —12000 € at 80 ºC and 15000 € at 40 ºC— and a payback period of 10 years. The results of this study are potentially very useful for determining the feasibility of using similar systems for meeting the hot water demand of agribusinesses and arable and livestock farms or for other applications demanding water at temperatures not typical of domestic demand (60ºC). Performance and cost efficiency will be determined by the regional insolation, the required water temperature and the demand curve of the specific processes in each case.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo constituye la simulación de un entorno para un sistema de separación de aeronaves basada en tiempos (TBS). El trabajo se divide en dos secciones: la generación de modelos atmosféricos, y la generación y simulación de trayectoria. Se pretende así recrear la ejecución de una maniobra de aproximación final en diferentes escenarios. La sección de generación de modelos atmosféricos es responsable de construir diferentes modelos de atmósfera, en los que poder obtener valores de presión, temperatura, viento y otras variables atmosféricas, para cualquier posición y tiempo deseados. La sección de generación y simulación de trayectoria se centra en la maniobra de aproximación final a pista, construyendo una trayectoria típica de aproximación final. Después, utilizando los datos atmosféricos de la primera sección, se realiza una simulación de una aeronave realizando dicha aproximación final, obteniéndose todos los datos relativos a velocidades respecto al aire y respecto a tierra, posiciones, tiempo transcurrido, etc. Como resultado, se obtiene información sobre la ejecución de la maniobra de aproximación final. Esta información es sensible a las variaciones de las condiciones atmosféricas de la simulación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La inferencia del rendimiento final que los sistemas fotovoltaicos multifunción para edificación, más conocidos como Buiding Integrated PhotoVoltaics (BIPV), es decir, su funcionamiento y la viabilidad de los mismos, es hoy posible gracias a las herramientas de simulación disponibles. Estas requieren del conocimiento previo de los parámetros característicos de dichos elementos fotovoltaicos. Unos son obtenidos por mediciones directas o indirectas en el laboratorio, y otros mediante su monitorización en condiciones de funcionamiento reales. En este trabajo se ha abordado la caracterización óptica de los módulos fotovoltaicos comerciales de capa fina (a-Si) que están siendo utilizados en un proyecto propio del IES, en el cual se estudian estos aspectos. La característica más destacada de estos módulos es la gradación en su transparencia para adecuarlos a la integración como envolventes tipo muro cortina en edificios del sector terciario. En particular, el objetivo de este trabajo ha sido la medición de la transmitancia y la reflectancia espectrales, en los rangos UV/Vis/NIR, tanto en incidencia normal como bajo otros ángulos más próximos a los de operación. Con los resultados obtenidos, se han calculado los valores de la radiación reflejada y la transmitida, totales y por rangos UV, Vis y NIR, lo que permite la correcta caracterización de los módulos fotovoltaicos integrados en fachadas y la posterior evaluación de su impacto sobre el rendimiento eléctrico, térmico y la iluminación en un edificio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente investigación tiene como objetivo principal diseñar un Modelo de Gestión de Riesgos Operacionales (MGRO) según las Directrices de los Acuerdos II y III del Comité de Supervisión Bancaria de Basilea del Banco de Pagos Internacionales (CSBB-BPI). Se considera importante realizar un estudio sobre este tema dado que son los riesgos operacionales (OpR) los responsables en gran medida de las últimas crisis financieras mundiales y por la dificultad para detectarlos en las organizaciones. Se ha planteado un modelo de gestión subdividido en dos vías de influencias. La primera acoge el paradigma holístico en el que se considera que hay múltiples maneras de percibir un proceso cíclico, así como las herramientas para observar, conocer y entender el objeto o sujeto percibido. La segunda vía la representa el paradigma totalizante, en el que se obtienen datos tanto cualitativos como cuantitativos, los cuales son complementarios entre si. Por otra parte, este trabajo plantea el diseño de un programa informático de OpR Cualitativo, que ha sido diseñado para determinar la raíz de los riesgos en las organizaciones y su Valor en Riesgo Operacional (OpVaR) basado en el método del indicador básico. Aplicando el ciclo holístico al caso de estudio, se obtuvo el siguiente diseño de investigación: no experimental, univariable, transversal descriptiva, contemporánea, retrospectiva, de fuente mixta, cualitativa (fenomenológica y etnográfica) y cuantitativa (descriptiva y analítica). La toma de decisiones y recolección de información se realizó en dos fases en la unidad de estudio. En la primera se tomó en cuenta la totalidad de la empresa Corpoelec-EDELCA, en la que se presentó un universo estadístico de 4271 personas, una población de 2390 personas y una unidad de muestreo de 87 personas. Se repitió el proceso en una segunda fase, para la Central Hidroeléctrica Simón Bolívar, y se determinó un segundo universo estadístico de 300 trabajadores, una población de 191 personas y una muestra de 58 profesionales. Como fuentes de recolección de información se utilizaron fuentes primarias y secundarias. Para recabar la información primaria se realizaron observaciones directas, dos encuestas para detectar las áreas y procesos con mayor nivel de riesgos y se diseñó un cuestionario combinado con otra encuesta (ad hoc) para establecer las estimaciones de frecuencia y severidad de pérdidas operacionales. La información de fuentes secundarias se extrajo de las bases de datos de Corpoelec-EDELCA, de la IEA, del Banco Mundial, del CSBB-BPI, de la UPM y de la UC at Berkeley, entre otras. Se establecieron las distribuciones de frecuencia y de severidad de pérdidas operacionales como las variables independientes y el OpVaR como la variable dependiente. No se realizó ningún tipo de seguimiento o control a las variables bajo análisis, ya que se consideraron estas para un instante especifico y solo se determinan con la finalidad de establecer la existencia y valoración puntual de los OpR en la unidad de estudio. El análisis cualitativo planteado en el MGRO, permitió detectar que en la unidad de investigación, el 67% de los OpR detectados provienen de dos fuentes principales: procesos (32%) y eventos externos (35%). Adicionalmente, la validación del MGRO en Corpoelec-EDELCA, permitió detectar que el 63% de los OpR en la organización provienen de tres categorías principales, siendo los fraudes externos los presentes con mayor regularidad y severidad de pérdidas en la organización. La exposición al riesgo se determinó fundamentándose en la adaptación del concepto de OpVaR que generalmente se utiliza para series temporales y que en el caso de estudio presenta la primicia de aplicarlo a datos cualitativos transformados con la escala Likert. La posibilidad de utilizar distribuciones de probabilidad típicas para datos cuantitativos en distribuciones de frecuencia y severidad de pérdidas con datos de origen cualitativo fueron analizadas. Para el 64% de los OpR estudiados se obtuvo que la frecuencia tiene un comportamiento semejante al de la distribución de probabilidad de Poisson y en un 55% de los casos para la severidad de pérdidas se obtuvo a las log-normal como las distribuciones de probabilidad más comunes, con lo que se concluyó que los enfoques sugeridos por el BCBS-BIS para series de tiempo son aplicables a los datos cualitativos. Obtenidas las distribuciones de frecuencia y severidad de pérdidas, se convolucionaron estas implementando el método de Montecarlo, con lo que se obtuvieron los enfoques de distribuciones de pérdidas (LDA) para cada uno de los OpR. El OpVaR se dedujo como lo sugiere el CSBB-BPI del percentil 99,9 o 99% de cada una de las LDA, obteniéndose que los OpR presentan un comportamiento similar al sistema financiero, resultando como los de mayor peligrosidad los que se ubican con baja frecuencia y alto impacto, por su dificultad para ser detectados y monitoreados. Finalmente, se considera que el MGRO permitirá a los agentes del mercado y sus grupos de interés conocer con efectividad, fiabilidad y eficiencia el status de sus entidades, lo que reducirá la incertidumbre de sus inversiones y les permitirá establecer una nueva cultura de gestión en sus organizaciones. ABSTRACT This research has as main objective the design of a Model for Operational Risk Management (MORM) according to the guidelines of Accords II and III of the Basel Committee on Banking Supervision of the Bank for International Settlements (BCBS- BIS). It is considered important to conduct a study on this issue since operational risks (OpR) are largely responsible for the recent world financial crisis and due to the difficulty in detecting them in organizations. A management model has been designed which is divided into two way of influences. The first supports the holistic paradigm in which it is considered that there are multiple ways of perceiving a cyclical process and contains the tools to observe, know and understand the subject or object perceived. The second way is the totalizing paradigm, in which both qualitative and quantitative data are obtained, which are complementary to each other. Moreover, this paper presents the design of qualitative OpR software which is designed to determine the root of risks in organizations and their Operational Value at Risk (OpVaR) based on the basic indicator approach. Applying the holistic cycle to the case study, the following research design was obtained: non- experimental, univariate, descriptive cross-sectional, contemporary, retrospective, mixed-source, qualitative (phenomenological and ethnographic) and quantitative (descriptive and analytical). Decision making and data collection was conducted in two phases in the study unit. The first took into account the totality of the Corpoelec-EDELCA company, which presented a statistical universe of 4271 individuals, a population of 2390 individuals and a sampling unit of 87 individuals. The process was repeated in a second phase to the Simon Bolivar Hydroelectric Power Plant, and a second statistical universe of 300 workers, a population of 191 people and a sample of 58 professionals was determined. As sources of information gathering primary and secondary sources were used. To obtain the primary information direct observations were conducted and two surveys to identify the areas and processes with higher risks were designed. A questionnaire was combined with an ad hoc survey to establish estimates of frequency and severity of operational losses was also considered. The secondary information was extracted from the databases of Corpoelec-EDELCA, IEA, the World Bank, the BCBS-BIS, UPM and UC at Berkeley, among others. The operational loss frequency distributions and the operational loss severity distributions were established as the independent variables and OpVaR as the dependent variable. No monitoring or control of the variables under analysis was performed, as these were considered for a specific time and are determined only for the purpose of establishing the existence and timely assessment of the OpR in the study unit. Qualitative analysis raised in the MORM made it possible to detect that in the research unit, 67% of detected OpR come from two main sources: external processes (32%) and external events (35%). Additionally, validation of the MORM in Corpoelec-EDELCA, enabled to estimate that 63% of OpR in the organization come from three main categories, with external fraud being present more regularly and greater severity of losses in the organization. Risk exposure is determined basing on adapting the concept of OpVaR generally used for time series and in the case study it presents the advantage of applying it to qualitative data transformed with the Likert scale. The possibility of using typical probability distributions for quantitative data in loss frequency and loss severity distributions with data of qualitative origin were analyzed. For the 64% of OpR studied it was found that the frequency has a similar behavior to that of the Poisson probability distribution and 55% of the cases for loss severity it was found that the log-normal were the most common probability distributions. It was concluded that the approach suggested by the BCBS-BIS for time series can be applied to qualitative data. Once obtained the distributions of loss frequency and severity have been obtained they were subjected to convolution implementing the Monte Carlo method. Thus the loss distribution approaches (LDA) were obtained for each of the OpR. The OpVaR was derived as suggested by the BCBS-BIS 99.9 percentile or 99% of each of the LDA. It was determined that the OpR exhibits a similar behavior to the financial system, being the most dangerous those with low frequency and high impact for their difficulty in being detected and monitored. Finally, it is considered that the MORM will allows market players and their stakeholders to know with effectiveness, efficiency and reliability the status of their entities, which will reduce the uncertainty of their investments and enable them to establish a new management culture in their organizations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El 10 de octubre de 2008 la Organización Marítima Internacional (OMI) firmó una modificación al Anexo VI del convenio MARPOL 73/78, por la que estableció una reducción progresiva de las emisiones de óxidos de azufre (SOx) procedentes de los buques, una reducción adicional de las emisiones de óxidos de nitrógeno (NOx), así como límites en las emisiones de dióxido de Carbono (CO2) procedentes de los motores marinos y causantes de problemas medioambientales como la lluvia ácida y efecto invernadero. Centrándonos en los límites sobre las emisiones de azufre, a partir del 1 de enero de 2015 esta normativa obliga a todos los buques que naveguen por zonas controladas, llamadas Emission Control Area (ECA), a consumir combustibles con un contenido de azufre menor al 0,1%. A partir del 1 de enero del año 2020, o bien del año 2025, si la OMI decide retrasar su inicio, los buques deberán consumir combustibles con un contenido de azufre menor al 0,5%. De igual forma que antes, el contenido deberá ser rebajado al 0,1%S, si navegan por el interior de zonas ECA. Por su parte, la Unión Europea ha ido más allá que la OMI, adelantando al año 2020 la aplicación de los límites más estrictos de la ley MARPOL sobre las aguas de su zona económica exclusiva. Para ello, el 21 de noviembre de 2013 firmó la Directiva 2012 / 33 / EU como adenda a la Directiva de 1999. Tengamos presente que la finalidad de estas nuevas leyes es la mejora de la salud pública y el medioambiente, produciendo beneficios sociales, en forma de reducción de enfermedades, sobre todo de tipo respiratorio, a la vez que se reduce la lluvia ácida y sus nefastas consecuencias. La primera pregunta que surge es ¿cuál es el combustible actual de los buques y cuál será el que tengan que consumir para cumplir con esta Regulación? Pues bien, los grandes buques de navegación internacional consumen hoy en día fuel oil con un nivel de azufre de 3,5%. ¿Existen fueles con un nivel de azufre de 0,5%S? Como hemos concluido en el capítulo 4, para las empresas petroleras, la producción de fuel oil como combustible marino es tratada como un subproducto en su cesta de productos refinados por cada barril de Brent, ya que la demanda de fuel respecto a otros productos está bajando y además, el margen de beneficio que obtienen por la venta de otros productos petrolíferos es mayor que con el fuel. Así, podemos decir que las empresas petroleras no están interesadas en invertir en sus refinerías para producir estos fueles con menor contenido de azufre. Es más, en el caso de que alguna compañía decidiese invertir en producir un fuel de 0,5%S, su precio debería ser muy similar al del gasóleo para poder recuperar las inversiones empleadas. Por lo tanto, el único combustible que actualmente cumple con los nuevos niveles impuestos por la OMI es el gasóleo, con un precio que durante el año 2014 estuvo a una media de 307 USD/ton más alto que el actual fuel oil. Este mayor precio de compra de combustible impactará directamente sobre el coste del trasporte marítimo. La entrada en vigor de las anteriores normativas está suponiendo un reto para todo el sector marítimo. Ante esta realidad, se plantean diferentes alternativas con diferentes implicaciones técnicas, operativas y financieras. En la actualidad, son tres las alternativas con mayor aceptación en el sector. La primera alternativa consiste en “no hacer nada” y simplemente cambiar el tipo de combustible de los grandes buques de fuel oil a gasóleo. Las segunda alternativa es la instalación de un equipo scrubber, que permitiría continuar con el consumo de fuel oil, limpiando sus gases de combustión antes de salir a la atmósfera. Y, por último, la tercera alternativa consiste en el uso de Gas Natural Licuado (GNL) como combustible, con un precio inferior al del gasóleo. Sin embargo, aún existen importantes incertidumbres sobre la evolución futura de precios, operación y mantenimiento de las nuevas tecnologías, inversiones necesarias, disponibilidad de infraestructura portuaria e incluso el desarrollo futuro de la propia normativa internacional. Estas dudas hacen que ninguna de estas tres alternativas sea unánime en el sector. En esta tesis, tras exponer en el capítulo 3 la regulación aplicable al sector, hemos investigado sus consecuencias. Para ello, hemos examinado en el capítulo 4 si existen en la actualidad combustibles marinos que cumplan con los nuevos límites de azufre o en su defecto, cuál sería el precio de los nuevos combustibles. Partimos en el capítulo 5 de la hipótesis de que todos los buques cambian su consumo de fuel oil a gasóleo para cumplir con dicha normativa, calculamos el incremento de demanda de gasóleo que se produciría y analizamos las consecuencias que este hecho tendría sobre la producción de gasóleos en el Mediterráneo. Adicionalmente, calculamos el impacto económico que dicho incremento de coste producirá sobre sector exterior de España. Para ello, empleamos como base de datos el sistema de control de tráfico marítimo Authomatic Identification System (AIS) para luego analizar los datos de todos los buques que han hecho escala en algún puerto español, para así calcular el extra coste anual por el consumo de gasóleo que sufrirá el transporte marítimo para mover todas las importaciones y exportaciones de España. Por último, en el capítulo 6, examinamos y comparamos las otras dos alternativas al consumo de gasóleo -scrubbers y propulsión con GNL como combustible- y, finalmente, analizamos en el capítulo 7, la viabilidad de las inversiones en estas dos tecnologías para cumplir con la regulación. En el capítulo 5 explicamos los numerosos métodos que existen para calcular la demanda de combustible de un buque. La metodología seguida para su cálculo será del tipo bottom-up, que está basada en la agregación de la actividad y las características de cada tipo de buque. El resultado está basado en la potencia instalada de cada buque, porcentaje de carga del motor y su consumo específico. Para ello, analizamos el número de buques que navegan por el Mediterráneo a lo largo de un año mediante el sistema AIS, realizando “fotos” del tráfico marítimo en el Mediterráneo y reportando todos los buques en navegación en días aleatorios a lo largo de todo el año 2014. Por último, y con los datos anteriores, calculamos la demanda potencial de gasóleo en el Mediterráneo. Si no se hace nada y los buques comienzan a consumir gasóleo como combustible principal, en vez del actual fuel oil para cumplir con la regulación, la demanda de gasoil en el Mediterráneo aumentará en 12,12 MTA (Millones de Toneladas Anuales) a partir del año 2020. Esto supone alrededor de 3.720 millones de dólares anuales por el incremento del gasto de combustible tomando como referencia el precio medio de los combustibles marinos durante el año 2014. El anterior incremento de demanda en el Mediterráneo supondría el 43% del total de la demanda de gasóleos en España en el año 2013, incluyendo gasóleos de automoción, biodiesel y gasóleos marinos y el 3,2% del consumo europeo de destilados medios durante el año 2014. ¿Podrá la oferta del mercado europeo asumir este incremento de demanda de gasóleos? Europa siempre ha sido excedentaria en gasolina y deficitaria en destilados medios. En el año 2009, Europa tuvo que importar 4,8 MTA de Norte América y 22,1 MTA de Asia. Por lo que, este aumento de demanda sobre la ya limitada capacidad de refino de destilados medios en Europa incrementará las importaciones y producirá también aumentos en los precios, sobre todo del mercado del gasóleo. El sector sobre el que más impactará el incremento de demanda de gasóleo será el de los cruceros que navegan por el Mediterráneo, pues consumirán un 30,4% de la demanda de combustible de toda flota mundial de cruceros, lo que supone un aumento en su gasto de combustible de 386 millones de USD anuales. En el caso de los RoRos, consumirían un 23,6% de la demanda de la flota mundial de este tipo de buque, con un aumento anual de 171 millones de USD sobre su gasto de combustible anterior. El mayor incremento de coste lo sufrirán los portacontenedores, con 1.168 millones de USD anuales sobre su gasto actual. Sin embargo, su consumo en el Mediterráneo representa sólo el 5,3% del consumo mundial de combustible de este tipo de buques. Estos números plantean la incertidumbre de si semejante aumento de gasto en buques RoRo hará que el transporte marítimo de corta distancia en general pierda competitividad sobre otros medios de transporte alternativos en determinadas rutas. De manera que, parte del volumen de mercancías que actualmente transportan los buques se podría trasladar a la carretera, con los inconvenientes medioambientales y operativos, que esto produciría. En el caso particular de España, el extra coste por el consumo de gasóleo de todos los buques con escala en algún puerto español en el año 2013 se cifra en 1.717 millones de EUR anuales, según demostramos en la última parte del capítulo 5. Para realizar este cálculo hemos analizado con el sistema AIS a todos los buques que han tenido escala en algún puerto español y los hemos clasificado por distancia navegada, tipo de buque y potencia. Este encarecimiento del transporte marítimo será trasladado al sector exterior español, lo cual producirá un aumento del coste de las importaciones y exportaciones por mar en un país muy expuesto, pues el 75,61% del total de las importaciones y el 53,64% del total de las exportaciones se han hecho por vía marítima. Las tres industrias que se verán más afectadas son aquellas cuyo valor de mercancía es inferior respecto a su coste de transporte. Para ellas los aumentos del coste sobre el total del valor de cada mercancía serán de un 2,94% para la madera y corcho, un 2,14% para los productos minerales y un 1,93% para las manufacturas de piedra, cemento, cerámica y vidrio. Las mercancías que entren o salgan por los dos archipiélagos españoles de Canarias y Baleares serán las que se verán más impactadas por el extra coste del transporte marítimo, ya que son los puertos más alejados de otros puertos principales y, por tanto, con más distancia de navegación. Sin embargo, esta no es la única alternativa al cumplimiento de la nueva regulación. De la lectura del capítulo 6 concluimos que las tecnologías de equipos scrubbers y de propulsión con GNL permitirán al buque consumir combustibles más baratos al gasoil, a cambio de una inversión en estas tecnologías. ¿Serán los ahorros producidos por estas nuevas tecnologías suficientes para justificar su inversión? Para contestar la anterior pregunta, en el capítulo 7 hemos comparado las tres alternativas y hemos calculado tanto los costes de inversión como los gastos operativos correspondientes a equipos scrubbers o propulsión con GNL para una selección de 53 categorías de buques. La inversión en equipos scrubbers es más conveniente para buques grandes, con navegación no regular. Sin embargo, para buques de tamaño menor y navegación regular por puertos con buena infraestructura de suministro de GNL, la inversión en una propulsión con GNL como combustible será la más adecuada. En el caso de un tiempo de navegación del 100% dentro de zonas ECA y bajo el escenario de precios visto durante el año 2014, los proyectos con mejor plazo de recuperación de la inversión en equipos scrubbers son para los cruceros de gran tamaño (100.000 tons. GT), para los que se recupera la inversión en 0,62 años, los grandes portacontenedores de más de 8.000 TEUs con 0,64 años de recuperación y entre 5.000-8.000 TEUs con 0,71 años de recuperación y, por último, los grandes petroleros de más de 200.000 tons. de peso muerto donde tenemos un plazo de recuperación de 0,82 años. La inversión en scrubbers para buques pequeños, por el contrario, tarda más tiempo en recuperarse llegando a más de 5 años en petroleros y quimiqueros de menos de 5.000 toneladas de peso muerto. En el caso de una posible inversión en propulsión con GNL, las categorías de buques donde la inversión en GNL es más favorable y recuperable en menor tiempo son las más pequeñas, como ferris, cruceros o RoRos. Tomamos ahora el caso particular de un buque de productos limpios de 38.500 toneladas de peso muerto ya construido y nos planteamos la viabilidad de la inversión en la instalación de un equipo scrubber o bien, el cambio a una propulsión por GNL a partir del año 2015. Se comprueba que las dos variables que más impactan sobre la conveniencia de la inversión son el tiempo de navegación del buque dentro de zonas de emisiones controladas (ECA) y el escenario futuro de precios del MGO, HSFO y GNL. Para realizar este análisis hemos estudiado cada inversión, calculando una batería de condiciones de mérito como el payback, TIR, VAN y la evolución de la tesorería del inversor. Posteriormente, hemos calculado las condiciones de contorno mínimas de este buque en concreto para asegurar una inversión no sólo aceptable, sino además conveniente para el naviero inversor. En el entorno de precios del 2014 -con un diferencial entre fuel y gasóleo de 264,35 USD/ton- si el buque pasa más de un 56% de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) en el equipo scrubber que será igual o superior al 9,6%, valor tomado como coste de oportunidad. Para el caso de inversión en GNL, en el entorno de precios del año 2014 -con un diferencial entre GNL y gasóleo de 353,8 USD/ton FOE- si el buque pasa más de un 64,8 % de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) que será igual o superior al 9,6%, valor del coste de oportunidad. Para un tiempo en zona ECA estimado de un 60%, la rentabilidad de la inversión (TIR) en scrubbers para los inversores será igual o superior al 9,6%, el coste de oportunidad requerido por el inversor, para valores del diferencial de precio entre los dos combustibles alternativos, gasóleo (MGO) y fuel oil (HSFO) a partir de 244,73 USD/ton. En el caso de una inversión en propulsión GNL se requeriría un diferencial de precio entre MGO y GNL de 382,3 USD/ton FOE o superior. Así, para un buque de productos limpios de 38.500 DWT, la inversión en una reconversión para instalar un equipo scrubber es más conveniente que la de GNL, pues alcanza rentabilidades de la inversión (TIR) para inversores del 12,77%, frente a un 6,81% en el caso de invertir en GNL. Para ambos cálculos se ha tomado un buque que navegue un 60% de su tiempo por zona ECA y un escenario de precios medios del año 2014 para el combustible. Po otro lado, las inversiones en estas tecnologías a partir del año 2025 para nuevas construcciones son en ambos casos convenientes. El naviero deberá prestar especial atención aquí a las características propias de su buque y tipo de navegación, así como a la infraestructura de suministros y vertidos en los puertos donde vaya a operar usualmente. Si bien, no se ha estudiado en profundidad en esta tesis, no olvidemos que el sector marítimo debe cumplir además con las otras dos limitaciones que la regulación de la OMI establece sobre las emisiones de óxidos de Nitrógeno (NOx) y Carbono (CO2) y que sin duda, requerirán adicionales inversiones en diversos equipos. De manera que, si bien las consecuencias del consumo de gasóleo como alternativa al cumplimiento de la Regulación MARPOL son ciertamente preocupantes, existen alternativas al uso del gasóleo, con un aumento sobre el coste del transporte marítimo menor y manteniendo los beneficios sociales que pretende dicha ley. En efecto, como hemos demostrado, las opciones que se plantean como más rentables desde el punto de vista financiero son el consumo de GNL en los buques pequeños y de línea regular (cruceros, ferries, RoRos), y la instalación de scrubbers para el resto de buques de grandes dimensiones. Pero, por desgracia, estas inversiones no llegan a hacerse realidad por el elevado grado de incertidumbre asociado a estos dos mercados, que aumenta el riesgo empresarial, tanto de navieros como de suministradores de estas nuevas tecnologías. Observamos así una gran reticencia del sector privado a decidirse por estas dos alternativas. Este elevado nivel de riesgo sólo puede reducirse fomentando el esfuerzo conjunto del sector público y privado para superar estas barreras de entrada del mercado de scrubbers y GNL, que lograrían reducir las externalidades medioambientales de las emisiones sin restar competitividad al transporte marítimo. Creemos así, que los mismos organismos que aprobaron dicha ley deben ayudar al sector naviero a afrontar las inversiones en dichas tecnologías, así como a impulsar su investigación y promover la creación de una infraestructura portuaria adaptada a suministros de GNL y a descargas de vertidos procedentes de los equipos scrubber. Deberían además, prestar especial atención sobre las ayudas al sector de corta distancia para evitar que pierda competitividad frente a otros medios de transporte por el cumplimiento de esta normativa. Actualmente existen varios programas europeos de incentivos, como TEN-T o Marco Polo, pero no los consideramos suficientes. Por otro lado, la Organización Marítima Internacional debe confirmar cuanto antes si retrasa o no al 2025 la nueva bajada del nivel de azufre en combustibles. De esta manera, se eliminaría la gran incertidumbre temporal que actualmente tienen tanto navieros, como empresas petroleras y puertos para iniciar sus futuras inversiones y poder estudiar la viabilidad de cada alternativa de forma individual. ABSTRACT On 10 October 2008 the International Maritime Organization (IMO) signed an amendment to Annex VI of the MARPOL 73/78 convention establishing a gradual reduction in sulphur oxide (SOx) emissions from ships, and an additional reduction in nitrogen oxide (NOx) emissions and carbon dioxide (CO2) emissions from marine engines which cause environmental problems such as acid rain and the greenhouse effect. According to this regulation, from 1 January 2015, ships travelling in an Emission Control Area (ECA) must use fuels with a sulphur content of less than 0.1%. From 1 January 2020, or alternatively from 2025 if the IMO should decide to delay its introduction, all ships must use fuels with a sulphur content of less than 0.5%. As before, this content will be 0.1%S for voyages within ECAs. Meanwhile, the European Union has gone further than the IMO, and will apply the strictest limits of the MARPOL directives in the waters of its exclusive economic zone from 2020. To this end, Directive 2012/33/EU was issued on 21 November 2013 as an addendum to the 1999 Directive. These laws are intended to improve public health and the environment, benefiting society by reducing disease, particularly respiratory problems. The first question which arises is: what fuel do ships currently use, and what fuel will they have to use to comply with the Convention? Today, large international shipping vessels consume fuel oil with a sulphur level of 3.5%. Do fuel oils exist with a sulphur level of 0.5%S? As we conclude in Chapter 4, oil companies regard marine fuel oil as a by-product of refining Brent to produce their basket of products, as the demand for fuel oil is declining in comparison to other products, and the profit margin on the sale of other petroleum products is higher. Thus, oil companies are not interested in investing in their refineries to produce low-sulphur fuel oils, and if a company should decide to invest in producing a 0.5%S fuel oil, its price would have to be very similar to that of marine gas oil in order to recoup the investment. Therefore, the only fuel which presently complies with the new levels required by the IMO is marine gas oil, which was priced on average 307 USD/tonne higher than current fuel oils during 2014. This higher purchasing price for fuel will have a direct impact on the cost of maritime transport. The entry into force of the above directive presents a challenge for the entire maritime sector. There are various alternative approaches to this situation, with different technical, operational and financial implications. At present three options are the most widespread in the sector. The first option consists of “doing nothing” and simply switching from fuel oil to marine gas oil in large ships. The second option is installing a scrubber system, which would enable ships to continue consuming fuel oil, cleaning the combustion gases before they are released to the atmosphere. And finally, the third option is using Liquefied Natural Gas (LNG), which is priced lower than marine gas oil, as a fuel. However, there is still significant uncertainty on future variations in prices, the operation and maintenance of the new technologies, the investments required, the availability of port infrastructure and even future developments in the international regulations themselves. These uncertainties mean that none of these three alternatives has been unanimously accepted by the sector. In this Thesis, after discussing all the regulations applicable to the sector in Chapter 3, we investigate their consequences. In Chapter 4 we examine whether there are currently any marine fuels on the market which meet the new sulphur limits, and if not, how much new fuels would cost. In Chapter 5, based on the hypothesis that all ships will switch from fuel oil to marine gas oil to comply with the regulations, we calculate the increase in demand for marine gas oil this would lead to, and analyse the consequences this would have on marine gas oil production in the Mediterranean. We also calculate the economic impact such a cost increase would have on Spain's external sector. To do this, we also use the Automatic Identification System (AIS) system to analyse the data of every ship stopping in any Spanish port, in order to calculate the extra cost of using marine gas oil in maritime transport for all Spain's imports and exports. Finally, in Chapter 6, we examine and compare the other two alternatives to marine gas oil, scrubbers and LNG, and in Chapter 7 we analyse the viability of investing in these two technologies in order to comply with the regulations. In Chapter 5 we explain the many existing methods for calculating a ship's fuel consumption. We use a bottom-up calculation method, based on aggregating the activity and characteristics of each type of vessel. The result is based on the installed engine power of each ship, the engine load percentage and its specific consumption. To do this, we analyse the number of ships travelling in the Mediterranean in the course of one year, using the AIS, a marine traffic monitoring system, to take “snapshots” of marine traffic in the Mediterranean and report all ships at sea on random days throughout 2014. Finally, with the above data, we calculate the potential demand for marine gas oil in the Mediterranean. If nothing else is done and ships begin to use marine gas oil instead of fuel oil in order to comply with the regulation, the demand for marine gas oil in the Mediterranean will increase by 12.12 MTA (Millions Tonnes per Annum) from 2020. This means an increase of around 3.72 billion dollars a year in fuel costs, taking as reference the average price of marine fuels in 2014. Such an increase in demand in the Mediterranean would be equivalent to 43% of the total demand for diesel in Spain in 2013, including automotive diesel fuels, biodiesel and marine gas oils, and 3.2% of European consumption of middle distillates in 2014. Would the European market be able to supply enough to meet this greater demand for diesel? Europe has always had a surplus of gasoline and a deficit of middle distillates. In 2009, Europe had to import 4.8 MTA from North America and 22.1 MTA from Asia. Therefore, this increased demand on Europe's already limited capacity for refining middle distillates would lead to increased imports and higher prices, especially in the diesel market. The sector which would suffer the greatest impact of increased demand for marine gas oil would be Mediterranean cruise ships, which represent 30.4% of the fuel demand of the entire world cruise fleet, meaning their fuel costs would rise by 386 million USD per year. ROROs in the Mediterranean, which represent 23.6% of the demand of the world fleet of this type of ship, would see their fuel costs increase by 171 million USD a year. The greatest cost increase would be among container ships, with an increase on current costs of 1.168 billion USD per year. However, their consumption in the Mediterranean represents only 5.3% of worldwide fuel consumption by container ships. These figures raise the question of whether a cost increase of this size for RORO ships would lead to short-distance marine transport in general becoming less competitive compared to other transport options on certain routes. For example, some of the goods that ships now carry could switch to road transport, with the undesirable effects on the environment and on operations that this would produce. In the particular case of Spain, the extra cost of switching to marine gas oil in all ships stopping at any Spanish port in 2013 would be 1.717 billion EUR per year, as we demonstrate in the last part of Chapter 5. For this calculation, we used the AIS system to analyse all ships which stopped at any Spanish port, classifying them by distance travelled, type of ship and engine power. This rising cost of marine transport would be passed on to the Spanish external sector, increasing the cost of imports and exports by sea in a country which relies heavily on maritime transport, which accounts for 75.61% of Spain's total imports and 53.64% of its total exports. The three industries which would be worst affected are those with goods of lower value relative to transport costs. The increased costs over the total value of each good would be 2.94% for wood and cork, 2.14% for mineral products and 1.93% for manufactured stone, cement, ceramic and glass products. Goods entering via the two Spanish archipelagos, the Canary Islands and the Balearic Islands, would suffer the greatest impact from the extra cost of marine transport, as these ports are further away from other major ports and thus the distance travelled is greater. However, this is not the only option for compliance with the new regulations. From our readings in Chapter 6 we conclude that scrubbers and LNG propulsion would enable ships to use cheaper fuels than marine gas oil, in exchange for investing in these technologies. Would the savings gained by these new technologies be enough to justify the investment? To answer this question, in Chapter 7 we compare the three alternatives and calculate both the cost of investment and the operating costs associated with scrubbers or LNG propulsion for a selection of 53 categories of ships. Investing in scrubbers is more advisable for large ships with no fixed runs. However, for smaller ships with regular runs to ports with good LNG supply infrastructure, investing in LNG propulsion would be the best choice. In the case of total transit time within an ECA and the pricing scenario seen in 2014, the best payback periods on investments in scrubbers are for large cruise ships (100,000 gross tonnage), which would recoup their investment in 0.62 years; large container ships, with a 0.64 year payback period for those over 8,000 TEUs and 0.71 years for the 5,000-8,000 TEU category; and finally, large oil tankers over 200,000 deadweight tonnage, which would recoup their investment in 0.82 years. However, investing in scrubbers would have a longer payback period for smaller ships, up to 5 years or more for oil tankers and chemical tankers under 5,000 deadweight tonnage. In the case of LNG propulsion, a possible investment is more favourable and the payback period is shorter for smaller ship classes, such as ferries, cruise ships and ROROs. We now take the case of a ship transporting clean products, already built, with a deadweight tonnage of 38,500, and consider the viability of investing in installing a scrubber or changing to LNG propulsion, starting in 2015. The two variables with the greatest impact on the advisability of the investment are how long the ship is at sea within emission control areas (ECA) and the future price scenario of MGO, HSFO and LNG. For this analysis, we studied each investment, calculating a battery of merit conditions such as the payback period, IRR, NPV and variations in the investors' liquid assets. We then calculated the minimum boundary conditions to ensure the investment was not only acceptable but advisable for the investor shipowner. Thus, for the average price differential of 264.35 USD/tonne between HSFO and MGO during 2014, investors' return on investment (IRR) in scrubbers would be the same as the required opportunity cost of 9.6%, for values of over 56% ship transit time in ECAs. For the case of investing in LNG and the average price differential between MGO and LNG of 353.8 USD/tonne FOE in 2014, the ship must spend 64.8% of its time in ECAs for the investment to be advisable. For an estimated 60% of time in an ECA, the internal rate of return (IRR) for investors equals the required opportunity cost of 9.6%, based on a price difference of 244.73 USD/tonne between the two alternative fuels, marine gas oil (MGO) and fuel oil (HSFO). An investment in LNG propulsion would require a price differential between MGO and LNG of 382.3 USD/tonne FOE. Thus, for a 38,500 DWT ship carrying clean products, investing in retrofitting to install a scrubber is more advisable than converting to LNG, with an internal rate of return (IRR) for investors of 12.77%, compared to 6.81% for investing in LNG. Both calculations were based on a ship which spends 60% of its time at sea in an ECA and a scenario of average 2014 prices. However, for newly-built ships, investments in either of these technologies from 2025 would be advisable. Here, the shipowner must pay particular attention to the specific characteristics of their ship, the type of operation, and the infrastructure for supplying fuel and handling discharges in the ports where it will usually operate. Thus, while the consequences of switching to marine gas oil in order to comply with the MARPOL regulations are certainly alarming, there are alternatives to marine gas oil, with smaller increases in the costs of maritime transport, while maintaining the benefits to society this law is intended to provide. Indeed, as we have demonstrated, the options which appear most favourable from a financial viewpoint are conversion to LNG for small ships and regular runs (cruise ships, ferries, ROROs), and installing scrubbers for large ships. Unfortunately, however, these investments are not being made, due to the high uncertainty associated with these two markets, which increases business risk, both for shipowners and for the providers of these new technologies. This means we are seeing considerable reluctance regarding these two options among the private sector. This high level of risk can be lowered only by encouraging joint efforts by the public and private sectors to overcome these barriers to entry into the market for scrubbers and LNG, which could reduce the environmental externalities of emissions without affecting the competitiveness of marine transport. Our opinion is that the same bodies which approved this law must help the shipping industry invest in these technologies, drive research on them, and promote the creation of a port infrastructure which is adapted to supply LNG and handle the discharges from scrubber systems. At present there are several European incentive programmes, such as TEN-T and Marco Polo, but we do not consider these to be sufficient. For its part, the International Maritime Organization should confirm as soon as possible whether the new lower sulphur levels in fuels will be postponed until 2025. This would eliminate the great uncertainty among shipowners, oil companies and ports regarding the timeline for beginning their future investments and for studying their viability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto de fin de grado pretende demostrar la importancia y la utilidad de la creación de redes de dispositivos móviles conectados entre sí. Para ello se explicarán varios tipos de redes inalámbricas que permiten estas conexiones directas entre dispositivos sin la necesidad de un servidor. En estas redes inalámbricas se destacan las redes P2P y las redes Ad-hoc, las cuales se explicarán posteriormente. El despliegue de estas redes se puede encontrar en un amplio rango de campos como puede ser la agricultura, la medicina e incluso en el ámbito militar. Es objetivo de este proyecto, además, el estudio de la tecnología Wi-Fi Direct creada por la Wi-Fi Alliance. Como se explicará a lo largo del proyecto, Wi-Fi Direct está basado en las redes P2P. Esta tecnología permite a los dispositivos cercanos crear redes P2P a través de la red Wi-Fi sin la necesidad de un punto de acceso a Internet. Por otro lado, una gran cantidad de los dispositivos móviles que existen actualmente poseen el sistema operativo Android. Android ha incorporado en sus dispositivos más recientes la tecnología Wi-Fi Direct. Debido a ello han ido surgiendo aplicaciones que usando esta tecnología consiguen desde enviar ficheros hasta indicar la localización de un usuario. Esta tecnología combinada con este tipo de dispositivos puede ser muy útil para utilizar en casos de emergencia donde las infraestructuras de comunicaciones no estén disponibles ya que al no necesitar un punto de acceso a internet es posible la comunicación entre un usuario en peligro y otro que se encuentre dentro de un radio cercano. Por estos motivos otro de los principales objetivos de este proyecto es la implementación de una aplicación para dispositivos Android que use la tecnología Wi-Fi Direct para realizar varias funcionalidades diferentes, como es el intercambio de ficheros entre dispositivos y la creación de un chat para la comunicación simultanea entre dos dispositivos. Con esto se pretende conocer mejor el funcionamiento de la tecnología Wi-Fi Direct y demostrar su utilidad en los dispositivos móviles como son los dispositivos Android. ABSTRACT. This final degree Project tries to demonstrate the importance and utility of networking mobile devices. For this purpose several types of wireless networks will be explained. These networks allow direct connections between devices. The most prominent Wireless networks are P2P and Ad-hoc which will be explained later. The use of these networks can be found in a wide range of fields such as agriculture medicine, and even in the military sector. Besides, other aim of this project is the study of Wi-Fi Direct Technology which is created by Wi-Fi Alliance. As it explained along the project, Wi-Fi Direct is based on P2P networks. This technology lets nearby devices create P2P networks through Wi-Fi network without an Internet access point. On the other hand, a large number of mobile devices have the Android OS. Android has integrated Wi-Fi Direct technology in its latest devices. Because of this applications have emerged that using this technology they get from sending files to send the user’s location. This technology combined with these devices can be very useful to use in emergencies where communications infrastructures are not available. Since not need an Internet access point, communication between a user in danger and another within close radius is possible. For these reasons another of the main aims of this project is the implementation of an application for Android devices which use Wi-Fi Direct technology to perform several different functionalities, such as file exchange or chat for simultaneous communication between devices. This is intended to better understand the operation of Wi-Fi Direct technology and prove its utility on mobile devices such as Android devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El modelo aplicado en el estudio, se basa en una metodología publicada en trabajos anteriores en bosques tropicales. El análisis se apoya en información obtenida con tecnología LiDAR aerotransportada y datos de censo de una mega-parcela forestal de 50 ha, en el Parque Nacional ?Yasuní? (PNY) en Ecuador. La metodología considera los hábitats topográficos, la distribución espacial de las parcelas de ajuste y validación en el diseño de muestreo y un modelo general para estimación de densidad de carbono. El modelo se ajusta usando técnicas de análisis de regresión lineal (R2=0,89, RMSE=8,67 MgC ha-1). Este enfoque metodológico hace posible calibraciones más precisas y permite cartografiar la distribución espacial de la biomasa sobre el suelo en alta resolución para una mejor estimación de las reservas de carbono en bosque tropical.