418 resultados para Cajas de ahorros
Resumo:
Las consecuencias ambientales, sociales y económicas que conlleva el cambio climático, enfatizan la creciente preocupación por desarrollar estrategias, medidas y acciones de prevención, adaptación y mitigación del mismo. La aplicación de buenas prácticas integradas en el modelo de gestión de las organizaciones bajo los criterios de responsabilidad social y sostenibilidad permite: tener un mayor control de riesgos, identificar nuevas oportunidades, mejorar relaciones con los grupos de interés, la reputación corporativa y el rendimiento económico. Desde el Equipo Directivo de la Escuela Técnica Superior de Ingeniería de Montes, Forestal y del Medio Natural (E.T.S.I.M.F.M.N.) se traza el proyecto Responsables Sostenibles Universitarios que trabaja en los ámbitos de la responsabilidad social universitaria y el desarrollo sostenible. En este sentido, se ha promovido la elaboración de este Proyecto Fin de Carrera (PFC) con el que se han logrado sus objetivos principales: 1. La cuantificación de la Huella de Carbono (HC) de 2013 de la E.T.S.I.M.F.M.N. con la aplicación de la Norma ISO 14064 y el Informe Técnico 14069, así como el análisis de la evolución de este indicador en el periodo 2011-2013. 2. Un plan para la gestión de las emisiones de GEI (GEGEI) que se puede integrar en la estrategia de sostenibilidad de la E.T.S.I.M.F.M.N. El plan de GEGEI proporciona un método para que la Escuela aborde de manera sistemática asuntos relevantes en temas sociales, ambientales y económicos relacionados con los GEI. En consecuencia, y como resultado de este PFC, se han alcanzado los siguientes objetivos generales: 1) identificar y analizar el riesgo asociado a los GEI de la Escuela; 2) realizar una evaluación de oportunidades, identificando las actuaciones que optimizan los recursos existentes, generan ahorros económicos, evitan emisiones de GEI y crean valor en el ámbito de la mejora de la identidad, imagen y reputación corporativa; 3) analizar el modelo organizacional de la Escuela y proponer los objetivos, las directrices, los procedimientos, las responsabilidades y los roles en la GEGEI del centro universitario y 4) elaborar la denominada matriz de GEGEI, con identificación de las áreas de mejora continua de procesos, las secciones de la Escuela que se ocupan de dichas áreas y las actuaciones específicas encaminadas a alcanzar los objetivos propuestos en el plan de GEGEI.
Resumo:
Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.
Resumo:
El 10 de octubre de 2008 la Organización Marítima Internacional (OMI) firmó una modificación al Anexo VI del convenio MARPOL 73/78, por la que estableció una reducción progresiva de las emisiones de óxidos de azufre (SOx) procedentes de los buques, una reducción adicional de las emisiones de óxidos de nitrógeno (NOx), así como límites en las emisiones de dióxido de Carbono (CO2) procedentes de los motores marinos y causantes de problemas medioambientales como la lluvia ácida y efecto invernadero. Centrándonos en los límites sobre las emisiones de azufre, a partir del 1 de enero de 2015 esta normativa obliga a todos los buques que naveguen por zonas controladas, llamadas Emission Control Area (ECA), a consumir combustibles con un contenido de azufre menor al 0,1%. A partir del 1 de enero del año 2020, o bien del año 2025, si la OMI decide retrasar su inicio, los buques deberán consumir combustibles con un contenido de azufre menor al 0,5%. De igual forma que antes, el contenido deberá ser rebajado al 0,1%S, si navegan por el interior de zonas ECA. Por su parte, la Unión Europea ha ido más allá que la OMI, adelantando al año 2020 la aplicación de los límites más estrictos de la ley MARPOL sobre las aguas de su zona económica exclusiva. Para ello, el 21 de noviembre de 2013 firmó la Directiva 2012 / 33 / EU como adenda a la Directiva de 1999. Tengamos presente que la finalidad de estas nuevas leyes es la mejora de la salud pública y el medioambiente, produciendo beneficios sociales, en forma de reducción de enfermedades, sobre todo de tipo respiratorio, a la vez que se reduce la lluvia ácida y sus nefastas consecuencias. La primera pregunta que surge es ¿cuál es el combustible actual de los buques y cuál será el que tengan que consumir para cumplir con esta Regulación? Pues bien, los grandes buques de navegación internacional consumen hoy en día fuel oil con un nivel de azufre de 3,5%. ¿Existen fueles con un nivel de azufre de 0,5%S? Como hemos concluido en el capítulo 4, para las empresas petroleras, la producción de fuel oil como combustible marino es tratada como un subproducto en su cesta de productos refinados por cada barril de Brent, ya que la demanda de fuel respecto a otros productos está bajando y además, el margen de beneficio que obtienen por la venta de otros productos petrolíferos es mayor que con el fuel. Así, podemos decir que las empresas petroleras no están interesadas en invertir en sus refinerías para producir estos fueles con menor contenido de azufre. Es más, en el caso de que alguna compañía decidiese invertir en producir un fuel de 0,5%S, su precio debería ser muy similar al del gasóleo para poder recuperar las inversiones empleadas. Por lo tanto, el único combustible que actualmente cumple con los nuevos niveles impuestos por la OMI es el gasóleo, con un precio que durante el año 2014 estuvo a una media de 307 USD/ton más alto que el actual fuel oil. Este mayor precio de compra de combustible impactará directamente sobre el coste del trasporte marítimo. La entrada en vigor de las anteriores normativas está suponiendo un reto para todo el sector marítimo. Ante esta realidad, se plantean diferentes alternativas con diferentes implicaciones técnicas, operativas y financieras. En la actualidad, son tres las alternativas con mayor aceptación en el sector. La primera alternativa consiste en “no hacer nada” y simplemente cambiar el tipo de combustible de los grandes buques de fuel oil a gasóleo. Las segunda alternativa es la instalación de un equipo scrubber, que permitiría continuar con el consumo de fuel oil, limpiando sus gases de combustión antes de salir a la atmósfera. Y, por último, la tercera alternativa consiste en el uso de Gas Natural Licuado (GNL) como combustible, con un precio inferior al del gasóleo. Sin embargo, aún existen importantes incertidumbres sobre la evolución futura de precios, operación y mantenimiento de las nuevas tecnologías, inversiones necesarias, disponibilidad de infraestructura portuaria e incluso el desarrollo futuro de la propia normativa internacional. Estas dudas hacen que ninguna de estas tres alternativas sea unánime en el sector. En esta tesis, tras exponer en el capítulo 3 la regulación aplicable al sector, hemos investigado sus consecuencias. Para ello, hemos examinado en el capítulo 4 si existen en la actualidad combustibles marinos que cumplan con los nuevos límites de azufre o en su defecto, cuál sería el precio de los nuevos combustibles. Partimos en el capítulo 5 de la hipótesis de que todos los buques cambian su consumo de fuel oil a gasóleo para cumplir con dicha normativa, calculamos el incremento de demanda de gasóleo que se produciría y analizamos las consecuencias que este hecho tendría sobre la producción de gasóleos en el Mediterráneo. Adicionalmente, calculamos el impacto económico que dicho incremento de coste producirá sobre sector exterior de España. Para ello, empleamos como base de datos el sistema de control de tráfico marítimo Authomatic Identification System (AIS) para luego analizar los datos de todos los buques que han hecho escala en algún puerto español, para así calcular el extra coste anual por el consumo de gasóleo que sufrirá el transporte marítimo para mover todas las importaciones y exportaciones de España. Por último, en el capítulo 6, examinamos y comparamos las otras dos alternativas al consumo de gasóleo -scrubbers y propulsión con GNL como combustible- y, finalmente, analizamos en el capítulo 7, la viabilidad de las inversiones en estas dos tecnologías para cumplir con la regulación. En el capítulo 5 explicamos los numerosos métodos que existen para calcular la demanda de combustible de un buque. La metodología seguida para su cálculo será del tipo bottom-up, que está basada en la agregación de la actividad y las características de cada tipo de buque. El resultado está basado en la potencia instalada de cada buque, porcentaje de carga del motor y su consumo específico. Para ello, analizamos el número de buques que navegan por el Mediterráneo a lo largo de un año mediante el sistema AIS, realizando “fotos” del tráfico marítimo en el Mediterráneo y reportando todos los buques en navegación en días aleatorios a lo largo de todo el año 2014. Por último, y con los datos anteriores, calculamos la demanda potencial de gasóleo en el Mediterráneo. Si no se hace nada y los buques comienzan a consumir gasóleo como combustible principal, en vez del actual fuel oil para cumplir con la regulación, la demanda de gasoil en el Mediterráneo aumentará en 12,12 MTA (Millones de Toneladas Anuales) a partir del año 2020. Esto supone alrededor de 3.720 millones de dólares anuales por el incremento del gasto de combustible tomando como referencia el precio medio de los combustibles marinos durante el año 2014. El anterior incremento de demanda en el Mediterráneo supondría el 43% del total de la demanda de gasóleos en España en el año 2013, incluyendo gasóleos de automoción, biodiesel y gasóleos marinos y el 3,2% del consumo europeo de destilados medios durante el año 2014. ¿Podrá la oferta del mercado europeo asumir este incremento de demanda de gasóleos? Europa siempre ha sido excedentaria en gasolina y deficitaria en destilados medios. En el año 2009, Europa tuvo que importar 4,8 MTA de Norte América y 22,1 MTA de Asia. Por lo que, este aumento de demanda sobre la ya limitada capacidad de refino de destilados medios en Europa incrementará las importaciones y producirá también aumentos en los precios, sobre todo del mercado del gasóleo. El sector sobre el que más impactará el incremento de demanda de gasóleo será el de los cruceros que navegan por el Mediterráneo, pues consumirán un 30,4% de la demanda de combustible de toda flota mundial de cruceros, lo que supone un aumento en su gasto de combustible de 386 millones de USD anuales. En el caso de los RoRos, consumirían un 23,6% de la demanda de la flota mundial de este tipo de buque, con un aumento anual de 171 millones de USD sobre su gasto de combustible anterior. El mayor incremento de coste lo sufrirán los portacontenedores, con 1.168 millones de USD anuales sobre su gasto actual. Sin embargo, su consumo en el Mediterráneo representa sólo el 5,3% del consumo mundial de combustible de este tipo de buques. Estos números plantean la incertidumbre de si semejante aumento de gasto en buques RoRo hará que el transporte marítimo de corta distancia en general pierda competitividad sobre otros medios de transporte alternativos en determinadas rutas. De manera que, parte del volumen de mercancías que actualmente transportan los buques se podría trasladar a la carretera, con los inconvenientes medioambientales y operativos, que esto produciría. En el caso particular de España, el extra coste por el consumo de gasóleo de todos los buques con escala en algún puerto español en el año 2013 se cifra en 1.717 millones de EUR anuales, según demostramos en la última parte del capítulo 5. Para realizar este cálculo hemos analizado con el sistema AIS a todos los buques que han tenido escala en algún puerto español y los hemos clasificado por distancia navegada, tipo de buque y potencia. Este encarecimiento del transporte marítimo será trasladado al sector exterior español, lo cual producirá un aumento del coste de las importaciones y exportaciones por mar en un país muy expuesto, pues el 75,61% del total de las importaciones y el 53,64% del total de las exportaciones se han hecho por vía marítima. Las tres industrias que se verán más afectadas son aquellas cuyo valor de mercancía es inferior respecto a su coste de transporte. Para ellas los aumentos del coste sobre el total del valor de cada mercancía serán de un 2,94% para la madera y corcho, un 2,14% para los productos minerales y un 1,93% para las manufacturas de piedra, cemento, cerámica y vidrio. Las mercancías que entren o salgan por los dos archipiélagos españoles de Canarias y Baleares serán las que se verán más impactadas por el extra coste del transporte marítimo, ya que son los puertos más alejados de otros puertos principales y, por tanto, con más distancia de navegación. Sin embargo, esta no es la única alternativa al cumplimiento de la nueva regulación. De la lectura del capítulo 6 concluimos que las tecnologías de equipos scrubbers y de propulsión con GNL permitirán al buque consumir combustibles más baratos al gasoil, a cambio de una inversión en estas tecnologías. ¿Serán los ahorros producidos por estas nuevas tecnologías suficientes para justificar su inversión? Para contestar la anterior pregunta, en el capítulo 7 hemos comparado las tres alternativas y hemos calculado tanto los costes de inversión como los gastos operativos correspondientes a equipos scrubbers o propulsión con GNL para una selección de 53 categorías de buques. La inversión en equipos scrubbers es más conveniente para buques grandes, con navegación no regular. Sin embargo, para buques de tamaño menor y navegación regular por puertos con buena infraestructura de suministro de GNL, la inversión en una propulsión con GNL como combustible será la más adecuada. En el caso de un tiempo de navegación del 100% dentro de zonas ECA y bajo el escenario de precios visto durante el año 2014, los proyectos con mejor plazo de recuperación de la inversión en equipos scrubbers son para los cruceros de gran tamaño (100.000 tons. GT), para los que se recupera la inversión en 0,62 años, los grandes portacontenedores de más de 8.000 TEUs con 0,64 años de recuperación y entre 5.000-8.000 TEUs con 0,71 años de recuperación y, por último, los grandes petroleros de más de 200.000 tons. de peso muerto donde tenemos un plazo de recuperación de 0,82 años. La inversión en scrubbers para buques pequeños, por el contrario, tarda más tiempo en recuperarse llegando a más de 5 años en petroleros y quimiqueros de menos de 5.000 toneladas de peso muerto. En el caso de una posible inversión en propulsión con GNL, las categorías de buques donde la inversión en GNL es más favorable y recuperable en menor tiempo son las más pequeñas, como ferris, cruceros o RoRos. Tomamos ahora el caso particular de un buque de productos limpios de 38.500 toneladas de peso muerto ya construido y nos planteamos la viabilidad de la inversión en la instalación de un equipo scrubber o bien, el cambio a una propulsión por GNL a partir del año 2015. Se comprueba que las dos variables que más impactan sobre la conveniencia de la inversión son el tiempo de navegación del buque dentro de zonas de emisiones controladas (ECA) y el escenario futuro de precios del MGO, HSFO y GNL. Para realizar este análisis hemos estudiado cada inversión, calculando una batería de condiciones de mérito como el payback, TIR, VAN y la evolución de la tesorería del inversor. Posteriormente, hemos calculado las condiciones de contorno mínimas de este buque en concreto para asegurar una inversión no sólo aceptable, sino además conveniente para el naviero inversor. En el entorno de precios del 2014 -con un diferencial entre fuel y gasóleo de 264,35 USD/ton- si el buque pasa más de un 56% de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) en el equipo scrubber que será igual o superior al 9,6%, valor tomado como coste de oportunidad. Para el caso de inversión en GNL, en el entorno de precios del año 2014 -con un diferencial entre GNL y gasóleo de 353,8 USD/ton FOE- si el buque pasa más de un 64,8 % de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) que será igual o superior al 9,6%, valor del coste de oportunidad. Para un tiempo en zona ECA estimado de un 60%, la rentabilidad de la inversión (TIR) en scrubbers para los inversores será igual o superior al 9,6%, el coste de oportunidad requerido por el inversor, para valores del diferencial de precio entre los dos combustibles alternativos, gasóleo (MGO) y fuel oil (HSFO) a partir de 244,73 USD/ton. En el caso de una inversión en propulsión GNL se requeriría un diferencial de precio entre MGO y GNL de 382,3 USD/ton FOE o superior. Así, para un buque de productos limpios de 38.500 DWT, la inversión en una reconversión para instalar un equipo scrubber es más conveniente que la de GNL, pues alcanza rentabilidades de la inversión (TIR) para inversores del 12,77%, frente a un 6,81% en el caso de invertir en GNL. Para ambos cálculos se ha tomado un buque que navegue un 60% de su tiempo por zona ECA y un escenario de precios medios del año 2014 para el combustible. Po otro lado, las inversiones en estas tecnologías a partir del año 2025 para nuevas construcciones son en ambos casos convenientes. El naviero deberá prestar especial atención aquí a las características propias de su buque y tipo de navegación, así como a la infraestructura de suministros y vertidos en los puertos donde vaya a operar usualmente. Si bien, no se ha estudiado en profundidad en esta tesis, no olvidemos que el sector marítimo debe cumplir además con las otras dos limitaciones que la regulación de la OMI establece sobre las emisiones de óxidos de Nitrógeno (NOx) y Carbono (CO2) y que sin duda, requerirán adicionales inversiones en diversos equipos. De manera que, si bien las consecuencias del consumo de gasóleo como alternativa al cumplimiento de la Regulación MARPOL son ciertamente preocupantes, existen alternativas al uso del gasóleo, con un aumento sobre el coste del transporte marítimo menor y manteniendo los beneficios sociales que pretende dicha ley. En efecto, como hemos demostrado, las opciones que se plantean como más rentables desde el punto de vista financiero son el consumo de GNL en los buques pequeños y de línea regular (cruceros, ferries, RoRos), y la instalación de scrubbers para el resto de buques de grandes dimensiones. Pero, por desgracia, estas inversiones no llegan a hacerse realidad por el elevado grado de incertidumbre asociado a estos dos mercados, que aumenta el riesgo empresarial, tanto de navieros como de suministradores de estas nuevas tecnologías. Observamos así una gran reticencia del sector privado a decidirse por estas dos alternativas. Este elevado nivel de riesgo sólo puede reducirse fomentando el esfuerzo conjunto del sector público y privado para superar estas barreras de entrada del mercado de scrubbers y GNL, que lograrían reducir las externalidades medioambientales de las emisiones sin restar competitividad al transporte marítimo. Creemos así, que los mismos organismos que aprobaron dicha ley deben ayudar al sector naviero a afrontar las inversiones en dichas tecnologías, así como a impulsar su investigación y promover la creación de una infraestructura portuaria adaptada a suministros de GNL y a descargas de vertidos procedentes de los equipos scrubber. Deberían además, prestar especial atención sobre las ayudas al sector de corta distancia para evitar que pierda competitividad frente a otros medios de transporte por el cumplimiento de esta normativa. Actualmente existen varios programas europeos de incentivos, como TEN-T o Marco Polo, pero no los consideramos suficientes. Por otro lado, la Organización Marítima Internacional debe confirmar cuanto antes si retrasa o no al 2025 la nueva bajada del nivel de azufre en combustibles. De esta manera, se eliminaría la gran incertidumbre temporal que actualmente tienen tanto navieros, como empresas petroleras y puertos para iniciar sus futuras inversiones y poder estudiar la viabilidad de cada alternativa de forma individual. ABSTRACT On 10 October 2008 the International Maritime Organization (IMO) signed an amendment to Annex VI of the MARPOL 73/78 convention establishing a gradual reduction in sulphur oxide (SOx) emissions from ships, and an additional reduction in nitrogen oxide (NOx) emissions and carbon dioxide (CO2) emissions from marine engines which cause environmental problems such as acid rain and the greenhouse effect. According to this regulation, from 1 January 2015, ships travelling in an Emission Control Area (ECA) must use fuels with a sulphur content of less than 0.1%. From 1 January 2020, or alternatively from 2025 if the IMO should decide to delay its introduction, all ships must use fuels with a sulphur content of less than 0.5%. As before, this content will be 0.1%S for voyages within ECAs. Meanwhile, the European Union has gone further than the IMO, and will apply the strictest limits of the MARPOL directives in the waters of its exclusive economic zone from 2020. To this end, Directive 2012/33/EU was issued on 21 November 2013 as an addendum to the 1999 Directive. These laws are intended to improve public health and the environment, benefiting society by reducing disease, particularly respiratory problems. The first question which arises is: what fuel do ships currently use, and what fuel will they have to use to comply with the Convention? Today, large international shipping vessels consume fuel oil with a sulphur level of 3.5%. Do fuel oils exist with a sulphur level of 0.5%S? As we conclude in Chapter 4, oil companies regard marine fuel oil as a by-product of refining Brent to produce their basket of products, as the demand for fuel oil is declining in comparison to other products, and the profit margin on the sale of other petroleum products is higher. Thus, oil companies are not interested in investing in their refineries to produce low-sulphur fuel oils, and if a company should decide to invest in producing a 0.5%S fuel oil, its price would have to be very similar to that of marine gas oil in order to recoup the investment. Therefore, the only fuel which presently complies with the new levels required by the IMO is marine gas oil, which was priced on average 307 USD/tonne higher than current fuel oils during 2014. This higher purchasing price for fuel will have a direct impact on the cost of maritime transport. The entry into force of the above directive presents a challenge for the entire maritime sector. There are various alternative approaches to this situation, with different technical, operational and financial implications. At present three options are the most widespread in the sector. The first option consists of “doing nothing” and simply switching from fuel oil to marine gas oil in large ships. The second option is installing a scrubber system, which would enable ships to continue consuming fuel oil, cleaning the combustion gases before they are released to the atmosphere. And finally, the third option is using Liquefied Natural Gas (LNG), which is priced lower than marine gas oil, as a fuel. However, there is still significant uncertainty on future variations in prices, the operation and maintenance of the new technologies, the investments required, the availability of port infrastructure and even future developments in the international regulations themselves. These uncertainties mean that none of these three alternatives has been unanimously accepted by the sector. In this Thesis, after discussing all the regulations applicable to the sector in Chapter 3, we investigate their consequences. In Chapter 4 we examine whether there are currently any marine fuels on the market which meet the new sulphur limits, and if not, how much new fuels would cost. In Chapter 5, based on the hypothesis that all ships will switch from fuel oil to marine gas oil to comply with the regulations, we calculate the increase in demand for marine gas oil this would lead to, and analyse the consequences this would have on marine gas oil production in the Mediterranean. We also calculate the economic impact such a cost increase would have on Spain's external sector. To do this, we also use the Automatic Identification System (AIS) system to analyse the data of every ship stopping in any Spanish port, in order to calculate the extra cost of using marine gas oil in maritime transport for all Spain's imports and exports. Finally, in Chapter 6, we examine and compare the other two alternatives to marine gas oil, scrubbers and LNG, and in Chapter 7 we analyse the viability of investing in these two technologies in order to comply with the regulations. In Chapter 5 we explain the many existing methods for calculating a ship's fuel consumption. We use a bottom-up calculation method, based on aggregating the activity and characteristics of each type of vessel. The result is based on the installed engine power of each ship, the engine load percentage and its specific consumption. To do this, we analyse the number of ships travelling in the Mediterranean in the course of one year, using the AIS, a marine traffic monitoring system, to take “snapshots” of marine traffic in the Mediterranean and report all ships at sea on random days throughout 2014. Finally, with the above data, we calculate the potential demand for marine gas oil in the Mediterranean. If nothing else is done and ships begin to use marine gas oil instead of fuel oil in order to comply with the regulation, the demand for marine gas oil in the Mediterranean will increase by 12.12 MTA (Millions Tonnes per Annum) from 2020. This means an increase of around 3.72 billion dollars a year in fuel costs, taking as reference the average price of marine fuels in 2014. Such an increase in demand in the Mediterranean would be equivalent to 43% of the total demand for diesel in Spain in 2013, including automotive diesel fuels, biodiesel and marine gas oils, and 3.2% of European consumption of middle distillates in 2014. Would the European market be able to supply enough to meet this greater demand for diesel? Europe has always had a surplus of gasoline and a deficit of middle distillates. In 2009, Europe had to import 4.8 MTA from North America and 22.1 MTA from Asia. Therefore, this increased demand on Europe's already limited capacity for refining middle distillates would lead to increased imports and higher prices, especially in the diesel market. The sector which would suffer the greatest impact of increased demand for marine gas oil would be Mediterranean cruise ships, which represent 30.4% of the fuel demand of the entire world cruise fleet, meaning their fuel costs would rise by 386 million USD per year. ROROs in the Mediterranean, which represent 23.6% of the demand of the world fleet of this type of ship, would see their fuel costs increase by 171 million USD a year. The greatest cost increase would be among container ships, with an increase on current costs of 1.168 billion USD per year. However, their consumption in the Mediterranean represents only 5.3% of worldwide fuel consumption by container ships. These figures raise the question of whether a cost increase of this size for RORO ships would lead to short-distance marine transport in general becoming less competitive compared to other transport options on certain routes. For example, some of the goods that ships now carry could switch to road transport, with the undesirable effects on the environment and on operations that this would produce. In the particular case of Spain, the extra cost of switching to marine gas oil in all ships stopping at any Spanish port in 2013 would be 1.717 billion EUR per year, as we demonstrate in the last part of Chapter 5. For this calculation, we used the AIS system to analyse all ships which stopped at any Spanish port, classifying them by distance travelled, type of ship and engine power. This rising cost of marine transport would be passed on to the Spanish external sector, increasing the cost of imports and exports by sea in a country which relies heavily on maritime transport, which accounts for 75.61% of Spain's total imports and 53.64% of its total exports. The three industries which would be worst affected are those with goods of lower value relative to transport costs. The increased costs over the total value of each good would be 2.94% for wood and cork, 2.14% for mineral products and 1.93% for manufactured stone, cement, ceramic and glass products. Goods entering via the two Spanish archipelagos, the Canary Islands and the Balearic Islands, would suffer the greatest impact from the extra cost of marine transport, as these ports are further away from other major ports and thus the distance travelled is greater. However, this is not the only option for compliance with the new regulations. From our readings in Chapter 6 we conclude that scrubbers and LNG propulsion would enable ships to use cheaper fuels than marine gas oil, in exchange for investing in these technologies. Would the savings gained by these new technologies be enough to justify the investment? To answer this question, in Chapter 7 we compare the three alternatives and calculate both the cost of investment and the operating costs associated with scrubbers or LNG propulsion for a selection of 53 categories of ships. Investing in scrubbers is more advisable for large ships with no fixed runs. However, for smaller ships with regular runs to ports with good LNG supply infrastructure, investing in LNG propulsion would be the best choice. In the case of total transit time within an ECA and the pricing scenario seen in 2014, the best payback periods on investments in scrubbers are for large cruise ships (100,000 gross tonnage), which would recoup their investment in 0.62 years; large container ships, with a 0.64 year payback period for those over 8,000 TEUs and 0.71 years for the 5,000-8,000 TEU category; and finally, large oil tankers over 200,000 deadweight tonnage, which would recoup their investment in 0.82 years. However, investing in scrubbers would have a longer payback period for smaller ships, up to 5 years or more for oil tankers and chemical tankers under 5,000 deadweight tonnage. In the case of LNG propulsion, a possible investment is more favourable and the payback period is shorter for smaller ship classes, such as ferries, cruise ships and ROROs. We now take the case of a ship transporting clean products, already built, with a deadweight tonnage of 38,500, and consider the viability of investing in installing a scrubber or changing to LNG propulsion, starting in 2015. The two variables with the greatest impact on the advisability of the investment are how long the ship is at sea within emission control areas (ECA) and the future price scenario of MGO, HSFO and LNG. For this analysis, we studied each investment, calculating a battery of merit conditions such as the payback period, IRR, NPV and variations in the investors' liquid assets. We then calculated the minimum boundary conditions to ensure the investment was not only acceptable but advisable for the investor shipowner. Thus, for the average price differential of 264.35 USD/tonne between HSFO and MGO during 2014, investors' return on investment (IRR) in scrubbers would be the same as the required opportunity cost of 9.6%, for values of over 56% ship transit time in ECAs. For the case of investing in LNG and the average price differential between MGO and LNG of 353.8 USD/tonne FOE in 2014, the ship must spend 64.8% of its time in ECAs for the investment to be advisable. For an estimated 60% of time in an ECA, the internal rate of return (IRR) for investors equals the required opportunity cost of 9.6%, based on a price difference of 244.73 USD/tonne between the two alternative fuels, marine gas oil (MGO) and fuel oil (HSFO). An investment in LNG propulsion would require a price differential between MGO and LNG of 382.3 USD/tonne FOE. Thus, for a 38,500 DWT ship carrying clean products, investing in retrofitting to install a scrubber is more advisable than converting to LNG, with an internal rate of return (IRR) for investors of 12.77%, compared to 6.81% for investing in LNG. Both calculations were based on a ship which spends 60% of its time at sea in an ECA and a scenario of average 2014 prices. However, for newly-built ships, investments in either of these technologies from 2025 would be advisable. Here, the shipowner must pay particular attention to the specific characteristics of their ship, the type of operation, and the infrastructure for supplying fuel and handling discharges in the ports where it will usually operate. Thus, while the consequences of switching to marine gas oil in order to comply with the MARPOL regulations are certainly alarming, there are alternatives to marine gas oil, with smaller increases in the costs of maritime transport, while maintaining the benefits to society this law is intended to provide. Indeed, as we have demonstrated, the options which appear most favourable from a financial viewpoint are conversion to LNG for small ships and regular runs (cruise ships, ferries, ROROs), and installing scrubbers for large ships. Unfortunately, however, these investments are not being made, due to the high uncertainty associated with these two markets, which increases business risk, both for shipowners and for the providers of these new technologies. This means we are seeing considerable reluctance regarding these two options among the private sector. This high level of risk can be lowered only by encouraging joint efforts by the public and private sectors to overcome these barriers to entry into the market for scrubbers and LNG, which could reduce the environmental externalities of emissions without affecting the competitiveness of marine transport. Our opinion is that the same bodies which approved this law must help the shipping industry invest in these technologies, drive research on them, and promote the creation of a port infrastructure which is adapted to supply LNG and handle the discharges from scrubber systems. At present there are several European incentive programmes, such as TEN-T and Marco Polo, but we do not consider these to be sufficient. For its part, the International Maritime Organization should confirm as soon as possible whether the new lower sulphur levels in fuels will be postponed until 2025. This would eliminate the great uncertainty among shipowners, oil companies and ports regarding the timeline for beginning their future investments and for studying their viability.
Resumo:
El consumo energético de las Redes de Sensores Inalámbricas (WSNs por sus siglas en inglés) es un problema histórico que ha sido abordado desde diferentes niveles y visiones, ya que no solo afecta a la propia supervivencia de la red sino que el creciente uso de dispositivos inteligentes y el nuevo paradigma del Internet de las Cosas hace que las WSNs tengan cada vez una mayor influencia en la huella energética. Debido a la tendencia al alza en el uso de estas redes se añade un nuevo problema, la saturación espectral. Las WSNs operan habitualmente en bandas sin licencia como son las bandas Industrial, Científica y Médica (ISM por sus siglas en inglés). Estas bandas se comparten con otro tipo de redes como Wi-Fi o Bluetooth cuyo uso ha crecido exponencialmente en los últimos años. Para abordar este problema aparece el paradigma de la Radio Cognitiva (CR), una tecnología que permite el acceso oportunista al espectro. La introducción de capacidades cognitivas en las WSNs no solo permite optimizar su eficiencia espectral sino que también tiene un impacto positivo en parámetros como la calidad de servicio, la seguridad o el consumo energético. Sin embargo, por otra parte, este nuevo paradigma plantea algunos retos relacionados con el consumo energético. Concretamente, el sensado del espectro, la colaboración entre los nodos (que requiere comunicación adicional) y el cambio en los parámetros de transmisión aumentan el consumo respecto a las WSN clásicas. Teniendo en cuenta que la investigación en el campo del consumo energético ha sido ampliamente abordada puesto que se trata de una de sus principales limitaciones, asumimos que las nuevas estrategias deben surgir de las nuevas capacidades añadidas por las redes cognitivas. Por otro lado, a la hora de diseñar estrategias de optimización para CWSN hay que tener muy presentes las limitaciones de recursos de estas redes en cuanto a memoria, computación y consumo energético de los nodos. En esta tesis doctoral proponemos dos estrategias de reducción de consumo energético en CWSNs basadas en tres pilares fundamentales. El primero son las capacidades cognitivas añadidas a las WSNs que proporcionan la posibilidad de adaptar los parámetros de transmisión en función del espectro disponible. La segunda es la colaboración, como característica intrínseca de las CWSNs. Finalmente, el tercer pilar de este trabajo es teoría de juegos como algoritmo de soporte a la decisión, ampliamente utilizado en WSNs debido a su simplicidad. Como primer aporte de la tesis se presenta un análisis completo de las posibilidades introducidas por la radio cognitiva en materia de reducción de consumo para WSNs. Gracias a las conclusiones extraídas de este análisis, se han planteado las hipótesis de esta tesis relacionadas con la validez de usar capacidades cognitivas como herramienta para la reducción de consumo en CWSNs. Una vez presentada las hipótesis, pasamos a desarrollar las principales contribuciones de la tesis: las dos estrategias diseñadas para reducción de consumo basadas en teoría de juegos y CR. La primera de ellas hace uso de un juego no cooperativo que se juega mediante pares de jugadores. En la segunda estrategia, aunque el juego continúa siendo no cooperativo, se añade el concepto de colaboración. Para cada una de las estrategias se presenta el modelo del juego, el análisis formal de equilibrios y óptimos y la descripción de la estrategia completa donde se incluye la interacción entre nodos. Con el propósito de probar las estrategias mediante simulación e implementación en dispositivos reales hemos desarrollado un marco de pruebas compuesto por un simulador cognitivo y un banco de pruebas formado por nodos cognitivos capaces de comunicarse en tres bandas ISM desarrollados en el B105 Lab. Este marco de pruebas constituye otra de las aportaciones de la tesis que permitirá el avance en la investigación en el área de las CWSNs. Finalmente, se presentan y discuten los resultados derivados de la prueba de las estrategias desarrolladas. La primera estrategia proporciona ahorros de energía mayores al 65% comparados con una WSN sin capacidades cognitivas y alrededor del 25% si la comparamos con una estrategia cognitiva basada en el sensado periódico del espectro para el cambio de canal de acuerdo a un nivel de ruido fijado. Este algoritmo se comporta de forma similar independientemente del nivel de ruido siempre que éste sea espacialmente uniformemente. Esta estrategia, a pesar de su sencillez, nos asegura el comportamiento óptimo en cuanto a consumo energético debido a la utilización de teoría de juegos en la fase de diseño del comportamiento de los nodos. La estrategia colaborativa presenta mejoras respecto a la anterior en términos de protección frente al ruido en escenarios de ruido más complejos donde aporta una mejora del 50% comparada con la estrategia anterior. ABSTRACT Energy consumption in Wireless Sensor Networks (WSNs) is a known historical problem that has been addressed from different areas and on many levels. But this problem should not only be approached from the point of view of their own efficiency for survival. A major portion of communication traffic has migrated to mobile networks and systems. The increased use of smart devices and the introduction of the Internet of Things (IoT) give WSNs a great influence on the carbon footprint. Thus, optimizing the energy consumption of wireless networks could reduce their environmental impact considerably. In recent years, another problem has been added to the equation: spectrum saturation. Wireless Sensor Networks usually operate in unlicensed spectrum bands such as Industrial, Scientific, and Medical (ISM) bands shared with other networks (mainly Wi-Fi and Bluetooth). To address the efficient spectrum utilization problem, Cognitive Radio (CR) has emerged as the key technology that enables opportunistic access to the spectrum. Therefore, the introduction of cognitive capabilities to WSNs allows optimizing their spectral occupation. Cognitive Wireless Sensor Networks (CWSNs) do not only increase the reliability of communications, but they also have a positive impact on parameters such as the Quality of Service (QoS), network security, or energy consumption. These new opportunities introduced by CWSNs unveil a wide field in the energy consumption research area. However, this also implies some challenges. Specifically, the spectrum sensing stage, collaboration among devices (which requires extra communication), and changes in the transmission parameters increase the total energy consumption of the network. When designing CWSN optimization strategies, the fact that WSN nodes are very limited in terms of memory, computational power, or energy consumption has to be considered. Thus, light strategies that require a low computing capacity must be found. Since the field of energy conservation in WSNs has been widely explored, we assume that new strategies could emerge from the new opportunities presented by cognitive networks. In this PhD Thesis, we present two strategies for energy consumption reduction in CWSNs supported by three main pillars. The first pillar is that cognitive capabilities added to the WSN provide the ability to change the transmission parameters according to the spectrum. The second pillar is that the ability to collaborate is a basic characteristic of CWSNs. Finally, the third pillar for this work is the game theory as a decision-making algorithm, which has been widely used in WSNs due to its lightness and simplicity that make it valid to operate in CWSNs. For the development of these strategies, a complete analysis of the possibilities is first carried out by incorporating the cognitive abilities into the network. Once this analysis has been performed, we expose the hypotheses of this thesis related to the use of cognitive capabilities as a useful tool to reduce energy consumption in CWSNs. Once the analyses are exposed, we present the main contribution of this thesis: the two designed strategies for energy consumption reduction based on game theory and cognitive capabilities. The first one is based on a non-cooperative game played between two players in a simple and selfish way. In the second strategy, the concept of collaboration is introduced. Despite the fact that the game used is also a non-cooperative game, the decisions are taken through collaboration. For each strategy, we present the modeled game, the formal analysis of equilibrium and optimum, and the complete strategy describing the interaction between nodes. In order to test the strategies through simulation and implementation in real devices, we have developed a CWSN framework composed by a CWSN simulator based on Castalia and a testbed based on CWSN nodes able to communicate in three different ISM bands. We present and discuss the results derived by the energy optimization strategies. The first strategy brings energy improvement rates of over 65% compared to WSN without cognitive techniques. It also brings energy improvement rates of over 25% compared with sensing strategies for changing channels based on a decision threshold. We have also seen that the algorithm behaves similarly even with significant variations in the level of noise while working in a uniform noise scenario. The collaborative strategy presents improvements respecting the previous strategy in terms of noise protection when the noise scheme is more complex where this strategy shows improvement rates of over 50%.
Resumo:
El cuidado del medio ambiente está cada vez más arraigado en nuestras vidas y la arquitectura no se puede quedar atrás. Este trabajo intenta abordar problemas de sostenibilidad en distintos niveles: desde la eficiencia energética del propio edificio a la eficiencia de la ciudad, proponiendo una actuación de redensificación de los centros urbanos frente a la expansión de la ciudad, con los ahorros en transporte, tiempo y calidad de vida que supone. Todo esto solo será útil y viable si la economía lo permite, por lo que buscaremos que la operación tenga un coste nulo o incluso que pueda resultar económicamente lucrativa. De esta forma y a través de un ejemplo concreto, pretendo demostrar la viabilidad de una rehabilitación energética que pueda ser costeada con los beneficios de ampliar el edificio existente, dando lugar a una ciudad más densa y eficiente. Esto solo será posible en los casos en los que la edificabilidad no esté agotada. El caso que se trata en el trabajo tiene una elevada edificabilidad remanente, se localiza en una zona céntrica de Madrid y tiene una bajísima calificación energética, lo que lo convierte en un ejemplo paradigmático.
Resumo:
Los recubrimientos lubricantes sólidos son requeridos para reducir la fricción y prevenir el desgaste en componentes que operan a altas temperaturas o en vacío (vehículos espaciales, industria química, motores diésel, turbinas aeronáuticas y de generación de energía…). Los lubricantes líquidos pierden sus características cuando las condiciones de presión, temperatura o ambientales son severas (oxidación, inestabilidad térmica, volatilidad,…), por ejemplo los aceites minerales convencionales se descomponen a temperaturas próximas a 200 ºC. Por tanto, la única manera de poder conseguir una adecuada lubricación a temperaturas extremas es por medio de sólidos, que cada vez más, se aplican en forma de recubrimientos. Estos recubrimientos podrían ser empleados en componentes de vehículos espaciales reutilizables, donde se pueden alcanzar, en la reentrada en la atmósfera, temperaturas de 700 ºC (bisagras, rodamientos, articulaciones y zonas de sellado en las superficies de control, y rodamientos de las turbobombas y las cajas de engranajes). Dichos recubrimientos también deberían ser capaces de proporcionar una lubricación efectiva a bajas temperaturas para las operaciones en tierra, para las operaciones de arranque en frío, incluso en el espacio. El conjunto de requisitos que tendrían que satisfacer las capas tribológicas relacionadas con estas condiciones extremas es muy diverso, lo que hace que el concepto de capas tipo composite (aquéllas constituidas por varios componentes) sea, en principio, muy adecuado para estas aplicaciones. Recubrimientos composite proyectados térmicamente constituidos por una matriz dura y conteniendo lubricantes sólidos pueden ser una buena solución desde el punto de vista tribológico. El “Lewis Research Centre” de la NASA ha estado desarrollando recubrimientos autolubricantes tipo composite, constituidos por la combinación de materiales duros como el carburo de cromo, junto con lubricantes sólidos como plata o la eutéctica de fluoruros de calcio y bario, en una matriz de NiCr, para su uso en aplicaciones terrestres a alta temperatura. Estos recubrimientos han sido aplicados mediante proyección térmica, siendo denominados como series PS100, PS200, PS300 y PS400, reduciendo de forma significativa el coeficiente de fricción y mejorando la resistencia al desgaste en un amplio margen de temperaturas. Otra nueva familia de materiales con comportamiento tribológico prometedor son las aleaciones cuasicristalinas (QC). Presentan características muy atractivas: alta dureza, baja fricción, alto límite elástico de compresión... Son muy frágiles como materiales másicos, por lo que se intentan aplicar en forma de recubrimientos. Se pueden depositar mediante proyección térmica. Algunos de estos materiales cuasicristalinos, como AlCoFeCr, poseen coeficientes de dilatación próximos al de los materiales metálicos, alta estabilidad térmica, baja conductividad térmica y una elevada resistencia a la oxidación y a la corrosión en caliente. En esta tesis se han desarrollado recubrimientos tipo composite conteniendo cuasicristales como componente antidesgaste, NiCr como componente tenaz, y Ag y la eutéctica de BaF2-CaF2, como lubricantes sólidos. Estos recubrimientos han sido depositados con diferentes composiciones (denominadas TH100, TH103, TH200, TH400, TH600…) mediante distintos procesos de proyección térmica: plasma en aire (PS), plasma en baja presión (LPPS) y combustión a alta velocidad (HVOF). Los recubrimientos se han generado sobre el sustrato X-750, una superaleación base níquel, endurecible por precipitación, con muy buena resistencia mecánica y a la oxidación hasta temperaturas de 870 ºC y, además, es empleada en aplicaciones aeroespaciales e industriales. Los recubrimientos han sido caracterizados microestructuralmente en INTA (Instituto Nacional de Técnica Aeroespacial), mediante SEM-EDS (Scanning Electronic Microscopy-Energy Dispersive Spectroscopy) y XRD (X-Ray Diffraction), y tribológicamente mediante medidas de microdureza y ensayos en tribómetro POD (Pin On Disc) para determinar los coeficientes de fricción y de desgaste. Los recubrimientos han sido ensayados tribológicamente a alta temperatura en INTA y en vacío en AMTTARC (Aerospace and Space Materials Technology Testhouse – Austrian Research Centres), en Seibersdorf (Austria). Se ha estudiado la influencia de la carga normal aplicada, la velocidad lineal y el material del pin. De entre las diferentes series de recubrimientos cuasicristalinos tipo composite desarrolladas, dos de ellas, TH100 y TH103 han presentado una excelente calidad microestructural (baja porosidad, distribución uniforme de fases…) y se han mostrado como excelentes recubrimientos antidesgaste. Sin embargo, estas capas presentan un pobre comportamiento como autolubricantes a temperatura ambiente, aunque mejoran mucho a alta temperatura o en vacío. Los resultados del trabajo presentado en esta tesis han proporcionado nuevo conocimiento respecto al comportamiento tribológico de recubrimientos autolubricantes cuasicristalinos tipo composite depositados por proyección térmica. Sin embargo, dichos resultados, aunque son muy prometedores, no han puesto de manifiesto el adecuado comportamiento autolubricante que se pretendía y, además, como ocurre en cualquier trabajo de investigación, durante el desarrollo del mismo siempre aparecen nuevas dudas por resolver. Se proponen nuevas líneas de trabajo futuro que complementen los resultados obtenidos y que puedan encaminar hacia la obtención de un recubrimiento que mejore su comportamiento autolubricante. ABSTRACT Solid lubricant coatings are required to reduce friction and prevent wear in components that operate at high temperatures or under vacuum (space vehicles, chemical industry, diesel engines, power generation turbines and aeronautical turbines, for instance). In these cases neither greases nor liquid lubricants can be employed and the only practicable approach to lubrication in such conditions is by means of solids. These are increasingly applied in the form of coatings which should exhibit low shear strength, whilst maintaining their chemical stability at extremes temperatures and in the space environment. In the space field, these coatings would be employed in re-usable space plane applications, such as elevon hinges, where temperatures of 700 ºC are reached during re-entry into the Earth’s atmosphere. These coatings should also be capable of providing effective lubrication at lower temperatures since “cold start” operation may be necessary, even in the space environment. The diverse and sometimes conflictive requirements in high temperature and space-related tribological coatings make the concept of composite coatings highly suitable for these applications. Thermal-sprayed composites containing solid lubricants in a hard matrix perform well tribologically. NASA‘s Lewis Research Centre had developed self-lubricating composite coatings for terrestrial use, comprising hard materials like chromium carbide as well as solid lubricant additives such as silver and BaF2-CaF2 eutectic on a Ni-Cr matrix. These coatings series, named PS100, PS200, PS300 and PS400, are applied by thermal spray and significantly reduce friction coefficients, improving wear resistance over a wide temperature range. Quasicrystalline alloys (QC) constitute a new family of materials with promising tribological behaviour. Some QC materials exhibit a combination of adequate antifriction properties: low friction coefficient, high hardness and high yield strength under compression, and can be easily produced as coatings on top of metallic and non-metallic materials. Among these QC alloys, AlCoFeCr has high hardness (700 HV0.1), a thermal expansion coefficient close to that of metals, high thermal stability, low thermal conductivity and good oxidation and hot corrosion resistance. However most QC materials have the disadvantage of being very brittle. In order to take advantage of the excellent tribological properties of QCs, thick composite lubricant coatings were prepared containing them as the hard phase for wear resistance, Ag and BaF2-CaF2 eutectic as lubricating materials and NiCr as the tough component. These coatings were deposited in different composition mixtures (named TH100, TH103, TH200, TH400, TH600…) by different thermal spray processes: air plasma spray (PS), low pressure plasma spray (LPPS) and high velocity oxy-fuel (HVOF), on X-750 substrates. X-750 is an age-hardenable nickel-base superalloy with very good strength and a good resistance to oxidising combustion gas environments at temperatures up to about 870 ºC and it is widely used in aerospace and industrial applications. Coatings have been characterized microstructurally, at INTA (National Institute for Aerospace Technology), by means of SEM-EDS (Scanning Electronic Microscopy- Energy Dispersive Spectroscopy) and XRD (X-Ray Diffraction), and tribologically by microhardness measurements and pin-on-disc testing to determine friction coefficients as well as wear resistance. The coatings were tested tribologically at high temperature at INTA and under vacuum at AMTT-ARC (Aerospace and Space Materials Technology Testhouse – Austrian Research Centres), in Seibersdorf (Austria). Different loads, linear speeds and pin materials were studied. TH100 and TH103 QC alloy matrix composite coatings were deposited by HVOF with excellent microstructural quality (low porosity, uniform phase distribution) and showed to be excellent wear resistant coatings. However these QC alloy matrix composite coatings are poor as a self-lubricant at room temperature but much better at high temperature or in vacuum. The results from the work performed within the scope of this thesis have provided new knowledge concerning the tribological behavior of self-lubricating quasicrystalline composite coatings deposited by thermal spraying. Although these results are very promising, they have not shown an adequate self-lubricating behavior as was intended, and also, as in any research, the results have in addition raised new questions. Future work is suggested to complement the results of this thesis in order to improve the selflubricating behaviour of the coatings.
Resumo:
El consumo de combustible en un automóvil es una característica que se intenta mejorar continuamente debido a los precios del carburante y a la creciente conciencia medioambiental. Esta tesis doctoral plantea un algoritmo de optimización del consumo que tiene en cuenta las especificaciones técnicas del vehículo, el perfil de orografía de la carretera y el tráfico presente en ella. El algoritmo de optimización calcula el perfil de velocidad óptima que debe seguir el vehículo para completar un recorrido empleando un tiempo de viaje especificado. El cálculo del perfil de velocidad óptima considera los valores de pendiente de la carretera así como también las condiciones de tráfico vehicular de la franja horaria en que se realiza el recorrido. El algoritmo de optimización reacciona ante condiciones de tráfico cambiantes y adapta continuamente el perfil óptimo de velocidad para que el vehículo llegue al destino cumpliendo el horario de llegada establecido. La optimización de consumo es aplicada en vehículos convencionales de motor de combustión interna y en vehículos híbridos tipo serie. Los datos de consumo utilizados por el algoritmo de optimización se obtienen mediante la simulación de modelos cuasi-estáticos de los vehículos. La técnica de minimización empleada por el algoritmo es la Programación Dinámica. El algoritmo divide la optimización del consumo en dos partes claramente diferenciadas y aplica la Programación Dinámica sobre cada una de ellas. La primera parte corresponde a la optimización del consumo del vehículo en función de las condiciones de tráfico. Esta optimización calcula un perfil de velocidad promedio que evita, cuando es posible, las retenciones de tráfico. El tiempo de viaje perdido durante una retención de tráfico debe recuperarse a través de un aumento posterior de la velocidad promedio que incrementaría el consumo del vehículo. La segunda parte de la optimización es la encargada del cálculo de la velocidad óptima en función de la orografía y del tiempo de viaje disponible. Dado que el consumo de combustible del vehículo se incrementa cuando disminuye el tiempo disponible para finalizar un recorrido, esta optimización utiliza factores de ponderación para modular la influencia que tiene cada una de estas dos variables en el proceso de minimización. Aunque los factores de ponderación y la orografía de la carretera condicionan el nivel de ahorro de la optimización, los perfiles de velocidad óptima calculados logran ahorros de consumo respecto de un perfil de velocidad constante que obtiene el mismo tiempo de recorrido. Las simulaciones indican que el ahorro de combustible del vehículo convencional puede lograr hasta un 8.9% mientras que el ahorro de energía eléctrica del vehículo híbrido serie un 2.8%. El algoritmo fusiona la optimización en función de las condiciones del tráfico y la optimización en función de la orografía durante el cálculo en tiempo real del perfil óptimo de velocidad. La optimización conjunta se logra cuando el perfil de velocidad promedio resultante de la optimización en función de las condiciones de tráfico define los valores de los factores de ponderación de la optimización en función de la orografía. Aunque el nivel de ahorro de la optimización conjunta depende de las condiciones de tráfico, de la orografía, del tiempo de recorrido y de las características propias del vehículo, las simulaciones indican ahorros de consumo superiores al 6% en ambas clases de vehículo respecto a optimizaciones que no logran evitar retenciones de tráfico en la carretera. ABSTRACT Fuel consumption of cars is a feature that is continuously being improved due to the fuel price and an increasing environmental awareness. This doctoral dissertation describes an optimization algorithm to decrease the fuel consumption taking into account the technical specifications of the vehicle, the terrain profile of the road and the traffic conditions of the trip. The algorithm calculates the optimal speed profile that completes a trip having a specified travel time. This calculation considers the road slope and the expected traffic conditions during the trip. The optimization algorithm is also able to react to changing traffic conditions and tunes the optimal speed profile to reach the destination within the specified arrival time. The optimization is applied on a conventional vehicle and also on a Series Hybrid Electric vehicle (SHEV). The fuel consumption optimization algorithm uses data obtained from quasi-static simulations. The algorithm is based on Dynamic Programming and divides the fuel consumption optimization problem into two parts. The first part of the optimization process reduces the fuel consumption according to foreseeable traffic conditions. It calculates an average speed profile that tries to avoid, if possible, the traffic jams on the road. Traffic jams that delay drivers result in higher vehicle speed to make up for lost time. A higher speed of the vehicle within an already defined time scheme increases fuel consumption. The second part of the optimization process is in charge of calculating the optimal speed profile according to the road slope and the remaining travel time. The optimization tunes the fuel consumption and travel time relevancies by using two penalty factors. Although the optimization results depend on the road slope and the travel time, the optimal speed profile produces improvements of 8.9% on the fuel consumption of the conventional car and of 2.8% on the spent energy of the hybrid vehicle when compared with a constant speed profile. The two parts of the optimization process are combined during the Real-Time execution of the algorithm. The average speed profile calculated by the optimization according to the traffic conditions provides values for the two penalty factors utilized by the second part of the optimization process. Although the savings depend on the road slope, traffic conditions, vehicle features, and the remaining travel time, simulations show that this joint optimization process can improve the energy consumption of the two vehicles types by more than 6%.
Resumo:
El entorno alpino de los Grisones ha sido un laboratorio donde experimentar un método arquitectónico procedente de diversas fuentes durante los años 70 en la ETHZ. Este método ha producido durante las últimas tres décadas un discurso teórico propiamente suizo alemán. La tradición continúa siendo un valor cultural para la comunidad alpina de los Grisones, que apuesta por seguir relacionando la arquitectura con su historia y su paisaje. La especificidad de cada entorno suizo alemán es un hecho obvio pero, por encima de sus rasgos característicos, hay un denominador común que les da unidad en silencio: se trata de una idea de la construcción. El fenómeno de los Grisones es territorial en su localización concreta, pero comparte el trasfondo teórico del resto de la arquitectura suizo alemana reciente. La tesis recorre transversalmente las condiciones que han dado lugar a esa trayectoria común hasta la actualidad, en que la arquitectura suizo alemana se halla precisamente en un momento de cambio generacional. La obra de Peter Märkli constituye en esta tesis un paradigma de la voluntad suizo alemana por formar parte de la continuidad cultural de la arquitectura, como una actitud de resistencia compartida frente al mundo globalizado. La tesis se articula a partir de ocho proyectos recientes, realizados por arquitectos suizo alemanes en el entorno del territorio alpino de los Grisones. Estos proyectos condensan la trayectoria arquitectónica suizo alemana durante el siglo XX, así como el fenómeno arquitectónico que ha tenido lugar en el entorno de los Grisones durante las últimas tres décadas. La tesis analiza a través de cada pareja de proyectos los episodios teóricos, artísticos y filosóficos más relevantes que se sintetizan en estas obras, así como sus referentes arquitectónicos y la dimensión trascendente de los materiales en los que la cultura suiza hunde sus raíces: la madera, la piedra y el hormigón. Las vanguardias pictóricas, el Movimiento Moderno y las corrientes humanistas y regionalistas que se fueron sucediendo durante el pasado siglo, configuran el escenario en el que tomó cuerpo la sensibilidad arquitectónica suizo alemana reciente, que emerge a través de la compleja red de relaciones establecidas entre el panorama suizo y el internacional. El mismo bagaje teórico subyace al territorio suizo alemán a nivel general, por lo que asociarlo a través de esta tesis a proyectos realizados en un entorno característico, permite acceder a una realización concreta de ese debate en un entorno tan particular como son los Grisones. La aproximación a los proyectos es de carácter fenomenológico: la experiencia directa de los mismos ha sido el sustrato fundamental del enfoque de la tesis. El trabajo de campo no se limitó a visitar los proyectos que vertebran la tesis, sino que trató de abarcar las obras más relevantes de la producción suizo alemana reciente en los Grisones, con el fin de adquirir cierto grado de sensibilidad perceptiva hacia la singularidad de su identidad territorial. La tesis hace especial hincapié en las obras de Peter Märkli y Peter Zumthor, representantes de los dos extremos del discurso suizo alemán reciente, respecto a la materialidad y al carácter de la secuencia espacial, sistemático o fluido respectivamente, pero que asimismo comparten el clasicismo formalista que subyace al fenómeno suizo alemán. Los dos proyectos que establecen el periodo 1992-2004 explorado por esta investigación constituyen dos hitos fundamentales. El Museo de La Congiunta en Giornico de Peter Märkli se construyó en 1992 y se erige a partir de entonces como un icono arquitectónico de la condensación típicamente suizo alemana de base reductiva. Este paradigma de síntesis conceptual y constructiva comenzó a forjarse en la década de 1930 de la mano del Konkrete Kunst formulado por Max Bill, que es la única manifestación artística genuinamente suiza del siglo XX y que desarrolló pictóricamente los valores de precisión, rigor, racionalismo y abstracción afines a la sensibilidad suizo alemana. En segundo lugar, el proyecto para la rehabilitación de la Villa Garbald y la construcción de la Torre Roccolo en Castasegna llevado a cabo por Miller & Maranta en 2004, supuso la consumación de la Analoge Architektur, que fue la primera corriente arquitectónica propiamente suiza, desarrollada durante la década de 1980 por Miroslav Sik. La Deutscher Tendenza es un periodo de la trayectoria suizo alemana reciente poco conocido, representado por una figura tan relevante como es Peter Zumthor. Las obras que proyectó Zumthor entre 1979 y 1985 forman parte de un periodo en que el arquitecto se encontraba profundamente influido por el neorracionalismo italiano, como ilustra la escuela de Churwalden de 1983. La arquitectura suizo alemana reciente exploró sistemáticamente los sistemas compositivos de las vanguardias pictóricas y del Movimiento Moderno, por encima de su formalismo concreto. La segunda fase de la obra de Zumthor entre 1985 y 1996 se caracteriza por la transfiguración del plano libre del sistema compositivo neoplasticista desarrollado por De Stijl, plano que adquirió grosor hasta convertirse en la caja articuladora de la fluidez de la secuencia espacial. El formalismo de Zumthor en esta fase implica la prioridad del esquema compositivo, compuesto por un perímetro regular en el que se reúnen las cajas que, como las superficies de color de las composiciones de Mondrian, articulan el espacio a su alrededor. La Residencia de Masans de Zumthor de 1993 es un proyecto canónico de este sistema compositivo, que culmina en el esquema radial de las Termas de Vals de 1996. La imagen poética se convirtió en el lenguaje propio del pensamiento de la arquitectura suizo alemana, que permitía una reflexión no verbal, a partir de unos pocos arquetipos fundamentales. Los arquitectos del Ticino buscaron en la Tendenza italiana durante la década de 1970 una alternativa al insostenible modelo territorial que estaba destruyendo su paisaje cultural. Algunos de estos arquitectos comenzaron a dar clase durante esa década en la ETHZ, por lo que transmitieron sus inquietudes al alumnado e introdujeron a Aldo Rossi en la facultad, que era uno de los máximos representantes de la Tendenza. El método analógico de Rossi, basado en la psicología analítica de Carl Jung, fue una influencia fundamental en la ETHZ durante los años 70. Rossi partía de una teoría afín al colectivo intelectual suizo que los arquitectos de la ETHZ pronto comprendieron que debían independizar del contexto italiano, desarrollando su propio método a partir de 1985 con la Analoge Architektur. El valor de la preexistencia de acuerdo a este método incipiente se hallaba en su papel articulador de la continuidad cultural de una comunidad, que Miroslav Sik definió a partir de su concepto de Altneue (literalmente, lo Nuevo-Viejo). La fusión entre lo nuevo y lo viejo era la base de la espontaneidad con la que habían crecido los asentamientos históricamente. Sik consideraba que la continuidad dependía de la comprensión de los patrones preexistentes, con el objeto de mantener su vigencia mediante la incorporación de estrategias contemporáneas, que renovarían su significado sin perder su esencia. La Casa Gugalun en Versam de Zumthor de 1994 supone una aproximación a escala doméstica a este planteamiento. La arquitectura suizo alemana reciente a menudo busca en sus referentes plásticos una manera de explorar ámbitos poco accesibles para la disciplina arquitectónica. El pensamiento arquitectónico basado en la imagen poética se implementa a partir de la tectónica de la construcción, que es el medio para comunicar una idea vertebradora del proyecto de principio a fin. La construcción como medio introduce el concepto clave de la apariencia de la arquitectura, estrechamente relacionado con la filosofía idealista de Friedrich Schiller. La apariencia debe expresar el sentido conceptual de la obra, que los arquitectos suizo alemanes denominan idea, por lo que la construcción no tiene un valor por sí misma, sino en cuanto a la apariencia. La Capilla de Oberrealta de Christian Kerez de 1993 puede ser considerada una obra escultórica en el paisaje, más próxima a las artes plásticas que a la arquitectura. La tensión que surge entre la figura ideal y la pieza sometida a una sutil deformación confiere un carácter dinámico a la composición, que intensifica el efecto perceptivo, de acuerdo a la teoría del pensamiento visual de Rudolph Arnheim. La deformación al servicio de la psicología de la percepción es un fenómeno que caracteriza la arquitectura suizo alemana reciente. El concepto de Forme Forte (forma fuerte) fue introducido por Martin Steinmann para caracterizar el objeto arquitectónico denominado internacionalmente Swiss Box. Este concepto se caracteriza por una predilección por lo monolítico, lo unitario y lo arquetípico. La condición más sustancial de una Forme Forte es, sin embargo, la de configurar un elemento estructurador del entorno. Tanto la base morfológica de una Forme Forte, como su capacidad para estructurar el lugar, se corresponden con los conceptos de arquetipo y monumento de la teoría de Rossi. La tesis explora el sentido de la deformación en la producción suizo alemana reciente, a partir de la Escuela de Paspels de Valerio Olgiati de 1998 y la Torre Roccolo de Villa Garbald de Miller&Maranta de 1998. La teoría tectónica de Gottfried Semper y la razón de la forma de Adolf Loos constituyen el sustrato teórico, que relaciona la actividad existencial de habitar con la materialidad de la arquitectura suizo alemana reciente. La teoría tectónica de Semper fundamenta las revisiones posteriores de los sistemas constructivos tradicionales suizo alemanes. Esta influencia sirvió como base a la vanguardia suiza de la Neues Bauen, que desarrolló un racionalismo funcionalista durante las décadas de 1920 y 1930, que constituye una gramática de base no simbólica. Esta gramática constituye el fundamento de la transición del orden clásico a la materialidad como instrumento compositivo durante la segunda mitad del siglo XX, consolidando el concepto de la base material de la forma. La revisión de la tradición regionalista y racionalista llevada a cabo por la generación de arquitectos suizo alemanes de la década de 1950 y 1960, constituyó una investigación lingüística sustancial. Rudolph Olgiati es la figura determinante de este periodo. La revisión de esta investigación se codificó en clave estructuralista durante los años 70 en la ETHZ, influenciada por la presencia de Roland Barthes como profesor invitado. Esta revisión constituyó la base de la articulación tectónica propiamente suizo alemana todavía vigente, como ilustra expresamente la obra de Burkhalter&Sumi en esta tesis. La obra de Gion Caminada en Vrin entre 1995 y 2002 aporta una intensa investigación sobre el Strickbau, que implementa una y otra vez variaciones sobre un sistema tradicional, ilustrando las infinitas posibilidades que ofrece un lenguaje, paradójicamente limitado por los medios disponibles en un entorno alpino aislado. Para terminar Jürg Conzett es el ingeniero con el que han desarrollado sus proyectos la mayoría de los arquitectos en el entorno de los Grisones, formado durante 8 años con Zumthor y colaborador habitual de Caminada entre otros. Conzett es el referente que relaciona la ingeniería con la arquitectura en el ámbito de esta tesis, imprescindible en el contexto de esta investigación. ABSTRACT The Alpine setting of Grisons has been a laboratory for architectural experimentation with an approach forged in the 1970s from various sources in the Swiss Federal Institute of Technology in Zurich (ETHZ). This method has produced a uniquely German-Swiss theoretical discourse over the past three decades. Tradition continues to be a cultural value for Grisons, a region committed to continue linking its architecture with the region’s history and landscape. The specificity of the German-Swiss environment is obvious, but beyond its characteristic features, there is a common denominator that gives these settings a silent unity: it is an idea of building. The phenomenon of Grisons is geographic in its specific location, but it shares the theoretical basis of the rest of the new German-Swiss architecture. This thesis transversely delves into the conditions that have shaped this common path up to the present, just as German-Swiss architecture is going through a time of generational change. In this thesis, Märkli Peter's work constitutes a paradigm of the German-Swiss will to uphold the cultural and architectural continuity of the region, exemplifying an attitude of shared resistance to the globalized world. The thesis is structured around eight recent projects carried out by German-Swiss architects in the Alpine region of Grisons. These projects represent the trajectory of twentieth century German-Swiss architectural history, as well as the architectural phenomenon that has taken place in the environs of Grisons over the past three decades. Through these projects the thesis analyzes the most relevant theoretical, artistic and philosophical references that are synthesized in the works, as well as their architectural references and the transcendental dimension of the materials in which Swiss culture is rooted: wood, stone and concrete. The artistic avant-garde, together with Modernism and the humanistic and regional movements that occurred during the last century, set the stage for present-day German-Swiss architectural sensitivity, which emerges from a complex web of relationships established between the Swiss and international panorama. This same theoretical background and experience underlies all of the German-Swiss territory in general, so associating it through this thesis to a particular context allows the description of a specific embodiment of this debate, within the unique environment of Grisons. The methodological approach to analyzing the projects was phenomenological: direct experience is the main substrate underpinning the focus of the thesis. Field work was not limited to visiting the projects featured in the thesis, but rather encompassed the most important works of recent German-Swiss construction in the Grisons in order to gain some degree of perceptual sensitivity to the uniqueness of its territorial identity. The present paper puts special emphasis on the works of Peter Märkli and Peter Zumthor, who share the formal classicist perspective of the German-Swiss context but stand on opposite sides of the philosophical spectrum with regard to the notion of materiality and the nature of space, which they conceive as systematic or fluid, respectively. The two projects that establish the boundaries of the time period 1992–2004 explored by this research represent two key milestones. The Museum La Congiunta in Giornico, by Peter Märkli, was built in 1992 and quickly established itself as an architectural icon of German-Swiss reductionism. This paradigm of conceptual and constructive synthesis began to take shape in the 1930s under the banner of Konkrete Kunst (Concrete Art), led by Max Bill. The only genuinely Swiss artistic movement of the twentieth century, Konkrete Kunst was characterized by the artistic values of precision, rigor, rationalism and abstraction, sentiments that were very close to the German-Swiss tradition. Secondly, the project for the rehabilitation of Villa Garbald and the construction of the Roccolo Tower in Castasegna, conducted by Miller&Maranta in 2004, represented the consummation of the Analoge Architektur, which was the first truly Swiss architectural movement, spearheaded in the 1980s by Miroslav Sik. The Deutscher Tendenza is a little-known period of recent German-Swiss history, represented by the important figure of Peter Zumthor. The projects that Zumthor led between 1979 and 1985 are part of a period when Italian Neo-Rationalism exercised a profound influence on the architect, as illustrated by the Churwalden School, circa 1983. Recent German-Swiss architecture systematically explored the compositional systems of the artistic avant-garde and Modernism, beyond its specific formal aspects. The second phase of Zumthor's work, between 1985 and 1996, is characterized by the transfiguration of the free plane, neoplastic compositional system developed by De Stijl, a plane that thickened until it became the box articulating fluidity from the spatial sequence. Zumthor's formalism in this phase prioritizes the compositional scheme, consisting of a regular perimeter in which the boxes that -like Mondrian’s colored surfaces- arrange the space around it. Zumthor’s Masans Residence, circa 1993, is a canonical project of this compositional system, which culminates in the radial pattern of the Therme Vals, circa 1996. The poetic image became the appropriate language of thought for German-Swiss architecture, which invited a nonverbal reflection inspired by a few fundamental archetypes. The architects of Ticino sought, through the Italian Tendenza of the 1970s, an alternative to the unsustainable territorial model that was destroying their cultural landscape. Some of these architects began to teach during that decade at ETHZ, and naturally they transmitted their unease to their students. These architects also introduced Aldo Rossi, one of the leading representatives of the Tendenza, to the school. Rossi’s analogue method, based on the analytical psychology of Carl Jung, was a major influence on the ETHZ during the 1970s. Rossi’s theoretical grounding was very much in tune with Swiss intellectualism, and it did not take long for architects from ETHZ to realize that they should break away from the Italian context, developing their own method from 1985 on with the Analoge Architektur. The value of the pre-existing conformity of this emerging method, stemmed from its role in facilitating the cultural continuity of a community, which Miroslav Sik defined in his concept of Altneue (literally, Old-new). This fusion of old and new was the basis for the spontaneity with which settlements had historically grown. Sik considered that continuity depended on understanding the existing patterns and sustaining their relevance through the incorporation of contemporary strategies, which would renew their meaning without losing their essence. Zumthor’s Gugalun House in Versam, circa 1994, is a domestic-scale approach to this philosophy. Modern German-Swiss architecture often looks to its references in visual art for a way to explore areas that are normally inaccessible to the architectural discipline. Architectural thinking based on the poetic image is achieved through a building’s tectonics, which communicate the core idea of a project from start to finish. The understanding of construction as a medium introduces the key concept of the appearance in architecture, closely related to the idealistic philosophy of Friedrich Schiller. The appearance should express the conceptual meaning of the work, which German-Swiss architects call the idea, so that the building does not have value in and of itself, but only in terms of its appearance. The Oberrealta Chapel by Christian Kerez, circa 1993, can be considered a sculpture in the landscape, closer to the visual arts than to architecture. The tension that arises between the ideal figure and the piece subjected to a subtle deformation confers a dynamic character onto the composition, intensifying the perceptual effect, according to Rudolf Arnheim’s theory of visual thought. The deformation in the service of the psychology of perception is a phenomenon that characterizes recent German-Swiss architecture. Martin Steinmann introduced the Forme Forte (Strong Form) concept to describe the architectural object known internationally as the Swiss Box. This concept is characterized by a predilection for all things monolithic, unitary and archetypal. The most substantial condition of a Forme Forte, however, is the configuration of a structuring element in the environment. Both the morphological basis of a Forme Forte and its ability to frame the place, correspond to the concepts of archetype and monument put forward by Rossi’s theory. The present thesis explores the sense of deformation in recent German-Swiss production, based on the School of Paspels by Valerio Olgiati, circa 1998 and the Roccolo Tower in Villa Garbald, by Miller&Maranta, circa 1998. Gottfried Semper’s tectonic theory and Adolf Loos’s reason for form constitute the theoretical foundation that links the existential activity of dwelling to the materiality of recent German-Swiss architecture. Semper’s tectonic theory laid the foundation for subsequent revisions of the German-Swiss traditional building systems. This influence was the basis for the Swiss avant-garde of Neues Bauen, which developed a functional rationalism during the 1920s and 30s that served as a non-symbolic grammatical foundation for the transition from classical order to materiality as a compositional tool. During the second half of the twentieth century, this architectural grammar helped consolidate the concept of the material base of the form. The revision of the regionalist and rationalist tradition, carried out by the generation of German-Swiss architects of the 1950s and 60s, constituted a substantial linguistic investigation. Rudolph Olgiati is the key figure of this period. The research was codified in terms of structuralism in the 1970s in ETHZ and influenced by the presence of Roland Barthes as a visiting professor. This revision was the basis of the uniquely German-Swiss tectonic design still in use today, as specifically illustrated by the work of Burkhalter & Sumi in this thesis. Gion Caminada's work in Vrin between 1995 and 2002 offers an extensive study on the Strickbau, which implements variations on a traditional system again and again, illustrating the endless possibilities of a language that paradoxically seems limited by the available resources in a remote Alpine setting. Finally, Jürg Conzett is the engineer with whom most architects in the Grisons region have developed their projects. Trained under Zumthor for 8 years, and a regular collaborator of Caminada, among others, Conzett is the reference point linking engineering with architecture in this thesis, essential in the context of this research.
Resumo:
La hipótesis que inspiró esta tesis sostiene que la integración de componentes fotovoltaicos en los cerramientos opacos y sombreamientos de huecos acristalados de edificios de oficinas en sitios ubicados en bajas latitudes, tomando como el ejemplo el caso concreto de Brasil, podría incrementar su eficiencia energética. Esta posibilidad se basa en el bloqueo de una parte significativa de la irradiación solar incidente en estos edificios, reduciendo así las cargas térmicas para la climatización y a la vez transformándola en energía eléctrica, a tal punto que se amortizan los costes de inversión en plazos aceptables a través de los ahorros en la demanda de energía. Para verificar esta hipótesis de partida se ha propuesto como objetivo general analizar la integración de elementos fotovoltaicos en cubiertas, muros opacos y sombreamiento de huecos acristalados desde la óptica del balance energético térmico y eléctrico. Inicialmente se presenta y analiza el estado del arte en los temas estudiados y la metodología de investigación, de carácter teórico basada en cálculos y simulaciones. A partir de un modelo tipo de edificio de oficinas situado en Brasil, se definen cuatro casos de estudio y una serie de parámetros, los cuales se analizan para siete latitudes ubicadas entre -1,4° y -30°, separadas las unas de las otras por aproximadamente 5°. Se presentan y discuten los resultados de más de 500 simulaciones para los siguientes conceptos: - recurso solar, desde la perspectiva de la disponibilidad de irradiación solar en distintas superficies de captación apropiadas para la integración de sistemas solares fotovoltaicos en edificaciones en bajas latitudes; - análisis de sombras, con objetivo de identificar los ángulos de sombras vertical (AVS) para protección de huecos acristalados en edificios de oficinas; - balance energético térmico, para identificar el efecto térmico del apantallamiento provocado por componentes fotovoltaicos en cubiertas, muros opacos y parasoles en ventanas en las cargas de refrigeración y consecuentemente en las demandas de energía eléctrica; - balance energético eléctrico, contrastando los resultados del balance térmico con la energía potencialmente generada en las envolventes arquitectónicas bajo estudio; - análisis económico, basado en un escenario de precios de la tecnología fotovoltaica de un mercado maduro y en la política de inyección a la red marcada por la actual normativa brasileña. Se han verificado los potenciales de ahorro económico que los sistemas activos fotovoltaicos podrían aportar, y asimismo se calculan diversos indicadores de rentabilidad financiera. En suma, esta investigación ha permitido extraer conclusiones que contribuyen al avance de la investigación y entender las condiciones que propician la viabilidad de la aplicación de componentes fotovoltaicas en las envolventes de edificios en Brasil, y hasta un cierto punto en otros países en latitudes equivalentes. ABSTRACT The hypothesis that inspired this thesis sustains that integration of photovoltaic components in the opaque envelope and shading elements of office buildings placed at low-latitude countries, using the specific case of Brazil, could increase its energy efficiency. This is possible because those components block a significant part of the incident solar irradiation, reducing its heating effect on the building and transforming its energy into electricity in such a way that the extra investments needed can be paid back in acceptable periods given the electricity bill savings they produce. In order to check this hypothesis, the main goal was to analyze the thermal and electrical performance of photovoltaic components integrated into roofs, opaque façades and window shadings. The first step is an introduction and discussion of the state of the art in the studied subjects, as well as the chosen methodology (which is theoretical), based on calculations and simulations. Starting from an office building located in Brazil, four case studies and their parameters are defined, and then analyzed, for seven cities located between latitudes -1.4° and -30°, with an approximate distance of 5° separating each one. Results of more than 500 simulations are presented and discussed for the following concepts: - Solar resource, from the perspective of irradiation availability on different surfaces for the integration of photovoltaic systems in buildings located at low latitudes; - Shading analysis, in order to determine the vertical shading angles (VSA) for protection of the glazed surfaces on office buildings; - Thermal energy balance, to identify the screening effect caused by photovoltaic components on roofs, opaque façades and window shadings on the cooling loads, and hence electricity demands; - Electric energy balance, comparing thermal energy balance with the energy potentially generated using the active skin of the buildings; - Economic analysis, based on a mature-market scenario and the current net metering rules established by the Brazilian government, to identify the potential savings these photovoltaic systems could deliver, as well as several indicators related to the return on the investment. In short, this research has led to conclusions that contribute to the further development of knowledge in this area and understanding of the conditions that favor the application of photovoltaic components in the envelope of office buildings in Brazil and, to a certain extent, in other countries at similar latitudes.
Resumo:
La escalera de caracol es uno de los elementos que mejor define la evolución de la construcción pétrea a lo largo de nuestra historia moderna. El movimiento helicoidal de las piezas de una escalera muestra, con frecuencia, el virtuosismo que alcanzaron los maestros del arte de la cantería y la plasticidad, expresividad y ligereza de sus obras. A pesar de su origen exclusivamente utilitario y de su ubicación secundaria, se convertirán en signo de maestría y en elementos protagonistas del espacio que recorren y de la composición de los edificios, como es el caso de las grande vis de los Châteaux franceses del XVI como Blois, Chateaudun o Chambord o los schlosses alemanes como el de Hartenfels en Torgau. Este protagonismo queda patente en los tratados y manuscritos de cantería, elaborados fundamentalmente en España y Francia, a partir del siglo XVI que recogen un gran número de variantes de escaleras de caracol entre sus folios. Breve historia de la escalera de Caracol Los ejemplos más antiguos conocidos de escaleras de caracol en Occidente provienen de los primeros siglos de nuestra era y están asociados a construcciones de tipo conmemorativo, funerario o civil, romanas. Destaca de entre ellas la columna trajana, construida en el 113 por Apolodoro de Damasco en los Foros de Roma. Esta columna, conservada en la actualidad, fue profusamente representada por los tratados de arquitectura desde el Renacimento como el de Serlio, Caramuel, Piranesi, Rondelet y, más recientemente, Canina. Choisy describe en El arte de construir en Bizancio un grupo de escaleras de caracol cubiertas por bóvedas helicoidales y construidas entre el siglo IV y VIII; a esta misma época pertenecen otras escaleras con bóvedas aparejadas de forma desigual con sillarejos y sillares de pequeño tamaño sin reglas de traba claras, pensadas al igual que las de Choisy para ser revestidas con un mortero. Herederas de estas bóvedas de la antigüedad son las escaleras de caracol de la Edad Media. Así las describe Viollet le Duc: “compuestas por un machón construido en cantería, con caja perimetral circular, bóveda helicoidal construida en piedra sin aparejar, que se apoya en el machón y sobre el paramento circular interior. Estas bóvedas soportan los peldaños en los que las aristas son trazadas siguiendo los radios del círculo”. En esta misma época, siglos XI y XII, se construyen un grupo de escaleras de caracol abovedadas en piedra de cantería vista: las de la torre oeste de Notre Dame des Doms en Avignon, las de la tour de Roi, de Évêque y Bermonde de los Chateaux de Uzés, las gemelas de las torres de la Catedral Saint Théodorit de Uzés y la conocida escalera del transepto de la Abadía de Saint Gilles. Ésta última dará el nombre a uno de los modelos estereotómicos de mayor complejidad del art du trait o arte de la cantería: la vis Saint Gilles, que aparece en la mayoría de los textos dedicados al corte de piedras en España y Francia. La perfección y dificultad de su trazado hizo que, durante siglos, esta escalera de caracol fuera lugar de peregrinación de canteros y se convirtiera en el arquetipo de un modelo representado con profusión en los tratados hasta el siglo XIX. A partir del siglo XIII, será el husillo el tipo de escalera curva que dará respuesta a las intenciones de la arquitectura a la “moderna” o gótica. Estas escaleras con machón central se generalizarán, insertándose en un complejo sistema de circulaciones de servicio, que conectaban por completo, en horizontal y vertical, los edificios. Estos pasadizos horizontales y estas conexiones verticales, hábilmente incorporadas en el espesor de contrafuertes, machones, esquinas, etc, serán una innovación específicamente gótica, como señala Fitchen. La pieza de peldaño, que se fabrica casi “en serie” reflejará fielmente el espíritu racional y funcionalista de la arquitectura gótica. Inicialmente los peldaños serán prismáticos, sin labrar por su cara interior; después, éstos darán paso a escaleras más amables con los helicoides reglados formando su intradós. Insertos en construcciones góticas y en convivencia con husillos, encontramos algunos ejemplos de escaleras abovedadas en el siglo XIII y XIV. Estamos hablando de la escalera de la torre este del Castillo de Maniace en Siracusa, Sicilia y la escalera de la torre norte del transepto de la Catedral de Barcelona. En ambos casos, los caracoles se pueden relacionar con el tipo vis de Saint Gilles, pero incorporan invariantes de la construcción gótica que les hace mantener una relación tipológica y constructiva con los husillos elaborados en la misma época. En la segunda mitad del siglo XV aparecen, vinculadas al ámbito mediterráneo, un conjunto de escaleras en las que el machón central se desplaza transformándose en una moldura perimetral y dejando su lugar a un espacio hueco que permite el paso de la luz. Los tratados manuscritos de cantería que circulan en el XVI y XVII por España recogen el modelo con su denominación: caracol de Mallorca. Varios autores han mantenido la tesis de que el nombre proviene de la escalera situada en la torre noroeste de la Lonja de Palma de Mallorca. Los Manuscritos y tratados de Cantería y las escaleras de caracol Coincidiendo con la apertura intelectual que propicia el Renacimiento se publican algunos tratados de arquitectura que contienen capítulos dedicados al corte de las piedras. El primero de ellos es Le premier tome de l’Architecture de Philibert de L’Orme, publicado en 1567 en Francia. En España tenemos constancia de la existencia de numerosos cuadernos profesionales que circulaban entre los canteros. Varias copias de estos manuscritos han llegado hasta nuestros días. Los más completos son sin duda, las dos copias que se conservan del tratado de arquitectura de Alonso de Vandelvira, una en la Biblioteca Nacional y otra en la Biblioteca de la Escuela de Arquitectura de la Universidad Politécnica de Madrid y el manuscrito titulado Cerramientos y trazas de Montea de Ginés Martínez de Aranda. Todas estas colecciones de aparejos, con excepción de la atribuida a Pedro de Albiz, presentan trazas de escaleras de caracol. En los siglos XVII y XVIII los textos en España más interesantes para nuestras investigaciones son, como en el XVI, manuscritos que no llegaron a ver la imprenta. Entre ellos destacan De l’art del picapedrer de Joseph Gelabert y el Cuaderno de Arquitectura de Juan de Portor y Castro. Estos dos textos, que contienen varios aparejos de caracoles, están claramente vinculados con la práctica constructiva a diferencia de los textos impresos del XVIII, como los del Padre Tosca o el de Juan García Berruguilla, que dedican algunos capítulos a cortes de Cantería entre los que incluyen trazas de escaleras, pero desde un punto de vista más teórico. Podemos agrupar las trazas recogidas en los manuscritos y tratados en cinco grandes grupos: el caracol de husillo, el caracol de Mallorca, los caracoles abovedados, los caracoles exentos y los caracoles dobles. El husillo, de procedencia gótica, permanece en la mayoría de nuestros textos con diferentes denominaciones: caracol de husillo, caracol de nabo redondo o caracol macho. Se seguirá construyendo con frecuencia durante todo el periodo de la Edad Moderna. Los ejemplares más bellos presentan el intradós labrado formando un helicoide cilíndrico recto como es el caso del husillo del Monasterio de la Vid o el de la Catedral de Salamanca o un helicoide axial recto como en el de la Capilla de la Comunión en la Catedral de Santiago de Compostela. La diferencia estriba en la unión del intradós y el machón central: una amable tangencia en el primer caso o un encuentro marcado por una hélice en el segundo. El segundo tipo de caracol presente en casi todos los autores es el caracol de Mallorca. Vandelvira, Martínez de Aranda, y posteriormente Portor y Castro lo estudian con detenimiento. Gelabert, a mediados del siglo XVII, nos recordará su origen mediterráneo al presentar el que denomina Caracol de ojo abierto. El Caracol de Mallorca también estará presente en colecciones de aparejos como las atribuidas a Alonso de Guardia y Juan de Aguirre, ambas depositadas en la Biblioteca Nacional y en las compilaciones técnicas del siglo XVIII, de fuerte influencia francesa, aunque en este caso ya sin conservar su apelación original. El Caracol que dicen de Mallorca se extiende por todo el territorio peninsular de la mano de los principales maestros de la cantería. Los helicoides labrados con exquisita exactitud, acompañados de armoniosas molduras, servirán de acceso a espacios más representativos como bibliotecas, archivos, salas, etc. Es la escalera de la luz, como nos recuerda su apelación francesa, vis a jour. Precisamente en Francia, coincidiendo con el renacimiento de la arquitectura clásica se realizan una serie de escaleras de caracol abovedadas, en vis de Saint Gilles. Los tratados franceses, comenzando por De L’Orme, y siguiendo por, Jousse, Derand, Milliet Dechales, De la Hire, De la Rue, Frezier, Rondelet, Adhémar o Leroy, entre otros, recogen en sus escritos el modelo y coinciden en reconocer la dificultad de su trazado y el prestigio que adquirían los canteros al elaborar este tipo de escaleras. El modelo llega nuestras tierras en un momento histórico de productivo intercambio cultural y profesional entre Francia y España. Vandelvira, Martínez de Aranda y Portor y Castro analizan en sus tratados la “vía de San Gil”. En la provincia de Cádiz, en la Iglesia Mayor de Medina Sidonia, se construirá el más perfecto de los caracoles abovedados de la España renacentista. También en la provincia de Cádiz y vinculadas, posiblemente, a los mismos maestros encontramos un curioso grupo de escaleras abovedadas con generatriz circular horizontal. A pesar del extenso catálogo de escaleras presentes en la tratadística española, no aparece ninguna que muestre una mínima relación con ellas. Desde el punto de vista de la geometría, estamos ante uno de los tipos de escaleras que describe Choisy en El arte de construir en Bizancio. Se trata de escaleras abovedadas construidas por hojas y lechos horizontales. Los caracoles abovedados tendrán también su versión poligonal: la vis Saint Gilles quarré o el caracol de emperadores cuadrado en su versión vandelviresca. Las soluciones que dibujan los tratados son de planta cuadrada, pero la ejecución será poligonal en los raros ejemplos construidos, que se encuentran exclusivamente en Francia. Su geometría es compleja: el intradós es una superficie reglada alabeada denominada cilindroide; su trazado requiere una habilidad extrema y al ser un tanto innecesaria desde el punto de vista funcional, fue muy poco construida. Otro tipo de escalera habitual es la que Vandelvira y Martínez de Aranda denominan en sus tratados “caracol exento”. Se trata de una escalera volada alrededor de un pilar, sin apoyo en una caja perimetral y que, por lo tanto, debe trabajar en ménsula. Su función fue servir de acceso a espacios de reducidas dimensiones como púlpitos, órganos o coros. Encontramos ejemplos de estos caracoles exentos en el púlpito de la catedral de Viena y en España, en la subida al coro de la Iglesia arciprestal de Morella en Valencia. El largo repertorio de escaleras de caracol prosigue en los tratados y en las múltiples soluciones que encontramos en arquitecturas civiles y religiosas en toda Europa. Hasta varios caracoles en una sola caja: dobles e incluso triples. Dobles como el conocido de Chambord, o el doble husillo del Convento de Santo Domingo en Valencia, rematado por un caracol de Mallorca; triples como la triple escalera del Convento de Santo Domingo de Bonaval en Santiago de Compostela. La tratadística española recogerá dos tipos de caracoles dobles, el ya comentado en una sola caja, en versiones con y sin machón central, definidos por Martínez de Aranda, Juan de Aguirre, Alonso de Guardia y Joseph Gelabert y el caracol doble formado por dos cajas diferentes y coaxiales. Vandelvira lo define como Caracol de Emperadores. Será el único tipo de caracol que recoja Cristobal de Rojas en su Teoría y Práctica de Fortificación. No hay duda que las escaleras de caracol han formado parte de un privilegiado grupo de elementos constructivos en constante evolución e investigación a lo largo de la historia de la arquitectura en piedra. Desde el cantero más humilde hasta los grandes maestros catedralicios las construyeron y, en muchos casos, crearon modelos nuevos en los pergaminos de sus propias colecciones o directamente sobre la piedra. Estos modelos casi experimentales sirvieron para encontrar trabajo o demostrar un grado de profesionalidad a sus autores, que les hiciera, al mismo tiempo, ganarse el respeto de sus compañeros. Gracias a esto, se inició un proceso ese proceso de investigación y evolución que produjo una diversidad en los tipos, sin precedentes en otros elementos similares, y la transferencia de procedimientos dentro del arte de la cantería. Los grandes autores del mundo de la piedra propusieron multitud de tipos y variantes, sin embargo, el modelo de estereotomía tradicionalmente considerado más complejo y más admirado es un caracol de reducidas dimensiones construido en el siglo XII: la Vis de Saint Gilles. Posiblemente ahí es donde reside la grandeza de este arte.
Resumo:
This publication approaches the element of the "refuge" by showing several built prototypes designed and built by the author of this Ph.D and Yuko Ono that were effectively used as temporary shelters in Japan by the refugees in 2013. They consist on seven small wooden houses that can float and can also be packed into boxes and used as shelters following natural disasters. This publication explains both in Italian, English, Japanese and through small drawn diagrams the construction of these prototypes thanks to the help group "Architecture Global Aid" created by the author of this Ph.D in Japan (www.facebook.com/architectureglobalaid). Finally, this refuges can be as well seen in pages 660-664 of the Ph.D text were several kinds of architectures for shelters are analyzed. Esta publicación analiza el elemento del ?refugio? a través de varios ejemplos diseñados y construidos por la autora de este doctorado y la arquitecta Yuko Ono que fueron utilizados en la recuperación de Japón en el año 2013. Consisten en siete refugios de madera que pueden flotar y doblarse e introducirse en cajas del mismo material y de este modo, ser extraídos y empleados tras un desastre natural. Esta publicación explica en italiano, inglés, japonés y mediante varios diagramas, la construcción de estos prototipos gracias al grupo de ayuda ?Architecture Global Aid? creado por la autora de este doctorado en Japón (www.facebook.com/architectureglobalaid). Por último, la referencia a la investigación acerca de estos prototipos se puede encontrar en las páginas 660-664 de la tesis doctoral, entre las que se investiga también acerca de otras arquitecturas del refugio.
Resumo:
The guinea pig may represent an animal model for research on ovarian infertility and improvement of the in vitro maturation (IVM) conditions is needed in this species. The aim of the present work was to immunolocalize the Epidermal Growth Factor (EGF)-Receptor in the guinea pig ovaries and to study the effect of EGF on meiotic and cytoplasmic maturation, and apoptotic rate in cumulus-oocyte-co mplexes (COCs). Immunohistochemistry was performed in paraffined ovaries using a rabbit polyclonal antibody EGF-R (1:100; Santa Cruz Biotechnology) and the ABC Vector Elite kit (Vector Laboratories). For the IVM, COCs were collected by aspiration of follicles >700μm under a stereoscopic microscope.
Resumo:
El butanol es hoy en día en uno de los compuestos químicos más importantes en el mundo a causa de sus numerosas aplicaciones, entre las que destacan la producción de acrilato de butilo, acetato de butilo y éter de glicol (industrias de pinturas y recubrimientos). Junto a sus aplicaciones actuales, el butanol está adquiriendo una gran importancia dentro del sector de los biocombustibles, debido a su futuro prometedor como sustituto de los combustibles convencionales o para mezcla. Todo ello está moviendo a la industria química a establecer nuevas plantas de producción de butanol para satisfacer su creciente demanda. Los procesos actuales de producción de butanol se centran en dos vías: vía fermentativa y vía petroquímica. A pesar de su rentabilidad y competencia, estos procesos están limitados por múltiples factores, destacando las limitaciones en materias primas disponibles y asociadas al empleo de microorganismos en los procesos fermentativos, así como el precio del petróleo y sus derivados en los procesos petroquímicos. En la actualidad, numerosas investigaciones están desarrollando nuevos procesos de producción de butanol por rutas termoquímicas. El éxito de estas investigaciones permitiría su producción por métodos alternativos a los procesos “tradicionales”, salvando muchas de las limitaciones que presentan. El proceso de producción de butanol por vía termoquímica se basa en la transformación de biomasa lignocelulósica en gas de síntesis mediante un tratamiento termoquímico (gasificación), y su posterior conversión en butanol mediante una etapa de reacción catalítica. La principal limitación que ha impedido la viabilidad de esta ruta ha sido la falta de desarrollo en los catalizadores empleados para la síntesis de butanol a partir de gas de síntesis. Su desarrollo mejorando la selectividad hacia el butanol, será la clave para el éxito de la vía termoquímica de producción de butanol. En base a lo comentado anteriormente, en el presente Proyecto Fin de Carrera (PFC) se analiza la viabilidad tecno-económica del proceso de producción de butanol a partir de biomasa lignocelulósica por vía termoquímica. La consecución de este objetivo se ha logrado mediante la aplicación de una metodología en tres pasos: estudio del proceso, simulación del proceso y evaluación económica. En primer lugar, se ha realizado un estudio detallado del proceso de producción de butanol a partir de biomasa lignocelulósica por vía termoquímica desarrollado por Chinedu O. Okoli y Thomas A. Adams II (Universidad de McMaster, Canadá), a fin de comprender las etapas que constituyen el proceso. Mediante este estudio, se ha conseguido conocer las condiciones de operación de las diferentes unidades que integran el proceso. En segundo lugar, se ha evaluado la viabilidad técnica del proceso mediante el empleo del software Aspen Plus V8.6. La simulación se ha realizado en base a la información obtenida en el estudio preliminar. Por último, se ha analizado la viabilidad económica del proceso mediante el cálculo de los parámetros de viabilidad Valor Actual Neto (VAN) y Tasa Interna de Retorno (TIR). Para la determinación de estos parámetros se ha realizado el flujo de cajas del proceso en base a la estimación de sus ingresos, costes de producción y capital total de inversión requerido. Junto al análisis de viabilidad, se han llevado acabo distintos análisis de sensibilidad a las variables más influyentes en la rentabilidad del proceso (interés del préstamo, precio de venta del butanol, precio de venta de la mezcla de alcoholes y precio de compra de la biomasa). Las principales conclusiones que se pueden extraer del análisis realizado son las siguientes: - A través del análisis técnico se concluye que el proceso de producción de butanol por vía termoquímica es viable técnicamente, ya que existe la tecnología requerida para su implantación, así como presenta aceptables tasas de producción de butanol (82,52 kg/tonelada biomasa seca) y es posible integrar un ciclo de vapor y generación de electricidad en el proceso. Además, el margen de mejora de este proceso es amplio, siendo el catalizador requerido para la síntesis del butanol el principal foco de mejora. - En cuanto a la rentabilidad del proceso, el análisis económico muestra que el proceso de producción de butanol por vía termoquímica es viable económicamente. Sin embargo, el estudio realizado demuestra que, en el estado de desarrollo actual, los ingresos asociados a la venta del butanol son insuficientes para hacer rentable el proceso, siendo necesario tener acceso a mercados para la venta de los subproductos generados.
Resumo:
Los programas de Gestión Integrada de Plagas (GIP) promueven el uso de estrategias de control que sean respetuosas con el medio ambiente, sin embargo el uso de insecticidas en los cultivos hortícolas sigue siendo necesario para el control de determinadas plagas, como es el caso de la mosca blanca Bemisia tabaci (Gennadius). Por ello, el objetivo de esta tesis es el estudio de la integración de las tres estrategias de control más empleadas hoy en día para el control de plagas: el control biológico, el físico y el químico. Una primera parte de este trabajo ha consistido en el estudio de los efectos letales y subletales de once insecticidas, aplicados a la dosis máxima de campo, sobre los enemigos naturales Eretmocerus mundus Mercet y Amblyseius swirskii Athias-Henriot, mediante ensayos de laboratorio y persistencia (laboratorio extendido). Para la evaluación de la toxicidad de los insecticidas sobre los estados de vida más protegidos de estos enemigos naturales, se trataron bajo la Torre de Potter las pupas de E. mundus y los huevos de A. swirskii. Además, se llevaron a cabo ensayos de contacto residual para determinar los efectos letales y subletales de estos insecticidas sobre el estado adulto de ambas especies de enemigos naturales. Para ello, los pesticidas se aplicaron sobre placas de cristal (laboratorio) o sobre plantas (laboratorio extendido: persistencia). Los resultados mostraron que los insecticidas flonicamida, flubendiamida, metaflumizona, metoxifenocida, spiromesifen y spirotetramat eran compatibles con el estado de pupa de E. mundus (OILB 1: Inocuos). Sin embargo, abamectina, deltametrina y emamectina fueron categorizadas como ligeramente tóxicas (OILB 2) al causar efectos deletéreos. Los dos pesticidas más tóxicos fueron spinosad y sulfoxaflor, los cuales redujeron significativamente la emergencia de las pupas tratadas (OILB 4: Tóxicos). Flonicamida, flubendiamida, metoxifenocida y spiromesifen fueron compatibles con el estado adulto de E. mundus (OILB 1: Inocuos). Abamectina, deltametrina, emamectina, metaflumizona y spiromesifen pueden ser recomendados para su uso en programas de GIP, si se usan los plazos de seguridad apropiados, de acuerdo con la persistencia de cada uno de estos insecticidas, antes de la liberación del enemigo natural. Al contrario, spinosad y sulfoxaflor no resultaron ser compatibles (OILB D: Persistentes), aunque la realización de ensayos adicionales es necesaria para ver los efectos de los mismos en campo. Todos los insecticidas estudiados, excepto el spirotetramat (OILB 2: Ligeramente tóxico), fueron selectivos para el estado de huevo de A. swirskii (OILB 1: Inocuos). Flonicamida, flubendiamida, metaflumizona, metoxifenocida, spiromesifen, spirotetramat y sulfoxaflor, fueron compatibles con el estado adulto de A. swirskii (OILB 1: Inocuos). Abamectina, deltametrina, emamectina y spinosad pueden ser recomendados para su uso en programas de GIP, si se usan los plazos de seguridad apropiados, de acuerdo con la persistencia de cada uno de estos insecticidas, antes de la liberación del enemigo natural. Entre las nuevas estrategias de la GIP, los plásticos y mallas fotoselectivas han demostrado ser una herramienta importante para el control de plagas y enfermedades en cultivos hortícolas protegidos. Por ello, en una segunda parte de este trabajo, se estudiaron tanto los efectos directos, como la combinación de efectos directos y mediados por planta y plaga de ambientes pobres en luz UV, en presencia o ausencia del Virus del rizado amarillo del tomate (TYLCV), sobre E. mundus. En primer lugar, se realizó un ensayo al aire libre para la evaluación de la capacidad de vuelo de E. mundus en cajas tipo túnel (1 x 0,6 x 0,6 m) cubiertas con distintas barreras absorbentes de luz UV. Se detectó un efecto directo en la capacidad de orientación de E. mundus, debido a que este parasitoide utiliza estímulos visuales para localizar a sus huéspedes, únicamente en las barreras que bloqueaban más del 65% de la luz UV (malla G). En segundo lugar, bajo condiciones de invernadero, se evaluó la combinación de efectos directos y mediados por planta y plaga sobre E. mundus, usando plantas de tomate sanas o infectadas con el TYLCV y cajas (30 x 30 x 60 cm) cubiertas con los distintos plásticos fotoselectivos. En este caso, no se observó ningún efecto en la capacidad benéfica del parasitoide cuando este estaba en contacto con plantas de tomate infestadas con ninfas de B. tabaci, lo que demuestra que este insecto usa estímulos táctiles para encontrar a sus huéspedes a cortas distancias. Además, las diferentes condiciones de radiación UV estudiadas tuvieron cierto impacto en la morfología, fisiología y bioquímica de las plantas de tomate, infestadas o no con el virus de la cuchara, detectándose pequeñas alteraciones en alguno de los parámetros estudiados, como el peso fresco y seco, el contenido en H y el espesor de las cutículas y de las paredes celulares de la epidermis foliar. Por último, no se observaron efectos de la radiación UV mediados por planta, ni en B. tabaci ni en su parasitoide, E. mundus. En una tercera parte, se evaluaron los efectos de una malla tratada con bifentrin sobre ambos enemigos naturales, en ensayos de laboratorio, semicampo y campo. Las mallas tratadas fueron diseñadas originariamente para el control de mosquitos vectores de la malaria, y actualmente se está trabajando para su uso en agricultura, como una nueva estrategia de control de plagas. En ensayos de laboratorio, cuando adultos de E. mundus y A. swirskii se expusieron por contacto durante 72 horas con la malla tratada (cajas de 6 cm diámetro), se registró una alta mortalidad. Sin embargo, en el ensayo de preferencia, estos enemigos naturales no fueron capaces de detectar la presencia de bifentrin y, en aquellos individuos forzados a atravesar la malla tratada, no se observó mortalidad a corto plazo (72 horas). En estudios de semicampo, llevados a cabo bajo condiciones de invernadero en cajas de 25 x 25 x 60 cm de altura, la capacidad benéfica de E. mundus no se vio afectada. Finalmente, en ensayos de campo llevados a cabo en invernaderos comerciales (4000m2) en Almería, A. swirskii no se vio afectado por la presencia en el cultivo de la malla tratada con bifentrin y los niveles de infestación de B. tabaci y F. occidentalis detectados bajo dicha malla, fueron inferiores a los del control. Por último, se ha evaluado la composición de la microflora bacteriana de tres especies de parasitoides, E. mundus, Eretmocerus eremicus Rose & Zolnerowich y Encarsia formosa Gahan, y la influencia de la misma en su susceptibilidad a insecticidas. Se llevó a cabo una extracción total de ADN de los insectos y la región variable V4 del ARNr se amplificó usando cebadores universales bacterianos. Para identificar las secuencias de los géneros bacterianos presentes en los parasitoides, se realizó una Next Generation sequencing (Illumina sequencing). Una vez identificados los géneros bacterianos, el gen ADNr 16S de las Actinobacterias se amplificó del ADN extraído de los insectos, usando cebadores universales bacterianos y específicos de Actinobacterias, y los productos de la Nested PCR fueron clonados para identificar todas las especies del género Arthrobacter. Tres bacterias (A. aurescens Phillips, A. nicotinovarans Kodama, Yamamoto, Amano and Amichi y A. uratoxydans Stackebrandt, Fowler, Fiedler and Seiler), próximas a las especies de Arthrobacter presentes en los parasitoides, se obtuvieron de la colección bacteriana del BCCMTM/LMG y se midió su actividad esterasa. Finalmente, se realizaron ensayos con antibióticos (tetraciclina) y de contacto residual con insecticidas (abamectina) para determinar la influencia de las especies de Arthrobacter en la susceptibilidad de E. mundus a insecticidas. Los resultados muestran que este género bacteriano puede afectar a la toxicidad de E. mundus a abamectina, mostrando la importancia de la comunidad microbiana en enemigos naturales, factor que debe ser considerado en los estudios de evaluación de los riesgos de los insecticidas. ABSTRACT Integrated Pest Management (IPM) programs promote the use of control strategies more respectful with the environment; however the use of insecticides in vegetable crops is still needed to control certain pests, such as the whitefly Bemisia tabaci (Gennadius). Therefore, the objective of this work is to study the integration of the three most commonly used pest control strategies nowadays: biological, physical and chemical control. Firstly, the lethal and sublethal effects of eleven insecticides, applied at their maximum field recommended concentration, on the parasitic wasp Eretmocerus mundus Mercet and the predator Amblyseius swirskii Athias-Henriot has been assessed in the laboratory and in persistence tests (extended laboratory). To test the effects of pesticides on the most protected life stage of these natural enemies, E. mundus pupae and A. swirskii eggs were sprayed under a Potter precision spray tower. Laboratory contact tests were therefore conducted to determine the lethal and sublethal effects of these pesticides on the adult stage of these natural enemies. In the residual contact tests the pesticides were applied on glass plates (laboratory) or plants (extended laboratory: persistence). The study showed that the insecticides flonicamid, flubendiamide, metaflumizone, methoxyfenozide, spiromesifen and spirotetramat were selective for E. mundus pupae (IOBC 1: Harmless). Nevertheless, abamectin, deltamethrin and emamectin were categorized as slightly harmful (IOBC 2) due to the deleterious effects caused. The two most harmful pesticides were spinosad and sulfoxaflor, which significantly reduced the adult emergence from treated pupae (IOBC 4: Harmful). Flonicamid, flubendiamide, methoxyfenozide and spiromesifen were compatible with E. mundus adults (IOBC 1: Harmless). Base on the duration of the harmful activity, abamectin, deltamethrin, emamectin, metaflumizone and spirotetramat could be recommended for use in IPM programs if appropriate safety deadlines are used before the natural enemy release. On the contrary, spinosad and sulfoxaflor were not compatible (IOBC D: persistent), although additional studies are required to determine their effects under field conditions. All the pesticides tested, except spirotetramat (IOBC 2: Slightly harmful), were selective for A. swirskii eggs (IOBC 1: Harmless). Flonicamid, flubendiamide, metaflumizone, methoxyfenozide, spiromesifen, spirotetramat and sulfoxaflor were compatible with A. swirskii adults (IOBC 1: Harmless). However, abamectin, deltamethrin, emamectin and spinosad could be recommended for use in IPM programs if appropriate safety deadlines are used before the natural enemy release. Among new IPM strategies, UV-absorbing photoselective plastic films and nets have been shown to be an important tool for the control of pests and diseases in horticultural protected crops. Because of that, we secondly studied the plant and pest insect-mediated and/or the direct effects on E. mundus under different UV radiation conditions, in presence or absence of the Tomato Yellow Leaf Curl Virus (TYLCV). In the first experiment, performed outdoors, the flight activity of E. mundus was studied in one-chamber tunnels (1 x 0.6 x 0.6 m) covered with different photoselective barriers. Because E. mundus uses visual cues for host location at a long distance, a direct effect on its host location ability was detected, but only in the UV-absorbing barriers blocking more than 65% of the UV light (G net). In a second experiment, the direct and plant and pest insect-mediated effects of different UV radiation conditions on E. mundus were studied, inside cages (30 x 30 x 60 cm) covered with the different UVplastic films and under greenhouse conditions, using healthy or TYLCV-virus infected tomato plants. In this case, not any effect on the beneficial capacity of this parasitoid was detected, proving that he uses tactile cues at a short distance of the host. Moreover, the different UV radiation conditions studied had a certain direct impact in the morphology, physiology and biochemistry of tomato plants infested or not with the TYLCV, and small alterations in some parameters such as fresh and dry weight, H percentage and cuticle and cell wall thickness of epidermal cells of the leaves, were detected. Finally, none plant-mediated UV effects neither in the whitefly B. tabaci nor in their parasitic wasp were found. Thirdly, the effects of a bifenthrin treated net were evaluated in different laboratory, semi-field and field experiments on the natural enemies studied. Treated nets were developed long time ago aiming at the control of the mosquitoes vectors of malaria, and nowadays, there is a great interest on assessing the possibility of their use in agriculture. In laboratory assays, a high mortality was recorded when E. mundus and A. swirskii adults were exposed by contact to the bifenthrin treated net for 72 hours in small cages (12 cm diameter). However, these natural enemies were not able to detect the presence of bifenthrin in a dual-choice test and no short-term mortality (72 hours) was recorded in those individuals that went through the treated net. In semi-field assays, performed under greenhouse conditions with cages of 25 x 25 x 60 cm high, the beneficial capacity of E. mundus was not affected. Finally, in field assays carried out in commercial multispan greenhouses (4000 m2) in Almería, A. swirskii was not affected by the presence of the bifenthrin treated net in the crop and the B. tabaci and F. occidentalis infestation levels were significantly lower than in the control. Finally, the composition of the microflora present in three species of parasitoids, E. mundus, Eretmocerus eremicus Rose & Zolnerowich and Encarsia formosa Gahan, and its influence in their susceptibility to insecticides, have been assessed. A total DNA extraction was performed on insects and universal bacterial primers were used to amplify the variable V4 region of the rRNA. A Next Generation sequencing (Illumina sequencing) was performed to identify the sequences of the bacterial genera present in the parasitic wasps. Once, the bacterial genera were identified, 16S rDNA gene of Actinobacteria were amplified from insects DNA extracts using the universal bacterial and actinobacterial primers, and the nested PCR products, were cloned to identify the Arthrobacter species. Three bacteria (A. aurescens Phillips, A. nicotinovarans Kodama, Yamamoto, Amano and Amichi and A. uratoxydans Stackebrandt, Fowler, Fiedler and Seiler), having the closest match with the Arthrobacter species present in the parasitic wasps, were obtained from the BCCMTM/LMG bacteria collection and its esterase activity was measured. Finally, antibiotic and residual contact tests were done to determine the influence of Arthrobacter species in the susceptibility of E. mundus to pesticides (abamectin). The results suggest that this bacterial genus can affect the toxicity of E. mundus to abamectin, which in turn supports the importance of the microbial community in natural enemies that it should be considered as a factor in risk assessment tests of pesticides.
Resumo:
En rollo de microfilm con: El pueblo (HM-04-1-007)