1000 resultados para Aversión a la pérdida
Resumo:
“Quien contamina, paga“, con esta premisa surgió la idea de este Trabajo Fin de Máster, en adelante TFM, cuyo objetivo era identificar medidas alternativas reales para una optimización del proceso actual de gestión de residuos sólidos urbanos ante una sociedad cada vez más superpoblada y con mayores ratios de consumo. Cada español genera anualmente un volumen de 485 Kg de residuos, de los cuales únicamente el 33 % son reciclados y pueden volver a un flujo normal de uso, especialmente preocupante durante los últimos años es el auge de los productos envasados, tanto de bebidas como de alimentos , cuya utilización se ha duplicado en la última década. La motivación de este trabajo Fin de Máster ha sido la de poner de manifiesto que la sostenibilidad con el medioambiente puede ir de la mano de la rentabilidad y del progreso. Durante este TFM se ha estudiado y analizado la viabilidad económica de implantación de un nuevo modelo de depósito, devolución y retorno en el mercado retail español y como con la adopción de este nuevo sistema se pueden lograr beneficios tanto para el propio minorista, como para el medio ambiente con ratios de reciclado superiores al 98%. La preocupación por el medio ambiente empieza a ser una constante entre los consumidores españoles y dicha preocupación comienza a ser influenciadora en las decisiones de compra (productos eco, sostenibilidad…). Nuestra propuesta consiste en dotar a los principales distribuidores del sector retail español de un sistema de depósito, devolución y retorno para envases de bebidas capaz de generar diferenciación, innovación y rentabilidad frente a la competencia. Dicho sistema consiste en pagar un depósito por cada envase de bebida que se adquiera y su correspondiente devolución en la siguiente compra, una vez que se devuelva vacío al establecimiento. Para ello se ha analizado el sector de la distribución en España, especialmente la distribución de bebidas. Se trata de un sector muy competitivo, que presenta varios formatos en función del tamaño del establecimiento (Hipermercados, Supermercados, tiendas tradicionales). Las principales empresas distribuidoras (Carrefour, Mercadona, Alcampo, Eroski, DIA) se encuentran en procesos de cambios estratégicos para lograr atraer a más consumidores hacia sus tiendas, por lo que nuestra propuesta podrá añadir valor a la hora de influenciar en la decisión del lugar de compra. En nuestro caso, nos dirigiremos principalmente a las grandes empresas distribuidoras, Hipermercados de más de 2.500 m2 ,que cuentan con más de 500 puntos de venta y distribución donde existe la posibilidad real de implantar un SDDR. Además se ha realizado un estudio de mercado sobre la influencia de dicho sistema en el consumidor final, donde se ha detectado dos segmentos principales cuya decisión de compra se vería muy influenciada por la implantación de un SDDR, un segmento Sénior, entre 45-54 años, preocupados por el medio ambiente y con poder adquisitivo suficiente como para que el pago del depósito no sea bloqueante, y un segmento Junior, entre 18-24 años, también muy concienciado el medio ambiente, de capacidad económica menor pero qué influye en la decisión de compra de sus progenitores. Para llevar a cabo este plan de negocio será necesario una inversión inicial de 57.000 €, con unas expectativas de recuperación de dicha inversión en el primer año y una TIR del 56%, presentando un VAN de 127.961 € para los 7 años de vida del proyecto. Para dar a conocer a los clientes del Hipermercado los beneficios de utilizar un sistema SDDR, se realizarán campañas de marketing a través de diferentes canales, promociones de apertura, acciones de marketing exteriores y planes de fidelización. La organización e implantación en el Hipermercado será muy sencilla con roles claramente diferenciados, únicamente involucraría a unos 9 recursos definidos y en aproximadamente 3 meses desde el inicio del proyecto ya se podría ofertar dicho servicio a los clientes del Hipermercado. Además se han analizado los principales riesgos a los que se enfrentaría el negocio, ponderándose en una matriz impacto-probabilidad. Se han establecido medidas correctoras en el caso que dicho riesgo aflore. Habrá que tener especialmente precaución con la pérdida de ventas durante el arranque del negocio en el caso que esto ocurra, por lo que se deberá controlar el gasto, fomentar la captación de clientes y mantener un fondo de maniobra lo suficientemente elevado como para absorber dicho riesgo.---ABSTRACT---“Polluters pay”, with this premise this TFM aimed at identifying real alternative measures for optimization of the current process of solid waste management in a crowded society and with greater consumption ratios. Spaniards generates an annual volume of 485 kg of waste; only 33 % are recycled and can return to a normal flow. Specially concern is the increased of packaged product in recent years, mainly drink and food, their use has been duplicated in the last decade. The motivation for this Thesis was to highlight that sustainability, profitability and progress can go together. During this TFM has been studied and analyzed the economic feasibility of implementing a new model of deposit , refund and return in the Spanish retail market and as with the adoption of this new system can achieve benefits for the retailer itself therefore to the environment with ratios above 98% recycled. Concern for the environment is becoming a constant among Spanish consumers , and this concern is becoming influencer in purchasing decisions ( eco, sustainability ... ) . Our proposal is to provide the main distributors of the Spanish retail sector a system of deposit, refund and return for beverage containers capable of generating differentiation, innovation and profitability over the competition. This system is to pay a deposit for each beverage container they purchase and their corresponding return in the next purchase, once they return empty to the establishment. For this we have analyzed the distribution sector in Spain, especially the distribution of beverages. This is a highly competitive industry, which features various formats depending on the size of establishments (hypermarkets, supermarkets, traditional shops). The main distribution companies (Carrefour, Mercadona, Alcampo, Eroski, DIA) are in the process of strategic changes in order to attract more consumers to their stores, so that our approach can add value in influencing the decision of place shopping. In our case, we will go mainly to large distributors, Hypermarkets of over 2,500 m2, which have more than 500 outlets and distribution where there is a real possibility of implementing a SDDR. It has also conducted a market study on the influence of that system on the final consumer, which has detected two main segments whose purchasing decisions would be greatly influenced by the introduction of a SDDR, a Senior segment, 45-54 years concerned about the environment and purchasing power enough that the deposit is not blocking, and a Junior Segment, aged 18-24, also concern with environment, lower economic capacity but what influences the decision purchase of their parents). To carry out this business plan will require an initial investment of 57,000 €, with expectations of recovery of such investment in the first year and an IRR of 56%, with an NPV of € 127,961 for the 7 years of the project . To publicize hypermarket customers the benefits of using a SDDR system, marketing campaigns conducted through different channels, opening promotions, marketing activities and external loyalty schemes. The organization and implementation in the Hypermarket is easy with distinct roles, involve only about 9 resourced and in about 3 months from the start of the project and could offer this service to customers in the hypermarket. We have also analyzed the main risks and established corrective measures to surface that risk . We should take caution with lost sales during startup of the business, such as control spending, customer retention and maintaining enough working capital.
Resumo:
La encina (Quercus ilex L.) es una de las especies forestales mediterráneas más importantes. Constituye gran parte del estrato arbóreo de dehesas o montados, produce bellota como alimento del ganado y establece simbiosis con hongos micorrizógenos de gran valor económico. La encina está considerada como una especie recalcitrante en términos de conservación de semillas y capacidad morfogénica, lo que dificulta los programas de conservación de recursos genéticos y la mejora de la especie. La propagación vegetativa es una potente herramienta de los programas de mejora, por lo que es preciso desarrollar protocolos de regeneración somática en encina. La embriogénesis somática está considerada como la modalidad más adecuada de regeneración basada en técnicas de cultivo de tejidos vegetales utilizada en biotecnología forestal. Este trabajo se centra en el estudio de determinados aspectos de la embriogénesis somática para la regeneración clonal de encinas adultas. La memoria de esta tesis se ha dividido en capítulos que se corresponden con diferentes aspectos del sistema embriogénico. La embriogénesis somática se indujo en tegumentos maternos de óvulos en desarrollo procedentes de bellotas inmaduras de encinas adultas. A pesar de las bajas frecuencias de inducción, las líneas embriogénicas generadas se amplificaron mediante embriogénesis secundaria observándose cierta pérdida de la capacidad de diferenciación con el tiempo. Tanto el genotipo como la formulación del medio de cultivo influyeron en la respuesta embriogénica, concluyendo que la formulación de macronutrientes de Schenk y Hildebrant del medio sin reguladores de crecimiento fue la combinación más efectiva en la inducción. Los resultados sugirieron la existencia de una ventana en el desarrollo del óvulo más sensible a la inducción. El genotipo in[luyó en la capacidad proliferativa de los cultivos y en la conversión de los embriones somáticos, que se incrementó suplementando el medio con ácido indol-3-butírico y 6-benciladenina. El cultivo en medio líquido de líneas embriogénicas en condiciones de inmersión transitoria incrementó el crecimiento, dependiendo del genotipo, con respecto al cultivo en medio semisólido. Sin embargo, no mejoró la capacidad de diferenciar embriones cotiledonares aislados. Se estableció un protocolo de inicio y mantenimiento de cultivos en suspensión para varias líneas embriogénicas mediante inoculación en alta densidad de agregados embrionarios procedentes del medio semisólido. Para evitar la pérdida de vigor y la capacidad morfogénica debida al cultivo prolongado se desarrolló un protocolo de crioconservación de líneas embriogénicas mediante vitrificación. Al determinar la influencia de los agentes crioprotectores antes y después de su inmersión en nitrógeno líquido se concluyó que las respuestas de capacidad de crecimiento y de diferenciación del material embriogénico son independientes, además de estar bajo influencia del genotipo y el tipo de material crioconservado. La combinación de sacarosa y PVS2 previa a la inmersión en nitrógeno líquido proporcionó la mayor tasa de recuperación. Cuando las líneas fueron crioconservadas 30 días la capacidad de diferenciación se perdió en todas ellas. El análisis de SSR detectó variación somaclonal en el material crioconservado a corto plazo. SSR y RAPD mostraron importantes diferencias genéticas entre los árboles donantes y el material embriogénico que dependieron del genotipo. El grado de detección dependió del marcador empleado. Ambos marcadores revelaron baja inestabilidad intraclonal. Los RAPD revelaron variación genética intra-individuo en las encinas donantes. Se discuten la variación genética pre-existente en encina, su aparición durante las primeras fases de la inducción de embriogénesis, y la presencia de tejidos provenientes de la fertilización en el explanto materno. Esto hace preciso definir la identidad genética del material donante y acometer ensayos de detección precoz de variación somaclonal. ABSTRACT Holm oak (Quercus ilex L.) is one of the most important Mediterranean forest species. It conforms the tree layer of dehesas or montados, it produces acorns to feed the livestock and it establishes symbiosis with profitable mycorrhizal fungi. Holm oak is considered as recalcitrant species in terms of seed conservation and morphogenic capacities, which complicates the development of genetic conservation and improvement programs. Vegetative propagation is one of the mightiest tools for breeding programs therefore; developing protocols for clonal regeneration of holm oak is essential. Somatic embryogenesis is considered the best tissue culture-based way of plant regeneration in forest biotechnology. The present study is focused on the study of certain aspects of somatic embryogenesis for clonal regeneration of mature holm oak. This thesis manuscript is divided into several chapters that match with different aspects of the embryogenic system. Somatic embryogenesis induction was achieved on maternal teguments of developing ovules from immature acorns of adult holm oak trees. Despite the low induction frequencies, the generated embryogenic lines were amplified by secondary embryogenesis. A decline in the differentiation capacity over time was also observed. It was concluded that both genotype and culture media formulation influenced the embryogenic response, being the Schenk and Hildebrandt´s macronutrients formulation from culture medium and the lack of plant growth regulators the most effective combination for the induction of the embryogenic response. It has been suggested the existence of a developmental window in which ovules are prone to induction. Genotype influenced the proliferation capacity and the plant conversion of somatic embryos, which was also favoured by the presence of indol-3-butyric acid and 6-bencyladenine. The use of temporary immersion systems as proliferation in liquid culture of the embryogenic lines increased the growth depending on genotype, when compared to semisolid cultures. However, it did not improve the differentiation of single cotyledonary embryos. A protocol for the initiation and maintenance of embryogenic suspension cultures was established for several embryogenic lines with highly dense inoculi of embryogenic clusters from proliferating semisolid cultures. In order to avoid the loss of vigour and morphogenic ability of embryogenic lines due to prolonged cultures, a cryopreservation protocol for embryogenic lines of holm oak has been developed. During the determination of the influence of cryoprotective agents on the growth and differentiation capacities before and after liquid nitrogen immersion, it was concluded that both responses were independent from each other and also under the influence of genotype and the type of cryopreserved material. The combination of sucrose and PVS2 prior liquid nitrogen immersion provided higher recovery rates. When the same embryogenic lines were cryopreserved for 30 days, none was able to differentiate. The SSRs analysis of the short-term cryopreserved material detected somaclonal variation. Both SSR and RAPD markers showed high sensitivity to detect genetic differences between the donor trees and the generated embryogenic material. Nevertheless, the degree of instability detection depended on the marker. The SSR analysis indicated a relationship between genotype, the studied loci and the located polymorphisms. Also, both markers revealed low intraclonal genetic variation. The RAPD detected genetic variation within the donor trees. The presence of pre-existent genetic variation within mature trees, in addition to its occurrence during the early stages of the embryogenic induction, and the presence of tissues of fertilisation origin within the maternal explants are all discussed. Nonetheless, the determination of the genetic identity of donor material is required, in addition to early detection methods of somaclonal variation.
Resumo:
Esta tesis pretende contribuir al fomento y utilización de la energía solar como alternativa para la producción de agua caliente en el sector agroindustrial. La demanda de agua caliente es un aspecto clave en un gran número de agroindustrias y explotaciones agrarias. Esta demanda presenta una gran variabilidad, tanto en los horarios en que se solicita como en la temperatura del agua del depósito requerida (TADr), difiriendo del perfil de demanda habitual para uso doméstico. Existe una necesidad de profundizar en la influencia que tiene la variación de la TADr en la eficiencia y viabilidad de estos sistemas. El objetivo principal de esta tesis es caracterizar el funcionamiento de un sistema solar térmico (SST) con captador de tubos de vacío (CTV) para producir agua a temperaturas superiores a las habituales en estos sistemas. Se pretende determinar la influencia que la TADr tiene sobre la eficiencia energética del sistema, cuantificar el volumen de agua caliente que es capaz de suministrar en función de la TADr y determinar la rentabilidad del SST como sistema complementario de suministro. Para ello, se ha diseñado, instalado y puesto a punto un sistema experimental de calentamiento de agua, monitorizando su funcionamiento a diferentes TADr bajo condiciones ambientales reales. Los resultados cuantifican cómo el aumento de la TADr provoca una disminución de la energía suministrada al depósito, pudiendo superar diferencias de 1000 Wh m-2 d-1 entre 40 ºC y 80 ºC, para valores de irradiación solar próximos a 8000 Wh m-2 d-1 (la eficiencia del sistema oscila entre 73% y 56%). Esta reducción es consecuencia de la disminución de la eficiencia del captador y del aumento de las pérdidas de calor en las tuberías del circuito. En cuanto al agua suministrada, cuanto mayor es la TADr, mayor es la irradiación solar requerida para que tenga lugar la primera descarga de agua, aumentando el tiempo entre descargas y disminuyendo el número de éstas a lo largo del día. A medida que se incrementa la TADr, se produce una reducción del volumen de agua suministrado a la TADr, por factores como la pérdida de eficiencia del captador, las pérdidas en las tuberías, la energía acumulada en el agua que no alcanza la TADr y la mayor energía extraída del sistema en el agua producida. Para una TADr de 80 ºC, una parte importante de la energía permanece acumulada en el depósito sin alcanzar la TADr al final del día. Para aprovechar esta energía sería necesario disponer de un sistema complementario de suministro, ya que las pérdidas de calor nocturnas en el depósito pueden reducir considerablemente la energía útil disponible al día siguiente. La utilización del sistema solar como sistema único de suministro es inviable en la mayoría de los casos, especialmente a TADr elevadas, al no ajustarse la demanda de agua caliente a la estacionalidad de la producción del sistema solar, y al existir muchos días sin producción de agua caliente por la ausencia de irradiación mínima. Por el contrario, la inversión del sistema solar como sistema complementario para suministrar parte de la demanda térmica de una instalación es altamente recomendable. La energía útil anual del sistema solar estimada oscila entre 1322 kWh m-2 y 1084 kWh m-2. La mayor rentabilidad se obtendría suponiendo la existencia de una caldera eléctrica, donde la inversión se recuperaría en pocos años -entre 5.7 años a 40 ºC y 7.2 años a 80 ºC -. La rentabilidad también es elevada suponiendo la existencia de una caldera de gasóleo, con periodos de recuperación inferiores a 10 años. En una industria ficticia con demanda de 100 kWh d-1 y caldera de gasóleo existente, la inversión en una instalación solar optimizada sería rentable a cualquier TADr, con valores de VAN cercanos a la inversión realizada -12000 € a 80 ºC y 15000€ a 40 ºC- y un plazo de recuperación de la inversión entre 8 y 10 años. Los resultados de este estudio pueden ser de gran utilidad a la hora de determinar la viabilidad de utilización de sistemas similares para suministrar la demanda de agua caliente de agroindustrias y explotaciones agropecuarias, o para otras aplicaciones en las que se demande agua a temperaturas distintas de la habitual en uso doméstico (60 ºC). En cada caso, los rendimientos y la rentabilidad vendrán determinados por la irradiación de la zona, la temperatura del agua requerida y la curva de demanda de los procesos específicos. ABSTRACT The aim of this thesis is to contribute to the development and use of solar energy as an alternative for producing hot water in the agribusiness sector. Hot water supply is a key issue for a great many agribusinesses and agricultural holdings. Both hot water demand times and required tank water temperature (rTWT) are highly variable, where the demand profile tends to differ from domestic use. Further research is needed on how differences in rTWT influence the performance and feasibility of these systems. The main objective of this thesis is to characterize the performance and test the feasibility of an evacuated tube collector (ETC) solar water heating (SWH) system providing water at a higher temperature than is usual for such systems. The aim is to determine what influence the rTWT has on the system’s energy efficiency, quantify the volume of hot water that the system is capable of supplying at the respective rTWT and establish whether SWH is feasible as a booster supply system for the different analysed rTWTs. To do this, a prototype water heating system has been designed, installed and commissioned and its performance monitored at different rTWTs under real operating conditions. The quantitative results show that a higher rTWT results in a lower energy supply to the tank, where the differences may be greater than 1000 Wh m-2 d-1 from 40 ºC to 80 ºC for insolation values of around 8000 Wh m-2 d-1 (system efficiency ranges from 73% to 56%). The drop in supply is due to lower collector efficiency and greater heat losses from the pipe system. As regards water supplied at the rTWT, the insolation required for the first withdrawal of water to take place is greater at higher rTWTs, where the time between withdrawals increases and the number of withdrawals decreases throughout the day. As rTWT increases, the volume of water supplied at the rTWT decreases due to factors such as lower collector efficiency, pipe system heat losses, energy stored in the water at below the rTWT and more energy being extracted from the system by water heating. For a rTWT of 80 ºC, much of the energy is stored in the tank at below the rTWT at the end of the day. A booster supply system would be required to take advantage of this energy, as overnight tank heat losses may significantly reduce the usable energy available on the following day. It is often not feasible to use the solar system as a single supply system, especially at high rTWTs, as, unlike the supply from the solar heating system which does not produce hot water on many days of the year because insolation is below the required minimum, hot water demand is not seasonal. On the other hand, investment in a solar system as a booster system to meet part of a plant’s heat energy demand is highly recommended. The solar system’s estimated annual usable energy ranges from 1322 kWh m-2 to 1084 kWh m-2. Cost efficiency would be greatest if there were an existing electric boiler, where the payback period would be just a few years —from 5.7 years at 40 ºC to 7.2 years at 80 ºC—. Cost efficiency is also high if there is an existing diesel boiler with payback periods of under 10 years. In a fictitious industry with a demand of 100 kWh day-1 and an existing diesel boiler, the investment in the solar plant would be highly recommended at any rTWT, with a net present value similar to investment costs —12000 € at 80 ºC and 15000 € at 40 ºC— and a payback period of 10 years. The results of this study are potentially very useful for determining the feasibility of using similar systems for meeting the hot water demand of agribusinesses and arable and livestock farms or for other applications demanding water at temperatures not typical of domestic demand (60ºC). Performance and cost efficiency will be determined by the regional insolation, the required water temperature and the demand curve of the specific processes in each case.
Resumo:
La encina (Quercus ilex L.) es una de las especies forestales mediterráneas más importantes. Constituye gran parte del estrato arbóreo de dehesas o montados, produce bellota como alimento del ganado y establece simbiosis con hongos micorrizógenos de gran valor económico. La encina está considerada como una especie recalcitrante en términos de conservación de semillas y capacidad morfogénica, lo que dificulta los programas de conservación de recursos genéticos y la mejora de la especie. La propagación vegetativa es una potente herramienta de los programas de mejora, por lo que es preciso desarrollar protocolos de regeneración somática en encina. La embriogénesis somática está considerada como la modalidad más adecuada de regeneración basada en técnicas de cultivo de tejidos vegetales utilizada en biotecnología forestal. Este trabajo se centra en el estudio de determinados aspectos de la embriogénesis somática para la regeneración clonal de encinas adultas. La memoria de esta tesis se ha dividido en capítulos que se corresponden con diferentes aspectos del sistema embriogénico. La embriogénesis somática se indujo en tegumentos maternos de óvulos en desarrollo procedentes de bellotas inmaduras de encinas adultas. A pesar de las bajas frecuencias de inducción, las líneas embriogénicas generadas se amplificaron mediante embriogénesis secundaria observándose cierta pérdida de la capacidad de diferenciación con el tiempo. Tanto el genotipo como la formulación del medio de cultivo influyeron en la respuesta embriogénica, concluyendo que la formulación de macronutrientes de Schenk y Hildebrant del medio sin reguladores de crecimiento fue la combinación más efectiva en la inducción. Los resultados sugirieron la existencia de una ventana en el desarrollo del óvulo más sensible a la inducción. El genotipo in[luyó en la capacidad proliferativa de los cultivos y en la conversión de los embriones somáticos, que se incrementó suplementando el medio con ácido indol-3-butírico y 6-benciladenina. El cultivo en medio líquido de líneas embriogénicas en condiciones de inmersión transitoria incrementó el crecimiento, dependiendo del genotipo, con respecto al cultivo en medio semisólido. Sin embargo, no mejoró la capacidad de diferenciar embriones cotiledonares aislados. Se estableció un protocolo de inicio y mantenimiento de cultivos en suspensión para varias líneas embriogénicas mediante inoculación en alta densidad de agregados embrionarios procedentes del medio semisólido. Para evitar la pérdida de vigor y la capacidad morfogénica debida al cultivo prolongado se desarrolló un protocolo de crioconservación de líneas embriogénicas mediante vitrificación. Al determinar la influencia de los agentes crioprotectores antes y después de su inmersión en nitrógeno líquido se concluyó que las respuestas de capacidad de crecimiento y de diferenciación del material embriogénico son independientes, además de estar bajo influencia del genotipo y el tipo de material crioconservado. La combinación de sacarosa y PVS2 previa a la inmersión en nitrógeno líquido proporcionó la mayor tasa de recuperación. Cuando las líneas fueron crioconservadas 30 días la capacidad de diferenciación se perdió en todas ellas. El análisis de SSR detectó variación somaclonal en el material crioconservado a corto plazo. SSR y RAPD mostraron importantes diferencias genéticas entre los árboles donantes y el material embriogénico que dependieron del genotipo. El grado de detección dependió del marcador empleado. Ambos marcadores revelaron baja inestabilidad intraclonal. Los RAPD revelaron variación genética intra-individuo en las encinas donantes. Se discuten la variación genética pre-existente en encina, su aparición durante las primeras fases de la inducción de embriogénesis, y la presencia de tejidos provenientes de la fertilización en el explanto materno. Esto hace preciso definir la identidad genética del material donante y acometer ensayos de detección precoz de variación somaclonal. ABSTRACT Holm oak (Quercus ilex L.) is one of the most important Mediterranean forest species. It conforms the tree layer of dehesas or montados, it produces acorns to feed the livestock and it establishes symbiosis with profitable mycorrhizal fungi. Holm oak is considered as recalcitrant species in terms of seed conservation and morphogenic capacities, which complicates the development of genetic conservation and improvement programs. Vegetative propagation is one of the mightiest tools for breeding programs therefore; developing protocols for clonal regeneration of holm oak is essential. Somatic embryogenesis is considered the best tissue culture-based way of plant regeneration in forest biotechnology. The present study is focused on the study of certain aspects of somatic embryogenesis for clonal regeneration of mature holm oak. This thesis manuscript is divided into several chapters that match with different aspects of the embryogenic system. Somatic embryogenesis induction was achieved on maternal teguments of developing ovules from immature acorns of adult holm oak trees. Despite the low induction frequencies, the generated embryogenic lines were amplified by secondary embryogenesis. A decline in the differentiation capacity over time was also observed. It was concluded that both genotype and culture media formulation influenced the embryogenic response, being the Schenk and Hildebrandt´s macronutrients formulation from culture medium and the lack of plant growth regulators the most effective combination for the induction of the embryogenic response. It has been suggested the existence of a developmental window in which ovules are prone to induction. Genotype influenced the proliferation capacity and the plant conversion of somatic embryos, which was also favoured by the presence of indol-3-butyric acid and 6-bencyladenine. The use of temporary immersion systems as proliferation in liquid culture of the embryogenic lines increased the growth depending on genotype, when compared to semisolid cultures. However, it did not improve the differentiation of single cotyledonary embryos. A protocol for the initiation and maintenance of embryogenic suspension cultures was established for several embryogenic lines with highly dense inoculi of embryogenic clusters from proliferating semisolid cultures. In order to avoid the loss of vigour and morphogenic ability of embryogenic lines due to prolonged cultures, a cryopreservation protocol for embryogenic lines of holm oak has been developed. During the determination of the influence of cryoprotective agents on the growth and differentiation capacities before and after liquid nitrogen immersion, it was concluded that both responses were independent from each other and also under the influence of genotype and the type of cryopreserved material. The combination of sucrose and PVS2 prior liquid nitrogen immersion provided higher recovery rates. When the same embryogenic lines were cryopreserved for 30 days, none was able to differentiate. The SSRs analysis of the short-term cryopreserved material detected somaclonal variation. Both SSR and RAPD markers showed high sensitivity to detect genetic differences between the donor trees and the generated embryogenic material. Nevertheless, the degree of instability detection depended on the marker. The SSR analysis indicated a relationship between genotype, the studied loci and the located polymorphisms. Also, both markers revealed low intraclonal genetic variation. The RAPD detected genetic variation within the donor trees. The presence of pre-existent genetic variation within mature trees, in addition to its occurrence during the early stages of the embryogenic induction, and the presence of tissues of fertilisation origin within the maternal explants are all discussed. Nonetheless, the determination of the genetic identity of donor material is required, in addition to early detection methods of somaclonal variation.
Resumo:
La situación problemática de los destinos maduros de demanda masiva sol y playa del litoral español y las medidas encaminadas, por las políticas turísticas, a la mejora de la pérdida de competitividad del sector, requieren un nuevo modelo de desarrollo turístico para estos destinos. El objetivo del trabajo, es aportar valor añadido al diseño de nuevos modelos de desarrollo turístico de futuro mediante la aplicación de las herramientas de prospectiva territorial, como instrumento capaz de reforzar procesos de planificación. Para mostrar la viabilidad de estas herramientas se lleva a cabo una valoración de similitudes o brechas entre dos modelos de desarrollo turístico; por un lado, un modelo de desarrollo hipotético de un destino maduro del litoral mediterráneo [utilizando las herramientas de prospectiva territorial] y, por otro, el modelo de desarrollo de un Proyecto Piloto de un caso real de planeamiento urbanístico. Los resultados de la valoración revelan que los dos modelos presentan muchas similitudes, lo que permite mostrar el potencial de la prospectiva territorial como instrumento para hacer frente a los problemas de desarrollo turístico plagados de complejidad e incertidumbre, así como su capacidad para reducir el análisis de los desafíos globales a las implicaciones locales y espaciales.
Resumo:
Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.
Resumo:
La madera termotratada es madera modificada mediante un proceso térmico a elevadas temperaturas que le proporciona mayor estabilidad dimensional y durabilidad sin incorporar productos químicos perjudiciales para el medio ambiente. Hasta el momento se ha aplicado fundamentalmente a madera de coniferas por motivos económicos, siendo su uso más habitual en ambientes exteriores o de elevada humedad, como elementos de revestimiento no estructurales, carpinterías, mobiliario de jardín, etc. En la presente tesis se estudia la viabilidad de la madera termotratada de frondosas para uso estructural, en particular fresno (Fraxinus excelsior L) y haya (Fagus sylvatica L). Con este fin, y considerando que el termotratamiento modifica la estructura interna de la madera resultando en un nuevo material, se realizan estudios experimentales y numéricos para su caracterización. Estos trabajos se desarrollan bajo el enfoque de la Mecánica de Fractura debido a la pérdida de resistencia y aumento de fragilidad que presenta el material, especialmente a tracción perpendicular a las fibras. Así mismo, se lleva a cabo una recopilación de las bases, fundamentos y metodologías de esta teoría aplicados a madera sin tratar y otros materiales debido a la inexistencia de este tipo de estudios en madera termotratada. De igual manera se realiza un programa de caracterización mecánica del material para determinar sus propiedades elásticas considerando un modelo ortótropo, necesarios en la investigación del comportamiento a fractura. El trabajo derivó en el desarrollo de un nuevo método de ensayo para la determinación multiparamétrica a partir de un sólo espécimen, proporcionando resultados mucho más robustos que los obtenidos con la metodología convencional de ensayos. En base a los trabajos realizados, considerando las limitaciones de resistencia y fragilidad, así como la dudosa aplicabilidad de las normativas existentes en madera sin tratar, se aconseja no utilizar tratamientos térmicos intensos en elementos estructurales primarios. Se propone su aplicación en elementos secundarios, de manera que un posible colapso no implique una pérdida de fiabilidad global de la estructura. Se estudia la viabilidad de un panel sandwich innovador y ecológico para fachadas expuesto a cargas de viento, compuesto de madera termotratada en las caras y panel aislante de fibras de madera con función estructural en el alma. Esta investigación se desarrolló dentro del proyecto de investigación Europeo "Holiwood", Holistic implementation of European thermal treated hardwood (TMT) in the sector of construction industry and noise protection by sustainable, knowledge-based and value added products, perteneciente al sexto Programa Marco. ABSTRACT Hcat-trcatcd wood is modified wood by a thermal process at high temperatures which provides greater dimensional stability and durability without adding harmful chemicals to the environment. It has been mainly applied to softwoods due mainly to economical reasons, being its most common use outdoors or in high humidity environments, as non-structural elements, furniture, etc. The present Thesis studies the feasibility of heat-treated hardwoods for structural uses, particularly ash (Fraxinus excelsior L) and beech (Fagus sylvatica L). To this end, and considering that heat treatment modifies the internal structure of the wood resulting in a new material, experimental and numerical studies are performed for its characterization. This investigation is developed under the approach of Fracture Mechanics due to the loss of strength and the increase in brittlcncss of the material, especially in tension perpendicular to the grain. Likewise, it holds a collection of the bases, foundations and methodologies of this theory applied to untreated wood and other materials due to the lack of such studies in heat-treated wood. In addition, studies for the mechanical characterization of the material are performed in order to determine the elastic properties considering an orthotropic model. This work is necessary in the investigation of the fracture behavior. It led to the development of a new test method for multiparameter determination by using just a single specimen, providing much more robust results than those obtained with conventional test methodology. Based on this investigation, and considering the limitations of strength and brittleness, and the questionable applicability of existing standards for untreated wood, it is advised not to use intense heat treatments in primary structural elements. It is proposed the application to secondary elements, so that a possible collapse does not involve a loss of overall reliability of the structure. It is studied the feasibility of an innovative and ecological sandwich panel for facades exposed to wind loads, composed by heat-treated wood faces and insulating wood fiberboard with structural function in the core. This investigación was developed within the European research project "Holiwood", Holistic implementation of European thermal treated hardwood (TMT) in the sector of construction industry and noise protection by sustainable, knowledge-based and value added products, of the Sixth Framework Program.
Resumo:
Ulmus minor es una especie arbórea originaria de Europa cuyas poblaciones han sido diezmadas por el hongo patógeno causante de la enfermedad de la grafiosis. La conservación de los olmos exige plantearse su propagación a través de plantaciones y conocer mejor su ecología y biología. Ulmus minor es un árbol de ribera, pero frecuentemente se encuentra alejado del cauce de arroyos y ríos, donde la capa freática sufre fuertes oscilaciones. Por ello, nuestra hipótesis general es que esta especie es moderadamente resistente tanto a la inundación como a la sequía. El principal objetivo de esta tesis doctoral es entender desde un punto de vista funcional la respuesta de U. minor a la inundación, la sequía y la infección por O. novo-ulmi; los factores que posiblemente más influyen en la distribución actual de U. minor. Con este objetivo se persigue dar continuidad a los esfuerzos de conservación de esta especie que desde hace años se dedican en varios centros de investigación a nivel mundial, ya que, entender mejor los mecanismos que contribuyen a la resistencia de U. minor ante la inoculación con O. novo-ulmi y factores de estrés abiótico ayudará en la selección y propagación de genotipos resistentes a la grafiosis. Se han planteado tres experimentos en este sentido. Primero, se ha comparado la tolerancia de brinzales de U. minor y U. laevis – otro olmo ibérico – a una inmersión controlada con el fin de evaluar su tolerancia a la inundación y comprender los mecanismos de aclimatación. Segundo, se ha comparado la tolerancia de brinzales de U. minor y Quercus ilex – una especie típica de ambientes Mediterránea secos – a la falta de agua en el suelo con el fin de evaluar el grado de tolerancia y los mecanismos de aclimatación a la sequía. El hecho de comparar dos especies contrastadas responde al interés en entender mejor cuales son los procesos que conducen a la muerte de una planta en condiciones de sequía – asunto sobre el que hay una interesante discusión desde hace algunos años. En tercer lugar, con el fin de entender mejor la resistencia de algunos genotipos de U. minor a la grafiosis, se han estudiado las diferencias fisiológicas y químicas constitutivas e inducidas por O. novo-ulmi entre clones de U. minor seleccionados a priori por su variable grado de resistencia a esta enfermedad. En el primer experimento se observó que los brinzales de U. minor sobrevivieron 60 días inmersos en una piscina con agua no estancada hasta una altura de 2-3 cm por encima del cuello de la raíz. A los 60 días, los brinzales de U. laevis se sacaron de la piscina y, a lo largo de las siguientes semanas, fueron capaces de recuperar las funciones fisiológicas que habían sido alteradas anteriormente. La conductividad hidráulica de las raíces y la tasa de asimilación de CO2 neta disminuyeron en ambas especies. Por el contrario, la tasa de respiración de hojas, tallos y raíces aumentó en las primeras semanas de la inundación, posiblemente en relación al aumento de energía necesario para desarrollar mecanismos de aclimatación a la inundación, como la hipertrofia de las lenticelas que se observó en ambas especies. Por ello, el desequilibrio del balance de carbono de la planta podría ser un factor relevante en la mortalidad de las plantas ante inundaciones prolongadas. Las plantas de U. minor (cultivadas en envases de 16 litros a media sombra) sobrevivieron por un prolongado periodo de tiempo en verano sin riego; la mitad de las plantas murieron tras 90 días sin riego. El cierre de los estomas y la pérdida de hojas contribuyeron a ralentizar las pérdidas de agua y tolerar la sequía en U. minor. Las obvias diferencias en tolerancia a la sequía con respecto a Q. ilex se reflejaron en la distinta capacidad para ralentizar la aparición del estrés hídrico tras dejar de regar y para transportar agua en condiciones de elevada tensión en el xilema. Más relevante es que las plantas con evidentes síntomas de decaimiento previo a su muerte exhibieron pérdidas de conductividad hidráulica en las raíces del 80% en ambas especies, mientras que las reservas de carbohidratos apenas variaron y lo hicieron de forma desigual en ambas especies. Árboles de U. minor de 5 y 6 años de edad (plantados en eras con riego mantenido) exhibieron una respuesta a la inoculación con O. novo-ulmi consistente con ensayos previos de resistencia. La conductividad hidráulica del tallo, el potencial hídrico foliar y la tasa de asimilación de CO2 neta disminuyeron significativamente en relación a árboles inoculados con agua, pero solo en los clones susceptibles. Este hecho enlaza con el perfil químico “más defensivo” de los clones resistentes, es decir, con los mayores niveles de suberina, ácidos grasos y compuestos fenólicos en estos clones que en los susceptibles. Ello podría restringir la propagación del hongo en el árbol y preservar el comportamiento fisiológico de los clones resistentes al inocularlos con el patógeno. Los datos indican una respuesta fisiológica común de U. minor a la inundación, la sequía y la infección por O. novo-ulmi: pérdida de conductividad hidráulica, estrés hídrico y pérdida de ganancia neta de carbono. Pese a ello, U. minor desarrolla varios mecanismos que le confieren una capacidad moderada para vivir en suelos temporalmente anegados o secos. Por otro lado, el perfil químico es un factor relevante en la resistencia de ciertos genotipos a la grafiosis. Futuros estudios deberían examinar como este perfil químico y la resistencia a la grafiosis se ven alteradas por el estrés abiótico. ABSTRACT Ulmus minor is a native European elm species whose populations have been decimated by the Dutch elm disease (DED). An active conservation of this species requires large-scale plantations and a better understanding of its biology and ecology. U. minor generally grows close to water channels. However, of the Iberian riparian tree species, U. minor is the one that spread farther away from rivers and streams. For these reasons, we hypothesize that this species is moderately tolerant to both flooding and drought stresses. The main aim of the present PhD thesis is to better understand the functional response of U. minor to the abiotic stresses – flooding and drought – and the biotic stress – DED – that can be most influential on its distribution. The overarching goal is to aid in the conservation of this emblematic species through a better understanding of the mechanisms that contribute to resistance to abiotic and biotic stresses; an information that can help in the selection of resistant genotypes and their expansion in large-scale plantations. To this end, three experiments were set up. First, we compared the tolerance to experimental immersion between seedlings of U. minor and U. laevis – another European riparian elm species – in order to assess their degree of tolerance and understand the mechanisms of acclimation to this stress. Second, we investigated the tolerance to drought of U. minor seedlings in comparison with Quercus ilex (an oak species typical of dry Mediterranean habitats). Besides assessing and understanding U. minor tolerance to drought at the seedling stage, the aim was to shed light into the functional alterations that trigger drought-induced plant mortality – a matter of controversy in the last years. Third, we studied constitutive and induced physiological and biochemical differences among clones of variable DED resistance, before and following inoculation with Ophiostoma novo-ulmi. The goal is to shed light into the factors of DED resistance that is evident in some genotypes of U. minor, but not others. Potted seedlings of U. minor survived for 60 days immersed in a pool with running water to approximately 2-3 cm above the stem collar. By this time, U. minor seedlings died, whereas U. laevis seedlings moved out of the pool were able to recover most physiological functions that had been altered by flooding. For example, root hydraulic conductivity and leaf photosynthetic CO2 uptake decreased in both species; while respiration initially increased with flooding in leaves, stems and roots possibly to respond to energy demands associated to mechanisms of acclimation to soil oxygen deficiency; as example, a remarkable hypertrophy of lenticels was soon observed in flooded seedlings of both species. Therefore, the inability to maintain a positive carbon balance somehow compromises seedling survival under flooding, earlier in U. minor than U. laevis, partly explaining their differential habitats. Potted seedlings of U. minor survived for a remarkable long time without irrigation – half of plants dying only after 90 days of no irrigation in conditions of high vapour pressure deficit typical of summer. Some mechanisms that contributed to tolerate drought were leaf shedding and stomata closure, which reduced water loss and the risk of xylem cavitation. Obviously, U. minor was less tolerant to drought than Q. ilex, differences in drought tolerance resulting mostly from the distinct capacity to postpone water stress and conduct water under high xylem tension among species. More relevant was that plants of both species exhibited similar symptoms of root hydraulic failure (i.e. approximately 80% loss of hydraulic conductivity), but a slight and variable depletion of non-structural carbohydrate reserves preceding dieback. Five- and six-year-old trees of U. minor (planted in the field with supplementary watering) belonging to clones of contrasted susceptibility to DED exhibited a different physiological response to inoculation with O. novo-ulmi. Stem hydraulic conductivity, leaf water potential and photosynthetic CO2 uptake decreased significantly relative to control trees inoculated with water only in DED susceptible clones. This is consistent with the “more defensive” chemical profile observed in resistant clones, i.e. with higher levels of saturated hydrocarbons (suberin and fatty acids) and phenolic compounds than in susceptible clones. These compounds could restrict the spread of O. novo-ulmi and contribute to preserving the near-normal physiological function of resistant trees when exposed to the pathogen. These results evidence common physiological responses of U. minor to flooding, drought and pathogen infection leading to xylem water disruption, leaf water stress and reduced net carbon gain. Still, seedlings of U. minor develop various mechanisms of acclimation to abiotic stresses that can play a role in surviving moderate periods of flood and drought. The chemical profile appears to be an important factor for the resistance of some genotypes of U. minor to DED. How abiotic stresses such as flooding and drought affect the capacity of resistant U. minor clones to face O. novo-ulmi is a key question that must be contemplated in future research.
Resumo:
Hoy en día, ya no se puede pasar por alto la necesidad de una agricultura climáticamente más inteligente para los 500 millones de pequeños agricultores del mundo (Wheeler, 2013). Estos representan aproximadamente el 60 % de la agricultura mundial y proporcionan hasta el 80 % de los alimentos en los países en vías de desarrollo, los pequeños agricultores gestionan vastas extensiones de tierra y lamentablemente incluyen los grupos con mayor proporción de personas en estado de inseguridad alimentaria. El cambio climático está transformando el contexto para la agricultura en pequeña escala. Durante siglos, los pequeños agricultores desarrollaron la capacidad de adaptarse a los cambios ambientales y la variabilidad del clima, pero la velocidad y la intensidad del cambio climático está superando su capacidad de respuesta. Si no se cambia la manera que tenemos de lidiar con el cambio climático, tanto en acciones locales como globales, es muy probable que las personas rurales de entornos vulnerables tengan que adaptarse a un calentamiento global promedio de 4 °C por encima de los niveles preindustriales para el año 2100. Esta alza de las temperaturas aumentará aún más la incertidumbre y provocará desastres naturales como las sequías, la erosión del suelo, la pérdida de biodiversidad y la escasez agua sean mucho más frecuentes. Uno de los factores más importantes para los pequeños agricultores es que ya no pueden depender de los promedios históricos, por lo que es más difícil para ellos para planificar y gestionar la producción debido a los cambios en los patrones climáticos. Algunos de los principales cultivos de cereales (trigo, arroz, maíz, etc.) han alcanzado su umbral de tolerancia al calor y un aumento de la temperatura en torno a 1,5-2 °C podría ser muy perjudicial. Estos efectos a corto plazo podrían ser agravados por otros a medio y largo plazo, los que se refieren al impacto socioeconómico en términos de oportunidades y estabilidad política. El cambio climático está haciendo que el desarrollo de la pequeña agricultura resulte mucho más caro. A nivel de proyectos, los programas resistentes al clima tienen, normalmente, unos costos iniciales más altos, tanto de diseño como de implementación. Por ejemplo, es necesario incluir gastos adicionales en infraestructura, operación y mantenimiento; desarrollo de nuevas capacidades y el intercambio de conocimientos en torno al cambio climático. También se necesita mayor inversión para fortalecer las instituciones frente a los nuevos retos que propone el cambio climático, o generar información que pueda ser de escala reducida y con enfoques que beneficien a la comunidad, el cambio climático es global pero los efectos son locales. Es, por tanto, el momento de redefinir la relación entre agricultura y medio ambiente, ya que se hace cada vez más necesario buscar mejores y más eficientes maneras para responder al cambio climático. Es importante señalar que la respuesta al cambio climático no significa reinventar todo lo que se ha aprendido sobre el desarrollo, significa aplicar un esfuerzo renovado para hacer frente a los cambios en el trabajo de cooperación al desarrollo de una manera más sistemática y más amplia. Una respuesta coherente al cambio climático requiere que la comunidad internacional reconozca la necesidad de aumentar el apoyo financiero para la adaptación así como un mayor énfasis en proporcionar soluciones diseñadas para aumentar la resiliencia1 de los pequeños agricultores a las crisis relacionadas con el clima. Con el fin de responder a algunos de los desafíos mencionados anteriormente, esta investigación pretende contribuir a fortalecer las capacidades de los pequeños productores, aquellos que actualmente están la primera línea frente a los desafíos del cambio climático, promoviendo un desarrollo que tenga un impacto positivo en sus medios de vida. La tesis se compone de cuatro capítulos. El primero define y analiza el marco teórico de las interacciones entre el cambio climático y el impacto en los proyectos de desarrollo rural, especialmente los que tienen por objetivo mejorar la seguridad alimentaria de los pequeños productores. En ese mismo capítulo, se presenta una revisión global de la financiación climática, incluyendo la necesidad de asignar suficientes recursos para la adaptación. Con el fin de lograr una mayor eficacia e impacto en los proyectos de desarrollo, la investigación desarrolla una metodología para integrar actividades de adaptación al cambio climático, presentada en el segundo capítulo. Esta metodología fue implementada y validada durante el periodo 2012-14, trabajando directamente con diferentes equipos gubernamentales en diez proyectos del Fondo Internacional de Desarrollo Agrícola ). El tercero presenta, de manera detallada, la aplicación de la metodología a los estudios de caso de Bolivia y Nicaragua, así como un resumen de las principales conclusiones en la aplicación de los ocho países restantes. Finalmente, en el último capítulo se presentan las conclusiones y un esbozo de futuras líneas de investigación. Actualmente, el tema de la sostenibilidad ambiental y el cambio climático está ganando terreno en la agenda de desarrollo. Es por ello que se alumbra esta investigación, para que a través de los resultados obtenidos y la implementación de la metodología propuesta, sirva como herramienta estratégica para la planificación y la gestión operativa a la hora de integrar iniciativas de adaptación en los proyectos de desarrollo rural. ABSTRACT The need for climate-smart agriculture for the world’s 500 million smallholder farms cannot be overlooked: they account for 60 per cent of global agriculture, provide up to 80 per cent of food in developing countries, manage vast areas of land and make up the largest share of the developing world’s undernourished. Climate change is transforming the context for smallholder agriculture. Over centuries smallholders have developed the capacity to adapt to environmental change and climate variability, but the speed and intensity of climate change is outpacing the speed of historically autonomous actions. In the absence of a profound step-change in local and global action on climate change, it is Increasingly likely that poor rural people would need to contend with an average global warming of 4 degrees above pre-industrial levels by 2100, if not sooner. Such substantial climatic change will further increase uncertainty and exacerbate weather –related disasters, droughts, biodiversity loss, and land and water scarcity. Perhaps most significantly for smallholder farmers, they can no longer rely on historical averages, making it harder for them to plan and manage production when planting seasons and weather patterns are shifting. The major cereal crops (wheat, rice, maize, etc.) are at their heat tolerance threshold and with a 1.5-2°C temperature increase could collapse. These “first-round” effects will be compounded by second-round socio-economic impacts in terms of economic opportunities and political stability. Climate change is making the development of smallholder agriculture more expensive. At project level, climate-resilient programmes typically have higher up-front design and implementation costs – e.g. infrastructure costs and initially increased asset management, operation and maintenance, more capacity-building and knowledge sharing, strengthening institutions, greater project development costs (downscaled data generation and community-based approaches), and greater costs from enhancing cross sectorial and stakeholders collaboration. Consequently it’s time to redefine the relationship between agriculture and environment as we need to look better and more efficient ways to respond to climate change. It is important to note that responding to climate change does not mean to throwing out or reinventing everything that has been learnt about development. It means a renewed effort to tackle wider and well-known development changes in a more systematic way. A coherent response to climate change requires acknowledge of the need to increase the financial support for adaptation and a continued emphasis on provided solutions designed to increase the resilience of smallholders and poor communities to shocks, which are weather related. In order to respond to some of the challenges mentioned before, this research aims to contribute to strengthen the capacities of the smallholders and to promote a development that will positively impact in the rural livelihoods of the most vulnerable smallholders farmers; those who currently are in the first line facing the challenges of climate change. The thesis has four chapters. Chapter one describes and analyses the theoretical framework of the interactions between climate change and the impact on rural development projects, especially those aimed at improving the food security of smallholders producers. In this chapter a comprehensive review of climate financing is presented, including the need to allocate sufficient resources for adaptation. In order to achieve greater effectiveness and impact on development projects, the research develops in the second chapter a methodology to integrate adaptation activities for climate change. This methodology was implemented and validated during the 2012-14 period, working directly with various government teams in ten projects of the International Fund for Agricultural Development (IFAD). The third chapter presents in detail the application of the methodology to the case studies of Bolivia and Nicaragua, as well as a summary of the main conclusions of its implementation in the remaining eight countries. The final chapter exposes the main conclusions and future research topics. At a time when environmental sustainability and climate change issues are gaining more attention, the research and obtained results through the implementation of the model methodology proposed, can be considered a strategic tool for planning and operational management to integrate adaptation initiatives in rural development projects. The use of the proposed methodology will boost incentives to scale up climate resilience programmes and integrate adaptation to climate change into wider smallholder development programmes.
Resumo:
Los sistemas de consolidación de bóvedas históricas han variado enormemente a lo largo del tiempo en función de la forma de entender la restauración arquitectónica en cada momento. Estos planteamientos están indudablemente ligados a la evolución de los materiales y sistemas constructivos por lo que en un principio se restauraba empleando piedra, madera, materiales cerámicos y morteros de cal. Esto dio lugar a sistemas de consolidación como el rejuntado o acuñado, las redistribuciones de las cargas o el atirantado, sistemas que no rigidizan en exceso la estructura y devuelven a las fábricas su comportamiento originario. A partir del s XIX aparecen nuevos materiales como el hormigón armado o acero, lo que supone un cambio de paradigma. Su capacidad resistente es muy superior a la de fábricas y morteros no cementicios, sin embargo a menudo la gran diferencia de rigideces supone la aparición de problemas derivados de estas incompatibilidades como los desprendimientos de la plementería no anclada o la pérdida del valor documental de los sistemas constructivos. Así, el optimismo inicial que supuso la aparición de estos nuevos materiales y sistemas dio paso a duras críticas, surgiendo la necesidad de encontrar otros que permitiesen consolidar las bóvedas cuando los daños son graves y a la vez tuviesen en consideración la suma de componentes históricos, tecnológicos, materiales y culturales. Aparecen entonces tanto el “arco armado” como la “devolución de la forma” gracias a la comprensión de la manera de trabajar de las estructuras históricas. Por ello son sistemas coherentes que preservan el valor documental de sus sistemas constructivos al no ser alterados
Resumo:
En la literatura se ha descrito el perfil antropométrico y la respuesta psicofisiológica en escalada deportiva en roca, pero hasta la fecha, no se habían analizado las diferencias existentes entre sus principales modalidades. El objetivo de la presente tesis fue describir las características antropométricas del escalador de competición y comprobar la existencia de diferencias entre los participantes de distintas modalidades, así como analizar la respuesta psico-fisiológica durante la ejecución de un búlder y una vía, además de evaluar las diferencias entre su realización a vista o tras un ensayo. Para ello, efectuamos dos estudios diferentes: en el primero participaron voluntariamente 61 hombres y 18 mujeres, participantes en cuatro pruebas del circuito nacional de competición de escalada durante el año 2009, tres de ellas de la modalidad de dificultad a vista y una de búlder. Se realizaron mediciones antropométricas, prueba de fuerza de prensión manual antes y después de competir, y se cumplimentó un cuestionario donde se evaluaba la percepción del esfuerzo y la experiencia deportiva. En el segundo estudio, 23 escaladores, 15 hombres y 8 mujeres, divididos en tres grupos en función de su nivel de rendimiento, realizaron de manera voluntaria distintas pruebas durante tres días separados entre sí al menos 48 horas. El primer día rellenaron un cuestionario sobre su experiencia deportiva y nivel de rendimiento, fueron pesados, tallados y sometidos a un escáner de cuerpo completo en densitómetro con objeto de medir la composición corporal. El segundo día realizaron previo calentamiento, un búlder a vista y, tras un descanso de 15 minutos, escalaron una vía a vista acorde con su nivel. El tercer día, después de calentar y disponer de 20 minutos para ensayarlo, repitieron la escalada del búlder. Tras un descanso de 15 minutos y 20 minutos de ensayo, realizaron un segundo intento a la vía. Se registraron los valores en la respuesta cardiorrespiratoria, se obtuvieron muestras de lactato en sangre del lóbulo de la oreja y se realizaron pruebas de fuerza de prensión manual antes y después de la escalada. También se pasó un cuestionario para medir la ansiedad y autoconfianza así como el esfuerzo percibido. Los resultados no mostraron diferencias antropométricas significativas entre los participantes en competiciones de búlder y los que participaron en competiciones de escalada de dificultad a vista. Se dieron diferencias en la pérdida de fuerza antes y después de escalar entre dichos participantes. Las mujeres obtuvieron menor fuerza de prensión manual que los hombres pero la misma pérdida de fuerza entre el instante antes de competir y el posterior. La respuesta fisiológica durante la ejecución del búlder fue menor que la obtenida durante la ejecución de la vía. Hubo pérdida de fuerza de prensión manual entre el instante anterior y el posterior a ejecutar la vía, pero no al hacer el búlder. Sin embargo, no se dieron diferencias en la ansiedad y la autoestima provocada por ambas modalidades, por lo que deducimos que la ejecución de un búlder y una vía presentan una respuesta fisiológica distinta. Proponemos que la respuesta está relacionada, sobre todo, con las variables de ejecución, de tal manera que a mayor distancia y/o tiempo recorrido en la escalada, mayor será la contribución anaeróbica al esfuerzo y la fatiga manifestada como pérdida de fuerza que, en el caso del búlder, fue mínima o inexistente. En el segundo intento, tras un ensayo de 20 minutos en el búlder, se consiguió mejorar el rendimiento respecto al primer intento, que se manifestó con un aumento en la distancia recorrida. Sin embargo, en la vía no se dieron diferencias entre ambos intentos, ni en la ejecución, ni en la respuesta fisiológica, ni en la ansiedad, ni siquiera en la fuerza de prensión manual. ABSTRACT It has been described in the literature the anthropometric profile and psychophysiological response in rock climbing, but so far not been analyzed differences between its main modalities. The aim of this thesis was to describe the anthropometric characteristics of the climber competitor and check for differences between participants of different modalities and to analyze the psycho-physiological response during the execution of a boulder and a route also to assess differences between on sight and redpoint attempts. We made two different studies: in the first 61 men and 18 women who attended four competitions of national climbing circuit in 2009, three of them on-sight difficulty competitions and a boulder competition participated voluntarily. Anthropometric measurements, a hand grip strength test before and after competing were registered for each climber, and a questionnaire which assessed perception of effort and the climbing experience was fulfilled. In the second study, various tests were conducted on 23 volunteer climbers, 15 men and 8 women, during three days separated for, at least, 48 hours of resting, divided into three groups according to their performance. The first day, climbers completed a questionnaire on their experience and performance level. It was recorded weight, height and they underwent a full body scan densitometer in order to measure body composition. The second day, after previous warming-up, they climbed a boulder on sight and, after a break of 15 minutes, climbed a route on-sight according to their level. The third day, after warming-up and have 20 minutes to try it, they repeated the bouldering climbing. After a break of 15 minutes and 20 minutes of essaying, they made a second attempt at the route. Values in the cardiorespiratory response were recorded, blood lactate samples were obtained from earlobe, and hand grip strength was tested before and after the climb. They also filled a questionnaire to measure anxiety and self-confidence and perceived exertion. The results showed no significant anthropometric differences between participants in bouldering competitions and participants in competitions on-sight difficulty climbing. There were found differences in strength loss before and after climbing between those participants. Women had less hand grip strength than men but the same loss of strength between the records carried out before and after competing. The physiological response recorded for boulder climbing was lower than the obtained for the route. There was loss of hand grip strength between the time before and after running the route but not for bouldering. However, there were no differences in anxiety and self-esteem caused by both modalities, so we conclude that the implementation of a boulder and a route have different physiological responses. We think that this response is mainly related to performance variables, as a greater distance and/or travel time on the climb, the higher the anaerobic contribution to the effort and fatigue as manifested by loss of strength in the case of the boulder was minimal or nonexistent. In the second attempt after 20 minutes in the boulder better performance was achieved on the first attempt, which was manifested by an increment of climbing distance. However, there were the differences in the route between the two attempts, either in execution or in the physiological response, or anxiety, or even in hand grip strength.
Resumo:
Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.
Resumo:
Los efectos del cambio global sobre los bosques son una de las grandes preocupaciones de la sociedad del siglo XXI. Algunas de sus posibles consecuencias como son los efectos en la producción, la sostenibilidad, la pérdida de biodiversidad o cambios en la distribución y ensamblaje de especies forestales pueden tener grandes repercusiones sociales, ecológicas y económicas. La detección y seguimiento de estos efectos constituyen uno de los retos a los que se enfrentan en la actualidad científicos y gestores forestales. En base a la comparación de series históricas del Inventario Forestal Nacional Español (IFN), esta tesis trata de arrojar luz sobre algunos de los impactos que los cambios socioeconómicos y ambientales de las últimas décadas han generado sobre nuestros bosques. En primer lugar, esta tesis presenta una innovadora metodología con base geoestadística que permite la comparación de diferentes ciclos de inventario sin importar los diferentes métodos de muestreo empleados en cada uno de ellos (Capítulo 3). Esta metodología permite analizar cambios en la dinámica y distribución espacial de especies forestales en diferentes gradientes geográficos. Mediante su aplicación, se constatarán y cuantificarán algunas de las primeras evidencias de cambio en la distribución altitudinal y latitudinal de diferentes especies forestales ibéricas, que junto al estudio de su dinámica poblacional y tasas demográficas, ayudarán a testar algunas hipótesis biogeográficas en un escenario de cambio global en zonas de especial vulnerabilidad (Capítulos 3, 4 y 5). Por último, mediante la comparación de ciclos de parcelas permanentes del IFN se ahondará en el conocimiento de la evolución en las últimas décadas de especies invasoras en los ecosistemas forestales del cuadrante noroccidental ibérico, uno de los más afectados por la invasión de esta flora (Capítulo 6). ABSTRACT The effects of global change on forests are one of the major concerns of the XXI century. Some of the potential impacts of global change on forest growth, productivity, biodiversity or changes in species assembly and spatial distribution may have great ecological and economic consequences. The detection and monitoring of these effects are some of the major challenges that scientists and forest managers face nowadays. Based on the comparison of historical series of the Spanish National Forest Inventory (NFI), this thesis tries to shed some light on some of the impacts driven by recent socio-economic and environmental changes on our forest ecosystems. Firstly, this thesis presents an innovative methodology based on geostatistical techniques that allows the comparison of different NFI cycles regardless of the different sampling methods used in each of them (Chapter 3). This methodology, in conjunction with other statistical techniques, allows to analyze changes in the spatial distribution and population dynamics of forest species along different geographic gradients. By its application, this thesis presents some of the first evidences of changes in species distribution along different geographical gradients in the Iberian Peninsula. The analysis of these findings, of species population dynamics and demographic rates will help to test some biogeographical hypothesis on forests under climate change scenarios in areas of particular vulnerability (Chapters 3, 4 and 5). Finally, by comparing NFI cycles with permanent plots, this thesis increases our knowledge about the patterns and processes associated with the recent evolution of invasive species in the forest ecosystems of North-western Iberia, one of the areas most affected by the invasion of allien species at national scale (Chapter 6).
Resumo:
Esta tesis se basa en el estudio de la trayectoria que pasa por dos puntos en el problema de los dos cuerpos, inicialmente desarrollado por Lambert, del que toma su nombre. En el pasado, el Problema de Lambert se ha utilizado para la determinación de órbitas a partir de observaciones astronómicas de los cuerpos celestes. Actualmente, se utiliza continuamente en determinación de órbitas, misiones planetaria e interplanetarias, encuentro espacial e interceptación, o incluso en corrección de orbitas. Dada su gran importancia, se decide investigar especialmente sobre su solución y las aplicaciones en las misiones espaciales actuales. El campo de investigación abierto, es muy amplio, así que, es necesario determinar unos objetivos específicos realistas, en el contexto de ejecución de una Tesis, pero que sirvan para mostrar con suficiente claridad el potencial de los resultados aportados en este trabajo, e incluso poder extenderlos a otros campos de aplicación. Como resultado de este análisis, el objetivo principal de la Tesis se enfoca en el desarrollo de algoritmos para resolver el Problema de Lambert, que puedan ser aplicados de forma muy eficiente en las misiones reales donde aparece. En todos los desarrollos, se ha considerado especialmente la eficiencia del cálculo computacional necesario en comparación con los métodos existentes en la actualidad, destacando la forma de evitar la pérdida de precisión inherente a este tipo de algoritmos y la posibilidad de aplicar cualquier método iterativo que implique el uso de derivadas de cualquier orden. En busca de estos objetivos, se desarrollan varias soluciones para resolver el Problema de Lambert, todas ellas basadas en la resolución de ecuaciones transcendentes, con las cuales, se alcanzan las siguientes aportaciones principales de este trabajo: • Una forma genérica completamente diferente de obtener las diversas ecuaciones para resolver el Problema de Lambert, mediante desarrollo analítico, desde cero, a partir de las ecuaciones elementales conocidas de las cónicas (geométricas y temporal), proporcionando en todas ellas fórmulas para el cálculo de derivadas de cualquier orden. • Proporcionar una visión unificada de las ecuaciones más relevantes existentes, mostrando la equivalencia con variantes de las ecuaciones aquí desarrolladas. • Deducción de una nueva variante de ecuación, el mayor logro de esta Tesis, que destaca en eficiencia sobre todas las demás (tanto en coste como en precisión). • Estudio de la sensibilidad de la solución ante variación de los datos iniciales, y como aplicar los resultados a casos reales de optimización de trayectorias. • También, a partir de los resultados, es posible deducir muchas propiedades utilizadas en la literatura para simplificar el problema, en particular la propiedad de invariancia, que conduce al Problema Transformado Simplificado. ABSTRACT This thesis is based on the study of the two-body, two-point boundary-value problem, initially developed by Lambert, from who it takes its name. Since the past, Lambert's Problem has been used for orbit determination from astronomical observations of celestial bodies. Currently, it is continuously used in orbit determinations, for planetary and interplanetary missions, space rendezvous, and interception, or even in orbit corrections. Given its great importance, it is decided to investigate their solution and applications in the current space missions. The open research field is very wide, it is necessary to determine specific and realistic objectives in the execution context of a Thesis, but that these serve to show clearly enough the potential of the results provided in this work, and even to extended them to other areas of application. As a result of this analysis, the main aim of the thesis focuses on the development of algorithms to solve the Lambert’s Problem which can be applied very efficiently in real missions where it appears. In all these developments, it has been specially considered the efficiency of the required computational calculation compared to currently existing methods, highlighting how to avoid the loss of precision inherent in such algorithms and the possibility to apply any iterative method involving the use of derivatives of any order. Looking to meet these objectives, a number of solutions to solve the Lambert’s Problem are developed, all based on the resolution of transcendental equations, with which the following main contributions of this work are reached: • A completely different generic way to get the various equations to solve the Lambert’s Problem by analytical development, from scratch, from the known elementary conic equations (geometrics and temporal), by providing, in all cases, the calculation of derivatives of any order. • Provide a unified view of most existing relevant equations, showing the equivalence with variants of the equations developed here. • Deduction of a new variant of equation, the goal of this Thesis, which emphasizes efficiency (both computational cost and accuracy) over all other. • Estudio de la sensibilidad de la solución ante la variación de las condiciones iniciales, mostrando cómo aprovechar los resultados a casos reales de optimización de trayectorias. • Study of the sensitivity of the solution to the variation of the initial data, and how to use the results to real cases of trajectories’ optimization. • Additionally, from results, it is possible to deduce many properties used in literature to simplify the problem, in particular the invariance property, which leads to a simplified transformed problem.
Resumo:
La dinámica estructural estudia la respuesta de una estructura ante cargas o fenómenos variables en el tiempo. En muchos casos, estos fenómenos requieren realizar análisis paramétricos de la estructura considerando una gran cantidad de configuraciones de diseño o modificaciones de la estructura. Estos cambios, ya sean en fases iniciales de diseño o en fases posteriores de rediseño, alteran las propiedades físicas de la estructura y por tanto del modelo empleado para su análisis, cuyo comportamiento dinámico se modifica en consecuencia. Un caso de estudio de este tipo de modificaciones es la supervisión de la integridad estructural, que trata de identificar la presencia de daño estructural y prever el comportamiento de la estructura tras ese daño, como puede ser la variación del comportamiento dinámico de la estructura debida a una delaminación, la aparición o crecimiento de grieta, la debida a la pérdida de pala sufrida por el motor de un avión en vuelo, o la respuesta dinámica de construcciones civiles como puentes o edificios frente a cargas sísmicas. Si a la complejidad de los análisis dinámicos requeridos en el caso de grandes estructuras se añade la variación de determinados parámetros en busca de una respuesta dinámica determinada o para simular la presencia de daños, resulta necesario la búsqueda de medios de simplificación o aceleración del conjunto de análisis que de otra forma parecen inabordables tanto desde el punto de vista del tiempo de computación, como de la capacidad requerida de almacenamiento y manejo de grandes volúmenes de archivos de datos. En la presente tesis doctoral se han revisado los métodos de reducción de elementos .nitos más habituales para análisis dinámicos de grandes estructuras. Se han comparado los resultados de casos de estudio de los métodos más aptos, para el tipo de estructuras y modificaciones descritas, con los resultados de aplicación de un método de reducción reciente. Entre los primeros están el método de condensación estática de Guyan extendido al caso con amortiguamiento no proporcional y posteriores implementaciones de condensaciones dinámicas en diferentes espacios vectoriales. El método de reducción recientemente presentado se denomina en esta tesis DACMAM (Dynamic Analysis in Complex Modal space Acceleration Method), y consiste en el análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura, calculada en el espacio modal complejo y que admite modificaciones estructurales. El método DACMAM permite seleccionar un número reducido de grados de libertad significativos para la dinámica del fenómeno que se quiere estudiar como son los puntos de aplicación de la carga, localizaciones de los cambios estructurales o puntos donde se quiera conocer la respuesta, de forma que al implementar las modificaciones estructurales, se ejecutan los análisis necesarios sólo de dichos grados de libertad sin pérdida de precisión. El método permite considerar alteraciones de masa, rigidez, amortiguamiento y la adición de nuevos grados de libertad. Teniendo en cuenta la dimensión del conjunto de ecuaciones a resolver, la parametrización de los análisis no sólo resulta posible, sino que es también manejable y controlable gracias a la sencilla implementación del procedimiento para los códigos habituales de cálculo mediante elementos .nitos. En el presente trabajo se muestra la bondad y eficiencia del método en comparación con algunos de los métodos de reducción de grandes modelos estructurales, verificando las diferencias entre sí de los resultados obtenidos y respecto a la respuesta real de la estructura, y comprobando los medios empleados en ellos tanto en tiempo de ejecución como en tamaño de ficheros electrónicos. La influencia de los diversos factores que se tienen en cuenta permite identificar los límites y capacidades de aplicación del método y su exhaustiva comparación con los otros procedimientos. ABSTRACT Structural dynamics studies the response of a structure under loads or phenomena which vary over time. In many cases, these phenomena require the use of parametric analyses taking into consideration several design configurations or modifications of the structure. This is a typical need in an engineering o¢ ce, no matter the structural design is in early or final stages. These changes modify the physical properties of the structure, and therefore, the finite element model to analyse it. A case study, that exempli.es this circumstance, is the structural health monitoring to predict the variation of the dynamical behaviour after damage, such as a delaminated structure, a crack onset or growth, an aircraft that suffers a blade loss event or civil structures (buildings or bridges) under seismic loads. Not only large structures require complex analyses to appropriately acquire an accurate solution, but also the variation of certain parameters. There is a need to simplify the analytical process, in order to bring CPU time, data .les, management of solutions to a reasonable size. In the current doctoral thesis, the most common finite element reduction methods for large structures are reviewed. Results of case studies are compared between a recently proposed method, herein named DACMAM (Dynamic Analysis in Complex Modal space Acceleration Method), and different condensation methods, namely static or Guyan condensation and dynamic condensation in different vectorial spaces. All these methods are suitable for considering non-classical damping. The reduction method DACMAM consist of a structural modification in the complex modal domain which provides a dynamic response solution for the reduced models. This process allows the selection of a few degrees of freedom that are relevant for the dynamic response of the system. These d.o.f. are the load application points, relevant structural points or points in which it is important to know the response. Consequently, an analysis with structural modifications implies only the calculation of the dynamic response of the selected degrees of freedom added, but with no loss of information. Therefore, mass, stiffness or damping modifications are easily considered as well as new degrees of freedom. Taking into account the size of the equations to be solved, the parameterization of the dynamic solutions is not only possible, but also manageable and controllable due to the easy implementation of the procedure in the standard finite element solvers. In this thesis, the proposed reduction method for large structural models is compared with other published model order reduction methods. The comparison shows and underlines the efficiency of the new method, and veri.es the differences in the response when compared with the response of the full model. The CPU time, the data files and the scope of the parameterization are also addressed.