802 resultados para COMPORTAMIENTO DEL CONSUMIDOR - ASPECTOS PSICOLOGICOS


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En España existen del orden de 1,300 grandes presas, de las cuales un 20% fueron construidas antes de los años 60. El hecho de que existan actualmente una gran cantidad de presas antiguas aún en operación, ha producido un creciente interés en reevaluar su seguridad empleando herramientas nuevas o modificadas que incorporan modelos de fallo teóricos más completos, conceptos geotécnicos más complejos y nuevas técnicas de evaluación de la seguridad. Una manera muy común de abordar el análisis de estabilidad de presas de gravedad es, por ejemplo, considerar el deslizamiento a través de la interfase presa-cimiento empleando el criterio de rotura lineal de Mohr-Coulomb, en donde la cohesión y el ángulo de rozamiento son los parámetros que definen la resistencia al corte de la superficie de contacto. Sin embargo la influencia de aspectos como la presencia de planos de debilidad en el macizo rocoso de cimentación; la influencia de otros criterios de rotura para la junta y para el macizo rocoso (ej. el criterio de rotura de Hoek-Brown); las deformaciones volumétricas que ocurren durante la deformación plástica en el fallo del macizo rocoso (i.e., influencia de la dilatancia) no son usualmente consideradas durante el diseño original de la presa. En este contexto, en la presente tesis doctoral se propone una metodología analítica para el análisis de la estabilidad al deslizamiento de presas de hormigón, considerando un mecanismo de fallo en la cimentación caracterizado por la presencia de una familia de discontinuidades. En particular, se considera la posibilidad de que exista una junta sub-horizontal, preexistente y persistente en el macizo rocoso de la cimentación, con una superficie potencial de fallo que se extiende a través del macizo rocoso. El coeficiente de seguridad es entonces estimado usando una combinación de las resistencias a lo largo de los planos de rotura, cuyas resistencias son evaluadas empleando los criterios de rotura no lineales de Barton y Choubey (1977) y Barton y Bandis (1990), a lo largo del plano de deslizamiento de la junta; y el criterio de rotura de Hoek y Brown (1980) en su versión generalizada (Hoek et al. 2002), a lo largo del macizo rocoso. La metodología propuesta también considera la influencia del comportamiento del macizo rocoso cuando este sigue una ley de flujo no asociada con ángulo de dilatancia constante (Hoek y Brown 1997). La nueva metodología analítica propuesta es usada para evaluar las condiciones de estabilidad empleando dos modelos: un modelo determinista y un modelo probabilista, cuyos resultados son el valor del coeficiente de seguridad y la probabilidad de fallo al deslizamiento, respectivamente. El modelo determinista, implementado en MATLAB, es validado usando soluciones numéricas calculadas mediante el método de las diferencias finitas, empleando el código FLAC 6.0. El modelo propuesto proporciona resultados que son bastante similares a aquellos calculados con FLAC; sin embargo, los costos computacionales de la formulación propuesta son significativamente menores, facilitando el análisis de sensibilidad de la influencia de los diferentes parámetros de entrada sobre la seguridad de la presa, de cuyos resultados se obtienen los parámetros que más peso tienen en la estabilidad al deslizamiento de la estructura, manifestándose además la influencia de la ley de flujo en la rotura del macizo rocoso. La probabilidad de fallo es obtenida empleando el método de fiabilidad de primer orden (First Order Reliability Method; FORM), y los resultados de FORM son posteriormente validados mediante simulaciones de Monte Carlo. Los resultados obtenidos mediante ambas metodologías demuestran que, para el caso no asociado, los valores de probabilidad de fallo se ajustan de manera satisfactoria a los obtenidos mediante las simulaciones de Monte Carlo. Los resultados del caso asociado no son tan buenos, ya que producen resultados con errores del 0.7% al 66%, en los que no obstante se obtiene una buena concordancia cuando los casos se encuentran en, o cerca de, la situación de equilibrio límite. La eficiencia computacional es la principal ventaja que ofrece el método FORM para el análisis de la estabilidad de presas de hormigón, a diferencia de las simulaciones de Monte Carlo (que requiere de al menos 4 horas por cada ejecución) FORM requiere tan solo de 1 a 3 minutos en cada ejecución. There are 1,300 large dams in Spain, 20% of which were built before 1960. The fact that there are still many old dams in operation has produced an interest of reevaluate their safety using new or updated tools that incorporate state-of-the-art failure modes, geotechnical concepts and new safety assessment techniques. For instance, for gravity dams one common design approach considers the sliding through the dam-foundation interface, using a simple linear Mohr-Coulomb failure criterion with constant friction angle and cohesion parameters. But the influence of aspects such as the persistence of joint sets in the rock mass below the dam foundation; of the influence of others failure criteria proposed for rock joint and rock masses (e.g. the Hoek-Brown criterion); or the volumetric strains that occur during plastic failure of rock masses (i.e., the influence of dilatancy) are often no considered during the original dam design. In this context, an analytical methodology is proposed herein to assess the sliding stability of concrete dams, considering an extended failure mechanism in its rock foundation, which is characterized by the presence of an inclined, and impersistent joint set. In particular, the possibility of a preexisting sub-horizontal and impersistent joint set is considered, with a potential failure surface that could extend through the rock mass; the safety factor is therefore computed using a combination of strength along the rock joint (using the nonlinear Barton and Choubey (1977) and Barton and Bandis (1990) failure criteria) and along the rock mass (using the nonlinear failure criterion of Hoek and Brown (1980) in its generalized expression from Hoek et al. (2002)). The proposed methodology also considers the influence of a non-associative flow rule that has been incorporated using a (constant) dilation angle (Hoek and Brown 1997). The newly proposed analytical methodology is used to assess the dam stability conditions, employing for this purpose the deterministic and probabilistic models, resulting in the sliding safety factor and the probability of failure respectively. The deterministic model, implemented in MATLAB, is validated using numerical solution computed with the finite difference code FLAC 6.0. The proposed deterministic model provides results that are very similar to those computed with FLAC; however, since the new formulation can be implemented in a spreadsheet, the computational cost of the proposed model is significantly smaller, hence allowing to more easily conduct parametric analyses of the influence of the different input parameters on the dam’s safety. Once the model is validated, parametric analyses are conducting using the main parameters that describe the dam’s foundation. From this study, the impact of the more influential parameters on the sliding stability analysis is obtained and the error of considering the flow rule is assessed. The probability of failure is obtained employing the First Order Reliability Method (FORM). The probabilistic model is then validated using the Monte Carlo simulation method. Results obtained using both methodologies show good agreement for cases in which the rock mass has a nonassociate flow rule. For cases with an associated flow rule errors between 0.70% and 66% are obtained, so that the better adjustments are obtained for cases with, or close to, limit equilibrium conditions. The main advantage of FORM on sliding stability analyses of gravity dams is its computational efficiency, so that Monte Carlo simulations require at least 4 hours on each execution, whereas FORM requires only 1 to 3 minutes on each execution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los análisis de fiabilidad representan una herramienta adecuada para contemplar las incertidumbres inherentes que existen en los parámetros geotécnicos. En esta Tesis Doctoral se desarrolla una metodología basada en una linealización sencilla, que emplea aproximaciones de primer o segundo orden, para evaluar eficientemente la fiabilidad del sistema en los problemas geotécnicos. En primer lugar, se emplean diferentes métodos para analizar la fiabilidad de dos aspectos propios del diseño de los túneles: la estabilidad del frente y el comportamiento del sostenimiento. Se aplican varias metodologías de fiabilidad — el Método de Fiabilidad de Primer Orden (FORM), el Método de Fiabilidad de Segundo Orden (SORM) y el Muestreo por Importancia (IS). Los resultados muestran que los tipos de distribución y las estructuras de correlación consideradas para todas las variables aleatorias tienen una influencia significativa en los resultados de fiabilidad, lo cual remarca la importancia de una adecuada caracterización de las incertidumbres geotécnicas en las aplicaciones prácticas. Los resultados también muestran que tanto el FORM como el SORM pueden emplearse para estimar la fiabilidad del sostenimiento de un túnel y que el SORM puede mejorar el FORM con un esfuerzo computacional adicional aceptable. Posteriormente, se desarrolla una metodología de linealización para evaluar la fiabilidad del sistema en los problemas geotécnicos. Esta metodología solamente necesita la información proporcionada por el FORM: el vector de índices de fiabilidad de las funciones de estado límite (LSFs) que componen el sistema y su matriz de correlación. Se analizan dos problemas geotécnicos comunes —la estabilidad de un talud en un suelo estratificado y un túnel circular excavado en roca— para demostrar la sencillez, precisión y eficiencia del procedimiento propuesto. Asimismo, se reflejan las ventajas de la metodología de linealización con respecto a las herramientas computacionales alternativas. Igualmente se muestra que, en el caso de que resulte necesario, se puede emplear el SORM —que aproxima la verdadera LSF mejor que el FORM— para calcular estimaciones más precisas de la fiabilidad del sistema. Finalmente, se presenta una nueva metodología que emplea Algoritmos Genéticos para identificar, de manera precisa, las superficies de deslizamiento representativas (RSSs) de taludes en suelos estratificados, las cuales se emplean posteriormente para estimar la fiabilidad del sistema, empleando la metodología de linealización propuesta. Se adoptan tres taludes en suelos estratificados característicos para demostrar la eficiencia, precisión y robustez del procedimiento propuesto y se discuten las ventajas del mismo con respecto a otros métodos alternativos. Los resultados muestran que la metodología propuesta da estimaciones de fiabilidad que mejoran los resultados previamente publicados, enfatizando la importancia de hallar buenas RSSs —y, especialmente, adecuadas (desde un punto de vista probabilístico) superficies de deslizamiento críticas que podrían ser no-circulares— para obtener estimaciones acertadas de la fiabilidad de taludes en suelos. Reliability analyses provide an adequate tool to consider the inherent uncertainties that exist in geotechnical parameters. This dissertation develops a simple linearization-based approach, that uses first or second order approximations, to efficiently evaluate the system reliability of geotechnical problems. First, reliability methods are employed to analyze the reliability of two tunnel design aspects: face stability and performance of support systems. Several reliability approaches —the first order reliability method (FORM), the second order reliability method (SORM), the response surface method (RSM) and importance sampling (IS)— are employed, with results showing that the assumed distribution types and correlation structures for all random variables have a significant effect on the reliability results. This emphasizes the importance of an adequate characterization of geotechnical uncertainties for practical applications. Results also show that both FORM and SORM can be used to estimate the reliability of tunnel-support systems; and that SORM can outperform FORM with an acceptable additional computational effort. A linearization approach is then developed to evaluate the system reliability of series geotechnical problems. The approach only needs information provided by FORM: the vector of reliability indices of the limit state functions (LSFs) composing the system, and their correlation matrix. Two common geotechnical problems —the stability of a slope in layered soil and a circular tunnel in rock— are employed to demonstrate the simplicity, accuracy and efficiency of the suggested procedure. Advantages of the linearization approach with respect to alternative computational tools are discussed. It is also found that, if necessary, SORM —that approximates the true LSF better than FORM— can be employed to compute better estimations of the system’s reliability. Finally, a new approach using Genetic Algorithms (GAs) is presented to identify the fully specified representative slip surfaces (RSSs) of layered soil slopes, and such RSSs are then employed to estimate the system reliability of slopes, using our proposed linearization approach. Three typical benchmark-slopes with layered soils are adopted to demonstrate the efficiency, accuracy and robustness of the suggested procedure, and advantages of the proposed method with respect to alternative methods are discussed. Results show that the proposed approach provides reliability estimates that improve previously published results, emphasizing the importance of finding good RSSs —and, especially, good (probabilistic) critical slip surfaces that might be non-circular— to obtain good estimations of the reliability of soil slope systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fueron evaluados los problemas relativos al manejo de los recursos hídricos y la gestión del agua en Panamá. A partir del comportamiento del clima, de la evaluación físico química de las principales cuencas hidrográficas de Panamá y del uso del suelo y del agua se aplicó el análisis de evaluación de riesgo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Vega de Aranjuez ha sido desde hace siglos conocida por la notoriedad de sus jardines y huertas históricas y también, en épocas más recientes, por ser la despensa de Madrid. A mediados del siglo XX, sin embargo, con las transformaciones que el sector agrario ha experimentado no sólo a nivel local, sino a escala global, empezó un proceso de declive que se ha acentuado en los últimos años. Paralelamente, en el año 2001, la Unesco declara el Paisaje Cultural de Aranjuez, como Patrimonio de la Humanidad con un valor universal excepcional. Parte de lo que sustenta este reconocimiento a nivel internacional radica en las peculiaridades del paisaje que conforma la actividad agraria. El cambio de orientación, eminentemente hortofrutícola hacia cultivos extensivos y superficies en barbecho, y la pérdida de importancia del sector, no han pasado desapercibidos para la administración local y han sido varios los intentos de recuperación y dinamización del sector en los últimos años. La investigación de la que es objeto esta Tesis Doctoral surgió por iniciativa del Ayuntamiento de Aranjuez, que en al año 2010 deseó conocer la situación del sector hortícola en el municipio, para lo cual, encargó un estudio a la UPM-ETSIA. Para conocer la realidad desde una perspectiva integral, se planteó abordar el análisis desde la perspectiva de Cadena de Valor. Las implicaciones de este concepto, su evolución y su papel como instrumento de análisis de la cadena alimentaria, han sido revisadas y presentadas en el epígrafe del Marco Conceptual. Por cadena de valor se entiende el conjunto de procesos desde el consumidor, a través de los proveedores que proporcionan productos, servicios e información que añaden valor hacia los clientes (Lambert & Cooper, 2000; Chen, 2004). Para el análisis de la situación del sector hortícola en Aranjuez, se procedió en varios pasos, los cuales constituyeron la primera fase de la investigación y contemplaron lo siguiente: 1. La identificación de los problemas y de las demandas de los actores de la cadena, realizando cortes transversales en el mercado a distintos niveles para conocer los puntos de vista de los operadores de la cadena (Gunasekaran & Patel ,2004; Rojas, 2009; Schiefer, 2007). Para ello se diseñaron cuestionarios y se dirigieron a representantes de cinco eslabones de la cadena presentes en el caso de estudio: Agricultores (15), Mayoristas (11), Detallistas (55), Consumidores (85) y Restaurantes (36), tanto en Aranjuez como en Madrid (un total de 202). 2. Análisis D.A.F.O de cada uno de los eslabones y de la cadena completa, como herramienta para identificar y sintetizar la problemática y las potencialidades del sector. 3. Análisis global de la Cadena de Valor mediante el Método de Organización Sectorial, según Briz, de Felipe y Briz (2010), el cual permite estudiar aspectos de la estructura, la conducta y el funcionamiento de la cadena. 4. Jornada de análisis por parte de un Panel de Expertos en la sede de la Fundación Foro Agrario, en la cual se presentaron las conclusiones del análisis de la cadena de valor y se plantearon estrategias para la dinamización del sector. Con los resultados del análisis en esta primera fase de la investigación, se obtuvo una panorámica de la cadena de valor. Algunos de los aspectos más destacados son los siguientes: • El eslabón productivo en Aranjuez está muy atomizado y trabaja por lo general de forma independiente. Cultiva hasta veinte productos hortícolas diferentes, entre los cuales los frutales están casi en desaparición y hay poca presencia de producto ecológico. Le preocupan los precios poco estables y bajos y por lo general no trabaja con contratos. •El eslabón mayorista prácticamente carece de presencia en Aranjuez y está representado en su mayoría por operadores de Mercamadrid, los cuales demandan mayores volúmenes y mejor normalización de los productos hortícolas procedentes de Aranjuez. • El eslabón detallista consultado es diverso (con representación de comercios minoristas, supermercados e hipermercados) y también demanda mayores volúmenes de producción y mejoras en la normalización. Un 80% conoce los productos de Aranjuez, especialmente el espárrago y la fresa-fresón citados en un 74% y 63% de los casos respectivamente. • En el eslabón de consumidores, el 79% de los encuestados da importancia a la procedencia de los productos hortícolas y un 82% conoce los productos de la Huerta de Aranjuez, siendo los más consumidos el espárrago y el fresón. Un 42% de los encuestados compra producto ecológico por razones de salud, sabor y buscando la ausencia de químicos. • El eslabón de restaurantes es un gran consumidor de hortalizas, la gran mayoría de los productos incluidos en el análisis se oferta en más del 75% de los casos. Las más presentes son tomate y espárrago. La fresa y el fresón (en un 83% de los casos), y el espárrago (72%) seguido de la alcachofa (44%) son los productos de Aranjuez que más se conocen en el conjunto de los restaurantes entrevistados. El 75% de los restaurantes prefiere el producto fresco frente al procesado o congelado. La mayoría de los restaurantes locales (92%) estaría dispuesto a incluir en su carta una diferenciación para los productos de Aranjuez. Sin embargo, en el resto de restaurantes el porcentaje es mucho menor (21%). Entre las conclusiones del análisis se evidenció que un 52% de las ventas de los agricultores se realizaba sin intermediarios y un 69% de los consumidores se manifestaba interesado en adquirir productos de Aranjuez directamente del campo a su casa. Se identificó de esta manera que el acortamiento de la cadena se está utilizando como una forma de crear valor. Para profundizar en este aspecto, se planteó una segunda fase en la investigación. Además de estudiar diversos aspectos de los canales cortos de comercialización, se planteó estudiar el enfoque multifuncional de la horticultura, como estrategia para poner en valor la Huerta ribereña. Para dar una coherencia con la fase anterior, el planteamiento se realizó también desde la perspectiva de la cadena de valor, orientando la consulta hacia el eslabón consumidor. De esta manera, se realizó una consulta mediante cuestionario a 221 consumidores sobre diferentes aspectos relativos a los Canales Cortos de Comercialización (CCC) y la Horticultura Multifuncional (HM)1, lo cual permitió realizar un análisis cuantitativo de diferentes variables. Para completar la visión integral de la cadena corta, se seleccionaron 6 proyectos significativos que son ejemplos de diversas tipologías de canales cortos de comercialización en Aranjuez y Madrid, como representantes del denominado eslabón de “Promotores de CCC” y se consultó también a la Asociación de Productores de la Huerta de Aranjuez, constituida formalmente en el año 2014, como representante del eslabón Productor. Para la obtención de información, la cual tiene un carácter cualitativo en el caso de estos dos eslabones de la cadena, se realizaron cuestionarios y Estudios de Caso de cada proyecto. Los cuestionarios de esta segunda fase de consulta a los eslabones de la cadena corta contuvieron cuestiones relativas a los canales cortos de comercialización, tanto a nivel general (concepto de canal corto, puntos fuertes y ventajas que aportan, dificultades para su desarrollo, factores clave para su éxito) como para el caso concreto de la Huerta de Aranjuez (perfil del consumidor, factores implicados en la compra de verduras, utilización de diversas modalidades de canal corto, relación con las tecnologías de la información y comunicación (TICs) y la producción ecológica o la importancia del factor confianza). También aspectos relacionados con la Horticultura Multifuncional, como son, la valoración de diferentes actividades o proyectos de carácter agro-turístico, educativo, social o terapéutico, o la percepción del consumidor de las actividades de huerta como fuente de bienestar y como agente satisfactor de diversas necesidades humanas. Para completar la visión sobre estos dos temas, CCC y HM, se realizó una consulta mediante cuestionario a Expertos en el campo de los canales cortos de comercialización, procedentes del ámbito académico, y a Profesionales en activo trabajando en proyectos de horticultura social y terapéutica. La información aportada, aunque tiene carácter cualitativo, complementa el estudio ofreciendo la perspectiva académica en el caso de los canales cortos y amplía la información sobre la horticultura multifuncional, tratando cuestiones relativas al desempeño profesional o a la formación existente en España en el campo de la horticultura social y terapéutica. Los resultados de esta segunda fase de la investigación, entre otras cuestiones, evidenciaron que: • Los canales cortos de comercialización implican mucho más que la simple reducción de intermediarios y comprenden una gran diversidad de tipologías. • Los casos estudiados, están enfocados en su mayoría al producto ecológico y su funcionamiento está muy fundamentado en el uso de TICs y en el factor confianza. • En relación a la compra de verduras en el ámbito de los canales cortos, son aspectos muy valorados por el consumidor la calidad del producto, la rapidez y frescura con la que llega del campo a la mesa y que el Producto sea recogido en su punto óptimo de maduración. • Las actividades en el ámbito de la horticultura multifuncional son valoradas positivamente por los consumidores, siendo las más puntuadas las de huerto educativo, huerto terapéutico, seguidas de visitas guiadas y degustaciones de productos de huerta en restaurantes. • Por lo general existe una valoración muy alta de la huerta como fuente de bienestar y de satisfacción de necesidades humanas básicas, especialmente las de una alimentación saludable y de conexión con la naturaleza. Para terminar esta síntesis de la investigación realizada, se presentan las principales conclusiones a nivel global de la Tesis, que son las siguientes: 1. La metodología de cadena de valor ha resultado adecuada para conocer la complejidad y el funcionamiento del sector hortícola arancetano desde una perspectiva integral. 2. La Huerta de Aranjuez cuenta con importantes fortalezas, sustentadas en la calidad de sus suelos y en la fama que mantienen sus productos, pero también debilidades. Esto supone poco volumen de producción, que dificulta la relación con mayoristas y grandes detallistas. 3. El acortamiento de la cadena, mediante canales cortos de comercialización se ha identificado como una forma de creación de valor en la cadena. Existen oportunidades de abastecimiento a consumidores de Madrid mediante canales cortos, sin embargo, las modalidades que requieren mayor organización o requisitos de producción ecológica todavía no están desarrolladas. 4. La producción ecológica podría ser una estrategia para crear valor pero todavía es un método de cultivo muy minoritario en la cadena productiva arancetana. 5. Las peculiaridades de la Huerta de Aranjuez propician la puesta en práctica del enfoque multifuncional de la horticultura como vía de desarrollo económico. Los resultados apuntan a una posible demanda de servicios que contemplen actividades de horticultura de carácter educativo, terapéutico y agro-turístico, conducidas por profesionales. Existe una percepción positiva sobre el potencial de la huerta como fuente de bienestar y de satisfacción de necesidades humanas básicas. 6. La puesta en marcha de proyectos empresariales en el ámbito de la horticultura social es una apuesta interesante para crear valor en la huerta que ha sido valorada positivamente por los eslabones de la cadena corta consultados. 7. El campo de la Horticultura Multifuncional que contempla aspectos educativos, sociales y terapéuticos conforma una disciplina con posibilidades de desarrollo que en la investigación se perciben como limitadas por la falta de profesionales y su acceso a una formación adecuada en España. El estudio de los Canales Cortos de Comercialización y de la Horticultura Multifuncional como vías de puesta en valor en el caso de la Huerta de Aranjuez ha tenido un carácter exploratorio y en gran parte cualitativo en esta Tesis Doctoral. Ambos conceptos han desvelado cierta complejidad y requieren de un mayor conocimiento en diversos aspectos para su puesta en práctica con éxito. Se abre, por tanto, un campo para futuras investigaciones que profundicen en estos ámbitos. ABSTRACT La Vega de Aranjuez has been known for centuries for the reputation of its orchards and historic gardens and, more recently, as the pantry of Madrid. However, in the mid-twentieth century, with the transformations in agriculture, not only locally, but globally, began a process of decline that has been accentuated in recent years. Meanwhile, in 2001, Unesco declared Aranjuez Cultural Landscape, as a World Heritage Site with outstanding universal value. Part of what underpins this international recognition lies in the peculiarities of the landscape created by farming. The shift, from an eminently horticultural vocation to extensive field crops and fallow surfaces, and the loss of importance of the sector, have not gone unnoticed for local authorities and have been several attempts at recovery and revitalization of the sector in recent years. The beginning of this research came at the initiative of the municipality of Aranjuez, which in 2010 wanted to know the situation of the horticultural sector, for which he commissioned a study by the UPM-ETSIA. To know reality from an integral perspective, it was proposed to approach the analysis from the perspective of value chain. The implications of this concept, its evolution and its role as an instrument of analysis of the food chain, have been reviewed and presented in Chapter 3.2. The value chain concept refers to all the processes from the consumer, through suppliers who provide products, services and information that add value to customers (Lambert & Cooper, 2000; Chen, 2004). For the analysis of the situation of the horticultural sector in Aranjuez, which constituted the first phase of research, it proceeded in several steps: 1. Identifying the problems and demands of the actors in the chain, making transverse cuts in the market at different levels to meet the views of the chain operators (Gunasekaran & Patel , 2004; Rojas, 2009; Schiefer, 2007). Questionnaires were designed for it and went to representatives of the five links in the chain: Farmers (15), Wholesalers (11), Retailers (55), Consumers (85) and Restaurants (36), both in Aranjuez and Madrid (a total of 202). 2. SWOT analysis of each chain actor and of the whole supply chain, as a tool to identify and synthesize the problems and potential of the sector. 3. Analysis of the whole supply chain by Industrial Organization Method according to Briz et al. (2010), which allows to study aspects of the structure, conduct and performance of the chain. 4. Analysis by a Panel of Experts at Foro Agrario Foundation headquarters, where the conclusions of the analysis were presented and strategies for the revitalization of the sector were raised. The results of the analysis in this first phase of the research, presented an overview of the value chain. Some of the highlights are: - The productive sector in Aranjuez is very fragmented and usually works independently. With a wide variety of horticultural products (up to 20), fruit crops almost disappearing and little presence of organic product. Is concerned about the unstable and low prices and usually does not work with contracts. - The wholesale sector with virtually no presence in Aranjuez is represented mostly by Mercamadrid operators, who demand higher volumes and better standardization of horticultural products from Aranjuez. - The retailer sector is diversified (with representation from retailers, supermarkets and hypermarkets) and also demand higher production volumes and improved standardization. 80% know the products of Aranjuez, especially asparagus and strawberry-strawberry cited by 74% and 63% of cases respectively. - Among the consumers, 79% give importance to the origin of horticultural products and 82% know the products from Aranjuez, the most consumed asparagus and strawberries. 42% buy organic products for health, taste and absence of chemicals. - Restaurants are big consumers of vegetables, most of the products included in the analysis is offered in over 75% of cases. The most: tomato and asparagus. Strawberry (83% of cases), and asparagus (72%) followed by the artichoke (44%) are the products of Aranjuez more known in all the surveyed restaurants. 75% of the restaurants prefer fresh product against processed or frozen. Most local restaurants (92%) would be willing to include in their menu a differentiation for products of Aranjuez. However, for those restaurants from Madrid the percentage is much lower (21%). Among the conclusions of the analysis it showed that 52% of sales were realized from farmers without intermediaries and 69% of consumers expressed interest in acquiring products directly from field to table. It has been identified that the shortening of the chain is being used as a way to create value. To deepen this aspect, a second phase investigation arose. Besides studying various aspects of the short supply chains, it was also proposed to study the functional approach of horticulture as a strategy to add value. To provide consistency with the previous phase, the focus was also conducted from the perspective of the value chain, directing the query to consumers. Thus, again it was used the questionnaire as a methodological tool, and 221 consumers were asked about different aspects of the Short Suppy Chains (SSC) and Multifunctional Horticulture (MH)2, which allowed a quantitative analysis of several variables. To complete the comprehensive view of the short chain, 6 significant projects were selected as examples of different types of short supply chains in Aranjuez and Madrid, representing "SSC Promoters" and also the “Asociación de Productores de la Huerta de Aranjuez”, formally constituted in 2014, was asked representing the productive sector. The Study Case and again the questionnaire were elected as methodological tools in a qualitative analysis. The questionnaires of this second phase of research contained short supply chain issues, as a general topic (short supply chain concept, strengths and advantages they bring difficulties for its development, key factors success) and also refered to the case of Aranjuez (consumer profile, factors involved in the purchase of vegetables, use of several types of short supply chains, relation with information and communication technologies (ICTs) and organic production or the importance of trust in short supply chains). It also contemplated aspects of multifunctional horticulture, such as the valuation of different activities (agro-tourism, educational, social or therapeutic horticulture) and consumer perception about horticultural activities as a source of welfare and satisfactor of human needs. To complete the vision of these two issues, SSC and MH, experts in the field of short supply chains and professionals working in the field of social and therapeutic horticulture were asked. The qualitative information provided, complements the study offering a new perspective in the value chain analysis, such as those relating to job performance, the difficulties encountered or training existing in our country in the field of social and therapeutic horticulture. The results of this second phase of research showed that: Short supply chains involve much more than simply reducing intermediaries and cover a wide range of types. The cases studied are mostly focused on ecological product and its operation is heavily based on the use of ICTs and the trust factor. In connection with the purchase of vegetables in the field of short supply chains, product quality, speed and freshness with which comes from the field to the table and products picked at its peak maturation, are aspects highly valued by the consumer. Activities in the field of multifunctional horticulture are positively valued by consumers, the most scored: the educational garden, therapeutic garden, followed by guided tours and tastings of vegetables from Aranjuez in restaurants. Horticultural activities were highly valuated as a source of welfare and satisfaction of human needs, especially those of healthy eating and connection with nature. To complete this summary, the main conclusions of the research are presented as follows: 1. The value chain approach has been adequate to meet the complexity and operation of the horticultural sector in Aranjuez from a holistic perspective. 2. La Huerta de Aranjuez has important strengths, underpinned by the quality of its soils and fame that keep their products, but also weaknesses. This implies low volume of production, which makes difficult the link with wholesalers and large retailers. 3. The shortening of the chain by short supply chains has been identified as a way of creating value in the chain. Opportunities exist to supply consumers from Madrid by short supply chains, however, methods that require greater organization or requirements of organic production are not yet developed. 4. Organic production could be a strategy to create value but is not generally being implemented in the production chain. 5. The peculiarity of the Huerta de Aranjuez favours the implementation of the multifunctional approach as a means of economic development. The results point to a possible demand for multifunctional horticulture that include educational, therapeutic and agro-tourism activities. There is a positive perception of the potential of horticultural activities as a source of welfare and satisfaction of basic human needs. 6. The implementation of business projects in the field of social horticulture are an interesting way to create value that has been highly valued in the short supply chain. 7. The field of Multifunctional Horticulture which includes educational, social and therapeutic aspects, forms a discipline with possibilities of development, which in research are seen as limited by the lack of professionals and access to adequate training in our country. The study of Short Supply Chains and Multifunctional Horticulture as strategies to create value in the case of the Huerta de Aranjuez has an exploratory character and largely qualitative in this research. Both concepts have revealed some complexity and require greater knowledge in various aspects for successful implementation. It opens therefore a field for future research to deepen in these areas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Diabetes mellitus es una enfermedad caracterizada por la insuficiente o nula producción de insulina por parte del páncreas o la reducida sensibilidad del organismo a esta hormona, que ayuda a que la glucosa llegue a los tejidos y al sistema nervioso para suministrar energía. La Diabetes tiene una mayor prevalencia en los países desarrollados debido a múltiples factores, entre ellos la obesidad, la vida sedentaria, y disfunciones en el sistema endocrino relacionadas con el páncreas. La Diabetes Tipo 1 es una enfermedad crónica e incurable, en la que son destruidas las células beta del páncreas, que producen la insulina, haciéndose necesaria la administración de insulina de forma exógena para controlar los niveles de glucosa en sangre. El paciente debe seguir una terapia con insulina administrada por vía subcutánea, que debe estar adaptada a sus necesidades metabólicas y a sus hábitos de vida. Esta terapia intenta imitar el perfil insulínico de un páncreas sano. La tecnología actual permite abordar el desarrollo del denominado “páncreas endocrino artificial” (PEA), que aportaría precisión, eficacia y seguridad en la aplicación de las terapias con insulina y permitiría una mayor independencia de los pacientes frente a su enfermedad, que en la actualidad están sujetos a una constante toma de decisiones. El PEA consta de un sensor continuo de glucosa, una bomba de infusión de insulina y un algoritmo de control, que calcula la insulina a infusionar utilizando los niveles de glucosa del paciente como información principal. Este trabajo presenta una modificación en el método de control en lazo cerrado propuesto en un proyecto previo. El controlador del que se parte está compuesto por un controlador basal booleano y un controlador borroso postprandial basado en reglas borrosas heredadas del controlador basal. El controlador postprandial administra el 50% del bolo manual (calculado a partir de la cantidad de carbohidratos que el paciente va a consumir) en el instante del aviso de la ingesta y reparte el resto en instantes posteriores. El objetivo es conseguir una regulación óptima del nivel de glucosa en el periodo postprandial. Con el objetivo de reducir las hiperglucemias que se producen en el periodo postprandial se realiza un transporte de insulina, que es un adelanto de la insulina basal del periodo postprandial que se suministrará junto con un porcentaje variable del bolo manual. Este porcentaje estará relacionado con el estado metabólico del paciente previo a la ingesta. Además se modificará la base de conocimiento para adecuar el comportamiento del controlador al periodo postprandial. Este proyecto está enfocado en la mejora del controlador borroso postprandial previo, modificando dos aspectos: la inferencia del controlador postprandial y añadiendo una toma de decisiones automática sobre el % del bolo manual y el transporte. Se ha propuesto un controlador borroso con una nueva inferencia, que no hereda las características del controlado basal, y ha sido adaptado al periodo postprandial. Se ha añadido una inferencia borrosa que modifica la cantidad de insulina a administrar en el momento del aviso de ingesta y la cantidad de insulina basal a transportar del periodo postprandial al bolo manual. La validación del algoritmo se ha realizado mediante experimentos en simulación utilizando una población de diez pacientes sintéticos pertenecientes al Simulador de Padua/Virginia, evaluando los resultados con estadísticos para después compararlos con los obtenidos con el método de control anterior. Tras la evaluación de los resultados se puede concluir que el nuevo controlador postprandial, acompañado de la toma de decisiones automática, realiza un mejor control glucémico en el periodo postprandial, disminuyendo los niveles de las hiperglucemias. ABSTRACT. Diabetes mellitus is a disease characterized by the insufficient or null production of insulin from the pancreas or by a reduced sensitivity to this hormone, which helps glucose get to the tissues and the nervous system to provide energy. Diabetes has more prevalence in developed countries due to multiple factors, including obesity, sedentary lifestyle and endocrine dysfunctions related to the pancreas. Type 1 Diabetes is a chronic, incurable disease in which beta cells in the pancreas that produce insulin are destroyed, and exogenous insulin delivery is required to control blood glucose levels. The patient must follow a therapy with insulin administered by the subcutaneous route that should be adjusted to the metabolic needs and lifestyle of the patient. This therapy tries to imitate the insulin profile of a non-pathological pancreas. Current technology can adress the development of the so-called “endocrine artificial pancreas” (EAP) that would provide accuracy, efficacy and safety in the application of insulin therapies and will allow patients a higher level of independence from their disease. Patients are currently tied to constant decision making. The EAP consists of a continuous glucose sensor, an insulin infusion pump and a control algorithm that computes the insulin amount that has to be infused using the glucose as the main source of information. This work shows modifications to the control method in closed loop proposed in a previous project. The reference controller is composed by a boolean basal controller and a postprandial rule-based fuzzy controller which inherits the rules from the basal controller. The postprandial controller administrates 50% of the bolus (calculated from the amount of carbohydrates that the patient is going to ingest) in the moment of the intake warning, and distributes the remaining in later instants. The goal is to achieve an optimum regulation of the glucose level in the postprandial period. In order to reduce hyperglycemia in the postprandial period an insulin transport is carried out. It consists on a feedforward of the basal insulin from the postprandial period, which will be administered with a variable percentage of the manual bolus. This percentage would be linked with the metabolic state of the patient in moments previous to the intake. Furthermore, the knowledge base is going to be modified in order to fit the controller performance to the postprandial period. This project is focused on the improvement of the previous controller, modifying two aspects: the postprandial controller inference, and the automatic decision making on the percentage of the manual bolus and the transport. A fuzzy controller with a new inference has been proposed and has been adapted to the postprandial period. A fuzzy inference has been added, which modifies both the amount of manual bolus to administrate at the intake warning and the amount of basal insulin to transport to the prandial bolus. The algorithm assessment has been done through simulation experiments using a synthetic population of 10 patients in the UVA/PADOVA simulator, evaluating the results with statistical parameters for further comparison with those obtained with the previous control method. After comparing results it can be concluded that the new postprandial controller, combined with the automatic decision making, carries out a better glycemic control in the postprandial period, decreasing levels of hyperglycemia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta tesis se recoge el trabajo realizado centrado en el estudio del vídeo estereoscópico y, en particular, la información que aportan los mapas de disparidad y sus posibles aplicaciones. El trabajo se ha dividido en tres bloques diferenciados: En primer lugar se presentan los resultados de un codificador de vídeo multivista basado en mapas de disparidad previamente computados. La finalidad del estudio es comprobar los efectos de la aplicación directa de la disparidad para la compensación entre vistas en cuanto a reducción del tiempo de procesado y calidad de la compresión sobre algoritmos basados en división de bloques, como AVC o HEVC. También se ha trabajado para obtener un flujo de vídeo compatible con MVC que contenga la información de los mapas de disparidad embebida en el flujo en forma de vectores de compensación. Estos mapas se usan como base para obtener la compensación entre bloques de la imagen derecha e izquierda. Para reducir aún más el coste computacional, se ha diseñado un algoritmo de decisión previa del tamaño del bloque de compensación. Aquí se presentan los resultados de ambas estrategias, con decisión previa y sin ella, para evaluar las alternativas. Se presentan los resultados tanto sobre imágenes estereoscópicas estáticas como secuencias de vídeo estereoscópico, cada una de ellas a diferentes valores de compresión de forma que se obtenga una referencia parametrizada del comportamiento del algoritmo. Dichos resultados revelan una reducción drástica del tiempo de procesado con estabilización de la tasa binaria para valores de compresión moderados (compresión de alta calidad), mientras que para compresiones severas, la tasa binaria crece en comparación con el software de referencia JMVC. En segundo lugar se realiza un análisis de calidad relacionado con la información de disparidad de las secuencias estereoscópicas, sus valores absolutos y sus derivadas temporales, de modo que pueda servir tanto para generar sistemas automáticos de evaluación de la calidad, como para sintetizar una lista de buenas prácticas para la creación de contenidos audiovisuales estereoscópicos que ofrezcan una calidad de la experiencia elevada. Para relacionar la calidad de la experiencia y el confort visual generado por una secuencia estereoscópica se ha llevado a cabo una serie de tests de visualización por parte de un grupo de observadores, de secuencias previamente generadas y catalogadas en base a sus variaciones de la disparidad y de movimiento. Las conclusiones extraídas indican que los paralajes negativos son más efectistas y ofrecen una inmersión mayor y, por tanto, mejor calidad de la experiencia, cuando se utilizan de forma moderada. Variaciones rápidas de los valores de disparidad negativa y variaciones de movimiento de objetos con disparidad negativa generan disconfort visual. La probabilidad de que paralajes positivos generen disconfort visual son mucho menores, por lo que resulta interesante en este caso utilizar variaciones rápidas de disparidad y movimiento para compensar la falta de efectismo que producen dichos paralajes. Por último, se ha planteado el diseño de un sistema de inserción coherente de gráficos, en tiempo real, en una escena estereoscópica. Se ha hecho hincapié en la necesidad de la coherencia entre la disparidad de los objetos que conforman una escena y las oclusiones que éstos producen, por lo que la inserción de un elemento no nativo de la escena debe tener en cuenta esta circunstancia para mantener la calidad de la experiencia estereoscópica. Se ha estudiado la influencia de la calidad del mapa de disparidad de la escena como base sobre la que realizar la inserción, así como posibles formas de modificar dicho mapa para que la inserción produzca el efecto deseado de coherencia. En concreto se ha postulado que es preferible sacrificar la precisión punto a punto del mapa de disparidad si, de esa manera, se evita cometer pequeños errores aislados de inserción, a costa de introducir un ajuste menos fino en los bordes de los objetos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta Tesis Doctoral se ha estudiado la influencia del cultivar sobre el comportamiento reológico y panadero de cinco cultivares de trigo sembrados en el mismo año y en el mismo ambiente, en condiciones de cultivo ecológico. Tres de ellos eran de trigo panadero (Triticum aestivum ssp. vulgare), ‘Bonpain’, ‘Craklin’ y ‘Sensas’ y los otros dos de trigo espelta (Triticum aestivum ssp. spelta), ‘Espelta Álava’ y ‘Espelta Navarra’. Actualmente, el alohexaploide trigo panadero (2n=6x=42 genomio AABBDD) supone en torno al 90% del trigo cultivado en el mundo. En cambio, el cultivo del trigo alohexaploide espelta (2n=6x=42 genomio AABBDD) se limita a pequeñas regiones de Europa y de América del Norte. En España, el cultivo de trigo espelta se ha mantenido durante años ligado a la región de Asturias, aunque en la actualidad su cultivo está empezando a diversificarse hacia otras regiones. Esto se debe, fundamentalmente, a su potencial nutricional y a su adaptabilidad a condiciones de agricultura sostenible. El reciente resurgimiento de la espelta en productos de panificación, se debe, en gran parte, a la percepción del consumidor de que se trata de un producto ”más saludable” y “más natural” y con menor requerimiento de insumos que los trigos modernos. A medida que el consumo de alimentos a base de harina de espelta aumenta, se plantea la necesidad de evaluar su calidad harino-panadera, nutricional y sensorial en comparación con los productos elaborados con variedades de trigo común. Se caracterizaron las gluteninas de alto peso molecular (HMW) y las puroindolinas de los cinco cultivares. Se evaluó la calidad del grano, la reología de sus masas y se analizó la calidad instrumental y sensorial de sus panes. Para tal fin se ha puesto a punto un protocolo de panificación adecuado a las características particulares de los trigos espelta y se ha propuesto para el análisis sensorial de los panes un protocolo de selección, entrenamiento y validación de jueces. Teniendo en cuenta la composición en gluteninas HMW de los cultivares, se comprobó su influencia en el volumen de sedimentación y en la fuerza panadera. La composición en puroindolinas se vió reflejada en el parámetro dureza del endospermo. Los resultados indicaron que hay diferencias entre trigo panadero y trigo espelta en parámetros como, la tenacidad y el equilibrio de sus masas, la capacidad de absorción de agua de la harina y el comportamiento de la masa durante el amasado. Los trigos espeltas mostraron menor valor en el tiempo en alcanzar la presión máxima y la tolerancia al amasado, mientras que presentaron valores superiores en el decaimiento a los 250 y 450 segundos respectivamente. Respecto a la calidad de los panes elaborados, los trigos espeltas tenían mayor elasticidad en la miga y mayores valores en el área y en el diámetro de sus alveolos. Estas diferencias en la estructura y textura de la miga fueron también detectadas a nivel sensorial por el panel de jueces. Mediante el perfil sensorial descriptivo, se determinó que uno de los dos panes elaborado con trigo espelta (‘Espelta Navarra’) fue el pan más complejo considerando conjuntamente los atributos de aroma y flavor. En este trabajo no se apreciaron diferencias entre ambos tipos de trigo ni en el contenido en proteína, ni en minerales, ni en la viscosidad de su almidón. ABSTRACT In this Doctoral Thesis, the influence of various cultivars on rheological and baking behavior was studied. Five wheat cultivars were used, all planted in the same year and same organic farming environment. Three were bread wheat (Triticum aestivum ssp. vulgare), 'Bonpain', 'Craklin' and 'Sensas' and the other two were spelt wheat (Triticum aestivum ssp. spelta) , 'Espelta Álava' and 'Espelta Navarra' . Currently, the allohexaploid bread wheat (2n=6x=42 genome AABBDD) represents about 90% of global wheat production. On the other hand, allohexaploid spelt wheat (2n=6x=42 genome AABBDD) is merely produced in small areas of Europe and North America. For many years, the cultivation of spelt wheat in Spain was limited to the region of Asturias, although nowadays its production has begun to spread into other regions. This is owing to its nutritional potential and adaptability to conditions of sustainable agriculture. The recent resurgence of spelt in baking products is mainly due to consumers perception of it, as "healthier" and "more natural", and to the fewer agricultural input requirements compared to modern wheat products. As the consumption of foods made from spelt flour increases, there is a need to assess its baking, nutritional and sensory quality, compared to products made with common varieties of wheat. High molecular weight glutenins and puroindolines from the five cultivars were characterized. The quality of the grain and the rheology of the dough were evaluated and the instrumental and sensory quality of its breads were analyzed. To this end it a baking protocol was appropriately developed to the particular characteristics of spelt wheat and a selection protocol was proposed for the sensory analysis of breads, after proper training and validation of judges. Considering the HMW glutenin composition of the cultivars, the influence on the sedimentation volume and the baking strength was proven. The composition of puroindolines was reflected in the endosperm hardness parameter. The results show that there are differences between bread wheat and spelt wheat on parameters such as the tenacity and tenacity/elasticity ratio of their masses, the water absorption capacity of the flour and the behavior of the dough during kneading. The values for total time to reach maximum pressure and tolerance to mixing were lower for spelt wheat, and higher values were found for the drop at 250 s and 450 s. Regarding the quality of manufactured bread, spelt wheat had the greatest elasticity of the crumb and higher values in the area and diameter of the cells. These differences in the structure and texture of the crumb were also noticed at a sensory level by the panel of judges. It was determined by a descriptive sensory profile that one of the two loaves of bread made with spelt ('Espelta Navarra') was the most complex in the sense of its attributes of scents and flavors altogether. In this study, no differences were appreciated between the two types of wheat or the protein composition, or minerals or viscosity of the starch.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno de los principales retos de la sociedad actual es la evolución de sectores como el energético y el de la automoción a un modelo sostenible, responsable con el medio ambiente y con la salud de los ciudadanos. Una de las posibles alternativas, es la célula de combustible de hidrógeno, que transforma la energía química del combustible (hidrógeno) en corriente continua de forma limpia y eficiente. De entre todos los tipos de célula, gana especial relevancia la célula de membrana polimérica (PEM), que por sus características de peso, temperatura de trabajo y simplicidad; se presenta como una gran alternativa para el sector de la automoción entre otros. Por ello, el objetivo de este trabajo es ahondar en el conocimiento de la célula de combustible PEM. Se estudiarán los fundamentos teóricos que permitan comprender su funcionamiento, el papel de cada uno de los elementos de la célula y cómo varían sus características el funcionamiento general de la misma. También se estudiará la caracterización eléctrica, por su papel crucial en la evaluación del desempeño de la célula y para la comparación de modificaciones introducidas en ella. Además, se realizará una aplicación práctica en colaboración con los proyectos de fin de máster y doctorado de otros estudiantes del Politécnico de Milán, para implementar las técnicas aprendidas de caracterización eléctrica en una célula trabajando con diferentes tipos de láminas de difusión gaseosa (GDL y GDM) preparadas por estudiantes. Los resultados de la caracterización, permitirán analizar las virtudes de dos modificaciones en la composición clásica de la célula, con el fin de mejorar la gestión del agua que se produce en la zona catódica durante la reacción, disminuyendo los problemas de difusión a altas densidades de corriente y la consiguiente pérdida de potencial en la célula. Las dos modificaciones son: la inclusión de una lámina de difusión microporosa (MPL) a la lámina macroporosa habitual (GDL), y el uso de diversos polímeros con mejores propiedades hidrófobas en el tratamiento de dichas láminas de difusión. La célula de combustible es un sistema de conversión de energía electroquímico, en el que se trasforma de forma directa, energía química en energía eléctrica de corriente continua. En el catalizador de platino del ánodo se produce la descomposición de los átomos de hidrógeno. Los protones resultantes viajarán a través de la membrana de conducción protónica (que hace las veces de electrolito y supone el alma de la célula PEM) hasta el cátodo. Los electrones, en cambio, alcanzarán el cátodo a través de un circuito externo produciendo trabajo. Una vez ambas especies se encuentran en el cátodo, y junto con el oxígeno que sirve como oxidante, se completa la reacción, produciéndose agua. El estudio termodinámico de la reacción que se produce en la célula nos permite calcular el trabajo eléctrico teórico producido por el movimiento de cargas a través del circuito externo, y con él, una expresión del potencial teórico que presentará la célula, que variará con la temperatura y la presión; Para una temperatura de 25°C, este potencial teórico es de 1.23 V, sin embargo, el potencial de la célula en funcionamiento nunca presenta este valor. El alejamiento del comportamiento teórico se debe, principalmente, a tres tipos de pérdidas bien diferenciadas:  Pérdidas de activación: El potencial teórico representa la tensión de equilibrio, para la que no se produce un intercambio neto de corriente. Por tanto, la diferencia de potencial entre el ánodo y el cátodo debe alejarse del valor teórico para obtener una corriente neta a través del circuito externo. Esta diferencia con el potencial teórico se denomina polarización de activación, y conlleva una pérdida de tensión en la célula. Así pues estas pérdidas tienen su origen en la cinética de la reacción electroquímica.  Pérdidas óhmicas: Es una suma de las resistencias eléctricas en los elementos conductores, la resistencia en la membrana electrolítica a la conducción iónica y las resistencias de contacto.  Pérdidas por concentración: Estas pérdidas se producen cuando los gases reactivos en el área activa son consumidos en un tiempo menor del necesario para ser repuestos. Este fenómeno es crítico a altas densidades de corriente, cuando los gases reactivos son consumidos con gran velocidad, por lo que el descenso de concentración de reactivos en los electrodos puede provocar una caída súbita de la tensión de la célula. La densidad de corriente para la cual se produce esta caída de potencial en unas condiciones determinadas se denomina densidad límite de corriente. Así pues, estas pérdidas tienen su origen en los límites de difusión de las especies reactivas a través de la célula. Además de la membrana electrolítica y el catalizador, en la célula de combustible podemos encontrar como principales componentes los platos bipolares, encargados de conectar la célula eléctricamente con el exterior y de introducir los gases reactivos a través de sus conductos; y las láminas difusivas, que conectan eléctricamente el catalizador con los platos bipolares y sirven para distribuir los gases reactivos de forma que lleguen a todo el área activa, y para evacuar el exceso de agua que se acumula en el área activa.La lámina difusiva, más conocida como GDL, será el argumento principal de nuestro estudio. Está conformada por un tejido de fibra de carbono macroporosa, que asegure el contacto eléctrico entre el catalizador y el plato bipolar, y es tratada con polímeros para proporcionarle propiedades hidrófobas que le ayuden en la evacuación de agua. La evacuación del agua es tan importante, especialmente en el cátodo, porque de lo contrario, la cantidad de agua generada por la reacción electroquímica, sumada a la humedad que portan los gases, puede provocar inundaciones en la zona activa del electrodo. Debido a las inundaciones, el agua obstruye los poros del GDL, dificultando la difusión de especies gaseosas y aumentando las pérdidas por concentración. Por otra parte, si demasiada agua se evacúa del electrodo, se puede producir un aumento de las pérdidas óhmicas, ya que la conductividad protónica de la membrana polimérica, es directamente proporcional a su nivel de humidificación. Con el fin de mejorar la gestión del agua de la célula de combustible, se ha añadido una capa microporosa denominada MPL al lado activo del GDL. Esta capa, constituida por una mezcla de negro de carbón con el polímero hidrófobo como aglutinante, otorga al GDL un mejor acabado superficial que reduce la resistencia de contacto con el electrodo, además la reducción del tamaño de las gotas de agua al pasar por el MPL mejora la difusión gaseosa por la disminución de obstrucciones en el GDL. Es importante tener cuidado en los tratamientos de hidrofobización de estos dos elementos, ya que, cantidades excesivas de polímero hidrófobo podrían reducir demasiado el tamaño de los poros, además de aumentar las pérdidas resistivas por su marcado carácter dieléctrico. Para el correcto análisis del funcionamiento de una célula de combustible, la herramienta fundamental es su caracterización eléctrica a partir de la curva de polarización. Esta curva representa la evolución del potencial de la célula respecto de la densidad de corriente, y su forma viene determinada principalmente por la contribución de las tres pérdidas mencionadas anteriormente. Junto con la curva de polarización, en ocasiones se presenta la curva de densidad de potencia, que se obtiene a partir de la misma. De forma complementaria a la curva de polarización, se puede realizar el estudio del circuito equivalente de la célula de combustible. Este consiste en un circuito eléctrico sencillo, que simula las caídas de potencial en la célula a través de elementos como resistencias y capacitancias. Estos elementos representas pérdidas y limitaciones en los procesos químicos y físicos en la célula. Para la obtención de este circuito equivalente, se realiza una espectroscopia de impedancia electroquímica (en adelante EIS), que consiste en la identificación de los diferentes elementos a partir de los espectros de impedancia, resultantes de introducir señales de corriente alternas sinusoidales de frecuencia variable en la célula y observar la respuesta en la tensión. En la siguiente imagen se puede observar un ejemplo de la identificación de los parámetros del circuito equivalente en un espectro de impedancia. Al final del trabajo, se han realizado dos aplicaciones prácticas para comprobar la influencia de las características hidrófobas y morfológicas de los medios difusores en la gestión del agua en el cátodo y, por tanto, en el resultado eléctrico de la célula; y como aplicación práctica de las técnicas de construcción y análisis de las curvas de polarización y potencia y de la espectroscopia de impedancia electroquímica. El primer estudio práctico ha consistido en comprobar los beneficios de la inclusión de un MPL al GDL. Para ello se han caracterizado células funcionando con GDL y GDM (GDL+MPL) tratados con dos tipos diferentes de polímeros, PTFE y PFPE. Además se han realizado las pruebas para diferentes condiciones de funcionamiento, a saber, temperaturas de 60 y 80°C y niveles de humidificación relativa de los gases reactivos de 80%-60% y 80%- 100% (A-C). Se ha comprobado con las curvas de polarización y potencia, cómo la inclusión de un MPL en el lado activo del GDL reporta una mejora del funcionamiento de trabajo en todas las condiciones estudiadas. Esta mejora se hace más patente para altas densidades de corriente, cuando la gestión del agua resulta más crítica, y a bajas temperaturas ya que un menor porcentaje del agua producida se encuentra en estado de vapor, produciéndose inundaciones con mayor facilidad. El segundo estudio realizado trata de la influencia del agente hidrofobizante utilizado en los GDMs. Se pretende comprobar si algún otro polímero de los estudiados, mejora las prestaciones del comúnmente utilizado PTFE. Para ello se han caracterizado células trabajando en diferentes condiciones de trabajo (análogas a las del primer estudio) con GDMs tratados con PTFE, PFPE, FEP y PFA. Tras el análisis de las curvas de polarización y potencia, se observa un gran comportamiento del FEP para todas las condiciones de trabajo, aumentando el potencial de la célula para cada densidad de corriente respecto al PTFE y retrasando la densidad de corriente límite. El PFPE también demuestra un gran aumento del potencial y la densidad de potencia de la célula, aunque presenta mayores problemas de difusión a altas densidades de corriente. Los resultados del PFA evidencian sus problemas en la gestión del agua a altas densidades de corriente, especialmente para altas temperaturas. El análisis de los espectros de impedancia obtenidos con la EIS confirma los resultados de las curvas de polarización y evidencian que la mejor alternativa al PTFE para el tratamiento del GDM es el FEP, que por sus mejores características hidrófobas reduce las pérdidas por concentración con una mejor gestión del agua en el cátodo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Daño Cerebral (DC) se refiere a cualquier lesión producida en el cerebro y que afecta a su funcionalidad. Se ha convertido en una de las principales causas de discapacidad neurológica de las sociedades desarrolladas. Hasta la más sencilla de las actividades y acciones que realizamos en nuestro día a día involucran a los procesos cognitivos. Por ello, la alteración de las funciones cognitivas como consecuencia del DC, limita no sólo la calidad de vida del paciente sino también la de las persona de su entorno. La rehabilitación cognitiva trata de aumentar la autonomía y calidad de vida del paciente minimizando o compensando los desórdenes funciones causados por el episodio de DC. La plasticidad cerebral es una propiedad intrínseca al sistema nervioso humano por la que en función a la experiencia se crean nuevos patrones de conectividad. El propósito de la neurorrehabilitación es precisamente modular esta propiedad intrínseca a partir de ejercicios específicos, los cuales podrían derivar en la recuperación parcial o total de las funciones afectadas. La incorporación de la tecnología a las terapias de rehabilitación ha permitido desarrollar nuevas metodologías de trabajo. Esto ha ayudado a hacer frente a las dificultades de la rehabilitación que los procesos tradicionales no logran abarcar. A pesar del gran avance realizado en los Ãoltimos años, todavía existen debilidades en el proceso de rehabilitación; por ejemplo, la trasferencia a la vida real de las habilidades logradas durante la terapia de rehabilitación, así como su generalización a otras actividades cotidianas. Los entornos virtuales pueden reproducir situaciones cotidianas. Permiten simular, de forma controlada, los requisitos conductuales que encontramos en la vida real. En un contexto terapéutico, puede ser utilizado por el neuropsicólogo para corregir en el paciente comportamientos patológicos no deseados, realizar intervenciones terapéuticas sobre Actividades de Vida Diaria que estimulen conductas adaptativas. A pesar de que las tecnologías actuales tienen potencial suficiente para aportar nuevos beneficios al proceso de rehabilitación, existe cierta reticencia a su incorporación a la clínica diaria. A día de hoy, no se ha podido demostrar que su uso aporte una mejorar significativa con respecto a otro tipo de intervención; en otras palabras, no existe evidencia científica de la eficacia del uso de entornos virtuales interactivos en rehabilitación. En este contexto, la presente Tesis Doctoral trata de abordar los aspectos que mantienen a los entornos virtuales interactivos al margen de la rutina clínica diaria. Se estudian las diferentes etapas del proceso de rehabilitación cognitiva relacionado con la integración y uso de estos entornos: diseño de las actividades, su implementación en el entorno virtual, y finalmente la ejecución por el paciente y análisis de los respectivos datos. Por tanto, los bloques en los que queda dividido el trabajo de investigación expuesto en esta memoria son: 1. Diseño de las AVD. La definición y configuración de los elementos que componen la AVD permite al terapeuta diseñar estrategias de intervención terapéutica para actuar sobre el comportamiento del paciente durante la ejecución de la actividad. En esta parte de la tesis se pretende formalizar el diseño de las AVD de tal forma que el terapeuta pueda explotar el potencial tecnológico de los entornos virtuales interactivos abstrayéndose de la complejidad implícita a la tecnología. Para hacer viable este planteamiento se propone una metodología que permita modelar la definición de las AVD, representar el conocimiento implícito en ellas, y asistir al neuropsicólogo durante el proceso de diseño de la intervención clínica. 2. Entorno virtual interactivo. El gran avance tecnológico producido durante los Ãoltimos años permite reproducir AVD interactivas en un contexto de uso clínico. El objetivo perseguido en esta parte de la Tesis es el de extraer las características potenciales de esta solución tecnológica y aplicarla a las necesidades y requisitos de la rehabilitación cognitiva. Se propone el uso de la tecnología de Vídeo Interactivo para el desarrollo de estos entornos virtuales. Para la evaluación de la misma se realiza un estudio experimental dividido en dos fases con la participación de sujetos sanos y pacientes, donde se valora su idoneidad para ser utilizado en terapias de rehabilitación cognitiva. 3. Monitorización de las AVD. El uso de estos entornos virtuales interactivos expone al paciente ante una gran cantidad de estímulos e interacciones. Este hecho requiere de instrumentos de monitorización avanzado que aporten al terapeuta información objetiva sobre el comportamiento del paciente, lo que le podría permitir por ejemplo evaluar la eficacia del tratamiento. En este apartado se propone el uso de métricas basadas en la atención visual y la interacción con el entorno para conocer datos sobre el comportamiento del paciente durante la AVD. Se desarrolla un sistema de monitorización integrado con el entorno virtual que ofrece los instrumentos necesarios para la evaluación de estas métricas para su uso clínico. La metodología propuesta ha permitido diseñar una AVD basada en la definición de intervenciones terapéuticas. Posteriormente esta AVD has sido implementada mediante la tecnología de vídeo interactivo, creando así el prototipo de un entorno virtual para ser utilizado por pacientes con déficit cognitivo. Los resultados del estudio experimental mediante el cual ha sido evaluado demuestran la robustez y usabilidad del sistema, así como su capacidad para intervenir sobre el comportamiento del paciente. El sistema monitorización que ha sido integrado con el entorno virtual aporta datos objetivos sobre el comportamiento del paciente durante la ejecución de la actividad. Los resultados obtenidos permiten contrastar las hipótesis de investigación planteadas en la Tesis Doctoral, aportando soluciones que pueden ayudar a la integración de los entornos virtuales interactivos en la rutina clínica. Esto abre una nueva vía de investigación y desarrollo que podría suponer un gran progreso y mejora en los procesos de neurorrehabilitación cognitiva en daño cerebral. ABSTRACT Brain injury (BI) refers to medical conditions that occur in the brain, altering its function. It becomes one of the main neurological disabilities in the developed society. Cognitive processes determine individual performance in Activities of Daily Living (ADL), thus, the cognitive disorders after BI result in a loss of autonomy and independence, affecting the patient’s quality of life. Cognitive rehabilitation seeks to increase patients’ autonomy and quality of life minimizing or compensating functional disorders showed by BI patients. Brain plasticity is an intrinsic property of the human nervous system whereby its structure is changed depending on experience. Neurorehabilitation pursuits a precise modulation of this intrinsic property, based on specific exercises to induce functional changes, which could result in partial or total recovery of the affected functions. The new methodologies that can be approached by applying technologies to the rehabilitation process, permit to deal with the difficulties which are out of the scope of the traditional rehabilitation. Despite this huge breakthrough, there are still weaknesses in the rehabilitation process, such as the transferring to the real life those skills reached along the therapy, and its generalization to others daily activities. Virtual environments reproduce daily situations. Behavioural requirements which are similar to those we perceive in real life, are simulated in a controlled way. In these virtual environments the therapist is allowed to interact with patients without even being present, inhibiting unsuitable behaviour patterns, stimulating correct answers throughout the simulation and enhancing stimuli with supplementary information when necessary. Despite the benefits which could be brought to the cognitive rehabilitation by applying the potential of the current technologies, there are barriers for widespread use of interactive virtual environments in clinical routine. At present, the evidence that these technologies bring a significant improvement to the cognitive therapies is limited. In other words, there is no evidence about the efficacy of using virtual environments in rehabilitation. In this context, this work aims to address those issues which keep the virtual environments out of the clinical routine. The stages of the cognitive rehabilitation process, which are related with the use and integration of these environments, are analysed: activities design, its implementation in the virtual environment, and the patient’s performance and the data analysis. Hence, the thesis is comprised of the main chapters that are listed below: 1. ADL Design.Definition and configuration of the elements which comprise the ADL allow the therapist to design intervention strategies to influence over the patient behaviour along the activity performance. This chapter aims to formalise the AVD design in order to help neuropsychologists to make use of the interactive virtual environments’ potential but isolating them from the complexity of the technology. With this purpose a new methodology is proposed as an instrument to model the ADL definition, to manage its implied knowledge and to assist the clinician along the design process of the therapeutic intervention. 2. Interactive virtual environment. Continuous advancements make the technology feasible for re-creating rehabilitation therapies based on ADL. The goal of this stage is to analyse the main features of virtual environments in order to apply them according to the cognitive rehabilitation’s requirements. The interactive video is proposed as the technology to develop virtual environments. Experimental study is carried out to assess the suitability of the interactive video to be used by cognitive rehabilitation. 3. ADL monitoring system. This kind of virtual environments bring patients in front lots of stimuli and interactions. Thus, advanced monitoring instruments are needed to provide therapist with objective information about patient’s behaviour. This thesis chapter propose the use of metrics rely on visual patients’ visual attention and their interactions with the environment. A monitoring system has been developed and integrated with the interactive video-based virtual environment, providing neuropsychologist with the instruments to evaluate the clinical force of this metrics. Therapeutic interventions-based ADL has been designed by using the proposed methodology. Interactive video technology has been used to develop the ADL, resulting in a virtual environment prototype to be use by patients who suffer a cognitive deficits. An experimental study has been performed to evaluate the virtual environment, whose overcomes show the usability and solidity of the system, and also its capacity to have influence over patient’s behaviour. The monitoring system, which has been embedded in the virtual environment, provides objective information about patients’ behaviour along their activity performance. Research hypothesis of the Thesis are proven by the obtained results. They could help to incorporate the interactive virtual environments in the clinical routine. This may be a significant step forward to enhance the cognitive neurorehabilitation processes in brain injury.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hoy en día, el proceso de un proyecto sostenible persigue realizar edificios de elevadas prestaciones que son, energéticamente eficientes, saludables y económicamente viables utilizando sabiamente recursos renovables para minimizar el impacto sobre el medio ambiente reduciendo, en lo posible, la demanda de energía, lo que se ha convertido, en la última década, en una prioridad. La Directiva 2002/91/CE "Eficiencia Energética de los Edificios" (y actualizaciones posteriores) ha establecido el marco regulatorio general para el cálculo de los requerimientos energéticos mínimos. Desde esa fecha, el objetivo de cumplir con las nuevas directivas y protocolos ha conducido las políticas energéticas de los distintos países en la misma dirección, centrándose en la necesidad de aumentar la eficiencia energética en los edificios, la adopción de medidas para reducir el consumo, y el fomento de la generación de energía a través de fuentes renovables. Los edificios de energía nula o casi nula (ZEB, Zero Energy Buildings ó NZEB, Net Zero Energy Buildings) deberán convertirse en un estándar de la construcción en Europa y con el fin de equilibrar el consumo de energía, además de reducirlo al mínimo, los edificios necesariamente deberán ser autoproductores de energía. Por esta razón, la envolvente del edifico y en particular las fachadas son importantes para el logro de estos objetivos y la tecnología fotovoltaica puede tener un papel preponderante en este reto. Para promover el uso de la tecnología fotovoltaica, diferentes programas de investigación internacionales fomentan y apoyan soluciones para favorecer la integración completa de éstos sistemas como elementos arquitectónicos y constructivos, los sistemas BIPV (Building Integrated Photovoltaic), sobre todo considerando el próximo futuro hacia edificios NZEB. Se ha constatado en este estudio que todavía hay una falta de información útil disponible sobre los sistemas BIPV, a pesar de que el mercado ofrece una interesante gama de soluciones, en algunos aspectos comparables a los sistemas tradicionales de construcción. Pero por el momento, la falta estandarización y de una regulación armonizada, además de la falta de información en las hojas de datos técnicos (todavía no comparables con las mismas que están disponibles para los materiales de construcción), hacen difícil evaluar adecuadamente la conveniencia y factibilidad de utilizar los componentes BIPV como parte integrante de la envolvente del edificio. Organizaciones internacionales están trabajando para establecer las normas adecuadas y procedimientos de prueba y ensayo para comprobar la seguridad, viabilidad y fiabilidad estos sistemas. Sin embargo, hoy en día, no hay reglas específicas para la evaluación y caracterización completa de un componente fotovoltaico de integración arquitectónica de acuerdo con el Reglamento Europeo de Productos de la Construcción, CPR 305/2011. Los productos BIPV, como elementos de construcción, deben cumplir con diferentes aspectos prácticos como resistencia mecánica y la estabilidad; integridad estructural; seguridad de utilización; protección contra el clima (lluvia, nieve, viento, granizo), el fuego y el ruido, aspectos que se han convertido en requisitos esenciales, en la perspectiva de obtener productos ambientalmente sostenibles, saludables, eficientes energéticamente y económicamente asequibles. Por lo tanto, el módulo / sistema BIPV se convierte en una parte multifuncional del edificio no sólo para ser física y técnicamente "integrado", además de ser una oportunidad innovadora del diseño. Las normas IEC, de uso común en Europa para certificar módulos fotovoltaicos -IEC 61215 e IEC 61646 cualificación de diseño y homologación del tipo para módulos fotovoltaicos de uso terrestre, respectivamente para módulos fotovoltaicos de silicio cristalino y de lámina delgada- atestan únicamente la potencia del módulo fotovoltaico y dan fe de su fiabilidad por un período de tiempo definido, certificando una disminución de potencia dentro de unos límites. Existe también un estándar, en parte en desarrollo, el IEC 61853 (“Ensayos de rendimiento de módulos fotovoltaicos y evaluación energética") cuyo objetivo es la búsqueda de procedimientos y metodologías de prueba apropiados para calcular el rendimiento energético de los módulos fotovoltaicos en diferentes condiciones climáticas. Sin embargo, no existen ensayos normalizados en las condiciones específicas de la instalación (p. ej. sistemas BIPV de fachada). Eso significa que es imposible conocer las efectivas prestaciones de estos sistemas y las condiciones ambientales que se generan en el interior del edificio. La potencia nominal de pico Wp, de un módulo fotovoltaico identifica la máxima potencia eléctrica que éste puede generar bajo condiciones estándares de medida (STC: irradición 1000 W/m2, 25 °C de temperatura del módulo y distribución espectral, AM 1,5) caracterizando eléctricamente el módulo PV en condiciones específicas con el fin de poder comparar los diferentes módulos y tecnologías. El vatio pico (Wp por su abreviatura en inglés) es la medida de la potencia nominal del módulo PV y no es suficiente para evaluar el comportamiento y producción del panel en términos de vatios hora en las diferentes condiciones de operación, y tampoco permite predecir con convicción la eficiencia y el comportamiento energético de un determinado módulo en condiciones ambientales y de instalación reales. Un adecuado elemento de integración arquitectónica de fachada, por ejemplo, debería tener en cuenta propiedades térmicas y de aislamiento, factores como la transparencia para permitir ganancias solares o un buen control solar si es necesario, aspectos vinculados y dependientes en gran medida de las condiciones climáticas y del nivel de confort requerido en el edificio, lo que implica una necesidad de adaptación a cada contexto específico para obtener el mejor resultado. Sin embargo, la influencia en condiciones reales de operación de las diferentes soluciones fotovoltaicas de integración, en el consumo de energía del edificio no es fácil de evaluar. Los aspectos térmicos del interior del ambiente o de iluminación, al utilizar módulos BIPV semitransparentes por ejemplo, son aún desconocidos. Como se dijo antes, la utilización de componentes de integración arquitectónica fotovoltaicos y el uso de energía renovable ya es un hecho para producir energía limpia, pero también sería importante conocer su posible contribución para mejorar el confort y la salud de los ocupantes del edificio. Aspectos como el confort, la protección o transmisión de luz natural, el aislamiento térmico, el consumo energético o la generación de energía son aspectos que suelen considerarse independientemente, mientras que todos juntos contribuyen, sin embargo, al balance energético global del edificio. Además, la necesidad de dar prioridad a una orientación determinada del edificio, para alcanzar el mayor beneficio de la producción de energía eléctrica o térmica, en el caso de sistemas activos y pasivos, respectivamente, podría hacer estos últimos incompatibles, pero no necesariamente. Se necesita un enfoque holístico que permita arquitectos e ingenieros implementar sistemas tecnológicos que trabajen en sinergia. Se ha planteado por ello un nuevo concepto: "C-BIPV, elemento fotovoltaico consciente integrado", esto significa necesariamente conocer los efectos positivos o negativos (en términos de confort y de energía) en condiciones reales de funcionamiento e instalación. Propósito de la tesis, método y resultados Los sistemas fotovoltaicos integrados en fachada son a menudo soluciones de vidrio fácilmente integrables, ya que por lo general están hechos a medida. Estos componentes BIPV semitransparentes, integrados en el cerramiento proporcionan iluminación natural y también sombra, lo que evita el sobrecalentamiento en los momentos de excesivo calor, aunque como componente estático, asimismo evitan las posibles contribuciones pasivas de ganancias solares en los meses fríos. Además, la temperatura del módulo varía considerablemente en ciertas circunstancias influenciada por la tecnología fotovoltaica instalada, la radiación solar, el sistema de montaje, la tipología de instalación, falta de ventilación, etc. Este factor, puede suponer un aumento adicional de la carga térmica en el edificio, altamente variable y difícil de cuantificar. Se necesitan, en relación con esto, más conocimientos sobre el confort ambiental interior en los edificios que utilizan tecnologías fotovoltaicas integradas, para abrir de ese modo, una nueva perspectiva de la investigación. Con este fin, se ha diseñado, proyectado y construido una instalación de pruebas al aire libre, el BIPV Env-lab "BIPV Test Laboratory", para la caracterización integral de los diferentes módulos semitransparentes BIPV. Se han definido también el método y el protocolo de ensayos de caracterización en el contexto de un edificio y en condiciones climáticas y de funcionamiento reales. Esto ha sido posible una vez evaluado el estado de la técnica y la investigación, los aspectos que influyen en la integración arquitectónica y los diferentes tipos de integración, después de haber examinado los métodos de ensayo para los componentes de construcción y fotovoltaicos, en condiciones de operación utilizadas hasta ahora. El laboratorio de pruebas experimentales, que consiste en dos habitaciones idénticas a escala real, 1:1, ha sido equipado con sensores y todos los sistemas de monitorización gracias a los cuales es posible obtener datos fiables para evaluar las prestaciones térmicas, de iluminación y el rendimiento eléctrico de los módulos fotovoltaicos. Este laboratorio permite el estudio de tres diferentes aspectos que influencian el confort y consumo de energía del edificio: el confort térmico, lumínico, y el rendimiento energético global (demanda/producción de energía) de los módulos BIPV. Conociendo el balance de energía para cada tecnología solar fotovoltaica experimentada, es posible determinar cuál funciona mejor en cada caso específico. Se ha propuesto una metodología teórica para la evaluación de estos parámetros, definidos en esta tesis como índices o indicadores que consideran cuestiones relacionados con el bienestar, la energía y el rendimiento energético global de los componentes BIPV. Esta metodología considera y tiene en cuenta las normas reglamentarias y estándares existentes para cada aspecto, relacionándolos entre sí. Diferentes módulos BIPV de doble vidrio aislante, semitransparentes, representativos de diferentes tecnologías fotovoltaicas (tecnología de silicio monocristalino, m-Si; de capa fina en silicio amorfo unión simple, a-Si y de capa fina en diseleniuro de cobre e indio, CIS) fueron seleccionados para llevar a cabo una serie de pruebas experimentales al objeto de demostrar la validez del método de caracterización propuesto. Como resultado final, se ha desarrollado y generado el Diagrama Caracterización Integral DCI, un sistema gráfico y visual para representar los resultados y gestionar la información, una herramienta operativa útil para la toma de decisiones con respecto a las instalaciones fotovoltaicas. Este diagrama muestra todos los conceptos y parámetros estudiados en relación con los demás y ofrece visualmente toda la información cualitativa y cuantitativa sobre la eficiencia energética de los componentes BIPV, por caracterizarlos de manera integral. ABSTRACT A sustainable design process today is intended to produce high-performance buildings that are energy-efficient, healthy and economically feasible, by wisely using renewable resources to minimize the impact on the environment and to reduce, as much as possible, the energy demand. In the last decade, the reduction of energy needs in buildings has become a top priority. The Directive 2002/91/EC “Energy Performance of Buildings” (and its subsequent updates) established a general regulatory framework’s methodology for calculation of minimum energy requirements. Since then, the aim of fulfilling new directives and protocols has led the energy policies in several countries in a similar direction that is, focusing on the need of increasing energy efficiency in buildings, taking measures to reduce energy consumption, and fostering the use of renewable sources. Zero Energy Buildings or Net Zero Energy Buildings will become a standard in the European building industry and in order to balance energy consumption, buildings, in addition to reduce the end-use consumption should necessarily become selfenergy producers. For this reason, the façade system plays an important role for achieving these energy and environmental goals and Photovoltaic can play a leading role in this challenge. To promote the use of photovoltaic technology in buildings, international research programs encourage and support solutions, which favors the complete integration of photovoltaic devices as an architectural element, the so-called BIPV (Building Integrated Photovoltaic), furthermore facing to next future towards net-zero energy buildings. Therefore, the BIPV module/system becomes a multifunctional building layer, not only physically and functionally “integrated” in the building, but also used as an innovative chance for the building envelope design. It has been found in this study that there is still a lack of useful information about BIPV for architects and designers even though the market is providing more and more interesting solutions, sometimes comparable to the existing traditional building systems. However at the moment, the lack of an harmonized regulation and standardization besides to the non-accuracy in the technical BIPV datasheets (not yet comparable with the same ones available for building materials), makes difficult for a designer to properly evaluate the fesibility of this BIPV components when used as a technological system of the building skin. International organizations are working to establish the most suitable standards and test procedures to check the safety, feasibility and reliability of BIPV systems. Anyway, nowadays, there are no specific rules for a complete characterization and evaluation of a BIPV component according to the European Construction Product Regulation, CPR 305/2011. BIPV products, as building components, must comply with different practical aspects such as mechanical resistance and stability; structural integrity; safety in use; protection against weather (rain, snow, wind, hail); fire and noise: aspects that have become essential requirements in the perspective of more and more environmentally sustainable, healthy, energy efficient and economically affordable products. IEC standards, commonly used in Europe to certify PV modules (IEC 61215 and IEC 61646 respectively crystalline and thin-film ‘Terrestrial PV Modules-Design Qualification and Type Approval’), attest the feasibility and reliability of PV modules for a defined period of time with a limited power decrease. There is also a standard (IEC 61853, ‘Performance Testing and Energy Rating of Terrestrial PV Modules’) still under preparation, whose aim is finding appropriate test procedures and methodologies to calculate the energy yield of PV modules under different climate conditions. Furthermore, the lack of tests in specific conditions of installation (e.g. façade BIPV devices) means that it is difficult knowing the exact effective performance of these systems and the environmental conditions in which the building will operate. The nominal PV power at Standard Test Conditions, STC (1.000 W/m2, 25 °C temperature and AM 1.5) is usually measured in indoor laboratories, and it characterizes the PV module at specific conditions in order to be able to compare different modules and technologies on a first step. The “Watt-peak” is not enough to evaluate the panel performance in terms of Watt-hours of various modules under different operating conditions, and it gives no assurance of being able to predict the energy performance of a certain module at given environmental conditions. A proper BIPV element for façade should take into account thermal and insulation properties, factors as transparency to allow solar gains if possible or a good solar control if necessary, aspects that are linked and high dependent on climate conditions and on the level of comfort to be reached. However, the influence of different façade integrated photovoltaic solutions on the building energy consumption is not easy to assess under real operating conditions. Thermal aspects, indoor temperatures or luminance level that can be expected using building integrated PV (BIPV) modules are not well known. As said before, integrated photovoltaic BIPV components and the use of renewable energy is already a standard for green energy production, but would also be important to know the possible contribution to improve the comfort and health of building occupants. Comfort, light transmission or protection, thermal insulation or thermal/electricity power production are aspects that are usually considered alone, while all together contribute to the building global energy balance. Besides, the need to prioritize a particular building envelope orientation to harvest the most benefit from the electrical or thermal energy production, in the case of active and passive systems respectively might be not compatible, but also not necessary. A holistic approach is needed to enable architects and engineers implementing technological systems working in synergy. A new concept have been suggested: “C-BIPV, conscious integrated BIPV”. BIPV systems have to be “consciously integrated” which means that it is essential to know the positive and negative effects in terms of comfort and energy under real operating conditions. Purpose of the work, method and results The façade-integrated photovoltaic systems are often glass solutions easily integrable, as they usually are custommade. These BIPV semi-transparent components integrated as a window element provides natural lighting and shade that prevents overheating at times of excessive heat, but as static component, likewise avoid the possible solar gains contributions in the cold months. In addition, the temperature of the module varies considerably in certain circumstances influenced by the PV technology installed, solar radiation, mounting system, lack of ventilation, etc. This factor may result in additional heat input in the building highly variable and difficult to quantify. In addition, further insights into the indoor environmental comfort in buildings using integrated photovoltaic technologies are needed to open up thereby, a new research perspective. This research aims to study their behaviour through a series of experiments in order to define the real influence on comfort aspects and on global energy building consumption, as well as, electrical and thermal characteristics of these devices. The final objective was to analyze a whole set of issues that influence the global energy consumption/production in a building using BIPV modules by quantifying the global energy balance and the BIPV system real performances. Other qualitative issues to be studied were comfort aspect (thermal and lighting aspects) and the electrical behaviour of different BIPV technologies for vertical integration, aspects that influence both energy consumption and electricity production. Thus, it will be possible to obtain a comprehensive global characterization of BIPV systems. A specific design of an outdoor test facility, the BIPV Env-lab “BIPV Test Laboratory”, for the integral characterization of different BIPV semi-transparent modules was developed and built. The method and test protocol for the BIPV characterization was also defined in a real building context and weather conditions. This has been possible once assessed the state of the art and research, the aspects that influence the architectural integration and the different possibilities and types of integration for PV and after having examined the test methods for building and photovoltaic components, under operation conditions heretofore used. The test laboratory that consists in two equivalent test rooms (1:1) has a monitoring system in which reliable data of thermal, daylighting and electrical performances can be obtained for the evaluation of PV modules. The experimental set-up facility (testing room) allows studying three different aspects that affect building energy consumption and comfort issues: the thermal indoor comfort, the lighting comfort and the energy performance of BIPV modules tested under real environmental conditions. Knowing the energy balance for each experimented solar technology, it is possible to determine which one performs best. A theoretical methodology has been proposed for evaluating these parameters, as defined in this thesis as indices or indicators, which regard comfort issues, energy and the overall performance of BIPV components. This methodology considers the existing regulatory standards for each aspect, relating them to one another. A set of insulated glass BIPV modules see-through and light-through, representative of different PV technologies (mono-crystalline silicon technology, mc-Si, amorphous silicon thin film single junction, a-Si and copper indium selenide thin film technology CIS) were selected for a series of experimental tests in order to demonstrate the validity of the proposed characterization method. As result, it has been developed and generated the ICD Integral Characterization Diagram, a graphic and visual system to represent the results and manage information, a useful operational tool for decision-making regarding to photovoltaic installations. This diagram shows all concepts and parameters studied in relation to each other and visually provides access to all the results obtained during the experimental phase to make available all the qualitative and quantitative information on the energy performance of the BIPV components by characterizing them in a comprehensive way.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis revisa y analiza algunos aspectos fundamentales relativos al comportamiento de los sensores basados en resonadores piezoeléctricos TSM (Thickness Shear Mode), así como la aplicación de los mismos al estudio y caracterización de dos medios viscoelásticos de gran interés: los fluidos magnetoreológicos y los biofilms microbianos. El funcionamiento de estos sensores está basado en la medida de sus propiedades resonantes, las cuales varían al entrar en contacto con el material que se quiere analizar. Se ha realizado un análisis multifrecuencial, trabajando en varios modos de resonancia del transductor, en algunas aplicaciones incluso de forma simultánea (excitación pulsada). Se han revisado fenómenos como la presencia de microcontactos en la superficie del sensor y la resonancia de capas viscoelásticas de espesor finito, que pueden afectar a los sensores de cuarzo de manera contraria a lo que predice la teoría convencional (Sauerbrey y Kanazawa), pudiéndonos llevar a incrementos positivos de la frecuencia de resonancia. Además, se ha estudiado el efecto de una deposición no uniforme sobre el resonador piezoeléctrico. Para ello se han medido deposiciones de poliuretano, modelándose la respuesta del resonador con estas deposiciones mediante FEM. El modelo numérico permite estudiar el comportamiento del resonador al modificar distintas variables geométricas (espesor, superficie, no uniformidad y zona de deposición) de la capa depositada. Se ha demostrado que para espesores de entre un cuarto y media longitud de onda aproximadamente, una capa viscoelástica no uniforme sobre la superficie del sensor, amplifica el incremento positivo del desplazamiento de la frecuencia de resonancia en relación con una capa uniforme. Se ha analizado también el patrón geométrico de la sensibilidad del sensor, siendo también no uniforme sobre su superficie. Se han aplicado sensores TSM para estudiar los cambios viscoelásticos que se producen en varios fluidos magneto-reológicos (FMR) al aplicarles distintos esfuerzos de cizalla controlados por un reómetro. Se ha podido ver que existe una relación directa entre diversos parámetros reológicos obtenidos con el reómetro (fuerza normal, G’, G’’, velocidad de deformación, esfuerzo de cizalla…) y los parámetros acústicos, caracterizándose los FMR tanto en ausencia de campo magnético, como con campo magnético aplicado a distintas intensidades. Se han estudiado las ventajas que aporta esta técnica de medida sobre la técnica basada en un reómetro comercial, destacando que se consigue caracterizar con mayor detalle algunos aspectos relevantes del fluido como son la deposición de partículas (estabilidad del fluido), el proceso de ruptura de las estructuras formadas en los FMR tanto en presencia como en ausencia de campo magnético y la rigidez de los microcontactos que aparecen entre partículas y superficies. También se han utilizado sensores de cuarzo para monitorear en tiempo real la formación de biofilms de Staphylococcus epidermidis y Eschericia coli sobre los propios resonadores de cristal de cuarzo sin ningún tipo de recubrimiento, realizándose ensayos con cepas que presentan distinta capacidad de producir biofilm. Se mostró que, una vez que se ha producido una primera adhesión homogénea de las bacterias al sustrato, podemos considerar el biofilm como una capa semi-infinita, de la cual el sensor de cuarzo refleja las propiedades viscoelásticas de la región inmediatamente contigua al resonador, no siendo sensible a lo que sucede en estratos superiores del biofilm. Los experimentos han permitido caracterizar el módulo de rigidez complejo de los biofilms a varias frecuencias, mostrándose que el parámetro característico que indica la adhesión de un biofilm tanto en el caso de S. epidermidis como de E. coli, es el incremento de G’ (relacionado con la elasticidad o rigidez de la capa), el cual viene ligado a un incremento de la frecuencia de resonancia del sensor. ABSTRACT This thesis reviews and analyzes some key aspects of the behavior of sensors based on piezoelectric resonators TSM (Thickness Shear Mode) and their applications to the study and characterization in two viscoelastic media of great interest: magnetorheological fluids and microbial biofilms. The operation of these sensors is based on the analysis of their resonant properties that vary in contact with the material to be analyzed. We have made a multi-frequency analysis, working in several modes of resonance of the transducer, in some applications even simultaneously (by impulse excitation). We reviewed some phenomena as the presence of micro-contacts on the sensor surface and the resonance of viscoelastic layers of finite thickness, which can affect quartz sensors contrary to the conventional theory predictions (Sauerbrey and Kanazawa), leading to positive resonant frequency shifts. In addition, we studied the effect of non-uniform deposition on the piezoelectric resonator. Polyurethane stools have been measured, being the resonator response to these depositions modeled by FEM. The numerical model allows studying the behavior of the resonator when different geometric variables (thickness, surface non-uniformity and deposition zone) of the deposited layer are modified. It has been shown that for thicknesses between a quarter and a half of a wavelength approximately, non-uniform deposits on the sensor surface amplify the positive increase of the resonance frequency displacement compared to a uniform layer. The geometric pattern of the sensor sensitivity was also analyzed, being also non-uniform over its surface. TSM sensors have been applied to study the viscoelastic changes occurring in various magneto-rheological fluids (FMR) when subjected to different controlled shear stresses driven by a rheometer. It has been seen that there is a direct relationship between various rheological parameters obtained with the rheometer (normal force, G', G'', stress, shear rate ...) and the acoustic parameters, being the FMR characterized both in the absence of magnetic field, and when the magnetic field was applied at different intensities. We have studied the advantages of this technique over the characterization methods based on commercial rheometers, noting that TSM sensors are more sensitive to some relevant aspects of the fluid as the deposition of particles (fluid stability), the breaking process of the structures formed in the FMR both in the presence and absence of magnetic field, and the rigidity of the micro-contacts appearing between particles and surfaces. TSM sensors have also been used to monitor in real time the formation of biofilms of Staphylococcus epidermidis and Escherichia coli on the quartz crystal resonators themselves without any coating, performing tests with strains having different ability to produce biofilm. It was shown that, once a first homogeneous adhesion of bacteria was produced on the substrate, the biofilm can be considered as a semi-infinite layer and the quartz sensor reflects only the viscoelastic properties of the region immediately adjacent to the resonator, not being sensitive to what is happening in upper layers of the biofilm. The experiments allow the evaluation of the biofilm complex stiffness module at various frequencies, showing that the characteristic parameter that indicates the adhesion of a biofilm for the case of both S. epidermidis and E. coli, is an increased G' (related to the elasticity or stiffness of the layer), which is linked to an increase in the resonance frequency of the sensor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad la mayoría de plantas sufren pérdidas debido a las enfermedades que les provocan los hongos. Uno de estos grupos amenazado por el ataque de los hongos son las especies de la familia Orchidaceae, especies que se encuentran amenazadas y con numerosas especies en peligro de extinción. Uno de los problemas sanitarios más destacados es Botrytis cinerea, hongo patógeno cosmopolita, causante de enfermedades importantes en muchas plantas tales como frutas, verduras, accesiones de viveros, plantas ornamentales y huertos cultivos (Jarvis 1977; Elad et al., 2007). Este género es uno de los grupos de hongos más ampliamente conocido y distribuido. Contiene 22 especies (Hennebert 1973; Yohalem et al., 2003) y un híbrido (B. allii) (Yohalem & Alabama, 2003) vinculado a las etapas sexuales y un amplio número de huéspedes específicos (Beever y Weds, 2000); infecta más de 200 especies vegetales distintas (Williamson et al., 2007). Dada la importancia de este patógeno se realiza un estudio de caracterización morfológica y molecular del hongo, aislado de plantas de orquídeas cultivadas en condiciones de invernadero, de hortalizas y plantas frutales, con síntomas de necrosis, atizonamientos y pudriciones. El análisis de las características morfológicas (presencia de esclerocios, tamaño de conidios, presencia de estructuras sexuales in vitro) y fenotípicas (crecimiento micelial a diferentes temperaturas, germinación de esporas), nos permitió determinar características importantes del comportamiento del hongo y establecer cuáles son las mejores condiciones para su patogenicidad. Se afianzo este trabajo con estudios moleculares a través del análisis de la región ribosomal ITS1-ITS4. Entre los aislados estudiados se identificaron dos especies diferentes, Botrytis cinerea y B. fabiopsis, esta última conocida como especifica de Vicia faba, se lo aisló de una planta de Pelargonium sp. Se hizo un análisis filogenético para comparar estas dos especies, encontrándose que B. fabiopsis está estrechamente relacionada con B. cinerea y B. elliptica, pero lejanamente relacionado con B. fabae. Además, se analizó las poblaciones de los aislados de Botrytis, para ello se seleccionaron tres parejas de cebadores microsatelites con altos porcentajes de polimorfismo. Al analizar la similaridad entre los aislados se determinaron tres grupos de poblaciones de B. cinerea entre los cuales Botrytis fabiopsis comparte un grupo grande con B. cinerea. La diferenciación genética no fue significativa entre la población de aislados de orquídeas y hortalizas, la diferencia génica que fue muy baja, lo que sugiere que la especificidad de Botrytis no está dada por los hospederos, aunque la posibilidad de la especificidad con algún cultivo no puede descartarse. ABSTRACT Most plants suffer diseases caused by fungi. Orchidaceae is one of the threatened groups with many endangered species. Included into the most important problems in plant health is Botrytis cinerea, a cosmopolitan pathogen which causes major diseases in many plants of agronomic interest such as fruits, vegetables, planthouses accessions and ornamental plants (Jarvis, 1977; Elad et al, 2007). The genus Botrytis is one of the most widely and disseminated fungi. The genus contains 22 species (Hennebert 1973; Yohalem et al, 2003) and a hybrid (B. allii) (Yohalem & Alabama, 2003) linked to the sexual stages of a large number of specific hosts (Beever & Weds, 2000); infects over 200 different plant species (Williamson et al., 2007). Due to the importance of this pathogen, a study of morphological and molecular characterization of the fungus was carried out. Fungi samples were isolated from orchid plants grown in greenhouse conditions, vegetables and fruits with signs of necrosis, blight and rottening. To establish the best conditions for pathogenicity, behavioral characteristics of the fungus were studied through the analysis of morphological characteristics (presence of sclerotia, conidia size, sexual structures in vitro) and mycelial growth at different temperatures. To complete the characterization of the fungi, a molecular study was performed via the analysis of ribosomal ITS1-ITS4 region. Two different species were identified: Botrytis cinerea and Botrytis fabiopsis (known by specificity to Vicia faba). B. fabiopsis was isolated from a plant of the genus Pelargonium. A phylogenetic analysis was carried out to compare these two species leading to the conclusion that B. fabiopsis is closely related to B. cinerea and B. elliptica, but distantly related to B. fabae. The populations of Botrytis isolates were also analyzed. Three pairs of microsatellite primers with high percentages of polymorphism were selected. A similarity analysis showed three groups of populations of B. cinerea, including Botrytis fabiopsis. The genetic differentiation was not significant among the populations of isolates from orchids and vegetables; genetic differences were very low, suggesting that the specificity of Botrytis species is not given by the hosts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el complejo de plagas que atacan a los principales cultivos hortícolas protegidos, destacan principalmente los Hemípteros, y dentro de estos los pulgones, dada su importancia como vectores de virus que provocan considerables daños y pérdidas económicas. Debido a que la dispersión de la mayoría de los virus de plantas puede ser eficaz con densidades bajas de vectores y su control es muy complicado al no existir métodos curativos para su control, es necesario generar nuevos conocimientos sobre las interacciones virus-vector con el fin de desarrollar nuevas y eficaces estrategias de control. Por ello, el objetivo general de esta Tesis ha sido conocer el efecto de la infección viral (directo-mediado por la presencia del virus en el vector- e indirecto-mediado por las alteraciones físico-químicas que se originan en la planta como consecuencia de la infección viral-) sobre el comportamiento y eficacia biológica del vector Aphis gossypii Glover y sus posibles repercusiones en la epidemiología de virosis de transmisión no persistente (Cucumber mosaic virus, CMV, Cucumovirus) y persistente (Cucurbit aphid-borne yellows virus, CABYV, Polerovirus). El primer objetivo de esta Tesis Doctoral, se centró en el estudio del efecto indirecto del virus de transmisión no persistente CMV sobre el comportamiento alimenticio y la preferencia del pulgón A. gossypii en el cultivo de pepino. Los ensayos de despegue y aterrizaje mostraron que los pulgones que fueron liberados en las plantas de pepino infectadas con CMV tuvieron una mayor propensión en migrar hacia las plantas no infectadas (60, 120 y 180 minutos después de la liberación) que aquellos que fueron sometidos al tratamiento contrario (planta no infectada hacia planta infectada con CMV). El estudio de preferencia y asentamiento mostró que el vector A. gossypii prefiere asentarse en plantas infectadas con CMV en una etapa temprana de evaluación (30 minutos después de la liberación). Sin embargo, este comportamiento se revirtió en una etapa posterior (4 y 48 horas después de la liberación), donde los pulgones se asentaron más en las plantas no infectadas. A través de la técnica de Gráficos de Penetración Eléctrica (EPG) se observó un efecto indirecto del virus CMV, revelado por un cambio brusco en el comportamiento de prueba del pulgón a lo largo del tiempo, cuando éstos fueron expuestos a las plantas infectadas con CMV. Los primeros 15 minutos de registro EPG mostraron que los pulgones hicieron un número mayor de punciones intracelulares (potencial drops - pds) y pruebas en las plantas infectadas con CMV que en las plantas no infectadas. Por otra parte, la duración de la primera prueba fue más corta y la duración total de las pds por insecto fue mucho más larga en las plantas infectadas con CMV. Se observaron diferencias significativas en el tiempo transcurrido desde el final de la última pd hasta el final de la prueba, siendo ese tiempo más corto para los pulgones que estaban alimentándose en plantas infectadas con CMV. En la segunda hora de registro los pulgones rechazaron las plantas infectadas con CMV como fuente de alimento, permaneciendo menos tiempo en las fases de prueba en floema (fase de salivación – E1 y fase de ingestión del floema – E2). El comportamiento alimenticio observado sobre las plantas infectadas con CMV favorece la adquisición y posterior transmisión de los virus de transmisión no persistente, los cuales son adquiridos e inoculados durante la realización de pruebas intracelulares en las primeras pruebas de corta duración. En el segundo objetivo de la Tesis se evaluó el efecto directo e indirecto del virus de transmisión persistente CABYV en el comportamiento alimenticio y preferencia del pulgón A. gossypii en cultivo de pepino, especie susceptible al virus, y algodón, especie inmune al virus. No se observó un efecto directo del virus relevante en el comportamiento alimenticio del vector, ya que los resultados obtenidos a nivel floemático en plantas de pepino no se observaron en plantas de algodón, inmune al virus CABYV. Esto sugiere que los resultados obtenidos en pepino, pueden deberse a un “posible efecto indirecto” originado por la infección de las plantas susceptibles al virus durante la realización del ensayo, lo que indirectamente puede modificar el comportamiento del pulgón durante la fase de evaluación. Sin embargo, el virus CABYV modificó indirectamente el comportamiento alimenticio de su vector a través de cambios en la planta infectada. Los pulgones tardaron menos tiempo en llegar al floema, realizaron un mayor número de pruebas floemáticas y permanecieron durante más tiempo en actividades floemáticas en plantas infectadas con CABYV. El comportamiento observado sobre las plantas infectadas con CABYV favorece la adquisición de virus persistentes, los cuales son adquiridos durante la alimentación sostenida en floema. El estudio de preferencia y asentamiento de A. gossypii mostró que los pulgones virulíferos prefieren asentarse en plantas no infectadas a corto y largo plazo de evaluación (2, 4 y 48 horas después de la liberación). Los ensayos de despegue y aterrizaje mostraron que los pulgones virulíferos que fueron liberados en las plantas de pepino infectadas con CABYV tuvieron una mayor propensión en migrar hacia las plantas no infectadas (3, 6, 24 y 48 horas después de la liberación) que aquellos que fueron sometidos al tratamiento contrario (planta no infectada hacia planta infectada con CABYV). Sin embargo, los pulgones no virulíferos no mostraron preferencia por plantas de pepino no infectadas o infectadas con CABYV en ninguno de los ensayos (preferencia o despegue) o periodos evaluados (corto y largo plazo). Los resultados indican que el virus CABYV es capaz de modificar indirectamente el comportamiento alimenticio de su vector a través de cambios en la planta infectada, favoreciendo su adquisición por su principal vector, A. gossypii. Una vez que los pulgones tienen capacidad de transmitir el virus (virulíferos) se produce un cambio en su comportamiento prefiriendo asentarse sobre plantas no infectadas optimizándose así la dispersión viral. El tercer objetivo de la Tesis, fue evaluar los efectos directos e indirectos del virus CABYV así como los efectos indirectos del virus CMV en la eficacia biológica del vector A. gossypii. Los resultados obtenidos en los ensayos realizados con el virus persistente CABYV indican que el virus parece no modificar directamente ni indirectamente la eficacia biológica del vector en plantas de pepino o algodón, no observándose diferencias estadísticas en ninguno de los parámetros poblacionales evaluados (tiempo de desarrollo, tasa intrínseca de crecimiento, tiempo generacional medio, tasa media de crecimiento relativo y ninfas totales). En cuanto a los ensayos realizados con el virus no persistente, CMV, los resultados muestran un efecto indirecto del virus sobre la biología del vector. Así resultó que tanto la tasa intrínseca de crecimiento natural (rm) como la tasa media de crecimiento relativo (RGR) fueron más altas para pulgones crecidos sobre plantas infectadas con CMV que sobre plantas no infectadas, favoreciendo la reproducción y crecimiento poblacional del vector sobre plantas infectadas con CMV. Los resultados obtenidos en la presente Tesis, ofrecen un ejemplo de como los virus de plantas pueden manipular directa e indirectamente a su vector, maximizando así su dispersión entre las plantas. Esos nuevos conocimientos generados tienen implicaciones importantes en la transmisión, dispersión y en la epidemiología de los virus y deben ser considerados para diseñar o ajustar los modelos de simulación existentes y patrones de dispersión que describen las epidemias de estos virus. ABSTRACT The main objective of this Thesis has been to understand the effect of the viral infection (direct-mediated by the presence of the virus in the vector and indirect mediated by the chemical and physical changes originated in the plant as a consequence of the viral infection) on the behaviour and biological efficacy of the vector Aphis gossypii Glover and its consequences in the epidemiology of two viral diseases, one with non-persistent transmission (Cucumber mosaic virus, CMV, Cucumovirus) and another with persistent transmission (Cucurbit aphid-borne yellows virus, CABYV, Polerovirus). The first objective of this Thesis was the study of the indirect effect of the nonpersistent virus CMV on the feeding behaviour and preference of the aphid A. gossypii in cucumber plants. The results of the alighting and settling behaviour studies showed that aphids exhibited no preference to migrate from CMV-infected to mock-inoculated plants at short time intervals (1, 10 and 30 min after release), but showed a clear shift in preference to migrate from CMV-infected to mock-inoculated plants 60 min after release. Our free-choice preference assays showed that A. gossypii alates preferred CMV-infected over mockinoculated plants at an early stage (30 min), but this behaviour was reverted at a later stage and aphids preferred to settle and reproduce on mock-inoculated plants. The electrical penetration graph (EPG) technique revealed a sharp change in aphid probing behaviour over time when exposed to CMV-infected plants. At the beginning (first 15 min) aphid vectors dramatically increased the number of short superficial probes and intracellular punctures when exposed to CMV-infected plants. At a later stage (second hour of recording) aphids diminished their feeding on CMV-infected plants as indicated by much less time spent in phloem salivation and ingestion (E1 and E2). This particular probing behaviour including an early increase in the number of short superficial probes and intracellular punctures followed by a phloem feeding deterrence is known to enhance the transmission efficiency of viruses transmitted in a NP manner. We conclude that CMV induces specific changes in a plant host that modify the alighting, settling and probing behaviour of its main vector A. gossypii, leading to optimum transmission and spread of the virus. The second objective of this work was to evaluate the effects that the persistently aphid transmitted Cucurbit aphid-borne yellows virus (CABYV) can induce directly and indirectly on the alighting, settling and probing behaviour activities of the cotton aphid A. gossypii. Only minor direct changes on aphid feeding behaviour was observed due to CABYV when viruliferous aphids fed on mock-inoculated plants. However, the feeding behaviour of non-viruliferous aphids was very different on CABYV-infected than on mockinoculated plants. Non-viruliferous aphids spent longer time feeding from the phloem when plants were infected by CABYV than on mock-inoculated plants, suggesting that CABYV indirectly manipulates aphid feeding behaviour through its shared host plant in order to favour viral acquisition. The vector alighting and settling preference was compared between nonviruliferous and viruliferous aphids. Viruliferous aphids showed a clear preference for mockinoculated over CABYV-infected plants at short and long time, while such behaviour was not observed for non-viruliferous aphids. Overall, our results indicate that CABYV induces changes in its host plant that modifies aphid feeding behaviour in a way that virus acquisition from infected plants is enhanced. Once the aphids become viruliferous they prefer to settle on healthy plants, leading to optimize the transmission and spread of the virus. The third objective was to evaluate the direct and indirect effects of CABYV and indirect effects of the CMV on the A. gossypii fitness. Obtained results for the persistent virus CABYV showed that the virus did not modify the vector fitness in cucumber or cotton plants. None of the evaluated variables was statistically significant (development time (d), intrinsic growth rate (rm), mean relative growth rate (RGR) and total number of nymphs). On the other hand, data obtained for the non-persistent virus (CMV) showed an indirect effect of the virus on the vector fitness. Thus, the rm and RGR were higher for aphids grown on CMV-infected plants compared to aphids grown on mock-inoculated plants. Overall, the obtained results are clear examples of how plant viruses could manipulate directly and indirectly vector behaviour to optimize its own dispersion. These results are important for a better understanding of transmission, dispersion and epidemiology of plant viruses transmitted by vectors. This information could be also considered to design or adjust simulation models and dispersion patterns that describe plant virus epidemics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años, podemos darnos cuenta de la importancia que tienen las nuevas aplicaciones de vidrio especialmente en edificios turísticos donde el vértigo juega un papel importante en la visita. Sin embargo los sistemas constructivos no tienen un especial interés porque el vidrio laminado está siempre soportado por otro elemento de acero o incluso vidrio en forma de retícula. En la presente tesis voy a desarrollar una nueva solución de elemento autoportante de vidrio de gran tamaño haciendo seguro el uso del elemento para andar en el aire. El sueño de muchos arquitectos ha sido diseñar un edificio completamente transparente y a mí me gustaría contribuir a este sueño empezando a estudiar un forjado de vidrio como elemento estructural horizontal y para ello debemos cumplir requerimientos de seguridad. Uno de los objetivos es lograr un elemento lo más transparente y esbelto posible para el uso de pasarelas en vestíbulos de edificios. Las referencias construidas son bien conocidas, pero por otro lado Universidades europeas estudian continua estudiando el comportamiento del vidrio con diferentes láminas, adhesivos, apilados, insertos, sistemas de laminado, pretensado, pandeo lateral, seguridad post-rotura y muchos más aspectos necesarios. La metodología llevada a cabo en esta tesis ha sido primeramente diseñar un elemento industrial prefabricado horizontal de vidrio teniendo en cuenta todos los conceptos aprendidos en el estado del arte y la investigación para poder predimensionar el elemento. El siguiente paso será verificar el modelo por medio de cálculo analítico, simulación de elementos finitos y ensayos físicos. Para realizar los ensayos hay un paso intermedio teniendo que cambiar la hipótesis de carga uniforme a carga puntal para realizar el ensayo de flexión a 4 puntos normalizado y además cambiar a escala 1:2 para adaptarse al espacio de ensayo y ser viable económicamente. Finalmente compararé los resultados de tensión y deformación obtenidos por los tres métodos para extraer conclusiones. Sin embargo el problema de la seguridad no ha concluido, tendré que demostrar que el sistema es seguro después de que se produzca la rotura y para ello sólo dispongo de los ensayos como medio de demostración. El diseño es el resultado de la evolución de una viga tipo “I”; cuando es pretensada para obtener más resistencia, aparece el problema de pandeo lateral y éste es solucionado con una viga con sección en “T” cuya unión es resuelta con un cajeado longitudinal en la parte inferior del elemento horizontal. Las alas de éste crecen para recoger las cargas superficiales creando a su vez un punto débil en la unión que a su vez se soluciona duplicando la sección “TT” y haciendo trabajar dicho tablero de forma tan óptima como una viga continua. Dicha sección en vidrio como un único elemento pretensado es algo inédito. Además he diseñado unas escuadras metálicas en los extremos de los nervios como apoyo y placa de pretensión, así como una hendidura curva en el centro de los nervios para alojar los tirantes de acero de modo que al pretensar el tirante la placa corrija al menos la deformación por peso propio. Realizados los cambios geométricos de escala y las simplificaciones en el laminado y el adhesivo se programan la extracción de resultados desde 3 estadios diferentes: Sin pretensión y con pretensión de 750 Kg y de 1000Kg en cada nervio. Por cada estadio y por cada uno de los métodos, cálculo, simulación y ensayos, se extraen los datos de deformación y tensión en el punto medio de un nervio con el objetivo de hacer una comparación de resultados para obtener unas conclusiones, siempre en el campo de la elasticidad. Posteriormente incrementaré la carga hasta el momento de la rotura de la placa y después hasta el colapso teniendo en cuenta el tiempo y demostrando una rotura segura. El vidrio no tendrá un comportamiento plástico pero habrá sido controlado su comportamiento frágil manteniendo una carga y una deformación aceptable. ABSTRACT Over the past few years we have realized the importance of the new technologies regarding the application of glass in new buildings, especially those touristic places were the views and the heights are the reason of the visit. However, the construction systems of these glass platforms are not usually as interesting, because the laminated glass is always held by another steel substructure or even a grid-formed glass element. Throughout this thesis I am going to develop a new solution of a self-bearing element with big dimensions made out of glass, ensuring a safe solution to use as an element to walk on the air. The dream of many architects has been to create a building completely transparent, and I would like to contribute to this idea by making a glass slab as a horizontal structural element, for which we have to meet the security requirements. One of the goals is to achieve an element as transparent and slim as possible for the use in walkways of building lobbies. The glass buildings references are well known, but on the other hand the European Universities study the behaviour of the glass with different interlayers, adhesives, laminating systems, stacking, prestressed, buckling, safety, breakage and post-breakage capacity; and many other necessary aspects. The methodology followed in this thesis has been to first create a horizontal industrial prefabricated horizontal element of glass, taking into account all the concepts learned in the state of art and the investigation to be able to predimension this element. The next step will be to verify this model with an analytic calculus, a finite element modelling simulation and physical tests. To fulfil these tests there is an intermediate step, having to change the load hypothesis from a punctual one to make the test with a four points normalized deflexion, and also the scale of the sample was changed to 1:2 to adapt to the space of the test and make it economically possible. Finally, the results of tension and deformation obtained from the three methods have been compared to make the conclusions. However, the problem with safety has not concluded yet, for I will have to demonstrate that this system is safe even after its breakage, for which I can only use physical tests as a way of demonstration. The design is the result of the evolution of a typical “I” beam, which when it is prestressed to achieve more resistance, the effect of buckling overcomes, and this is solved with a “T” shaped beam, where the union is solved with a longitudinal groove on the inferior part of the horizontal element. The boards of this beam grow to cover the superficial loads, creating at the same time a weak point, which is solved by duplicating the section “TT” and therefore making this board work as optimal as a continuous beam. This glass section as a single prestressed element is unique. After the final design of the “π” glass plate was obtained and the composition of the laminated glass and interlayers has been predimensioned, the last connection elements must be contemplated. I have also designed a square steel shoe at the end of the beams, which will be the base and the prestressed board, as well as a curved slot in the centre of the nerves to accommodate the steel braces so that when this brace prestresses the board, at least the deformation due to its self-weight will be amended. Once I made the geometric changes of the scale and the simplifications on the laminating and the adhesive, the extraction on results overcomes from three different stages: without any pretension, with a pretension of 750 kg and with a pretension of 1000 kg on each rib. For each stage and for each one of the methods, calculus, simulation and tests, the deformation datum were extracted to obtain the conclusions, always in the field of the elasticity. Afterwards, I will increase the load until the moment of breakage of this board, and then until the collapse of the element, taking into account the time spent and demonstrating a safe breakage. The glass will not have a plastic behaviour, but its brittle behaviour has been controlled, keeping an acceptable load and deflection.