81 resultados para COMPORTAMIENTO DEL CONSUMIDOR - ASPECTOS PSICOLÓGICOS
Resumo:
La verificación de la seguridad estructural, tanto de estructuras que permitan un cierto grado de deterioro en su dimensionado como de estructuras existentes deterioradas, necesita disponer de modelos de resistencia que tengan en cuenta los efectos del deterioro. En el caso de la corrosión de las armaduras en las estructuras de hormigón armado, la resistencia depende de múltiples factores tales como la sección del acero corroído, el diagrama tensión-deformación del acero corroído, la adherencia hormigón-acero corroído, la fisuración o desprendimiento del hormigón debido a la expansión de los productos de corrosión. En este sentido, la transferencia de las fuerzas a través de la superficie de contacto entre el hormigón y el acero, la adherencia, es uno de los aspectos más importantes a considerar y es la base del comportamiento del hormigón armado como elemento estructural. La adherencia debe asegurar el anclaje de las armaduras y transmitir la tensión tangencial que aparece en las mismas como consecuencia de la variación de las solicitaciones a lo largo de un elemento estructural. Como consecuencia de la corrosión de las armaduras, el desarrollo de la adherencia se altera y, por tanto, la transferencia de la tensión longitudinal. Esta Tesis Doctoral aborda el comportamiento en estado límite último de la adherencia en el hormigón estructural con armaduras corroídas. El objetivo principal es la obtención de un modelo suficientemente realista y fiable para la evaluación de la adherencia con armaduras corroídas en el marco de la verificación de la seguridad estructural de elementos de hormigón armado con armaduras corroídas. Para ello se ha llevado a cabo un programa experimental de ensayos tipo pull-out excéntricos, con diferentes probetas, unas sin corrosión y otras sometidas tanto a procesos de corrosión natural como a procesos de corrosión acelerada, con diferentes grados de deterioro. Este tipo de ensayo de adherencia representa de forma realista y fiable realista los esfuerzos de adherencia en la zona de anclaje. Por otra parte, para la realización de estos ensayos se ha puesto a punto, además del procedimiento de ensayo, un sistema de adquisición de datos entre los que se incluye el empleo de sensores de tipo fibra óptica con redes de Bragg embebidos en la armadura para determinar los parámetros representativos de la adherencia en el hormigón estructural con armaduras corroídas. Por otra parte, la recopilación de los datos de los estudios de adherencia con armaduras corroídas procedentes de la literatura científica, además de los resultados de la presente investigación, junto con la identificación de las variables relevantes en el comportamiento de la adherencia con armaduras sanas y corroídas ha servido para la obtención de una formulación realista y fiable para la evaluación conjunta de la adherencia con armaduras sanas y corroídas a partir de modelos de regresión múltiple. La formulación propuesta ha sido validada mediante criterios estadísticos y comparada con otras formulaciones propuestas en la literatura científica. Además se ha realizado un análisis de las variables influyentes de la formulación propuesta. También se ha obtenido un modelo numérico simple y eficiente, validado con alguno de los ensayos realizados en esta tesis, para simular la adherencia con armaduras sanas y corroídas. Finalmente, se presenta un procedimiento para realizar la evaluación de vigas deterioradas por corrosión mediante el método de los campos de tensiones que incluye la evaluación de la adherencia mediante la formulación sugerida en esta Tesis Doctoral. Las conclusiones alcanzadas en este trabajo han permitido evaluar la adherencia con armaduras corroídas de forma realista y fiable. Asimismo, se ha podido incluir la evaluación de la adherencia en el marco de la verificación de la seguridad estructural en elementos de hormigón armado deteriorados por corrosión. ABSTRACT Structural safety verification of both structures allowing a certain degree of deterioration in design and deteriorated existing structures needs strength models that factor in the effects of deterioration. In case of corrosion of steel bars in reinforced concrete structures, the resistance depends on many things such as the remaining cross-section of the corroded reinforcement bars, the stress-strain diagrams of steel, the concrete-reinforcement bond and corrosion-induced concrete cracking or spalling. Accordingly, the force transfer through the contact surface between concrete and reinforcement, bond, is one of the most important aspects to consider and it is the basis of the structural performance of reinforced concrete. Bond must assure anchorage of reinforcement and transmit shear stresses as a consequence of the different stresses along a structural element As a consequence of corrosion, the bond development may be affected and hence the transfer of longitudinal stresses. This PhD Thesis deals with ultimate limit state bond behaviour in structural concrete with corrode steel bars. The main objective is to obtain a realistic and reliable model for the assessment of bond within the context of structural safety verifications of reinforced concrete members with corroded steel bars. In that context, an experimental programme of eccentric pull-out tests were conducted, with different specimens, ones without corrosion and others subjected to accelerated or natural corrosion with different corrosion degrees. This type of bond test reproduces in a realistic and reliable way bond stresses in the anchorage zone. Moreover, for conducting these tests it was necessary to develop both a test procedure and also a data acquisition system including the use of an embedded fibre-optic sensing system with fibre Bragg grating sensors to obtain the representative parameters of bond strength in structural concrete with corroded steel bars. Furthermore, the compilation of data from bond studies with corroded steel bars from scientific literature, including tests conducted in the present study, along with the identification of the relevant variables influencing bond behaviour for both corroded and non-corroded steel bars was used to obtain a realistic and reliable formulation for bond assessment in corroded and non-corroded steel bars by multiple linear regression analysis. The proposed formulation was validated with a number of statistical criteria and compared to other models from scientific literature. Moreover, an analysis of the influencing variables of the proposed formulation has been performed. Also, a simplified and efficient numerical model has been obtained and validated with several tests performed in this PhD Thesis for simulating the bond in corroded and non-corroded steel bars. Finally, a proposal for the assessment of corrosion-damaged beams with stress field models including bond assessment with the proposed formulation is presented. The conclusions raised in this work have allowed a realistic and reliable bond assessment in corroded steel bars. Furthermore, bond assessment has been included within the context of structural safety verifications in corrosion-damaged reinforced concrete elements.
Resumo:
La lucha contra el cambio climático es uno de los retos ambientales más importantes de este siglo XXI. Para alcanzar el objetivo de reducir las emisiones de gases de efecto invernadero es necesario desarrollar herramientas aplicables a todas las actividades de la economía con las que medir el impacto generado por la actividad del hombre. La Huella de Carbono (HC) forma parte de un conjunto de indicadores desarrollados para responder a esta necesidad. Nuestra línea de trabajo parte del hecho de que la demanda de una baja HC puede ser un factor clave para estimular cambios en los hábitos de consumos y para mejorar la eficiencia en los procesos de producción. Sin embargo, una de las principales dificultades halladas al respecto es la diferencia de enfoques para el cálculo de la HC de producto y la HC de organización. De igual manera existen importantes dificultades en el establecimiento de los límites del sistema en estudio. Para asegurar el éxito de la implantación de la HC en la sociedad, es necesario el establecimiento de los mismos criterios en los distintos estudios. Por este camino, la comparabilidad esta comprometida y con ello la confianza del consumidor. Los avances en el cálculo de HC se basan en dos propuestas ampliamente conocidas: El Análisis de Ciclo de Vida y la Extensión Ambiental del Análisis Input-Output. Ambas metodologías tienen relevantes aspectos positivos y negativos. Por lo tanto, la hibridación entre ambos enfoques supone una clara oportunidad en la búsqueda de sinergias. En respuesta a esta demanda, diferentes herramientas de enfoque híbrido están siendo desarrolladas. La investigación de esta tesis doctoral parte del avance desarrollado en la concepción del Método Compuesto de las Cuentas Contables (MC3). El MC3 es un método de análisis híbrido por niveles que desarrolla un cálculo exhaustivo de la HC de organización para el posterior cálculo de la HC de producto. Esta investigación tiene como objetivo general evaluar el MC3 como herramienta de cálculo de la HC, válida tanto para organización como para producto. En este sentido, se analizan pormenorizadamente cuatro casos de estudios con características innovadoras. Tres de ellos empleando el MC3 en diferentes unidades de estudio: organización, producto y escenario internacional. La aplicación a organización se realiza sobre un centro universitario, permitiendo el análisis detallado de diferentes aspectos metodológicos. La aplicación a producto compara los resultados del MC3 con la aplicación tradicional de un Análisis de Ciclo de Vida. El escenario internacional se desarrolla en Brasil sobre la producción energética en un parque eólico de grandes dimensiones. Por último, el caso de estudio 4 se basa en la Extensión Ambiental del Análisis Multi-Region Input-Output. Este estudio elabora una nueva aproximación para el análisis del impacto generado por un hipotético cierre del comercio internacional. Estos estudios son discutidos en su conjunto a fin de poner en valor las fortalezas de las innovaciones implementadas con un sentido integrador. También se proponen estrategias futuras que permitan mejorar la propuesta metodológica del MC3 con el punto de mira puesto en la internacionalización y la armonización con los estándares internacionales de la HC. Según la experiencia desarrollada, el MC3 es un método de cálculo de la HC práctico y válido para evaluar la cantidad de emisiones directas e indirectas de gases de efecto invernadero de cualquier tipo de actividad. Una de las principales conclusiones es que el MC3 puede ser considerado una herramienta válida para el ecoetiquetado global de bienes y servicios que permita, tanto a empresas como a consumidores, funcionar como motores de cambios hacia una economía dinamizada por la búsqueda de la racionalización en el uso de los recursos.
Resumo:
La finalidad de este proyecto es el estudio de la recuperación del último tramo del arroyo de las Canteras a su paso por Castro del Río, eliminando el canal existente para dotar al arroyo de cierta naturalidad y proponiendo distintas alternativas que solucionen los problemas de erosión y los recurrentes problemas de inundaciones en la localidad. Para la realización del proyecto, se han analizado tanto las condiciones del tramo fluvial como las correspondientes a la cuenca vertiente mediante una caracterización completa. Por otro lado, se ha realizado un estudio hidrológico para calcular distintos caudales generados en la cuenca asociados a distintos periodos de retorno; varios estudios hidráulicos, fundamentalmente modelizaciones del comportamiento del canal con el software HEC-RAS; y un estudio de erosión hídrica utilizando el método MUSLE con el caudal asociado a un periodo de retorno de 500 años. Con los resultados obtenidos se ha establecido un diagnóstico de la problemática existente y se han planteado y modelizado distintas alternativas. Como medidas estructurales dentro del tramo destacan: el redimensionamiento del cauce eliminando el hormigón, la variación de la curva del canal y la disminución de la pendiente mediante la creación de una serie de saltos. Como soluciones estructurales fuera del tramo de estudio cabe señalar la creación de diques de laminación y una llanura de inundación artificial para disminuir el caudal. Finalmente como medida no estructural, se realizará un cambio de usos y prácticas de conservación del olivar a nivel de cuenca. En conclusión, con la restauración, aparte de la mejora ambiental que se pretende conseguir, se realizará una mejora social. Dicha mejora social se obtendrá evitando las frecuentes inundaciones y eliminando el impacto visual que produce el canal gracias a la mejora de la calidad del entorno. Además, se concienciará a los habitantes de la zona para que entiendan que la solución al mal estado y comportamiento de un curso de agua no proviene únicamente de una gran obra en la zona problemática, sino de la aportación individual para reducir e incluso eliminar la fuente del problema.
Resumo:
El objetivo del presente Proyecto Fin de Carrera (PFC) consiste en obtener la representación tridimensional de vainas de bala de la batalla del Jarama de la Guerra Civil Española, mediante la utilización de tecnología escáner láser 3D. Se plantea en segundo lugar el análisis del comportamiento del escáner y de la modelización 3D en relación al material de las vainas y la corrosión que se ha producido en ellas. Se realizaron ensayos con vainas y puntas de balas de materiales metálicos de mayor o menor complejidad y se concluye con el estudio de las diversas vainas de bala de la Batalla del Jarama de la Guerra Civil Española seleccionadas para este trabajo. El modelo se obtendrá con una precisión interna de ± 1 mm.
Resumo:
El sector del vino se enfrenta a nuevas oportunidades de mercado, debido a la creciente liberalización y globalización del comercio, a las que hay que unir mayores retos, como la competencia en aumento de nuevos actores y el descenso del consumo en los países productores tradicionales. Para hacer frente a esta competencia en mercados emergentes, así como a la saturación de los tradicionales, las estrategias de diferenciación se hacen cada vez más necesarias. La industria vitivinícola española, incluida en un modelo tradicional de producción, también ha sufrido con la aparición en el mercado internacional de nuevos países productores y requiere de procesos de reestructuración de la producción y estrategias innovadoras en el comercio. En España existe un claro desajuste entre oferta y demanda, con descensos en el consumo interno, que apenas cubre la sexta parte de la producción, con la eliminación de los apoyos públicos de regulación y con aumentos continuados de las cosechas. Por ello, la vía más relevante para mantener la rentabilidad del sector es la exportación, aumentando considerablemente el volumen exportado, pero también mejorando el valor de los envíos. Esta situación, sin duda, exige adaptar la oferta española a la demanda global y requiere del conocimiento de los mercados de destino y del diseño de estrategias adecuadas para alcanzar el objetivo marcado. Estados Unidos es un importador neto de vino, debido al incremento de la demanda, que desde 2013 le hizo convertirse en el mayor consumidor mundial en volumen. Este consumo en expansión no es cubierto por la producción interna, y los vinos importados adquieren un creciente interés para el consumidor estadounidense. España tiene tasas de incremento significativas en este destino, pero sus cuotas de mercado aún se sitúan en niveles inferiores a las de muchos países competidores y el consumidor medio estadounidense no tiene un elevado conocimiento del vino español, por lo que existe una gran capacidad de crecimiento. En este contexto, se plantea la necesidad de examinar el comportamiento de la demanda de EE.UU. frente a los atributos del vino español. Identificar y analizar las características que la demanda estadounidense, como mercado de exportación, considera relevantes en el vino español de calidad diferenciada, procedente de distintas regiones productoras, y posteriormente determinar su grado de importancia, de manera que se puedan plantear herramientas para la toma de decisiones empresariales y para la definición de estrategias comerciales, por parte de productores, exportadores y distribuidores vitivinícolas. El análisis de precios hedónicos, metodología ampliamente utilizada en el sector, trata de explicar la decisión de compra de determinado producto en base a una combinación de sus atributos, además de estimar el precio implícito de cada uno de ellos. Por tanto, este enfoque resulta indicado y ha sido el empleado para proporcionar a los operadores del lado de la oferta la posibilidad de comprobar los beneficios previstos de sus inversiones, comparándolos con los costes asociados a dicho esfuerzo inversor. La estimación hedónica se realiza sobre una muestra representativa de exportaciones de bodegas españolas, obtenida de una guía especializada de EE.UU. de amplia difusión en dicho mercado. Se realizan análisis tanto para el conjunto de la muestra, como para los distintos segmentos de precio (super premium, popular premium y ultra premium), y de ellos se deriva que seis grupos de variables presentan influencia sobre la apreciación del consumidor: añada, categoría comercial (grado de envejecimiento y vinos boutique), nota de calidad, origen, tipo de vino (según su color) y tamaño de la bodega. Cualquier decisión empresarial adoptada respecto a alguno de estos atributos es relevante respecto al posicionamiento del vino en el mercado estadounidense. Al margen de determinadas particularidades y del origen del vino, que presenta conductas diferentes según el segmento de precios, se observa un comportamiento similar de la demanda respecto a cada grupo de variables en los distintos tramos del mercado. Por otro lado, es necesario señalar que el rango super premium es el de mayor complejidad a la hora de tomar decisiones y en el que se dan un mayor número de posibilidades de actuación a la hora de posicionar el producto, ya que es en el que un mayor número de parámetros resulta de interés para el consumidor. El comprador estadounidense presta gran atención a la categoría del vino, siendo el factor más influyente sobre el precio de manera general. La demanda estadounidense valora de un modo importante el grado de envejecimiento de los vinos, así como su posicionamiento en precios altos que reflejen características específicas, como ocurre en los vinos boutique, especialmente apreciados en el segmento ultra premium. En este sentido, sería pertinente analizar los costes asociados a procurar a los vinos, en el caso de ser aptos para ello, un mayor envejecimiento o para elaborar un vino boutique dirigido a este mercado, o bien centrar las exportaciones en este tipo de vinos, para comprobar si se obtienen mayores beneficios con estas operaciones. Se presentan como excepción los vinos calificados como crianza que se equiparan a los vinos jóvenes o presentan peor apreciación, por lo que puede no resultar rentable un envejecimiento del vino hasta esa categoría. Por otro lado, se observa en los dos tramos inferiores de precio, que el consumidor estadounidense sabe apreciar las oportunidades de encontrar un vino de calidad en un precio inferior al esperado, por lo que aparecen oportunidades para establecer estrategias de comercialización, vía ofertas o promociones, para penetrar en el mercado. El factor exclusividad, medido a través del tamaño de la bodega, puede servir como instrumento de diferenciación comercial en EE.UU. al presentar valor añadido para la demanda, que aprecia en mayor medida los vinos elaborados por microempresas, frente a los de grandes empresas, que obtienen los peores resultados. En los vinos super premium crece la importancia de este factor, frente al tramo inferior donde el peso de las decisiones recae en otros parámetros. En ultra premium, la demanda relaciona más el factor exclusividad con la categoría boutique y no tanto con el menor tamaño de la empresa. En cuanto al tipo de vino, resulta el atributo menos relevante para el consumidor a la hora de tomar una decisión de compra, e incluso no es significativo en el segmento inferior de precios. Por tanto, las bodegas podrían tratar de introducirse en el mercado popular premium sin atender al color del vino como aspecto clave. De manera general, los vinos tintos presentan una mayor valoración frente a los blancos y rosados, teniendo estos últimos consideración negativa para el cliente. El origen del vino es relevante en las elecciones del consumidor y tiene utilidad como elemento diferenciador. Por tanto, la localización de una bodega puede favorecer o perjudicar su penetración en EE.UU. Resulta interesante que, en el tramo superior de precios, gran parte de las apreciaciones sobre los distintos orígenes son positivas, lo que va en favor de la asociación de los vinos españoles a un cierto factor prestigio y con la generación de una buena imagen general. Sin embargo, no hay muchas procedencias significativas en este estrato, por lo que son necesarios mayores esfuerzos promocionales y de posicionamiento, para ampliar el conocimiento y aceptación por el mercado de EE.UU. y mejorar así el citado factor prestigio. De manera global, la mejor valoración por la demanda se produce en los orígenes del norte de la península, mientras que la submeseta sur, zonas colindantes y Aragón tienen apreciaciones negativas. En este sentido, hay determinados orígenes, como Yecla, Utiel-Requena, Cariñena, Vinos de la Tierra de Castilla o, especialmente, Valdepeñas, que han de modificar sus estrategias de promoción, si existieran, o emprender trabajos intensos en esta línea. Por otro lado, se muestra que la mayor penetración de mercado ayuda a un mayor conocimiento y a una mejor valoración por parte del cliente. Las denominaciones de origen Rioja, Ribera de Duero, Priorat, Penedès, Rueda y Toro, orígenes con elevada presencia en la muestra, son reconocidas positivamente. Excepciones a esta afirmación, DO Navarra y Rías Baixas, deben aumentar la promoción y replantear las estrategias de posicionamiento, ya que el consumidor no parece predispuesto a comprar un vino de estas procedencias por encima de determinado nivel de precio. Finalmente, se destaca que hay orígenes, como DO Campo de Borja o IGP Vino de la Tierra de Castilla y León, con mayor valoración a mayor precio, por lo que deberían aprovechar esta percepción de buena calidad para penetrar en el mercado, especialmente en los tramos superiores de precio. En general, el consumidor estadounidense considera la añada como un factor de media relevancia en la toma de decisiones, con menos importancia en ultra premium que entre los vinos del segmento inferior y medio. En todos los análisis hay coincidencia en la mejor valoración de las últimas añadas, hecho que puede guardar relación con el aumento de la presencia y del mayor conocimiento de los vinos españoles en EE.UU. En cualquier caso, no resultaría interesante la exportación de vinos de años de cosecha antiguos, especialmente en los tramos más baratos de precios, dado que su valor puede no verse recompensado. Finalmente indicar que el mercado estadounidense tiene gran consideración, y de manera directamente proporcional, por la nota de calidad otorgada por expertos, más notablemente a medida que aumenta el precio, y la obtención de las máximas calificaciones puede suponer una apreciación significativa, mientras que una nota situada en los valores inferiores será considerada negativamente y prácticamente del mismo modo por el consumidor. Por tanto, para el elaborador del vino resultaría muy relevante obtener una de las máximas calificaciones, ya que sólo a partir de los 90 puntos se consigue un impacto positivo considerable, que permita rentabilizar los esfuerzos inversores realizados a tal fin.
Resumo:
El MC en baloncesto es aquel fenómeno relacionado con el juego que presenta unas características particulares determinadas por la idiosincrasia de un equipo y puede afectar a los protagonistas y por ende al devenir del juego. En la presente Tesis se ha estudiado la incidencia del MC en Liga A.C.B. de baloncesto y para su desarrollo en profundidad se ha planteado dos investigaciones una cuantitativa y otra cualitativa cuya metodología se detalla a continuación: La investigación cuantitativa se ha basado en la técnica de estudio del “Performance analysis”, para ello se han estudiado cuatro temporadas de la Liga A.C.B. (del 2007/08 al 2010/11), tal y como refleja en la bibliografía consultada se han tomado como momentos críticos del juego a los últimos cinco minutos de partidos donde la diferencia de puntos fue de seis puntos y todos los Tiempos Extras disputados, de tal manera que se han estudiado 197 momentos críticos. La contextualización del estudio se ha hecho en función de la variables situacionales “game location” (local o visitante), “team quality” (mejores o peores clasificados) y “competition” (fases de LR y Playoff). Para la interpretación de los resultados se han realizado los siguientes análisis descriptivos: 1) Análisis Discriminante, 2) Regresión Lineal Múltiple; y 3) Análisis del Modelo Lineal General Multivariante. La investigación cualitativa se ha basado en la técnica de investigación de la entrevista semiestructurada. Se entrevistaron a 12 entrenadores que militaban en la Liga A.C.B. durante la temporada 2011/12, cuyo objetivo ha sido conocer el punto de vista que tiene el entrenador sobre el concepto del MC y que de esta forma pudiera dar un enfoque más práctico basado en su conocimiento y experiencia acerca de cómo actuar ante el MC en el baloncesto. Los resultados de ambas investigaciones coinciden en señalar la importancia del MC sobre el resultado final del juego. De igual forma, el concepto en sí entraña una gran complejidad por lo que se considera fundamental la visión científica de la observación del juego y la percepción subjetiva que presenta el entrenador ante el fenómeno, para la cual los aspectos psicológicos de sus protagonistas (jugadores y entrenadores) son determinantes. ABSTRACT The Critical Moment (CM) in basketball is a related phenomenon with the game that has particular features determined by the idiosyncrasies of a team and can affect the players and therefore the future of the game. In this Thesis we have studied the impact of CM in the A.C.B. League and from a profound development two investigations have been raised, quantitative and qualitative whose methodology is as follows: The quantitative research is based on the technique of study "Performance analysis", for this we have studied four seasons in the A.C.B. League (2007/08 to 2010/11), and as reflected in the literature the Critical Moments of the games were taken from the last five minutes of games where the point spread was six points and all overtimes disputed, such that 197 critical moments have been studied. The contextualization of the study has been based on the situational variables "game location" (home or away), "team quality" (better or lower classified) and "competition" (LR and Playoff phases). For the interpretation of the results the following descriptive analyzes were performed: 1) Discriminant Analysis, 2) Multiple Linear Regression Analysis; and 3) Analysis of Multivariate General Linear Model. Qualitative research is based on the technique of investigation of a semi-structured interview. 12 coaches who belonged to the A.C.B. League were interviewed in seasons 2011/12, which aimed to determine the point of view that the coach has on the CM concept and thus could give a more practical approach based on their knowledge and experience about how to deal with the CM in basketball. The results of both studies agree on the importance of the CM on the final outcome of the game. Similarly, the concept itself is highly complex so the scientific view of the observation of the game is considered essential as well as the subjective perception the coach presents before the phenomenon, for which the psychological aspects of their characters (players and coaches) are crucial.
Resumo:
En España existen del orden de 1,300 grandes presas, de las cuales un 20% fueron construidas antes de los años 60. El hecho de que existan actualmente una gran cantidad de presas antiguas aún en operación, ha producido un creciente interés en reevaluar su seguridad empleando herramientas nuevas o modificadas que incorporan modelos de fallo teóricos más completos, conceptos geotécnicos más complejos y nuevas técnicas de evaluación de la seguridad. Una manera muy común de abordar el análisis de estabilidad de presas de gravedad es, por ejemplo, considerar el deslizamiento a través de la interfase presa-cimiento empleando el criterio de rotura lineal de Mohr-Coulomb, en donde la cohesión y el ángulo de rozamiento son los parámetros que definen la resistencia al corte de la superficie de contacto. Sin embargo la influencia de aspectos como la presencia de planos de debilidad en el macizo rocoso de cimentación; la influencia de otros criterios de rotura para la junta y para el macizo rocoso (ej. el criterio de rotura de Hoek-Brown); las deformaciones volumétricas que ocurren durante la deformación plástica en el fallo del macizo rocoso (i.e., influencia de la dilatancia) no son usualmente consideradas durante el diseño original de la presa. En este contexto, en la presente tesis doctoral se propone una metodología analítica para el análisis de la estabilidad al deslizamiento de presas de hormigón, considerando un mecanismo de fallo en la cimentación caracterizado por la presencia de una familia de discontinuidades. En particular, se considera la posibilidad de que exista una junta sub-horizontal, preexistente y persistente en el macizo rocoso de la cimentación, con una superficie potencial de fallo que se extiende a través del macizo rocoso. El coeficiente de seguridad es entonces estimado usando una combinación de las resistencias a lo largo de los planos de rotura, cuyas resistencias son evaluadas empleando los criterios de rotura no lineales de Barton y Choubey (1977) y Barton y Bandis (1990), a lo largo del plano de deslizamiento de la junta; y el criterio de rotura de Hoek y Brown (1980) en su versión generalizada (Hoek et al. 2002), a lo largo del macizo rocoso. La metodología propuesta también considera la influencia del comportamiento del macizo rocoso cuando este sigue una ley de flujo no asociada con ángulo de dilatancia constante (Hoek y Brown 1997). La nueva metodología analítica propuesta es usada para evaluar las condiciones de estabilidad empleando dos modelos: un modelo determinista y un modelo probabilista, cuyos resultados son el valor del coeficiente de seguridad y la probabilidad de fallo al deslizamiento, respectivamente. El modelo determinista, implementado en MATLAB, es validado usando soluciones numéricas calculadas mediante el método de las diferencias finitas, empleando el código FLAC 6.0. El modelo propuesto proporciona resultados que son bastante similares a aquellos calculados con FLAC; sin embargo, los costos computacionales de la formulación propuesta son significativamente menores, facilitando el análisis de sensibilidad de la influencia de los diferentes parámetros de entrada sobre la seguridad de la presa, de cuyos resultados se obtienen los parámetros que más peso tienen en la estabilidad al deslizamiento de la estructura, manifestándose además la influencia de la ley de flujo en la rotura del macizo rocoso. La probabilidad de fallo es obtenida empleando el método de fiabilidad de primer orden (First Order Reliability Method; FORM), y los resultados de FORM son posteriormente validados mediante simulaciones de Monte Carlo. Los resultados obtenidos mediante ambas metodologías demuestran que, para el caso no asociado, los valores de probabilidad de fallo se ajustan de manera satisfactoria a los obtenidos mediante las simulaciones de Monte Carlo. Los resultados del caso asociado no son tan buenos, ya que producen resultados con errores del 0.7% al 66%, en los que no obstante se obtiene una buena concordancia cuando los casos se encuentran en, o cerca de, la situación de equilibrio límite. La eficiencia computacional es la principal ventaja que ofrece el método FORM para el análisis de la estabilidad de presas de hormigón, a diferencia de las simulaciones de Monte Carlo (que requiere de al menos 4 horas por cada ejecución) FORM requiere tan solo de 1 a 3 minutos en cada ejecución. There are 1,300 large dams in Spain, 20% of which were built before 1960. The fact that there are still many old dams in operation has produced an interest of reevaluate their safety using new or updated tools that incorporate state-of-the-art failure modes, geotechnical concepts and new safety assessment techniques. For instance, for gravity dams one common design approach considers the sliding through the dam-foundation interface, using a simple linear Mohr-Coulomb failure criterion with constant friction angle and cohesion parameters. But the influence of aspects such as the persistence of joint sets in the rock mass below the dam foundation; of the influence of others failure criteria proposed for rock joint and rock masses (e.g. the Hoek-Brown criterion); or the volumetric strains that occur during plastic failure of rock masses (i.e., the influence of dilatancy) are often no considered during the original dam design. In this context, an analytical methodology is proposed herein to assess the sliding stability of concrete dams, considering an extended failure mechanism in its rock foundation, which is characterized by the presence of an inclined, and impersistent joint set. In particular, the possibility of a preexisting sub-horizontal and impersistent joint set is considered, with a potential failure surface that could extend through the rock mass; the safety factor is therefore computed using a combination of strength along the rock joint (using the nonlinear Barton and Choubey (1977) and Barton and Bandis (1990) failure criteria) and along the rock mass (using the nonlinear failure criterion of Hoek and Brown (1980) in its generalized expression from Hoek et al. (2002)). The proposed methodology also considers the influence of a non-associative flow rule that has been incorporated using a (constant) dilation angle (Hoek and Brown 1997). The newly proposed analytical methodology is used to assess the dam stability conditions, employing for this purpose the deterministic and probabilistic models, resulting in the sliding safety factor and the probability of failure respectively. The deterministic model, implemented in MATLAB, is validated using numerical solution computed with the finite difference code FLAC 6.0. The proposed deterministic model provides results that are very similar to those computed with FLAC; however, since the new formulation can be implemented in a spreadsheet, the computational cost of the proposed model is significantly smaller, hence allowing to more easily conduct parametric analyses of the influence of the different input parameters on the dam’s safety. Once the model is validated, parametric analyses are conducting using the main parameters that describe the dam’s foundation. From this study, the impact of the more influential parameters on the sliding stability analysis is obtained and the error of considering the flow rule is assessed. The probability of failure is obtained employing the First Order Reliability Method (FORM). The probabilistic model is then validated using the Monte Carlo simulation method. Results obtained using both methodologies show good agreement for cases in which the rock mass has a nonassociate flow rule. For cases with an associated flow rule errors between 0.70% and 66% are obtained, so that the better adjustments are obtained for cases with, or close to, limit equilibrium conditions. The main advantage of FORM on sliding stability analyses of gravity dams is its computational efficiency, so that Monte Carlo simulations require at least 4 hours on each execution, whereas FORM requires only 1 to 3 minutes on each execution.
Resumo:
Los análisis de fiabilidad representan una herramienta adecuada para contemplar las incertidumbres inherentes que existen en los parámetros geotécnicos. En esta Tesis Doctoral se desarrolla una metodología basada en una linealización sencilla, que emplea aproximaciones de primer o segundo orden, para evaluar eficientemente la fiabilidad del sistema en los problemas geotécnicos. En primer lugar, se emplean diferentes métodos para analizar la fiabilidad de dos aspectos propios del diseño de los túneles: la estabilidad del frente y el comportamiento del sostenimiento. Se aplican varias metodologías de fiabilidad — el Método de Fiabilidad de Primer Orden (FORM), el Método de Fiabilidad de Segundo Orden (SORM) y el Muestreo por Importancia (IS). Los resultados muestran que los tipos de distribución y las estructuras de correlación consideradas para todas las variables aleatorias tienen una influencia significativa en los resultados de fiabilidad, lo cual remarca la importancia de una adecuada caracterización de las incertidumbres geotécnicas en las aplicaciones prácticas. Los resultados también muestran que tanto el FORM como el SORM pueden emplearse para estimar la fiabilidad del sostenimiento de un túnel y que el SORM puede mejorar el FORM con un esfuerzo computacional adicional aceptable. Posteriormente, se desarrolla una metodología de linealización para evaluar la fiabilidad del sistema en los problemas geotécnicos. Esta metodología solamente necesita la información proporcionada por el FORM: el vector de índices de fiabilidad de las funciones de estado límite (LSFs) que componen el sistema y su matriz de correlación. Se analizan dos problemas geotécnicos comunes —la estabilidad de un talud en un suelo estratificado y un túnel circular excavado en roca— para demostrar la sencillez, precisión y eficiencia del procedimiento propuesto. Asimismo, se reflejan las ventajas de la metodología de linealización con respecto a las herramientas computacionales alternativas. Igualmente se muestra que, en el caso de que resulte necesario, se puede emplear el SORM —que aproxima la verdadera LSF mejor que el FORM— para calcular estimaciones más precisas de la fiabilidad del sistema. Finalmente, se presenta una nueva metodología que emplea Algoritmos Genéticos para identificar, de manera precisa, las superficies de deslizamiento representativas (RSSs) de taludes en suelos estratificados, las cuales se emplean posteriormente para estimar la fiabilidad del sistema, empleando la metodología de linealización propuesta. Se adoptan tres taludes en suelos estratificados característicos para demostrar la eficiencia, precisión y robustez del procedimiento propuesto y se discuten las ventajas del mismo con respecto a otros métodos alternativos. Los resultados muestran que la metodología propuesta da estimaciones de fiabilidad que mejoran los resultados previamente publicados, enfatizando la importancia de hallar buenas RSSs —y, especialmente, adecuadas (desde un punto de vista probabilístico) superficies de deslizamiento críticas que podrían ser no-circulares— para obtener estimaciones acertadas de la fiabilidad de taludes en suelos. Reliability analyses provide an adequate tool to consider the inherent uncertainties that exist in geotechnical parameters. This dissertation develops a simple linearization-based approach, that uses first or second order approximations, to efficiently evaluate the system reliability of geotechnical problems. First, reliability methods are employed to analyze the reliability of two tunnel design aspects: face stability and performance of support systems. Several reliability approaches —the first order reliability method (FORM), the second order reliability method (SORM), the response surface method (RSM) and importance sampling (IS)— are employed, with results showing that the assumed distribution types and correlation structures for all random variables have a significant effect on the reliability results. This emphasizes the importance of an adequate characterization of geotechnical uncertainties for practical applications. Results also show that both FORM and SORM can be used to estimate the reliability of tunnel-support systems; and that SORM can outperform FORM with an acceptable additional computational effort. A linearization approach is then developed to evaluate the system reliability of series geotechnical problems. The approach only needs information provided by FORM: the vector of reliability indices of the limit state functions (LSFs) composing the system, and their correlation matrix. Two common geotechnical problems —the stability of a slope in layered soil and a circular tunnel in rock— are employed to demonstrate the simplicity, accuracy and efficiency of the suggested procedure. Advantages of the linearization approach with respect to alternative computational tools are discussed. It is also found that, if necessary, SORM —that approximates the true LSF better than FORM— can be employed to compute better estimations of the system’s reliability. Finally, a new approach using Genetic Algorithms (GAs) is presented to identify the fully specified representative slip surfaces (RSSs) of layered soil slopes, and such RSSs are then employed to estimate the system reliability of slopes, using our proposed linearization approach. Three typical benchmark-slopes with layered soils are adopted to demonstrate the efficiency, accuracy and robustness of the suggested procedure, and advantages of the proposed method with respect to alternative methods are discussed. Results show that the proposed approach provides reliability estimates that improve previously published results, emphasizing the importance of finding good RSSs —and, especially, good (probabilistic) critical slip surfaces that might be non-circular— to obtain good estimations of the reliability of soil slope systems.
Resumo:
Fueron evaluados los problemas relativos al manejo de los recursos hídricos y la gestión del agua en Panamá. A partir del comportamiento del clima, de la evaluación físico química de las principales cuencas hidrográficas de Panamá y del uso del suelo y del agua se aplicó el análisis de evaluación de riesgo.
Resumo:
La Vega de Aranjuez ha sido desde hace siglos conocida por la notoriedad de sus jardines y huertas históricas y también, en épocas más recientes, por ser la despensa de Madrid. A mediados del siglo XX, sin embargo, con las transformaciones que el sector agrario ha experimentado no sólo a nivel local, sino a escala global, empezó un proceso de declive que se ha acentuado en los últimos años. Paralelamente, en el año 2001, la Unesco declara el Paisaje Cultural de Aranjuez, como Patrimonio de la Humanidad con un valor universal excepcional. Parte de lo que sustenta este reconocimiento a nivel internacional radica en las peculiaridades del paisaje que conforma la actividad agraria. El cambio de orientación, eminentemente hortofrutícola hacia cultivos extensivos y superficies en barbecho, y la pérdida de importancia del sector, no han pasado desapercibidos para la administración local y han sido varios los intentos de recuperación y dinamización del sector en los últimos años. La investigación de la que es objeto esta Tesis Doctoral surgió por iniciativa del Ayuntamiento de Aranjuez, que en al año 2010 deseó conocer la situación del sector hortícola en el municipio, para lo cual, encargó un estudio a la UPM-ETSIA. Para conocer la realidad desde una perspectiva integral, se planteó abordar el análisis desde la perspectiva de Cadena de Valor. Las implicaciones de este concepto, su evolución y su papel como instrumento de análisis de la cadena alimentaria, han sido revisadas y presentadas en el epígrafe del Marco Conceptual. Por cadena de valor se entiende el conjunto de procesos desde el consumidor, a través de los proveedores que proporcionan productos, servicios e información que añaden valor hacia los clientes (Lambert & Cooper, 2000; Chen, 2004). Para el análisis de la situación del sector hortícola en Aranjuez, se procedió en varios pasos, los cuales constituyeron la primera fase de la investigación y contemplaron lo siguiente: 1. La identificación de los problemas y de las demandas de los actores de la cadena, realizando cortes transversales en el mercado a distintos niveles para conocer los puntos de vista de los operadores de la cadena (Gunasekaran & Patel ,2004; Rojas, 2009; Schiefer, 2007). Para ello se diseñaron cuestionarios y se dirigieron a representantes de cinco eslabones de la cadena presentes en el caso de estudio: Agricultores (15), Mayoristas (11), Detallistas (55), Consumidores (85) y Restaurantes (36), tanto en Aranjuez como en Madrid (un total de 202). 2. Análisis D.A.F.O de cada uno de los eslabones y de la cadena completa, como herramienta para identificar y sintetizar la problemática y las potencialidades del sector. 3. Análisis global de la Cadena de Valor mediante el Método de Organización Sectorial, según Briz, de Felipe y Briz (2010), el cual permite estudiar aspectos de la estructura, la conducta y el funcionamiento de la cadena. 4. Jornada de análisis por parte de un Panel de Expertos en la sede de la Fundación Foro Agrario, en la cual se presentaron las conclusiones del análisis de la cadena de valor y se plantearon estrategias para la dinamización del sector. Con los resultados del análisis en esta primera fase de la investigación, se obtuvo una panorámica de la cadena de valor. Algunos de los aspectos más destacados son los siguientes: • El eslabón productivo en Aranjuez está muy atomizado y trabaja por lo general de forma independiente. Cultiva hasta veinte productos hortícolas diferentes, entre los cuales los frutales están casi en desaparición y hay poca presencia de producto ecológico. Le preocupan los precios poco estables y bajos y por lo general no trabaja con contratos. •El eslabón mayorista prácticamente carece de presencia en Aranjuez y está representado en su mayoría por operadores de Mercamadrid, los cuales demandan mayores volúmenes y mejor normalización de los productos hortícolas procedentes de Aranjuez. • El eslabón detallista consultado es diverso (con representación de comercios minoristas, supermercados e hipermercados) y también demanda mayores volúmenes de producción y mejoras en la normalización. Un 80% conoce los productos de Aranjuez, especialmente el espárrago y la fresa-fresón citados en un 74% y 63% de los casos respectivamente. • En el eslabón de consumidores, el 79% de los encuestados da importancia a la procedencia de los productos hortícolas y un 82% conoce los productos de la Huerta de Aranjuez, siendo los más consumidos el espárrago y el fresón. Un 42% de los encuestados compra producto ecológico por razones de salud, sabor y buscando la ausencia de químicos. • El eslabón de restaurantes es un gran consumidor de hortalizas, la gran mayoría de los productos incluidos en el análisis se oferta en más del 75% de los casos. Las más presentes son tomate y espárrago. La fresa y el fresón (en un 83% de los casos), y el espárrago (72%) seguido de la alcachofa (44%) son los productos de Aranjuez que más se conocen en el conjunto de los restaurantes entrevistados. El 75% de los restaurantes prefiere el producto fresco frente al procesado o congelado. La mayoría de los restaurantes locales (92%) estaría dispuesto a incluir en su carta una diferenciación para los productos de Aranjuez. Sin embargo, en el resto de restaurantes el porcentaje es mucho menor (21%). Entre las conclusiones del análisis se evidenció que un 52% de las ventas de los agricultores se realizaba sin intermediarios y un 69% de los consumidores se manifestaba interesado en adquirir productos de Aranjuez directamente del campo a su casa. Se identificó de esta manera que el acortamiento de la cadena se está utilizando como una forma de crear valor. Para profundizar en este aspecto, se planteó una segunda fase en la investigación. Además de estudiar diversos aspectos de los canales cortos de comercialización, se planteó estudiar el enfoque multifuncional de la horticultura, como estrategia para poner en valor la Huerta ribereña. Para dar una coherencia con la fase anterior, el planteamiento se realizó también desde la perspectiva de la cadena de valor, orientando la consulta hacia el eslabón consumidor. De esta manera, se realizó una consulta mediante cuestionario a 221 consumidores sobre diferentes aspectos relativos a los Canales Cortos de Comercialización (CCC) y la Horticultura Multifuncional (HM)1, lo cual permitió realizar un análisis cuantitativo de diferentes variables. Para completar la visión integral de la cadena corta, se seleccionaron 6 proyectos significativos que son ejemplos de diversas tipologías de canales cortos de comercialización en Aranjuez y Madrid, como representantes del denominado eslabón de “Promotores de CCC” y se consultó también a la Asociación de Productores de la Huerta de Aranjuez, constituida formalmente en el año 2014, como representante del eslabón Productor. Para la obtención de información, la cual tiene un carácter cualitativo en el caso de estos dos eslabones de la cadena, se realizaron cuestionarios y Estudios de Caso de cada proyecto. Los cuestionarios de esta segunda fase de consulta a los eslabones de la cadena corta contuvieron cuestiones relativas a los canales cortos de comercialización, tanto a nivel general (concepto de canal corto, puntos fuertes y ventajas que aportan, dificultades para su desarrollo, factores clave para su éxito) como para el caso concreto de la Huerta de Aranjuez (perfil del consumidor, factores implicados en la compra de verduras, utilización de diversas modalidades de canal corto, relación con las tecnologías de la información y comunicación (TICs) y la producción ecológica o la importancia del factor confianza). También aspectos relacionados con la Horticultura Multifuncional, como son, la valoración de diferentes actividades o proyectos de carácter agro-turístico, educativo, social o terapéutico, o la percepción del consumidor de las actividades de huerta como fuente de bienestar y como agente satisfactor de diversas necesidades humanas. Para completar la visión sobre estos dos temas, CCC y HM, se realizó una consulta mediante cuestionario a Expertos en el campo de los canales cortos de comercialización, procedentes del ámbito académico, y a Profesionales en activo trabajando en proyectos de horticultura social y terapéutica. La información aportada, aunque tiene carácter cualitativo, complementa el estudio ofreciendo la perspectiva académica en el caso de los canales cortos y amplía la información sobre la horticultura multifuncional, tratando cuestiones relativas al desempeño profesional o a la formación existente en España en el campo de la horticultura social y terapéutica. Los resultados de esta segunda fase de la investigación, entre otras cuestiones, evidenciaron que: • Los canales cortos de comercialización implican mucho más que la simple reducción de intermediarios y comprenden una gran diversidad de tipologías. • Los casos estudiados, están enfocados en su mayoría al producto ecológico y su funcionamiento está muy fundamentado en el uso de TICs y en el factor confianza. • En relación a la compra de verduras en el ámbito de los canales cortos, son aspectos muy valorados por el consumidor la calidad del producto, la rapidez y frescura con la que llega del campo a la mesa y que el Producto sea recogido en su punto óptimo de maduración. • Las actividades en el ámbito de la horticultura multifuncional son valoradas positivamente por los consumidores, siendo las más puntuadas las de huerto educativo, huerto terapéutico, seguidas de visitas guiadas y degustaciones de productos de huerta en restaurantes. • Por lo general existe una valoración muy alta de la huerta como fuente de bienestar y de satisfacción de necesidades humanas básicas, especialmente las de una alimentación saludable y de conexión con la naturaleza. Para terminar esta síntesis de la investigación realizada, se presentan las principales conclusiones a nivel global de la Tesis, que son las siguientes: 1. La metodología de cadena de valor ha resultado adecuada para conocer la complejidad y el funcionamiento del sector hortícola arancetano desde una perspectiva integral. 2. La Huerta de Aranjuez cuenta con importantes fortalezas, sustentadas en la calidad de sus suelos y en la fama que mantienen sus productos, pero también debilidades. Esto supone poco volumen de producción, que dificulta la relación con mayoristas y grandes detallistas. 3. El acortamiento de la cadena, mediante canales cortos de comercialización se ha identificado como una forma de creación de valor en la cadena. Existen oportunidades de abastecimiento a consumidores de Madrid mediante canales cortos, sin embargo, las modalidades que requieren mayor organización o requisitos de producción ecológica todavía no están desarrolladas. 4. La producción ecológica podría ser una estrategia para crear valor pero todavía es un método de cultivo muy minoritario en la cadena productiva arancetana. 5. Las peculiaridades de la Huerta de Aranjuez propician la puesta en práctica del enfoque multifuncional de la horticultura como vía de desarrollo económico. Los resultados apuntan a una posible demanda de servicios que contemplen actividades de horticultura de carácter educativo, terapéutico y agro-turístico, conducidas por profesionales. Existe una percepción positiva sobre el potencial de la huerta como fuente de bienestar y de satisfacción de necesidades humanas básicas. 6. La puesta en marcha de proyectos empresariales en el ámbito de la horticultura social es una apuesta interesante para crear valor en la huerta que ha sido valorada positivamente por los eslabones de la cadena corta consultados. 7. El campo de la Horticultura Multifuncional que contempla aspectos educativos, sociales y terapéuticos conforma una disciplina con posibilidades de desarrollo que en la investigación se perciben como limitadas por la falta de profesionales y su acceso a una formación adecuada en España. El estudio de los Canales Cortos de Comercialización y de la Horticultura Multifuncional como vías de puesta en valor en el caso de la Huerta de Aranjuez ha tenido un carácter exploratorio y en gran parte cualitativo en esta Tesis Doctoral. Ambos conceptos han desvelado cierta complejidad y requieren de un mayor conocimiento en diversos aspectos para su puesta en práctica con éxito. Se abre, por tanto, un campo para futuras investigaciones que profundicen en estos ámbitos. ABSTRACT La Vega de Aranjuez has been known for centuries for the reputation of its orchards and historic gardens and, more recently, as the pantry of Madrid. However, in the mid-twentieth century, with the transformations in agriculture, not only locally, but globally, began a process of decline that has been accentuated in recent years. Meanwhile, in 2001, Unesco declared Aranjuez Cultural Landscape, as a World Heritage Site with outstanding universal value. Part of what underpins this international recognition lies in the peculiarities of the landscape created by farming. The shift, from an eminently horticultural vocation to extensive field crops and fallow surfaces, and the loss of importance of the sector, have not gone unnoticed for local authorities and have been several attempts at recovery and revitalization of the sector in recent years. The beginning of this research came at the initiative of the municipality of Aranjuez, which in 2010 wanted to know the situation of the horticultural sector, for which he commissioned a study by the UPM-ETSIA. To know reality from an integral perspective, it was proposed to approach the analysis from the perspective of value chain. The implications of this concept, its evolution and its role as an instrument of analysis of the food chain, have been reviewed and presented in Chapter 3.2. The value chain concept refers to all the processes from the consumer, through suppliers who provide products, services and information that add value to customers (Lambert & Cooper, 2000; Chen, 2004). For the analysis of the situation of the horticultural sector in Aranjuez, which constituted the first phase of research, it proceeded in several steps: 1. Identifying the problems and demands of the actors in the chain, making transverse cuts in the market at different levels to meet the views of the chain operators (Gunasekaran & Patel , 2004; Rojas, 2009; Schiefer, 2007). Questionnaires were designed for it and went to representatives of the five links in the chain: Farmers (15), Wholesalers (11), Retailers (55), Consumers (85) and Restaurants (36), both in Aranjuez and Madrid (a total of 202). 2. SWOT analysis of each chain actor and of the whole supply chain, as a tool to identify and synthesize the problems and potential of the sector. 3. Analysis of the whole supply chain by Industrial Organization Method according to Briz et al. (2010), which allows to study aspects of the structure, conduct and performance of the chain. 4. Analysis by a Panel of Experts at Foro Agrario Foundation headquarters, where the conclusions of the analysis were presented and strategies for the revitalization of the sector were raised. The results of the analysis in this first phase of the research, presented an overview of the value chain. Some of the highlights are: - The productive sector in Aranjuez is very fragmented and usually works independently. With a wide variety of horticultural products (up to 20), fruit crops almost disappearing and little presence of organic product. Is concerned about the unstable and low prices and usually does not work with contracts. - The wholesale sector with virtually no presence in Aranjuez is represented mostly by Mercamadrid operators, who demand higher volumes and better standardization of horticultural products from Aranjuez. - The retailer sector is diversified (with representation from retailers, supermarkets and hypermarkets) and also demand higher production volumes and improved standardization. 80% know the products of Aranjuez, especially asparagus and strawberry-strawberry cited by 74% and 63% of cases respectively. - Among the consumers, 79% give importance to the origin of horticultural products and 82% know the products from Aranjuez, the most consumed asparagus and strawberries. 42% buy organic products for health, taste and absence of chemicals. - Restaurants are big consumers of vegetables, most of the products included in the analysis is offered in over 75% of cases. The most: tomato and asparagus. Strawberry (83% of cases), and asparagus (72%) followed by the artichoke (44%) are the products of Aranjuez more known in all the surveyed restaurants. 75% of the restaurants prefer fresh product against processed or frozen. Most local restaurants (92%) would be willing to include in their menu a differentiation for products of Aranjuez. However, for those restaurants from Madrid the percentage is much lower (21%). Among the conclusions of the analysis it showed that 52% of sales were realized from farmers without intermediaries and 69% of consumers expressed interest in acquiring products directly from field to table. It has been identified that the shortening of the chain is being used as a way to create value. To deepen this aspect, a second phase investigation arose. Besides studying various aspects of the short supply chains, it was also proposed to study the functional approach of horticulture as a strategy to add value. To provide consistency with the previous phase, the focus was also conducted from the perspective of the value chain, directing the query to consumers. Thus, again it was used the questionnaire as a methodological tool, and 221 consumers were asked about different aspects of the Short Suppy Chains (SSC) and Multifunctional Horticulture (MH)2, which allowed a quantitative analysis of several variables. To complete the comprehensive view of the short chain, 6 significant projects were selected as examples of different types of short supply chains in Aranjuez and Madrid, representing "SSC Promoters" and also the “Asociación de Productores de la Huerta de Aranjuez”, formally constituted in 2014, was asked representing the productive sector. The Study Case and again the questionnaire were elected as methodological tools in a qualitative analysis. The questionnaires of this second phase of research contained short supply chain issues, as a general topic (short supply chain concept, strengths and advantages they bring difficulties for its development, key factors success) and also refered to the case of Aranjuez (consumer profile, factors involved in the purchase of vegetables, use of several types of short supply chains, relation with information and communication technologies (ICTs) and organic production or the importance of trust in short supply chains). It also contemplated aspects of multifunctional horticulture, such as the valuation of different activities (agro-tourism, educational, social or therapeutic horticulture) and consumer perception about horticultural activities as a source of welfare and satisfactor of human needs. To complete the vision of these two issues, SSC and MH, experts in the field of short supply chains and professionals working in the field of social and therapeutic horticulture were asked. The qualitative information provided, complements the study offering a new perspective in the value chain analysis, such as those relating to job performance, the difficulties encountered or training existing in our country in the field of social and therapeutic horticulture. The results of this second phase of research showed that: Short supply chains involve much more than simply reducing intermediaries and cover a wide range of types. The cases studied are mostly focused on ecological product and its operation is heavily based on the use of ICTs and the trust factor. In connection with the purchase of vegetables in the field of short supply chains, product quality, speed and freshness with which comes from the field to the table and products picked at its peak maturation, are aspects highly valued by the consumer. Activities in the field of multifunctional horticulture are positively valued by consumers, the most scored: the educational garden, therapeutic garden, followed by guided tours and tastings of vegetables from Aranjuez in restaurants. Horticultural activities were highly valuated as a source of welfare and satisfaction of human needs, especially those of healthy eating and connection with nature. To complete this summary, the main conclusions of the research are presented as follows: 1. The value chain approach has been adequate to meet the complexity and operation of the horticultural sector in Aranjuez from a holistic perspective. 2. La Huerta de Aranjuez has important strengths, underpinned by the quality of its soils and fame that keep their products, but also weaknesses. This implies low volume of production, which makes difficult the link with wholesalers and large retailers. 3. The shortening of the chain by short supply chains has been identified as a way of creating value in the chain. Opportunities exist to supply consumers from Madrid by short supply chains, however, methods that require greater organization or requirements of organic production are not yet developed. 4. Organic production could be a strategy to create value but is not generally being implemented in the production chain. 5. The peculiarity of the Huerta de Aranjuez favours the implementation of the multifunctional approach as a means of economic development. The results point to a possible demand for multifunctional horticulture that include educational, therapeutic and agro-tourism activities. There is a positive perception of the potential of horticultural activities as a source of welfare and satisfaction of basic human needs. 6. The implementation of business projects in the field of social horticulture are an interesting way to create value that has been highly valued in the short supply chain. 7. The field of Multifunctional Horticulture which includes educational, social and therapeutic aspects, forms a discipline with possibilities of development, which in research are seen as limited by the lack of professionals and access to adequate training in our country. The study of Short Supply Chains and Multifunctional Horticulture as strategies to create value in the case of the Huerta de Aranjuez has an exploratory character and largely qualitative in this research. Both concepts have revealed some complexity and require greater knowledge in various aspects for successful implementation. It opens therefore a field for future research to deepen in these areas.
Resumo:
La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.
Resumo:
La Diabetes mellitus es una enfermedad caracterizada por la insuficiente o nula producción de insulina por parte del páncreas o la reducida sensibilidad del organismo a esta hormona, que ayuda a que la glucosa llegue a los tejidos y al sistema nervioso para suministrar energía. La Diabetes tiene una mayor prevalencia en los países desarrollados debido a múltiples factores, entre ellos la obesidad, la vida sedentaria, y disfunciones en el sistema endocrino relacionadas con el páncreas. La Diabetes Tipo 1 es una enfermedad crónica e incurable, en la que son destruidas las células beta del páncreas, que producen la insulina, haciéndose necesaria la administración de insulina de forma exógena para controlar los niveles de glucosa en sangre. El paciente debe seguir una terapia con insulina administrada por vía subcutánea, que debe estar adaptada a sus necesidades metabólicas y a sus hábitos de vida. Esta terapia intenta imitar el perfil insulínico de un páncreas sano. La tecnología actual permite abordar el desarrollo del denominado “páncreas endocrino artificial” (PEA), que aportaría precisión, eficacia y seguridad en la aplicación de las terapias con insulina y permitiría una mayor independencia de los pacientes frente a su enfermedad, que en la actualidad están sujetos a una constante toma de decisiones. El PEA consta de un sensor continuo de glucosa, una bomba de infusión de insulina y un algoritmo de control, que calcula la insulina a infusionar utilizando los niveles de glucosa del paciente como información principal. Este trabajo presenta una modificación en el método de control en lazo cerrado propuesto en un proyecto previo. El controlador del que se parte está compuesto por un controlador basal booleano y un controlador borroso postprandial basado en reglas borrosas heredadas del controlador basal. El controlador postprandial administra el 50% del bolo manual (calculado a partir de la cantidad de carbohidratos que el paciente va a consumir) en el instante del aviso de la ingesta y reparte el resto en instantes posteriores. El objetivo es conseguir una regulación óptima del nivel de glucosa en el periodo postprandial. Con el objetivo de reducir las hiperglucemias que se producen en el periodo postprandial se realiza un transporte de insulina, que es un adelanto de la insulina basal del periodo postprandial que se suministrará junto con un porcentaje variable del bolo manual. Este porcentaje estará relacionado con el estado metabólico del paciente previo a la ingesta. Además se modificará la base de conocimiento para adecuar el comportamiento del controlador al periodo postprandial. Este proyecto está enfocado en la mejora del controlador borroso postprandial previo, modificando dos aspectos: la inferencia del controlador postprandial y añadiendo una toma de decisiones automática sobre el % del bolo manual y el transporte. Se ha propuesto un controlador borroso con una nueva inferencia, que no hereda las características del controlado basal, y ha sido adaptado al periodo postprandial. Se ha añadido una inferencia borrosa que modifica la cantidad de insulina a administrar en el momento del aviso de ingesta y la cantidad de insulina basal a transportar del periodo postprandial al bolo manual. La validación del algoritmo se ha realizado mediante experimentos en simulación utilizando una población de diez pacientes sintéticos pertenecientes al Simulador de Padua/Virginia, evaluando los resultados con estadísticos para después compararlos con los obtenidos con el método de control anterior. Tras la evaluación de los resultados se puede concluir que el nuevo controlador postprandial, acompañado de la toma de decisiones automática, realiza un mejor control glucémico en el periodo postprandial, disminuyendo los niveles de las hiperglucemias. ABSTRACT. Diabetes mellitus is a disease characterized by the insufficient or null production of insulin from the pancreas or by a reduced sensitivity to this hormone, which helps glucose get to the tissues and the nervous system to provide energy. Diabetes has more prevalence in developed countries due to multiple factors, including obesity, sedentary lifestyle and endocrine dysfunctions related to the pancreas. Type 1 Diabetes is a chronic, incurable disease in which beta cells in the pancreas that produce insulin are destroyed, and exogenous insulin delivery is required to control blood glucose levels. The patient must follow a therapy with insulin administered by the subcutaneous route that should be adjusted to the metabolic needs and lifestyle of the patient. This therapy tries to imitate the insulin profile of a non-pathological pancreas. Current technology can adress the development of the so-called “endocrine artificial pancreas” (EAP) that would provide accuracy, efficacy and safety in the application of insulin therapies and will allow patients a higher level of independence from their disease. Patients are currently tied to constant decision making. The EAP consists of a continuous glucose sensor, an insulin infusion pump and a control algorithm that computes the insulin amount that has to be infused using the glucose as the main source of information. This work shows modifications to the control method in closed loop proposed in a previous project. The reference controller is composed by a boolean basal controller and a postprandial rule-based fuzzy controller which inherits the rules from the basal controller. The postprandial controller administrates 50% of the bolus (calculated from the amount of carbohydrates that the patient is going to ingest) in the moment of the intake warning, and distributes the remaining in later instants. The goal is to achieve an optimum regulation of the glucose level in the postprandial period. In order to reduce hyperglycemia in the postprandial period an insulin transport is carried out. It consists on a feedforward of the basal insulin from the postprandial period, which will be administered with a variable percentage of the manual bolus. This percentage would be linked with the metabolic state of the patient in moments previous to the intake. Furthermore, the knowledge base is going to be modified in order to fit the controller performance to the postprandial period. This project is focused on the improvement of the previous controller, modifying two aspects: the postprandial controller inference, and the automatic decision making on the percentage of the manual bolus and the transport. A fuzzy controller with a new inference has been proposed and has been adapted to the postprandial period. A fuzzy inference has been added, which modifies both the amount of manual bolus to administrate at the intake warning and the amount of basal insulin to transport to the prandial bolus. The algorithm assessment has been done through simulation experiments using a synthetic population of 10 patients in the UVA/PADOVA simulator, evaluating the results with statistical parameters for further comparison with those obtained with the previous control method. After comparing results it can be concluded that the new postprandial controller, combined with the automatic decision making, carries out a better glycemic control in the postprandial period, decreasing levels of hyperglycemia.
Resumo:
En esta tesis se recoge el trabajo realizado centrado en el estudio del vídeo estereoscópico y, en particular, la información que aportan los mapas de disparidad y sus posibles aplicaciones. El trabajo se ha dividido en tres bloques diferenciados: En primer lugar se presentan los resultados de un codificador de vídeo multivista basado en mapas de disparidad previamente computados. La finalidad del estudio es comprobar los efectos de la aplicación directa de la disparidad para la compensación entre vistas en cuanto a reducción del tiempo de procesado y calidad de la compresión sobre algoritmos basados en división de bloques, como AVC o HEVC. También se ha trabajado para obtener un flujo de vídeo compatible con MVC que contenga la información de los mapas de disparidad embebida en el flujo en forma de vectores de compensación. Estos mapas se usan como base para obtener la compensación entre bloques de la imagen derecha e izquierda. Para reducir aún más el coste computacional, se ha diseñado un algoritmo de decisión previa del tamaño del bloque de compensación. Aquí se presentan los resultados de ambas estrategias, con decisión previa y sin ella, para evaluar las alternativas. Se presentan los resultados tanto sobre imágenes estereoscópicas estáticas como secuencias de vídeo estereoscópico, cada una de ellas a diferentes valores de compresión de forma que se obtenga una referencia parametrizada del comportamiento del algoritmo. Dichos resultados revelan una reducción drástica del tiempo de procesado con estabilización de la tasa binaria para valores de compresión moderados (compresión de alta calidad), mientras que para compresiones severas, la tasa binaria crece en comparación con el software de referencia JMVC. En segundo lugar se realiza un análisis de calidad relacionado con la información de disparidad de las secuencias estereoscópicas, sus valores absolutos y sus derivadas temporales, de modo que pueda servir tanto para generar sistemas automáticos de evaluación de la calidad, como para sintetizar una lista de buenas prácticas para la creación de contenidos audiovisuales estereoscópicos que ofrezcan una calidad de la experiencia elevada. Para relacionar la calidad de la experiencia y el confort visual generado por una secuencia estereoscópica se ha llevado a cabo una serie de tests de visualización por parte de un grupo de observadores, de secuencias previamente generadas y catalogadas en base a sus variaciones de la disparidad y de movimiento. Las conclusiones extraídas indican que los paralajes negativos son más efectistas y ofrecen una inmersión mayor y, por tanto, mejor calidad de la experiencia, cuando se utilizan de forma moderada. Variaciones rápidas de los valores de disparidad negativa y variaciones de movimiento de objetos con disparidad negativa generan disconfort visual. La probabilidad de que paralajes positivos generen disconfort visual son mucho menores, por lo que resulta interesante en este caso utilizar variaciones rápidas de disparidad y movimiento para compensar la falta de efectismo que producen dichos paralajes. Por último, se ha planteado el diseño de un sistema de inserción coherente de gráficos, en tiempo real, en una escena estereoscópica. Se ha hecho hincapié en la necesidad de la coherencia entre la disparidad de los objetos que conforman una escena y las oclusiones que éstos producen, por lo que la inserción de un elemento no nativo de la escena debe tener en cuenta esta circunstancia para mantener la calidad de la experiencia estereoscópica. Se ha estudiado la influencia de la calidad del mapa de disparidad de la escena como base sobre la que realizar la inserción, así como posibles formas de modificar dicho mapa para que la inserción produzca el efecto deseado de coherencia. En concreto se ha postulado que es preferible sacrificar la precisión punto a punto del mapa de disparidad si, de esa manera, se evita cometer pequeños errores aislados de inserción, a costa de introducir un ajuste menos fino en los bordes de los objetos.
Resumo:
En esta Tesis Doctoral se ha estudiado la influencia del cultivar sobre el comportamiento reológico y panadero de cinco cultivares de trigo sembrados en el mismo año y en el mismo ambiente, en condiciones de cultivo ecológico. Tres de ellos eran de trigo panadero (Triticum aestivum ssp. vulgare), ‘Bonpain’, ‘Craklin’ y ‘Sensas’ y los otros dos de trigo espelta (Triticum aestivum ssp. spelta), ‘Espelta Álava’ y ‘Espelta Navarra’. Actualmente, el alohexaploide trigo panadero (2n=6x=42 genomio AABBDD) supone en torno al 90% del trigo cultivado en el mundo. En cambio, el cultivo del trigo alohexaploide espelta (2n=6x=42 genomio AABBDD) se limita a pequeñas regiones de Europa y de América del Norte. En España, el cultivo de trigo espelta se ha mantenido durante años ligado a la región de Asturias, aunque en la actualidad su cultivo está empezando a diversificarse hacia otras regiones. Esto se debe, fundamentalmente, a su potencial nutricional y a su adaptabilidad a condiciones de agricultura sostenible. El reciente resurgimiento de la espelta en productos de panificación, se debe, en gran parte, a la percepción del consumidor de que se trata de un producto ”más saludable” y “más natural” y con menor requerimiento de insumos que los trigos modernos. A medida que el consumo de alimentos a base de harina de espelta aumenta, se plantea la necesidad de evaluar su calidad harino-panadera, nutricional y sensorial en comparación con los productos elaborados con variedades de trigo común. Se caracterizaron las gluteninas de alto peso molecular (HMW) y las puroindolinas de los cinco cultivares. Se evaluó la calidad del grano, la reología de sus masas y se analizó la calidad instrumental y sensorial de sus panes. Para tal fin se ha puesto a punto un protocolo de panificación adecuado a las características particulares de los trigos espelta y se ha propuesto para el análisis sensorial de los panes un protocolo de selección, entrenamiento y validación de jueces. Teniendo en cuenta la composición en gluteninas HMW de los cultivares, se comprobó su influencia en el volumen de sedimentación y en la fuerza panadera. La composición en puroindolinas se vió reflejada en el parámetro dureza del endospermo. Los resultados indicaron que hay diferencias entre trigo panadero y trigo espelta en parámetros como, la tenacidad y el equilibrio de sus masas, la capacidad de absorción de agua de la harina y el comportamiento de la masa durante el amasado. Los trigos espeltas mostraron menor valor en el tiempo en alcanzar la presión máxima y la tolerancia al amasado, mientras que presentaron valores superiores en el decaimiento a los 250 y 450 segundos respectivamente. Respecto a la calidad de los panes elaborados, los trigos espeltas tenían mayor elasticidad en la miga y mayores valores en el área y en el diámetro de sus alveolos. Estas diferencias en la estructura y textura de la miga fueron también detectadas a nivel sensorial por el panel de jueces. Mediante el perfil sensorial descriptivo, se determinó que uno de los dos panes elaborado con trigo espelta (‘Espelta Navarra’) fue el pan más complejo considerando conjuntamente los atributos de aroma y flavor. En este trabajo no se apreciaron diferencias entre ambos tipos de trigo ni en el contenido en proteína, ni en minerales, ni en la viscosidad de su almidón. ABSTRACT In this Doctoral Thesis, the influence of various cultivars on rheological and baking behavior was studied. Five wheat cultivars were used, all planted in the same year and same organic farming environment. Three were bread wheat (Triticum aestivum ssp. vulgare), 'Bonpain', 'Craklin' and 'Sensas' and the other two were spelt wheat (Triticum aestivum ssp. spelta) , 'Espelta Álava' and 'Espelta Navarra' . Currently, the allohexaploid bread wheat (2n=6x=42 genome AABBDD) represents about 90% of global wheat production. On the other hand, allohexaploid spelt wheat (2n=6x=42 genome AABBDD) is merely produced in small areas of Europe and North America. For many years, the cultivation of spelt wheat in Spain was limited to the region of Asturias, although nowadays its production has begun to spread into other regions. This is owing to its nutritional potential and adaptability to conditions of sustainable agriculture. The recent resurgence of spelt in baking products is mainly due to consumers perception of it, as "healthier" and "more natural", and to the fewer agricultural input requirements compared to modern wheat products. As the consumption of foods made from spelt flour increases, there is a need to assess its baking, nutritional and sensory quality, compared to products made with common varieties of wheat. High molecular weight glutenins and puroindolines from the five cultivars were characterized. The quality of the grain and the rheology of the dough were evaluated and the instrumental and sensory quality of its breads were analyzed. To this end it a baking protocol was appropriately developed to the particular characteristics of spelt wheat and a selection protocol was proposed for the sensory analysis of breads, after proper training and validation of judges. Considering the HMW glutenin composition of the cultivars, the influence on the sedimentation volume and the baking strength was proven. The composition of puroindolines was reflected in the endosperm hardness parameter. The results show that there are differences between bread wheat and spelt wheat on parameters such as the tenacity and tenacity/elasticity ratio of their masses, the water absorption capacity of the flour and the behavior of the dough during kneading. The values for total time to reach maximum pressure and tolerance to mixing were lower for spelt wheat, and higher values were found for the drop at 250 s and 450 s. Regarding the quality of manufactured bread, spelt wheat had the greatest elasticity of the crumb and higher values in the area and diameter of the cells. These differences in the structure and texture of the crumb were also noticed at a sensory level by the panel of judges. It was determined by a descriptive sensory profile that one of the two loaves of bread made with spelt ('Espelta Navarra') was the most complex in the sense of its attributes of scents and flavors altogether. In this study, no differences were appreciated between the two types of wheat or the protein composition, or minerals or viscosity of the starch.
Resumo:
Uno de los principales retos de la sociedad actual es la evolución de sectores como el energético y el de la automoción a un modelo sostenible, responsable con el medio ambiente y con la salud de los ciudadanos. Una de las posibles alternativas, es la célula de combustible de hidrógeno, que transforma la energía química del combustible (hidrógeno) en corriente continua de forma limpia y eficiente. De entre todos los tipos de célula, gana especial relevancia la célula de membrana polimérica (PEM), que por sus características de peso, temperatura de trabajo y simplicidad; se presenta como una gran alternativa para el sector de la automoción entre otros. Por ello, el objetivo de este trabajo es ahondar en el conocimiento de la célula de combustible PEM. Se estudiarán los fundamentos teóricos que permitan comprender su funcionamiento, el papel de cada uno de los elementos de la célula y cómo varían sus características el funcionamiento general de la misma. También se estudiará la caracterización eléctrica, por su papel crucial en la evaluación del desempeño de la célula y para la comparación de modificaciones introducidas en ella. Además, se realizará una aplicación práctica en colaboración con los proyectos de fin de máster y doctorado de otros estudiantes del Politécnico de Milán, para implementar las técnicas aprendidas de caracterización eléctrica en una célula trabajando con diferentes tipos de láminas de difusión gaseosa (GDL y GDM) preparadas por estudiantes. Los resultados de la caracterización, permitirán analizar las virtudes de dos modificaciones en la composición clásica de la célula, con el fin de mejorar la gestión del agua que se produce en la zona catódica durante la reacción, disminuyendo los problemas de difusión a altas densidades de corriente y la consiguiente pérdida de potencial en la célula. Las dos modificaciones son: la inclusión de una lámina de difusión microporosa (MPL) a la lámina macroporosa habitual (GDL), y el uso de diversos polímeros con mejores propiedades hidrófobas en el tratamiento de dichas láminas de difusión. La célula de combustible es un sistema de conversión de energía electroquímico, en el que se trasforma de forma directa, energía química en energía eléctrica de corriente continua. En el catalizador de platino del ánodo se produce la descomposición de los átomos de hidrógeno. Los protones resultantes viajarán a través de la membrana de conducción protónica (que hace las veces de electrolito y supone el alma de la célula PEM) hasta el cátodo. Los electrones, en cambio, alcanzarán el cátodo a través de un circuito externo produciendo trabajo. Una vez ambas especies se encuentran en el cátodo, y junto con el oxígeno que sirve como oxidante, se completa la reacción, produciéndose agua. El estudio termodinámico de la reacción que se produce en la célula nos permite calcular el trabajo eléctrico teórico producido por el movimiento de cargas a través del circuito externo, y con él, una expresión del potencial teórico que presentará la célula, que variará con la temperatura y la presión; Para una temperatura de 25°C, este potencial teórico es de 1.23 V, sin embargo, el potencial de la célula en funcionamiento nunca presenta este valor. El alejamiento del comportamiento teórico se debe, principalmente, a tres tipos de pérdidas bien diferenciadas: Pérdidas de activación: El potencial teórico representa la tensión de equilibrio, para la que no se produce un intercambio neto de corriente. Por tanto, la diferencia de potencial entre el ánodo y el cátodo debe alejarse del valor teórico para obtener una corriente neta a través del circuito externo. Esta diferencia con el potencial teórico se denomina polarización de activación, y conlleva una pérdida de tensión en la célula. Así pues estas pérdidas tienen su origen en la cinética de la reacción electroquímica. Pérdidas óhmicas: Es una suma de las resistencias eléctricas en los elementos conductores, la resistencia en la membrana electrolítica a la conducción iónica y las resistencias de contacto. Pérdidas por concentración: Estas pérdidas se producen cuando los gases reactivos en el área activa son consumidos en un tiempo menor del necesario para ser repuestos. Este fenómeno es crítico a altas densidades de corriente, cuando los gases reactivos son consumidos con gran velocidad, por lo que el descenso de concentración de reactivos en los electrodos puede provocar una caída súbita de la tensión de la célula. La densidad de corriente para la cual se produce esta caída de potencial en unas condiciones determinadas se denomina densidad límite de corriente. Así pues, estas pérdidas tienen su origen en los límites de difusión de las especies reactivas a través de la célula. Además de la membrana electrolítica y el catalizador, en la célula de combustible podemos encontrar como principales componentes los platos bipolares, encargados de conectar la célula eléctricamente con el exterior y de introducir los gases reactivos a través de sus conductos; y las láminas difusivas, que conectan eléctricamente el catalizador con los platos bipolares y sirven para distribuir los gases reactivos de forma que lleguen a todo el área activa, y para evacuar el exceso de agua que se acumula en el área activa.La lámina difusiva, más conocida como GDL, será el argumento principal de nuestro estudio. Está conformada por un tejido de fibra de carbono macroporosa, que asegure el contacto eléctrico entre el catalizador y el plato bipolar, y es tratada con polímeros para proporcionarle propiedades hidrófobas que le ayuden en la evacuación de agua. La evacuación del agua es tan importante, especialmente en el cátodo, porque de lo contrario, la cantidad de agua generada por la reacción electroquímica, sumada a la humedad que portan los gases, puede provocar inundaciones en la zona activa del electrodo. Debido a las inundaciones, el agua obstruye los poros del GDL, dificultando la difusión de especies gaseosas y aumentando las pérdidas por concentración. Por otra parte, si demasiada agua se evacúa del electrodo, se puede producir un aumento de las pérdidas óhmicas, ya que la conductividad protónica de la membrana polimérica, es directamente proporcional a su nivel de humidificación. Con el fin de mejorar la gestión del agua de la célula de combustible, se ha añadido una capa microporosa denominada MPL al lado activo del GDL. Esta capa, constituida por una mezcla de negro de carbón con el polímero hidrófobo como aglutinante, otorga al GDL un mejor acabado superficial que reduce la resistencia de contacto con el electrodo, además la reducción del tamaño de las gotas de agua al pasar por el MPL mejora la difusión gaseosa por la disminución de obstrucciones en el GDL. Es importante tener cuidado en los tratamientos de hidrofobización de estos dos elementos, ya que, cantidades excesivas de polímero hidrófobo podrían reducir demasiado el tamaño de los poros, además de aumentar las pérdidas resistivas por su marcado carácter dieléctrico. Para el correcto análisis del funcionamiento de una célula de combustible, la herramienta fundamental es su caracterización eléctrica a partir de la curva de polarización. Esta curva representa la evolución del potencial de la célula respecto de la densidad de corriente, y su forma viene determinada principalmente por la contribución de las tres pérdidas mencionadas anteriormente. Junto con la curva de polarización, en ocasiones se presenta la curva de densidad de potencia, que se obtiene a partir de la misma. De forma complementaria a la curva de polarización, se puede realizar el estudio del circuito equivalente de la célula de combustible. Este consiste en un circuito eléctrico sencillo, que simula las caídas de potencial en la célula a través de elementos como resistencias y capacitancias. Estos elementos representas pérdidas y limitaciones en los procesos químicos y físicos en la célula. Para la obtención de este circuito equivalente, se realiza una espectroscopia de impedancia electroquímica (en adelante EIS), que consiste en la identificación de los diferentes elementos a partir de los espectros de impedancia, resultantes de introducir señales de corriente alternas sinusoidales de frecuencia variable en la célula y observar la respuesta en la tensión. En la siguiente imagen se puede observar un ejemplo de la identificación de los parámetros del circuito equivalente en un espectro de impedancia. Al final del trabajo, se han realizado dos aplicaciones prácticas para comprobar la influencia de las características hidrófobas y morfológicas de los medios difusores en la gestión del agua en el cátodo y, por tanto, en el resultado eléctrico de la célula; y como aplicación práctica de las técnicas de construcción y análisis de las curvas de polarización y potencia y de la espectroscopia de impedancia electroquímica. El primer estudio práctico ha consistido en comprobar los beneficios de la inclusión de un MPL al GDL. Para ello se han caracterizado células funcionando con GDL y GDM (GDL+MPL) tratados con dos tipos diferentes de polímeros, PTFE y PFPE. Además se han realizado las pruebas para diferentes condiciones de funcionamiento, a saber, temperaturas de 60 y 80°C y niveles de humidificación relativa de los gases reactivos de 80%-60% y 80%- 100% (A-C). Se ha comprobado con las curvas de polarización y potencia, cómo la inclusión de un MPL en el lado activo del GDL reporta una mejora del funcionamiento de trabajo en todas las condiciones estudiadas. Esta mejora se hace más patente para altas densidades de corriente, cuando la gestión del agua resulta más crítica, y a bajas temperaturas ya que un menor porcentaje del agua producida se encuentra en estado de vapor, produciéndose inundaciones con mayor facilidad. El segundo estudio realizado trata de la influencia del agente hidrofobizante utilizado en los GDMs. Se pretende comprobar si algún otro polímero de los estudiados, mejora las prestaciones del comúnmente utilizado PTFE. Para ello se han caracterizado células trabajando en diferentes condiciones de trabajo (análogas a las del primer estudio) con GDMs tratados con PTFE, PFPE, FEP y PFA. Tras el análisis de las curvas de polarización y potencia, se observa un gran comportamiento del FEP para todas las condiciones de trabajo, aumentando el potencial de la célula para cada densidad de corriente respecto al PTFE y retrasando la densidad de corriente límite. El PFPE también demuestra un gran aumento del potencial y la densidad de potencia de la célula, aunque presenta mayores problemas de difusión a altas densidades de corriente. Los resultados del PFA evidencian sus problemas en la gestión del agua a altas densidades de corriente, especialmente para altas temperaturas. El análisis de los espectros de impedancia obtenidos con la EIS confirma los resultados de las curvas de polarización y evidencian que la mejor alternativa al PTFE para el tratamiento del GDM es el FEP, que por sus mejores características hidrófobas reduce las pérdidas por concentración con una mejor gestión del agua en el cátodo.