767 resultados para comportamiento del consumidor


Relevância:

90.00% 90.00%

Publicador:

Resumo:

La finalidad de este proyecto es el estudio de la recuperación del último tramo del arroyo de las Canteras a su paso por Castro del Río, eliminando el canal existente para dotar al arroyo de cierta naturalidad y proponiendo distintas alternativas que solucionen los problemas de erosión y los recurrentes problemas de inundaciones en la localidad. Para la realización del proyecto, se han analizado tanto las condiciones del tramo fluvial como las correspondientes a la cuenca vertiente mediante una caracterización completa. Por otro lado, se ha realizado un estudio hidrológico para calcular distintos caudales generados en la cuenca asociados a distintos periodos de retorno; varios estudios hidráulicos, fundamentalmente modelizaciones del comportamiento del canal con el software HEC-RAS; y un estudio de erosión hídrica utilizando el método MUSLE con el caudal asociado a un periodo de retorno de 500 años. Con los resultados obtenidos se ha establecido un diagnóstico de la problemática existente y se han planteado y modelizado distintas alternativas. Como medidas estructurales dentro del tramo destacan: el redimensionamiento del cauce eliminando el hormigón, la variación de la curva del canal y la disminución de la pendiente mediante la creación de una serie de saltos. Como soluciones estructurales fuera del tramo de estudio cabe señalar la creación de diques de laminación y una llanura de inundación artificial para disminuir el caudal. Finalmente como medida no estructural, se realizará un cambio de usos y prácticas de conservación del olivar a nivel de cuenca. En conclusión, con la restauración, aparte de la mejora ambiental que se pretende conseguir, se realizará una mejora social. Dicha mejora social se obtendrá evitando las frecuentes inundaciones y eliminando el impacto visual que produce el canal gracias a la mejora de la calidad del entorno. Además, se concienciará a los habitantes de la zona para que entiendan que la solución al mal estado y comportamiento de un curso de agua no proviene únicamente de una gran obra en la zona problemática, sino de la aportación individual para reducir e incluso eliminar la fuente del problema.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Investigación experimental sobre pilares de hormigón reforzados con FRP. El confinamiento con un encamisado de FRP se ha convertido en un método habitual de refuerzo de pilares de hormigón armado en estructuras existentes como puentes o edificios. Numerosos estudios experimentales han demostrado que se trata de un modo eficaz de incrementar considerablemente la resistencia del hormigón. En los últimos años se están proponiendo también diferentes modelos teóricos y se han publicado en diversos países guías y recomendaciones con diversas ecuaciones para el cálculo. En este trabajo se revisan las formulaciones propuestas en las principales recomendaciones publicadas incidiendo en los dos aspectos que se han identificado como claves en el comportamiento del hormigón confinado con FRP: la deformación última efectiva del FRP y la influencia de la forma de la sección del pilar en la eficacia del confinamiento

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo del presente Proyecto Fin de Carrera (PFC) consiste en obtener la representación tridimensional de vainas de bala de la batalla del Jarama de la Guerra Civil Española, mediante la utilización de tecnología escáner láser 3D. Se plantea en segundo lugar el análisis del comportamiento del escáner y de la modelización 3D en relación al material de las vainas y la corrosión que se ha producido en ellas. Se realizaron ensayos con vainas y puntas de balas de materiales metálicos de mayor o menor complejidad y se concluye con el estudio de las diversas vainas de bala de la Batalla del Jarama de la Guerra Civil Española seleccionadas para este trabajo. El modelo se obtendrá con una precisión interna de ± 1 mm.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El sector del vino se enfrenta a nuevas oportunidades de mercado, debido a la creciente liberalización y globalización del comercio, a las que hay que unir mayores retos, como la competencia en aumento de nuevos actores y el descenso del consumo en los países productores tradicionales. Para hacer frente a esta competencia en mercados emergentes, así como a la saturación de los tradicionales, las estrategias de diferenciación se hacen cada vez más necesarias. La industria vitivinícola española, incluida en un modelo tradicional de producción, también ha sufrido con la aparición en el mercado internacional de nuevos países productores y requiere de procesos de reestructuración de la producción y estrategias innovadoras en el comercio. En España existe un claro desajuste entre oferta y demanda, con descensos en el consumo interno, que apenas cubre la sexta parte de la producción, con la eliminación de los apoyos públicos de regulación y con aumentos continuados de las cosechas. Por ello, la vía más relevante para mantener la rentabilidad del sector es la exportación, aumentando considerablemente el volumen exportado, pero también mejorando el valor de los envíos. Esta situación, sin duda, exige adaptar la oferta española a la demanda global y requiere del conocimiento de los mercados de destino y del diseño de estrategias adecuadas para alcanzar el objetivo marcado. Estados Unidos es un importador neto de vino, debido al incremento de la demanda, que desde 2013 le hizo convertirse en el mayor consumidor mundial en volumen. Este consumo en expansión no es cubierto por la producción interna, y los vinos importados adquieren un creciente interés para el consumidor estadounidense. España tiene tasas de incremento significativas en este destino, pero sus cuotas de mercado aún se sitúan en niveles inferiores a las de muchos países competidores y el consumidor medio estadounidense no tiene un elevado conocimiento del vino español, por lo que existe una gran capacidad de crecimiento. En este contexto, se plantea la necesidad de examinar el comportamiento de la demanda de EE.UU. frente a los atributos del vino español. Identificar y analizar las características que la demanda estadounidense, como mercado de exportación, considera relevantes en el vino español de calidad diferenciada, procedente de distintas regiones productoras, y posteriormente determinar su grado de importancia, de manera que se puedan plantear herramientas para la toma de decisiones empresariales y para la definición de estrategias comerciales, por parte de productores, exportadores y distribuidores vitivinícolas. El análisis de precios hedónicos, metodología ampliamente utilizada en el sector, trata de explicar la decisión de compra de determinado producto en base a una combinación de sus atributos, además de estimar el precio implícito de cada uno de ellos. Por tanto, este enfoque resulta indicado y ha sido el empleado para proporcionar a los operadores del lado de la oferta la posibilidad de comprobar los beneficios previstos de sus inversiones, comparándolos con los costes asociados a dicho esfuerzo inversor. La estimación hedónica se realiza sobre una muestra representativa de exportaciones de bodegas españolas, obtenida de una guía especializada de EE.UU. de amplia difusión en dicho mercado. Se realizan análisis tanto para el conjunto de la muestra, como para los distintos segmentos de precio (super premium, popular premium y ultra premium), y de ellos se deriva que seis grupos de variables presentan influencia sobre la apreciación del consumidor: añada, categoría comercial (grado de envejecimiento y vinos boutique), nota de calidad, origen, tipo de vino (según su color) y tamaño de la bodega. Cualquier decisión empresarial adoptada respecto a alguno de estos atributos es relevante respecto al posicionamiento del vino en el mercado estadounidense. Al margen de determinadas particularidades y del origen del vino, que presenta conductas diferentes según el segmento de precios, se observa un comportamiento similar de la demanda respecto a cada grupo de variables en los distintos tramos del mercado. Por otro lado, es necesario señalar que el rango super premium es el de mayor complejidad a la hora de tomar decisiones y en el que se dan un mayor número de posibilidades de actuación a la hora de posicionar el producto, ya que es en el que un mayor número de parámetros resulta de interés para el consumidor. El comprador estadounidense presta gran atención a la categoría del vino, siendo el factor más influyente sobre el precio de manera general. La demanda estadounidense valora de un modo importante el grado de envejecimiento de los vinos, así como su posicionamiento en precios altos que reflejen características específicas, como ocurre en los vinos boutique, especialmente apreciados en el segmento ultra premium. En este sentido, sería pertinente analizar los costes asociados a procurar a los vinos, en el caso de ser aptos para ello, un mayor envejecimiento o para elaborar un vino boutique dirigido a este mercado, o bien centrar las exportaciones en este tipo de vinos, para comprobar si se obtienen mayores beneficios con estas operaciones. Se presentan como excepción los vinos calificados como crianza que se equiparan a los vinos jóvenes o presentan peor apreciación, por lo que puede no resultar rentable un envejecimiento del vino hasta esa categoría. Por otro lado, se observa en los dos tramos inferiores de precio, que el consumidor estadounidense sabe apreciar las oportunidades de encontrar un vino de calidad en un precio inferior al esperado, por lo que aparecen oportunidades para establecer estrategias de comercialización, vía ofertas o promociones, para penetrar en el mercado. El factor exclusividad, medido a través del tamaño de la bodega, puede servir como instrumento de diferenciación comercial en EE.UU. al presentar valor añadido para la demanda, que aprecia en mayor medida los vinos elaborados por microempresas, frente a los de grandes empresas, que obtienen los peores resultados. En los vinos super premium crece la importancia de este factor, frente al tramo inferior donde el peso de las decisiones recae en otros parámetros. En ultra premium, la demanda relaciona más el factor exclusividad con la categoría boutique y no tanto con el menor tamaño de la empresa. En cuanto al tipo de vino, resulta el atributo menos relevante para el consumidor a la hora de tomar una decisión de compra, e incluso no es significativo en el segmento inferior de precios. Por tanto, las bodegas podrían tratar de introducirse en el mercado popular premium sin atender al color del vino como aspecto clave. De manera general, los vinos tintos presentan una mayor valoración frente a los blancos y rosados, teniendo estos últimos consideración negativa para el cliente. El origen del vino es relevante en las elecciones del consumidor y tiene utilidad como elemento diferenciador. Por tanto, la localización de una bodega puede favorecer o perjudicar su penetración en EE.UU. Resulta interesante que, en el tramo superior de precios, gran parte de las apreciaciones sobre los distintos orígenes son positivas, lo que va en favor de la asociación de los vinos españoles a un cierto factor prestigio y con la generación de una buena imagen general. Sin embargo, no hay muchas procedencias significativas en este estrato, por lo que son necesarios mayores esfuerzos promocionales y de posicionamiento, para ampliar el conocimiento y aceptación por el mercado de EE.UU. y mejorar así el citado factor prestigio. De manera global, la mejor valoración por la demanda se produce en los orígenes del norte de la península, mientras que la submeseta sur, zonas colindantes y Aragón tienen apreciaciones negativas. En este sentido, hay determinados orígenes, como Yecla, Utiel-Requena, Cariñena, Vinos de la Tierra de Castilla o, especialmente, Valdepeñas, que han de modificar sus estrategias de promoción, si existieran, o emprender trabajos intensos en esta línea. Por otro lado, se muestra que la mayor penetración de mercado ayuda a un mayor conocimiento y a una mejor valoración por parte del cliente. Las denominaciones de origen Rioja, Ribera de Duero, Priorat, Penedès, Rueda y Toro, orígenes con elevada presencia en la muestra, son reconocidas positivamente. Excepciones a esta afirmación, DO Navarra y Rías Baixas, deben aumentar la promoción y replantear las estrategias de posicionamiento, ya que el consumidor no parece predispuesto a comprar un vino de estas procedencias por encima de determinado nivel de precio. Finalmente, se destaca que hay orígenes, como DO Campo de Borja o IGP Vino de la Tierra de Castilla y León, con mayor valoración a mayor precio, por lo que deberían aprovechar esta percepción de buena calidad para penetrar en el mercado, especialmente en los tramos superiores de precio. En general, el consumidor estadounidense considera la añada como un factor de media relevancia en la toma de decisiones, con menos importancia en ultra premium que entre los vinos del segmento inferior y medio. En todos los análisis hay coincidencia en la mejor valoración de las últimas añadas, hecho que puede guardar relación con el aumento de la presencia y del mayor conocimiento de los vinos españoles en EE.UU. En cualquier caso, no resultaría interesante la exportación de vinos de años de cosecha antiguos, especialmente en los tramos más baratos de precios, dado que su valor puede no verse recompensado. Finalmente indicar que el mercado estadounidense tiene gran consideración, y de manera directamente proporcional, por la nota de calidad otorgada por expertos, más notablemente a medida que aumenta el precio, y la obtención de las máximas calificaciones puede suponer una apreciación significativa, mientras que una nota situada en los valores inferiores será considerada negativamente y prácticamente del mismo modo por el consumidor. Por tanto, para el elaborador del vino resultaría muy relevante obtener una de las máximas calificaciones, ya que sólo a partir de los 90 puntos se consigue un impacto positivo considerable, que permita rentabilizar los esfuerzos inversores realizados a tal fin.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Fueron evaluados los problemas relativos al manejo de los recursos hídricos y la gestión del agua en Panamá. A partir del comportamiento del clima, de la evaluación físico química de las principales cuencas hidrográficas de Panamá y del uso del suelo y del agua se aplicó el análisis de evaluación de riesgo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta tesis analiza los criterios con que fueron proyectadas y construidas las estructuras de hormigón hasta 1973, fecha coincidente con la Instrucción EH-73, que en contenido, formato y planteamiento, consagró la utilización de los criterios modernamente utilizados hasta ahora. Es heredera, además, de las CEB 1970. Esos años marcan el cambio de planteamiento desde la Teoría Clásica hacia los Estados Límite. Los objetivos perseguidos son, sintéticamente: 1) Cubrir un vacío patente en el estudio de la evolución del conocimiento. Hay tratados sobre la historia del hormigón que cubren de manera muy completa el relato de personajes y realizaciones, pero no, al menos de manera suficiente, la evolución del conocimiento. 2) Servir de ayuda a los técnicos de hoy para entender configuraciones estructurales, geometrías, disposiciones de armado, formatos de seguridad, etc, utilizados en el pasado, lo que servirá para la redacción más fundada de dictámenes preliminares sobre estructuras existentes. 3) Ser referencia para la realización de estudios de valoración de la capacidad resistente de construcciones existentes, constituyendo la base de un documento pre-normativo orientado en esa dirección. En efecto, esta tesis pretende ser una ayuda para los ingenieros de hoy que se enfrentan a la necesidad de conservar y reparar estructuras de hormigón armado que forman parte del patrimonio heredado. La gran mayoría de las estructuras, fueron construidas hace más de 40 años, por lo que es preciso conocer los criterios que marcaron su diseño, su cálculo y su construcción. Pretende determinar cuáles eran los límites de agotamiento y por tanto de seguridad, de estructuras dimensionadas con criterios de antaño, analizadas por la metodología de cálculo actual. De este modo, se podrá determinar el resguardo existente “real” de las estructuras dimensionadas y calculadas con criterios “distintos” a los actuales. Conocer el comportamiento de las estructuras construidas con criterios de la Teoría Clásica, según los criterios actuales, permitirá al ingeniero de hoy tratar de la forma más adecuada el abanico de necesidades que se puedan presentar en una estructura existente. Este trabajo se centra en la evolución del conocimiento por lo que no se encuentran incluidos los procesos constructivos. En lo relativo a los criterios de proyecto, hasta mediados del siglo XX, éstos se veían muy influidos por los ensayos y trabajos de autor consiguientes, en los que se basaban los reglamentos de algunos países. Era el caso del reglamento prusiano de 1904, de la Orden Circular francesa de 1906, del Congreso de Lieja de 1930. A partir de la segunda mitad del siglo XX, destacan las aportaciones de ingenieros españoles como es el caso de Alfredo Páez Balaca, Eduardo Torroja y Pedro Jiménez Montoya, entre otros, que permitieron el avance de los criterios de cálculo y de seguridad de las estructuras de hormigón, hasta los que se conocen hoy. El criterio rector del proyecto de las estructuras de hormigón se fundó, como es sabido, en los postulados de la Teoría Clásica, en particular en el “momento crítico”, aquel para el que hormigón y acero alcanzan sus tensiones admisibles y, por tanto, asegura el máximo aprovechamiento de los materiales y sin pretenderlo conscientemente, la máxima ductilidad. Si el momento solicitante es mayor que el crítico, se dispone de armadura en compresión. Tras el estudio de muchas de las estructuras existentes de la época por el autor de esta tesis, incluyendo entre ellas las Colecciones Oficiales de Puentes de Juan Manuel de Zafra, Eugenio Ribera y Carlos Fernández Casado, se concluye que la definición geométrica de las mismas no se corresponde exactamente con la resultante del momento crítico, dado que como ahora resultaba necesario armonizar los criterios de armado a nivel sección con la organización de la ferralla a lo largo de los diferentes elementos estructurales. Los parámetros de cálculo, resistencias de los materiales y formatos de seguridad, fueron evolucionando con los años. Se fueron conociendo mejor las prestaciones de los materiales, se fue enriqueciendo la experiencia de los propios procesos constructivos y, en menor medida, de las acciones solicitantes y, consiguientemente, acotándose las incertidumbres asociadas lo cual permitió ir ajustando los coeficientes de seguridad a emplear en el cálculo. Por ejemplo, para el hormigón se empleaba un coeficiente de seguridad igual a 4 a finales del siglo XIX, que evolucionó a 3,57 tras la publicación de la Orden Circular francesa de 1906, y a 3, tras la Instrucción española de 1939. En el caso del acero, al ser un material bastante más conocido por cuanto se había utilizado muchísimo previamente, el coeficiente de seguridad permaneció casi constante a lo largo de los años, con un valor igual a 2. Otra de las causas de la evolución de los parámetros de cálculo fue el mejor conocimiento del comportamiento de las estructuras merced a la vasta tarea de planificación y ejecución de ensayos, con los estudios teóricos consiguientes, realizados por numerosos autores, principalmente austríacos y alemanes, pero también norteamericanos y franceses. En cuanto a los criterios de cálculo, puede sorprender al técnico de hoy el conocimiento que tenían del comportamiento del hormigón desde los primeros años del empleo del mismo. Sabían del comportamiento no lineal del hormigón, pero limitaban su trabajo a un rango de tensióndeformación lineal porque eso aseguraba una previsión del comportamiento estructural conforme a las hipótesis de la Elasticidad Lineal y de la Resistencia de Materiales, muy bien conocidas a principios del s. XX (no así sucedía con la teoría de la Plasticidad, aún sin formular, aunque estaba implícita en los planteamientos algunos ingenieros especializados en estructuras de fábrica (piedra o ladrillo) y metálicas. Además, eso permitía independizar un tanto el proyecto de los valores de las resistencias reales de los materiales, lo que liberaba de la necesidad de llevar a cabo ensayos que, en la práctica, apenas se podían hacer debido a la escasez de los laboratorios. Tampoco disponían de programas informáticos ni de ninguna de las facilidades de las que hoy se tienen, que les permitiera hacer trabajar al hormigón en un rango no lineal. Así, sabia y prudentemente, limitaban las tensiones y deformaciones del material a un rango conocido. El modus operandi seguido para la elaboración de esta tesis, ha sido el siguiente: -Estudio documental: se han estudiado documentos de autor, recomendaciones y normativa generada en este ámbito, tanto en España como con carácter internacional, de manera sistemática con arreglo al índice del documento. En este proceso, se han detectado lagunas del conocimiento (y su afección a la seguridad estructural, en su caso) y se han identificado las diferencias con los procedimientos de hoy. También ha sido necesario adaptar la notación y terminología de la época a los criterios actuales, lo que ha supuesto una dificultad añadida. -Desarrollo del documento: A partir del estudio previo se han ido desarrollando los siguientes documentos, que conforman el contenido de la tesis: o Personajes e instituciones relevantes por sus aportaciones al conocimiento de las estructuras de hormigón (investigación, normativa, docencia). o Caracterización de las propiedades mecánicas de los materiales (hormigón y armaduras), en relación a sus resistencias, diagramas tensión-deformación, módulos de deformación, diagramas momento-curvatura, etc. Se incluye aquí la caracterización clásica de los hormigones, la geometría y naturaleza de las armaduras, etc. o Formatos de seguridad: Se trata de un complejo capítulo del que se pretende extraer la información suficiente que permita a los técnicos de hoy entender los criterios utilizados entonces y compararlos con los actuales. o Estudio de secciones y piezas sometidas a tensiones normales y tangenciales: Se trata de presentar la evolución en el tratamiento de la flexión simple y compuesta, del cortante, del rasante, torsión, etc. Se tratan también en esta parte del estudio aspectos que, no siendo de preocupación directa de los técnicos de antaño (fisuración y deformaciones), tienen hoy mayor importancia frente a cambios de usos y condiciones de durabilidad. o Detalles de armado: Incluye el tratamiento de la adherencia, el anclaje, el solapo de barras, el corte de barras, las disposiciones de armado en función de la geometría de las piezas y sus solicitaciones, etc. Es un capítulo de importancia obvia para los técnicos de hoy. Se incluye un anejo con las referencias más significativas a los estudios experimentales en que se basaron las propuestas que han marcado hito en la evolución del conocimiento. Finalmente, junto a las conclusiones más importantes, se enuncian las propuestas de estudios futuros. This thesis analyzes the criteria with which structures of reinforced concrete have been designed and constructed prior to 1973. Initially, the year 1970 was chosen as starting point, coinciding with the CEB recommendations, but with the development of the thesis it was decided that 1973 was the better option, coinciding with the Spanish regulations of 1973, whose content, format and description introduced the current criteria. The studied period includes the Classic Theory. The intended goals of this thesis are: 1) To cover a clear gap in the study of evolution of knowledge about reinforced concrete. The concept and accomplishments achieved by reinforced concrete itself has been treated in a very complete way by the main researchers in this area, but not the evolution of knowledge in this subject area. 2) To help the engineers understand structural configurations, geometries, dispositions of steel, safety formats etc, that will serve as preliminary judgments by experts on existing structures. To be a reference to the existing studies about the valuation of resistant capacity of existing constructions, constituting a basic study of a pre-regulation document. This thesis intends to be a help for the current generation of engineers who need to preserve and repair reinforced concrete structures that have existed for a significant number of years. Most of these structures in question were constructed more than 40 years ago, and it is necessary to know the criteria that influenced their design, the calculation and the construction. This thesis intends to determine the safety limits of the old structures and analyze them in the context of the current regulations and their methodology. Thus, it will then be possible to determine the safety of these structures, after being measured and calculated with the current criteria. This will allow the engineers to optimize the treatment of such a structure. This work considers the evolution of the knowledge, so constructive methods are not included. Related to the design criteria, there existed until middle of the 20th century a large number of diverse European tests and regulations, such as the Prussian norm of 1904, the Circular French Order of 1906, the Congress of Liège of 1930, as well as individual engineers’ own notes and criteria which incorporated the results of their own tests. From the second half of the 20th century, the contributions of Spanish engineers as Alfredo Páez Balaca, Eduardo Torroja and Pedro Jiménez Montoya, among others, were significant and this allowed the advancement of the criteria of the calculation of safety standards of concrete structures, many of which still exist to the present day. The design and calculation of reinforced concrete structures by the Classic Theory, was based on the ‘Critical Bending Moment’, when concrete and steel achieve their admissible tensions, that allows the best employment of materials and the best ductility. If the bending moment is major than the critical bending moment, will be necessary to introduce compression steel. After the study of the designs of many existing structures of that time by the author of this thesis, including the Historical Collections of Juan Manuel de Zafra, Eugenio Ribera and Carlos Fernandez Casado, the conclusion is that the geometric definition of the structures does not correspond exactly with the critical bending moment inherent in the structures. The parameters of these calculations changed throughout the years. The principal reason that can be outlined is that the materials were improving gradually and the number of calculated uncertainties were decreasing, thus allowing the reduction of the safety coefficients to use in the calculation. For example, concrete used a coefficient of 4 towards the end of the 19th century, which evolved to 3,57 after the publication of the Circular French Order of 1906, and then to 3 after the Spanish Instruction of 1939. In the case of the steel, a much more consistent material, the safety coefficient remained almost constant throughout the years, with a value of 2. Other reasons related to the evolution of the calculation parameters were that the tests and research undertaken by an ever-increasing number of engineers then allowed a more complete knowledge of the behavior of reinforced concrete. What is surprising is the extent of knowledge that existed about the behavior of the concrete from the outset. Engineers from the early years knew that the behavior of the concrete was non-linear, but they limited the work to a linear tension-deformation range. This was due to the difficulties of work in a non-linear range, because they did not have laboratories to test concrete, or facilities such as computers with appropriate software, something unthinkable today. These were the main reasons engineers of previous generations limited the tensions and deformations of a particular material to a known range. The modus operandi followed for the development of this thesis is the following one: -Document study: engineers’ documents, recommendations and regulations generated in this area, both from Spain or overseas, have been studied in a systematic way in accordance with the index of the document. In this process, a lack of knowledge has been detected concerning structural safety, and differences to current procedures have been identified and noted. Also, it has been necessary to adapt the notation and terminology of the Classic Theory to the current criteria, which has imposed an additional difficulty. -Development of the thesis: starting from the basic study, the next chapters of this thesis have been developed and expounded upon: o People and relevant institutions for their contribution to the knowledge about reinforced concrete structures (investigation, regulation, teaching). Determination of the mechanical properties of the materials (concrete and steel), in relation to their resistances, tension-deformation diagrams, modules of deformation, moment-curvature diagrams, etc. Included are the classic characterizations of concrete, the geometry and nature of the steel, etc. Safety formats: this is a very difficult chapter from which it is intended to provide enough information that will then allow the present day engineer to understand the criteria used in the Classic Theory and then to compare them with the current theories. Study of sections and pieces subjected to normal and tangential tensions: it intends to demonstrate the evolution in the treatment of the simple and complex flexion, shear, etc. Other aspects examined include aspects that were not very important in the Classic Theory but currently are, such as deformation and fissures. o Details of reinforcement: it includes the treatment of the adherence, the anchorage, the lapel of bars, the cut of bars, the dispositions of reinforcement depending on the geometry of the pieces and the solicitations, etc. It is a chapter of obvious importance for current engineers. The document will include an annex with the most references to the most significant experimental studies on which were based the proposals that have become a milestone in the evolution of knowledge in this area. Finally, there will be included conclusions and suggestions of future studies. A deep study of the documentation and researchers of that time has been done, juxtaposing their criteria and results with those considered relevant today, and giving a comparison between the resultant safety standards according to the Classic Theory criteria and currently used criteria. This thesis fundamentally intends to be a guide for engineers who have to treat or repair a structure constructed according to the Classic Theory criteria.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En esta tesis se recoge el trabajo realizado centrado en el estudio del vídeo estereoscópico y, en particular, la información que aportan los mapas de disparidad y sus posibles aplicaciones. El trabajo se ha dividido en tres bloques diferenciados: En primer lugar se presentan los resultados de un codificador de vídeo multivista basado en mapas de disparidad previamente computados. La finalidad del estudio es comprobar los efectos de la aplicación directa de la disparidad para la compensación entre vistas en cuanto a reducción del tiempo de procesado y calidad de la compresión sobre algoritmos basados en división de bloques, como AVC o HEVC. También se ha trabajado para obtener un flujo de vídeo compatible con MVC que contenga la información de los mapas de disparidad embebida en el flujo en forma de vectores de compensación. Estos mapas se usan como base para obtener la compensación entre bloques de la imagen derecha e izquierda. Para reducir aún más el coste computacional, se ha diseñado un algoritmo de decisión previa del tamaño del bloque de compensación. Aquí se presentan los resultados de ambas estrategias, con decisión previa y sin ella, para evaluar las alternativas. Se presentan los resultados tanto sobre imágenes estereoscópicas estáticas como secuencias de vídeo estereoscópico, cada una de ellas a diferentes valores de compresión de forma que se obtenga una referencia parametrizada del comportamiento del algoritmo. Dichos resultados revelan una reducción drástica del tiempo de procesado con estabilización de la tasa binaria para valores de compresión moderados (compresión de alta calidad), mientras que para compresiones severas, la tasa binaria crece en comparación con el software de referencia JMVC. En segundo lugar se realiza un análisis de calidad relacionado con la información de disparidad de las secuencias estereoscópicas, sus valores absolutos y sus derivadas temporales, de modo que pueda servir tanto para generar sistemas automáticos de evaluación de la calidad, como para sintetizar una lista de buenas prácticas para la creación de contenidos audiovisuales estereoscópicos que ofrezcan una calidad de la experiencia elevada. Para relacionar la calidad de la experiencia y el confort visual generado por una secuencia estereoscópica se ha llevado a cabo una serie de tests de visualización por parte de un grupo de observadores, de secuencias previamente generadas y catalogadas en base a sus variaciones de la disparidad y de movimiento. Las conclusiones extraídas indican que los paralajes negativos son más efectistas y ofrecen una inmersión mayor y, por tanto, mejor calidad de la experiencia, cuando se utilizan de forma moderada. Variaciones rápidas de los valores de disparidad negativa y variaciones de movimiento de objetos con disparidad negativa generan disconfort visual. La probabilidad de que paralajes positivos generen disconfort visual son mucho menores, por lo que resulta interesante en este caso utilizar variaciones rápidas de disparidad y movimiento para compensar la falta de efectismo que producen dichos paralajes. Por último, se ha planteado el diseño de un sistema de inserción coherente de gráficos, en tiempo real, en una escena estereoscópica. Se ha hecho hincapié en la necesidad de la coherencia entre la disparidad de los objetos que conforman una escena y las oclusiones que éstos producen, por lo que la inserción de un elemento no nativo de la escena debe tener en cuenta esta circunstancia para mantener la calidad de la experiencia estereoscópica. Se ha estudiado la influencia de la calidad del mapa de disparidad de la escena como base sobre la que realizar la inserción, así como posibles formas de modificar dicho mapa para que la inserción produzca el efecto deseado de coherencia. En concreto se ha postulado que es preferible sacrificar la precisión punto a punto del mapa de disparidad si, de esa manera, se evita cometer pequeños errores aislados de inserción, a costa de introducir un ajuste menos fino en los bordes de los objetos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En esta Tesis Doctoral se ha estudiado la influencia del cultivar sobre el comportamiento reológico y panadero de cinco cultivares de trigo sembrados en el mismo año y en el mismo ambiente, en condiciones de cultivo ecológico. Tres de ellos eran de trigo panadero (Triticum aestivum ssp. vulgare), ‘Bonpain’, ‘Craklin’ y ‘Sensas’ y los otros dos de trigo espelta (Triticum aestivum ssp. spelta), ‘Espelta Álava’ y ‘Espelta Navarra’. Actualmente, el alohexaploide trigo panadero (2n=6x=42 genomio AABBDD) supone en torno al 90% del trigo cultivado en el mundo. En cambio, el cultivo del trigo alohexaploide espelta (2n=6x=42 genomio AABBDD) se limita a pequeñas regiones de Europa y de América del Norte. En España, el cultivo de trigo espelta se ha mantenido durante años ligado a la región de Asturias, aunque en la actualidad su cultivo está empezando a diversificarse hacia otras regiones. Esto se debe, fundamentalmente, a su potencial nutricional y a su adaptabilidad a condiciones de agricultura sostenible. El reciente resurgimiento de la espelta en productos de panificación, se debe, en gran parte, a la percepción del consumidor de que se trata de un producto ”más saludable” y “más natural” y con menor requerimiento de insumos que los trigos modernos. A medida que el consumo de alimentos a base de harina de espelta aumenta, se plantea la necesidad de evaluar su calidad harino-panadera, nutricional y sensorial en comparación con los productos elaborados con variedades de trigo común. Se caracterizaron las gluteninas de alto peso molecular (HMW) y las puroindolinas de los cinco cultivares. Se evaluó la calidad del grano, la reología de sus masas y se analizó la calidad instrumental y sensorial de sus panes. Para tal fin se ha puesto a punto un protocolo de panificación adecuado a las características particulares de los trigos espelta y se ha propuesto para el análisis sensorial de los panes un protocolo de selección, entrenamiento y validación de jueces. Teniendo en cuenta la composición en gluteninas HMW de los cultivares, se comprobó su influencia en el volumen de sedimentación y en la fuerza panadera. La composición en puroindolinas se vió reflejada en el parámetro dureza del endospermo. Los resultados indicaron que hay diferencias entre trigo panadero y trigo espelta en parámetros como, la tenacidad y el equilibrio de sus masas, la capacidad de absorción de agua de la harina y el comportamiento de la masa durante el amasado. Los trigos espeltas mostraron menor valor en el tiempo en alcanzar la presión máxima y la tolerancia al amasado, mientras que presentaron valores superiores en el decaimiento a los 250 y 450 segundos respectivamente. Respecto a la calidad de los panes elaborados, los trigos espeltas tenían mayor elasticidad en la miga y mayores valores en el área y en el diámetro de sus alveolos. Estas diferencias en la estructura y textura de la miga fueron también detectadas a nivel sensorial por el panel de jueces. Mediante el perfil sensorial descriptivo, se determinó que uno de los dos panes elaborado con trigo espelta (‘Espelta Navarra’) fue el pan más complejo considerando conjuntamente los atributos de aroma y flavor. En este trabajo no se apreciaron diferencias entre ambos tipos de trigo ni en el contenido en proteína, ni en minerales, ni en la viscosidad de su almidón. ABSTRACT In this Doctoral Thesis, the influence of various cultivars on rheological and baking behavior was studied. Five wheat cultivars were used, all planted in the same year and same organic farming environment. Three were bread wheat (Triticum aestivum ssp. vulgare), 'Bonpain', 'Craklin' and 'Sensas' and the other two were spelt wheat (Triticum aestivum ssp. spelta) , 'Espelta Álava' and 'Espelta Navarra' . Currently, the allohexaploid bread wheat (2n=6x=42 genome AABBDD) represents about 90% of global wheat production. On the other hand, allohexaploid spelt wheat (2n=6x=42 genome AABBDD) is merely produced in small areas of Europe and North America. For many years, the cultivation of spelt wheat in Spain was limited to the region of Asturias, although nowadays its production has begun to spread into other regions. This is owing to its nutritional potential and adaptability to conditions of sustainable agriculture. The recent resurgence of spelt in baking products is mainly due to consumers perception of it, as "healthier" and "more natural", and to the fewer agricultural input requirements compared to modern wheat products. As the consumption of foods made from spelt flour increases, there is a need to assess its baking, nutritional and sensory quality, compared to products made with common varieties of wheat. High molecular weight glutenins and puroindolines from the five cultivars were characterized. The quality of the grain and the rheology of the dough were evaluated and the instrumental and sensory quality of its breads were analyzed. To this end it a baking protocol was appropriately developed to the particular characteristics of spelt wheat and a selection protocol was proposed for the sensory analysis of breads, after proper training and validation of judges. Considering the HMW glutenin composition of the cultivars, the influence on the sedimentation volume and the baking strength was proven. The composition of puroindolines was reflected in the endosperm hardness parameter. The results show that there are differences between bread wheat and spelt wheat on parameters such as the tenacity and tenacity/elasticity ratio of their masses, the water absorption capacity of the flour and the behavior of the dough during kneading. The values for total time to reach maximum pressure and tolerance to mixing were lower for spelt wheat, and higher values were found for the drop at 250 s and 450 s. Regarding the quality of manufactured bread, spelt wheat had the greatest elasticity of the crumb and higher values in the area and diameter of the cells. These differences in the structure and texture of the crumb were also noticed at a sensory level by the panel of judges. It was determined by a descriptive sensory profile that one of the two loaves of bread made with spelt ('Espelta Navarra') was the most complex in the sense of its attributes of scents and flavors altogether. In this study, no differences were appreciated between the two types of wheat or the protein composition, or minerals or viscosity of the starch.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Uno de los principales retos de la sociedad actual es la evolución de sectores como el energético y el de la automoción a un modelo sostenible, responsable con el medio ambiente y con la salud de los ciudadanos. Una de las posibles alternativas, es la célula de combustible de hidrógeno, que transforma la energía química del combustible (hidrógeno) en corriente continua de forma limpia y eficiente. De entre todos los tipos de célula, gana especial relevancia la célula de membrana polimérica (PEM), que por sus características de peso, temperatura de trabajo y simplicidad; se presenta como una gran alternativa para el sector de la automoción entre otros. Por ello, el objetivo de este trabajo es ahondar en el conocimiento de la célula de combustible PEM. Se estudiarán los fundamentos teóricos que permitan comprender su funcionamiento, el papel de cada uno de los elementos de la célula y cómo varían sus características el funcionamiento general de la misma. También se estudiará la caracterización eléctrica, por su papel crucial en la evaluación del desempeño de la célula y para la comparación de modificaciones introducidas en ella. Además, se realizará una aplicación práctica en colaboración con los proyectos de fin de máster y doctorado de otros estudiantes del Politécnico de Milán, para implementar las técnicas aprendidas de caracterización eléctrica en una célula trabajando con diferentes tipos de láminas de difusión gaseosa (GDL y GDM) preparadas por estudiantes. Los resultados de la caracterización, permitirán analizar las virtudes de dos modificaciones en la composición clásica de la célula, con el fin de mejorar la gestión del agua que se produce en la zona catódica durante la reacción, disminuyendo los problemas de difusión a altas densidades de corriente y la consiguiente pérdida de potencial en la célula. Las dos modificaciones son: la inclusión de una lámina de difusión microporosa (MPL) a la lámina macroporosa habitual (GDL), y el uso de diversos polímeros con mejores propiedades hidrófobas en el tratamiento de dichas láminas de difusión. La célula de combustible es un sistema de conversión de energía electroquímico, en el que se trasforma de forma directa, energía química en energía eléctrica de corriente continua. En el catalizador de platino del ánodo se produce la descomposición de los átomos de hidrógeno. Los protones resultantes viajarán a través de la membrana de conducción protónica (que hace las veces de electrolito y supone el alma de la célula PEM) hasta el cátodo. Los electrones, en cambio, alcanzarán el cátodo a través de un circuito externo produciendo trabajo. Una vez ambas especies se encuentran en el cátodo, y junto con el oxígeno que sirve como oxidante, se completa la reacción, produciéndose agua. El estudio termodinámico de la reacción que se produce en la célula nos permite calcular el trabajo eléctrico teórico producido por el movimiento de cargas a través del circuito externo, y con él, una expresión del potencial teórico que presentará la célula, que variará con la temperatura y la presión; Para una temperatura de 25°C, este potencial teórico es de 1.23 V, sin embargo, el potencial de la célula en funcionamiento nunca presenta este valor. El alejamiento del comportamiento teórico se debe, principalmente, a tres tipos de pérdidas bien diferenciadas:  Pérdidas de activación: El potencial teórico representa la tensión de equilibrio, para la que no se produce un intercambio neto de corriente. Por tanto, la diferencia de potencial entre el ánodo y el cátodo debe alejarse del valor teórico para obtener una corriente neta a través del circuito externo. Esta diferencia con el potencial teórico se denomina polarización de activación, y conlleva una pérdida de tensión en la célula. Así pues estas pérdidas tienen su origen en la cinética de la reacción electroquímica.  Pérdidas óhmicas: Es una suma de las resistencias eléctricas en los elementos conductores, la resistencia en la membrana electrolítica a la conducción iónica y las resistencias de contacto.  Pérdidas por concentración: Estas pérdidas se producen cuando los gases reactivos en el área activa son consumidos en un tiempo menor del necesario para ser repuestos. Este fenómeno es crítico a altas densidades de corriente, cuando los gases reactivos son consumidos con gran velocidad, por lo que el descenso de concentración de reactivos en los electrodos puede provocar una caída súbita de la tensión de la célula. La densidad de corriente para la cual se produce esta caída de potencial en unas condiciones determinadas se denomina densidad límite de corriente. Así pues, estas pérdidas tienen su origen en los límites de difusión de las especies reactivas a través de la célula. Además de la membrana electrolítica y el catalizador, en la célula de combustible podemos encontrar como principales componentes los platos bipolares, encargados de conectar la célula eléctricamente con el exterior y de introducir los gases reactivos a través de sus conductos; y las láminas difusivas, que conectan eléctricamente el catalizador con los platos bipolares y sirven para distribuir los gases reactivos de forma que lleguen a todo el área activa, y para evacuar el exceso de agua que se acumula en el área activa.La lámina difusiva, más conocida como GDL, será el argumento principal de nuestro estudio. Está conformada por un tejido de fibra de carbono macroporosa, que asegure el contacto eléctrico entre el catalizador y el plato bipolar, y es tratada con polímeros para proporcionarle propiedades hidrófobas que le ayuden en la evacuación de agua. La evacuación del agua es tan importante, especialmente en el cátodo, porque de lo contrario, la cantidad de agua generada por la reacción electroquímica, sumada a la humedad que portan los gases, puede provocar inundaciones en la zona activa del electrodo. Debido a las inundaciones, el agua obstruye los poros del GDL, dificultando la difusión de especies gaseosas y aumentando las pérdidas por concentración. Por otra parte, si demasiada agua se evacúa del electrodo, se puede producir un aumento de las pérdidas óhmicas, ya que la conductividad protónica de la membrana polimérica, es directamente proporcional a su nivel de humidificación. Con el fin de mejorar la gestión del agua de la célula de combustible, se ha añadido una capa microporosa denominada MPL al lado activo del GDL. Esta capa, constituida por una mezcla de negro de carbón con el polímero hidrófobo como aglutinante, otorga al GDL un mejor acabado superficial que reduce la resistencia de contacto con el electrodo, además la reducción del tamaño de las gotas de agua al pasar por el MPL mejora la difusión gaseosa por la disminución de obstrucciones en el GDL. Es importante tener cuidado en los tratamientos de hidrofobización de estos dos elementos, ya que, cantidades excesivas de polímero hidrófobo podrían reducir demasiado el tamaño de los poros, además de aumentar las pérdidas resistivas por su marcado carácter dieléctrico. Para el correcto análisis del funcionamiento de una célula de combustible, la herramienta fundamental es su caracterización eléctrica a partir de la curva de polarización. Esta curva representa la evolución del potencial de la célula respecto de la densidad de corriente, y su forma viene determinada principalmente por la contribución de las tres pérdidas mencionadas anteriormente. Junto con la curva de polarización, en ocasiones se presenta la curva de densidad de potencia, que se obtiene a partir de la misma. De forma complementaria a la curva de polarización, se puede realizar el estudio del circuito equivalente de la célula de combustible. Este consiste en un circuito eléctrico sencillo, que simula las caídas de potencial en la célula a través de elementos como resistencias y capacitancias. Estos elementos representas pérdidas y limitaciones en los procesos químicos y físicos en la célula. Para la obtención de este circuito equivalente, se realiza una espectroscopia de impedancia electroquímica (en adelante EIS), que consiste en la identificación de los diferentes elementos a partir de los espectros de impedancia, resultantes de introducir señales de corriente alternas sinusoidales de frecuencia variable en la célula y observar la respuesta en la tensión. En la siguiente imagen se puede observar un ejemplo de la identificación de los parámetros del circuito equivalente en un espectro de impedancia. Al final del trabajo, se han realizado dos aplicaciones prácticas para comprobar la influencia de las características hidrófobas y morfológicas de los medios difusores en la gestión del agua en el cátodo y, por tanto, en el resultado eléctrico de la célula; y como aplicación práctica de las técnicas de construcción y análisis de las curvas de polarización y potencia y de la espectroscopia de impedancia electroquímica. El primer estudio práctico ha consistido en comprobar los beneficios de la inclusión de un MPL al GDL. Para ello se han caracterizado células funcionando con GDL y GDM (GDL+MPL) tratados con dos tipos diferentes de polímeros, PTFE y PFPE. Además se han realizado las pruebas para diferentes condiciones de funcionamiento, a saber, temperaturas de 60 y 80°C y niveles de humidificación relativa de los gases reactivos de 80%-60% y 80%- 100% (A-C). Se ha comprobado con las curvas de polarización y potencia, cómo la inclusión de un MPL en el lado activo del GDL reporta una mejora del funcionamiento de trabajo en todas las condiciones estudiadas. Esta mejora se hace más patente para altas densidades de corriente, cuando la gestión del agua resulta más crítica, y a bajas temperaturas ya que un menor porcentaje del agua producida se encuentra en estado de vapor, produciéndose inundaciones con mayor facilidad. El segundo estudio realizado trata de la influencia del agente hidrofobizante utilizado en los GDMs. Se pretende comprobar si algún otro polímero de los estudiados, mejora las prestaciones del comúnmente utilizado PTFE. Para ello se han caracterizado células trabajando en diferentes condiciones de trabajo (análogas a las del primer estudio) con GDMs tratados con PTFE, PFPE, FEP y PFA. Tras el análisis de las curvas de polarización y potencia, se observa un gran comportamiento del FEP para todas las condiciones de trabajo, aumentando el potencial de la célula para cada densidad de corriente respecto al PTFE y retrasando la densidad de corriente límite. El PFPE también demuestra un gran aumento del potencial y la densidad de potencia de la célula, aunque presenta mayores problemas de difusión a altas densidades de corriente. Los resultados del PFA evidencian sus problemas en la gestión del agua a altas densidades de corriente, especialmente para altas temperaturas. El análisis de los espectros de impedancia obtenidos con la EIS confirma los resultados de las curvas de polarización y evidencian que la mejor alternativa al PTFE para el tratamiento del GDM es el FEP, que por sus mejores características hidrófobas reduce las pérdidas por concentración con una mejor gestión del agua en el cátodo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En la actualidad la mayoría de plantas sufren pérdidas debido a las enfermedades que les provocan los hongos. Uno de estos grupos amenazado por el ataque de los hongos son las especies de la familia Orchidaceae, especies que se encuentran amenazadas y con numerosas especies en peligro de extinción. Uno de los problemas sanitarios más destacados es Botrytis cinerea, hongo patógeno cosmopolita, causante de enfermedades importantes en muchas plantas tales como frutas, verduras, accesiones de viveros, plantas ornamentales y huertos cultivos (Jarvis 1977; Elad et al., 2007). Este género es uno de los grupos de hongos más ampliamente conocido y distribuido. Contiene 22 especies (Hennebert 1973; Yohalem et al., 2003) y un híbrido (B. allii) (Yohalem & Alabama, 2003) vinculado a las etapas sexuales y un amplio número de huéspedes específicos (Beever y Weds, 2000); infecta más de 200 especies vegetales distintas (Williamson et al., 2007). Dada la importancia de este patógeno se realiza un estudio de caracterización morfológica y molecular del hongo, aislado de plantas de orquídeas cultivadas en condiciones de invernadero, de hortalizas y plantas frutales, con síntomas de necrosis, atizonamientos y pudriciones. El análisis de las características morfológicas (presencia de esclerocios, tamaño de conidios, presencia de estructuras sexuales in vitro) y fenotípicas (crecimiento micelial a diferentes temperaturas, germinación de esporas), nos permitió determinar características importantes del comportamiento del hongo y establecer cuáles son las mejores condiciones para su patogenicidad. Se afianzo este trabajo con estudios moleculares a través del análisis de la región ribosomal ITS1-ITS4. Entre los aislados estudiados se identificaron dos especies diferentes, Botrytis cinerea y B. fabiopsis, esta última conocida como especifica de Vicia faba, se lo aisló de una planta de Pelargonium sp. Se hizo un análisis filogenético para comparar estas dos especies, encontrándose que B. fabiopsis está estrechamente relacionada con B. cinerea y B. elliptica, pero lejanamente relacionado con B. fabae. Además, se analizó las poblaciones de los aislados de Botrytis, para ello se seleccionaron tres parejas de cebadores microsatelites con altos porcentajes de polimorfismo. Al analizar la similaridad entre los aislados se determinaron tres grupos de poblaciones de B. cinerea entre los cuales Botrytis fabiopsis comparte un grupo grande con B. cinerea. La diferenciación genética no fue significativa entre la población de aislados de orquídeas y hortalizas, la diferencia génica que fue muy baja, lo que sugiere que la especificidad de Botrytis no está dada por los hospederos, aunque la posibilidad de la especificidad con algún cultivo no puede descartarse. ABSTRACT Most plants suffer diseases caused by fungi. Orchidaceae is one of the threatened groups with many endangered species. Included into the most important problems in plant health is Botrytis cinerea, a cosmopolitan pathogen which causes major diseases in many plants of agronomic interest such as fruits, vegetables, planthouses accessions and ornamental plants (Jarvis, 1977; Elad et al, 2007). The genus Botrytis is one of the most widely and disseminated fungi. The genus contains 22 species (Hennebert 1973; Yohalem et al, 2003) and a hybrid (B. allii) (Yohalem & Alabama, 2003) linked to the sexual stages of a large number of specific hosts (Beever & Weds, 2000); infects over 200 different plant species (Williamson et al., 2007). Due to the importance of this pathogen, a study of morphological and molecular characterization of the fungus was carried out. Fungi samples were isolated from orchid plants grown in greenhouse conditions, vegetables and fruits with signs of necrosis, blight and rottening. To establish the best conditions for pathogenicity, behavioral characteristics of the fungus were studied through the analysis of morphological characteristics (presence of sclerotia, conidia size, sexual structures in vitro) and mycelial growth at different temperatures. To complete the characterization of the fungi, a molecular study was performed via the analysis of ribosomal ITS1-ITS4 region. Two different species were identified: Botrytis cinerea and Botrytis fabiopsis (known by specificity to Vicia faba). B. fabiopsis was isolated from a plant of the genus Pelargonium. A phylogenetic analysis was carried out to compare these two species leading to the conclusion that B. fabiopsis is closely related to B. cinerea and B. elliptica, but distantly related to B. fabae. The populations of Botrytis isolates were also analyzed. Three pairs of microsatellite primers with high percentages of polymorphism were selected. A similarity analysis showed three groups of populations of B. cinerea, including Botrytis fabiopsis. The genetic differentiation was not significant among the populations of isolates from orchids and vegetables; genetic differences were very low, suggesting that the specificity of Botrytis species is not given by the hosts.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el complejo de plagas que atacan a los principales cultivos hortícolas protegidos, destacan principalmente los Hemípteros, y dentro de estos los pulgones, dada su importancia como vectores de virus que provocan considerables daños y pérdidas económicas. Debido a que la dispersión de la mayoría de los virus de plantas puede ser eficaz con densidades bajas de vectores y su control es muy complicado al no existir métodos curativos para su control, es necesario generar nuevos conocimientos sobre las interacciones virus-vector con el fin de desarrollar nuevas y eficaces estrategias de control. Por ello, el objetivo general de esta Tesis ha sido conocer el efecto de la infección viral (directo-mediado por la presencia del virus en el vector- e indirecto-mediado por las alteraciones físico-químicas que se originan en la planta como consecuencia de la infección viral-) sobre el comportamiento y eficacia biológica del vector Aphis gossypii Glover y sus posibles repercusiones en la epidemiología de virosis de transmisión no persistente (Cucumber mosaic virus, CMV, Cucumovirus) y persistente (Cucurbit aphid-borne yellows virus, CABYV, Polerovirus). El primer objetivo de esta Tesis Doctoral, se centró en el estudio del efecto indirecto del virus de transmisión no persistente CMV sobre el comportamiento alimenticio y la preferencia del pulgón A. gossypii en el cultivo de pepino. Los ensayos de despegue y aterrizaje mostraron que los pulgones que fueron liberados en las plantas de pepino infectadas con CMV tuvieron una mayor propensión en migrar hacia las plantas no infectadas (60, 120 y 180 minutos después de la liberación) que aquellos que fueron sometidos al tratamiento contrario (planta no infectada hacia planta infectada con CMV). El estudio de preferencia y asentamiento mostró que el vector A. gossypii prefiere asentarse en plantas infectadas con CMV en una etapa temprana de evaluación (30 minutos después de la liberación). Sin embargo, este comportamiento se revirtió en una etapa posterior (4 y 48 horas después de la liberación), donde los pulgones se asentaron más en las plantas no infectadas. A través de la técnica de Gráficos de Penetración Eléctrica (EPG) se observó un efecto indirecto del virus CMV, revelado por un cambio brusco en el comportamiento de prueba del pulgón a lo largo del tiempo, cuando éstos fueron expuestos a las plantas infectadas con CMV. Los primeros 15 minutos de registro EPG mostraron que los pulgones hicieron un número mayor de punciones intracelulares (potencial drops - pds) y pruebas en las plantas infectadas con CMV que en las plantas no infectadas. Por otra parte, la duración de la primera prueba fue más corta y la duración total de las pds por insecto fue mucho más larga en las plantas infectadas con CMV. Se observaron diferencias significativas en el tiempo transcurrido desde el final de la última pd hasta el final de la prueba, siendo ese tiempo más corto para los pulgones que estaban alimentándose en plantas infectadas con CMV. En la segunda hora de registro los pulgones rechazaron las plantas infectadas con CMV como fuente de alimento, permaneciendo menos tiempo en las fases de prueba en floema (fase de salivación – E1 y fase de ingestión del floema – E2). El comportamiento alimenticio observado sobre las plantas infectadas con CMV favorece la adquisición y posterior transmisión de los virus de transmisión no persistente, los cuales son adquiridos e inoculados durante la realización de pruebas intracelulares en las primeras pruebas de corta duración. En el segundo objetivo de la Tesis se evaluó el efecto directo e indirecto del virus de transmisión persistente CABYV en el comportamiento alimenticio y preferencia del pulgón A. gossypii en cultivo de pepino, especie susceptible al virus, y algodón, especie inmune al virus. No se observó un efecto directo del virus relevante en el comportamiento alimenticio del vector, ya que los resultados obtenidos a nivel floemático en plantas de pepino no se observaron en plantas de algodón, inmune al virus CABYV. Esto sugiere que los resultados obtenidos en pepino, pueden deberse a un “posible efecto indirecto” originado por la infección de las plantas susceptibles al virus durante la realización del ensayo, lo que indirectamente puede modificar el comportamiento del pulgón durante la fase de evaluación. Sin embargo, el virus CABYV modificó indirectamente el comportamiento alimenticio de su vector a través de cambios en la planta infectada. Los pulgones tardaron menos tiempo en llegar al floema, realizaron un mayor número de pruebas floemáticas y permanecieron durante más tiempo en actividades floemáticas en plantas infectadas con CABYV. El comportamiento observado sobre las plantas infectadas con CABYV favorece la adquisición de virus persistentes, los cuales son adquiridos durante la alimentación sostenida en floema. El estudio de preferencia y asentamiento de A. gossypii mostró que los pulgones virulíferos prefieren asentarse en plantas no infectadas a corto y largo plazo de evaluación (2, 4 y 48 horas después de la liberación). Los ensayos de despegue y aterrizaje mostraron que los pulgones virulíferos que fueron liberados en las plantas de pepino infectadas con CABYV tuvieron una mayor propensión en migrar hacia las plantas no infectadas (3, 6, 24 y 48 horas después de la liberación) que aquellos que fueron sometidos al tratamiento contrario (planta no infectada hacia planta infectada con CABYV). Sin embargo, los pulgones no virulíferos no mostraron preferencia por plantas de pepino no infectadas o infectadas con CABYV en ninguno de los ensayos (preferencia o despegue) o periodos evaluados (corto y largo plazo). Los resultados indican que el virus CABYV es capaz de modificar indirectamente el comportamiento alimenticio de su vector a través de cambios en la planta infectada, favoreciendo su adquisición por su principal vector, A. gossypii. Una vez que los pulgones tienen capacidad de transmitir el virus (virulíferos) se produce un cambio en su comportamiento prefiriendo asentarse sobre plantas no infectadas optimizándose así la dispersión viral. El tercer objetivo de la Tesis, fue evaluar los efectos directos e indirectos del virus CABYV así como los efectos indirectos del virus CMV en la eficacia biológica del vector A. gossypii. Los resultados obtenidos en los ensayos realizados con el virus persistente CABYV indican que el virus parece no modificar directamente ni indirectamente la eficacia biológica del vector en plantas de pepino o algodón, no observándose diferencias estadísticas en ninguno de los parámetros poblacionales evaluados (tiempo de desarrollo, tasa intrínseca de crecimiento, tiempo generacional medio, tasa media de crecimiento relativo y ninfas totales). En cuanto a los ensayos realizados con el virus no persistente, CMV, los resultados muestran un efecto indirecto del virus sobre la biología del vector. Así resultó que tanto la tasa intrínseca de crecimiento natural (rm) como la tasa media de crecimiento relativo (RGR) fueron más altas para pulgones crecidos sobre plantas infectadas con CMV que sobre plantas no infectadas, favoreciendo la reproducción y crecimiento poblacional del vector sobre plantas infectadas con CMV. Los resultados obtenidos en la presente Tesis, ofrecen un ejemplo de como los virus de plantas pueden manipular directa e indirectamente a su vector, maximizando así su dispersión entre las plantas. Esos nuevos conocimientos generados tienen implicaciones importantes en la transmisión, dispersión y en la epidemiología de los virus y deben ser considerados para diseñar o ajustar los modelos de simulación existentes y patrones de dispersión que describen las epidemias de estos virus. ABSTRACT The main objective of this Thesis has been to understand the effect of the viral infection (direct-mediated by the presence of the virus in the vector and indirect mediated by the chemical and physical changes originated in the plant as a consequence of the viral infection) on the behaviour and biological efficacy of the vector Aphis gossypii Glover and its consequences in the epidemiology of two viral diseases, one with non-persistent transmission (Cucumber mosaic virus, CMV, Cucumovirus) and another with persistent transmission (Cucurbit aphid-borne yellows virus, CABYV, Polerovirus). The first objective of this Thesis was the study of the indirect effect of the nonpersistent virus CMV on the feeding behaviour and preference of the aphid A. gossypii in cucumber plants. The results of the alighting and settling behaviour studies showed that aphids exhibited no preference to migrate from CMV-infected to mock-inoculated plants at short time intervals (1, 10 and 30 min after release), but showed a clear shift in preference to migrate from CMV-infected to mock-inoculated plants 60 min after release. Our free-choice preference assays showed that A. gossypii alates preferred CMV-infected over mockinoculated plants at an early stage (30 min), but this behaviour was reverted at a later stage and aphids preferred to settle and reproduce on mock-inoculated plants. The electrical penetration graph (EPG) technique revealed a sharp change in aphid probing behaviour over time when exposed to CMV-infected plants. At the beginning (first 15 min) aphid vectors dramatically increased the number of short superficial probes and intracellular punctures when exposed to CMV-infected plants. At a later stage (second hour of recording) aphids diminished their feeding on CMV-infected plants as indicated by much less time spent in phloem salivation and ingestion (E1 and E2). This particular probing behaviour including an early increase in the number of short superficial probes and intracellular punctures followed by a phloem feeding deterrence is known to enhance the transmission efficiency of viruses transmitted in a NP manner. We conclude that CMV induces specific changes in a plant host that modify the alighting, settling and probing behaviour of its main vector A. gossypii, leading to optimum transmission and spread of the virus. The second objective of this work was to evaluate the effects that the persistently aphid transmitted Cucurbit aphid-borne yellows virus (CABYV) can induce directly and indirectly on the alighting, settling and probing behaviour activities of the cotton aphid A. gossypii. Only minor direct changes on aphid feeding behaviour was observed due to CABYV when viruliferous aphids fed on mock-inoculated plants. However, the feeding behaviour of non-viruliferous aphids was very different on CABYV-infected than on mockinoculated plants. Non-viruliferous aphids spent longer time feeding from the phloem when plants were infected by CABYV than on mock-inoculated plants, suggesting that CABYV indirectly manipulates aphid feeding behaviour through its shared host plant in order to favour viral acquisition. The vector alighting and settling preference was compared between nonviruliferous and viruliferous aphids. Viruliferous aphids showed a clear preference for mockinoculated over CABYV-infected plants at short and long time, while such behaviour was not observed for non-viruliferous aphids. Overall, our results indicate that CABYV induces changes in its host plant that modifies aphid feeding behaviour in a way that virus acquisition from infected plants is enhanced. Once the aphids become viruliferous they prefer to settle on healthy plants, leading to optimize the transmission and spread of the virus. The third objective was to evaluate the direct and indirect effects of CABYV and indirect effects of the CMV on the A. gossypii fitness. Obtained results for the persistent virus CABYV showed that the virus did not modify the vector fitness in cucumber or cotton plants. None of the evaluated variables was statistically significant (development time (d), intrinsic growth rate (rm), mean relative growth rate (RGR) and total number of nymphs). On the other hand, data obtained for the non-persistent virus (CMV) showed an indirect effect of the virus on the vector fitness. Thus, the rm and RGR were higher for aphids grown on CMV-infected plants compared to aphids grown on mock-inoculated plants. Overall, the obtained results are clear examples of how plant viruses could manipulate directly and indirectly vector behaviour to optimize its own dispersion. These results are important for a better understanding of transmission, dispersion and epidemiology of plant viruses transmitted by vectors. This information could be also considered to design or adjust simulation models and dispersion patterns that describe plant virus epidemics.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El cine ha ido pasando por diversas etapas que destacan por la existencia de características comunes, en el ámbito académico se suele dividir en clásico, moderno y postmoderno. Los diferentes elementos narrativos, tales como el espacio, el tiempo, la acción e, incluso, la construcción física de los personajes, se actualizan y evolucionan a lo largo de la historia, formando parte en el nacimiento de una nueva tipología de cine. Sin embargo, en el estudio de la caracterización psicológica de los protagonistas y, más concretamente, de los héroes no se ha explorado tanto como con el resto de elementos. El espectador se convierte en uno de los principales agentes quien no solo dota de significado a la obra sino que, también, actúa como juez y testigo privilegiado de las acciones del héroe, mismas que sirven como referente para crear un compendio de las actitudes que son definitorias del mismo. Además, el espectador forma parte de un colectivo, semejante al comportamiento del protagonista, que puede ser entendido en relación a otros personajes, por ende, la presente investigación se centra en determinar la evolución en las actitudes del héroe por medio de un estudio empírico aplicado al espectador con una metodología propia de la psicología social. Para este objetivo se escogieron tres películas que se corresponden con cada uno de los periodos cinematográficos y se elaboró una serie de proposiciones que son planteadas al espectador quien, por medio de su propia percepción, será el encargado final de determinar si los protagonistas pueden ser catalogados como héroes y cuál es el compendio de actitudes que los caracterizan.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Research has shown that more than half of attempted recovery efforts fail, producing a ‘double deviation’ effect. Surprisingly, these double deviation effects have received little attention in marketing literature. This paper examines what happens after these critical encounters, which behavior or set of behaviors the customers are prone to follow and how customers’ perceptions of the firm’s recovery efforts influence these behaviors. For the analysis of choice of the type of response (complaining, exit, complaining and exit, and no-switching), we estimate multinomial Logit models with random coefficients (RCL). The results of our study show that magnitude of service failure, explanations, apologies, perceived justice, angry and frustration felt by the customer, and satisfaction with service recovery have a significant effect on customers’ choice of the type of response. Implications from the findings are offered.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La investigación sobre el consumidor ha sido el eje central del trabajo del planificador estratégico desde el nacimiento de la profesión en 1968. En concreto, en el origen de la disciplina de la Planificación Estratégica está la relevancia de la investigación cualitativa como fuente fiable para conocer en profundidad al consumidor y poder desarrollar campañas de comunicación eficaces, relevantes y distintivas. Por ello, y por la repercusión que tiene el conocimiento profundo del consumidor hoy en día, se va a hacer un repaso bibliográfico por las funciones que tradicionalmente ha adquirido el planificador en relación a la investigación para después aplicarlo a la realidad española actual a partir de un estudio empírico a los planificadores estratégicos españoles. El artículo termina con una reflexión sobre el papel relevante que el planner tendrá en un futuro muy próximo en el panorama de Big Data.