1000 resultados para Análisis de patrones de puntos
Resumo:
Este Trabajo de Fin de Grado consiste en el análisis, evaluación y mejora de un sistema de segmentación temporal de vídeo, embebido dentro de un programa de caracterización estética de vídeos que detecta cambios de plano a través de cortes, fundidos y encadenados. En primer lugar se realiza un análisis del programa original empleando métricas que permitan cuantificar el rendimiento y detectar los principales problemas y su contexto, buscando patrones comunes que permitan enfocar las mejoras necesarias para solventar dichos problemas. A continuación, se proponen mejoras tanto funcionales como no funcionales, que son acometidas en la fase de diseño e implementación. Para las mejoras relacionadas con la segmentación temporal, se aplican técnicas existentes en el estado del arte y se adaptan a las necesidades del programa. Finalmente, se evalúa el programa comprobando que las métricas que habían cuantificado los problemas han mejorado y detallando el posible trabajo futuro a realizar sobre el programa.
Resumo:
La aproximación de las organizaciones a la mejora de sus procesos ha venido por distintos caminos. Muchas Administraciones Públicas se acercaron a este universo a través del modelo EFQM de calidad y excelencia que surgió en la década de los 80 y que sirvió como referente en el ámbito de la Unión Europea como vía de autoevaluación y determinación de procesos de mejora continua. Está basado en la identificación de los puntos fuertes y débiles aplicados a diferentes ámbitos de la organización, siendo éstos el punto de partida para el proceso de mejora continua. Se trata de un modelo en el que puedes decir que estás en calidad aunque tu puntuación sea muy pequeña, por lo que, por imagen, muchas empresas públicas empezaron a implantarlo. La empresa privada sin embargo se decantó por los sistemas de calidad basados en normas ISO. En estos sistemas has de tener un nivel mínimo para poder exhibir una certificación o acreditación del sistema de calidad. La más extendida es la ISO 9001:2008 ya que es válida para todo tipo de empresa. Este sistema se centra en la satisfacción del cliente y está basada en gran medida en el PDCA, acrónimo de Plan, Do, Check, Act (Planificar, Hacer, Verificar y Actuar). Al tratarse de sistemas documentados, pasados los años se llega a la misma conclusión, aquellas empresas que simplemente tienen un certificado colgado en la pared y que arreglan los papeles antes de la auditoría no tienen nada que aporte valor añadido a la empresa y se autoengañan. La potencia de todo sistema de gestión de calidad reside en aprovechar el potencial de sus recursos humanos dirigiendo los recursos de la empresa de forma eficiente y haciendo participe de los objetivos de la organización a su personal para que se impliquen y sepan que se espera de cada uno. La formación de ingeniero siempre nos hace ser críticos con los modelos existentes y tratar de buscar caminos alternativos que sean más eficientes. Para ello es necesario tener un conocimiento muy preciso de la organización. Por ello, después de más de cinco años trabajando en la Organización, desempeñando diversos cometidos, analizando diferentes esferas de actuación y tras estudiar informes de diferentes organizaciones que supervisan el funcionamiento de la empresa me di cuenta que la Dirección General de la Marina Mercante podía cambiar de forma de actuar para modernizarse y ser más transparente, eficaz y eficiente. Esta tesis versa sobre la posibilidad de implantar un nuevo servicio en la Dirección General de la Marina Mercante que le permita mejorar su competitividad a nivel mundial, como estado de abanderamiento, y que, dentro de nuestras fronteras, haga que sus servicios se reorienten aprovechando el conocimiento de su personal, teniendo en cuenta las necesidades de sus usuarios y los recursos de la Organización. Las cartas de servicio permiten acercar al ciudadano al funcionamiento de la organización. Le informa de las condiciones en las que se presta el servicio, los compromisos de la empresa y la forma en la que puede participar para mejorarlos, entre otros. Por otra parte, la empresa no necesita previamente tener ningún sistema de calidad implantado, aunque, como veremos en el capítulo tres y cuatro siempre ayuda a la hora de tener sistemas de aseguramiento implantados. En el capítulo seis se detallan los objetivos que se lograrían con la implantación de las cartas de servicio en la DGMM y en el capítulo siete se discuten dichos resultados y conclusiones. ABSTRACT Different ways have been used by organizations to approach process improvement. Many Public Administrations chose quality and excellence EFQM model for that approachment. This quality program began in 80 decade and that it was the Europe Unión reference to continuous improvement autoevaluation and determination. It is based on strong and weak points of different organization fields, and they are considered as starting point for continuous improvement. This model allows enterprises to say that they are working on a quality scheme even though their score is very little, and this was why a lot of Public Administrations began using it. Nevertheless private enterprises chose quality management systems based on ISO standards. In these systems there is a threshold you must have to be able to have a certification or an accreditation of quality management system. ISO 9001:2008 is the standard most used because of it can be applied to a great range of enterprises. This system is focused on customer satisfaction and it is based on PDCA, Plan, Do, Check, Act. All these systems are documented ones, so once time goes by the same conclusion is reached: enterprises that have the certificate hung on the wall and that papers are fixed for audits have nothing that give them added value and they self-delusion. Quality management system power is related to the usage of human resources potential to lead enterprise resources efficiently and to make them participate in organization objectives. Naval architect training makes them to be critic with existing models and to try to find alternative ways to be more efficient. To achieve this goal, a precise knowledge of the organization is needed. That is the reason why, after five years in quality related issues in the Organization, in different chores, analyzing our scope and reports of organizations that supervise our operation, I realized that Merchant Marine Directorate could change the way of operation to modernize and be more transparent, efficient and effective. This thesis is about the possibility of implantation of a new service in Merchant Marine Directorate that will make it possible to improve their worldwide competitiveness as Flag State, and that to reorient all services taking into account citizens needs and Organization resources. Citizen’s charters able approachment to organization operation. It gives the following information: which are terms in which service is given, enterprise compromises, ways in which citizen can collaborate to improve them, and etc. Additionally, no quality management system is needed to be implemented. Although we’ll see in chapter three and four that having it is of great help. In chapter six are detailed goals achieved if citizen’s charters are implemented in Merchant Marine Directorate, and in chapter seven conclusions and results are discussed.
Resumo:
En el presente proyecto se propone una nueva zonificación sísmica para América Central, a partir de la cual se ha realizado el cálculo de peligrosidad sísmica a nivel regional. Dicha zonificación y el posterior cálculo de peligrosidad desarrollado se presentan como actualización de los resultados del estudio previo desarrollado para la región (Benito et al., 2012), realizando asimismo la comparación entre los resultados de ambos estudios. En primer lugar se ha realizado la revisión de la zonificación existente, modificando la geometría de algunas zonas en base al conocimiento generado en los últimos años sobre todo en lo que se refiere a la geometría de la subducción,que varía de ángulo a lo largo de la trinchera Mesoamericana. Ello conlleva, a su vez, cambios en la sismicidad asignada a las zonas corticales y de subducción interfase. Los cambios y ajustes entre zonas se realizaron contando con el consenso de diferentes expertos en la materia y en colaboración con el Dr. Guillermo Alvarado, vulcanólogo del Instituto Costarricense de Electricidad (ICE), que desarrolló una estancia en Madrid, para trabajar con el Grupo de Investigación de Ingeniería Sísmica de la UPM (GIIS) en noviembre de 2014. Para la propuesta de nueva zonificación, se ha partido del catálogo sísmico depurado hasta 2011, completo y homogeneizado a magnitud momento, Mw. Dicho catálogo recoge una gran actividad sísmica y fue confeccionado dentro del proyecto RESIS II, en el cual participó el Grupo de Ingeniería Sísmica. Se ha seleccionado de dicho catálogo la sismicidad registrada en las nuevas zonas sismogenéticas propuestas y se han calculado los parámetros sísmicos de cada zona: la tasa acumulada de ocurrencia de terremotos, la magnitud máxima y el parámetro beta. Se ha considerado que la sismicidad se ajusta al modelo de recurrencia de Gutenberg-Richter, el cual establece una proporción constante entre el número de sismos grandes y pequeños para una determinada zona. Para la estimación de los parámetros sísmicos se ha utilizado el software Expel, desarrollado por el Grupo de Investigación de Ingeniería Sísmica de la UPM. Utilizando las zonas sismogenéticas propuestas y sus parámetros sísmicos,se ha calculado la amenaza sísmica en toda la región de Centroamérica, evaluada en cada punto como la probabilidad de que el movimiento del suelo exceda valores de aceleración prefijados, y obteniendo así la curva de peligrosidad en puntos de una malla cubriendo la región de estudio. Los cálculos han sido realizados empleando el software específico de peligrosidad sísmica CRISIS 2014. Los resultados se presentan en mapas de peligrosidad obtenidos para diferentes periodos de retorno en términos de aceleración pico (PGA), así como de otras aceleraciones espectrales SA (T) para diversos periodos estructurales T en el rango de 0,1 a 2 s. Para el diseño de los mapas se ha utilizado el software ArcGIS 10.1. Adicionalmente, se ha realizado un análisis de sensibilidad en los resultados ante diferentes propuestas de profundidad de la zonificación interfase,estudiando así el impacto de dichos cambios en los parámetros sísmicos de las zonas y en los resultados del cálculo de la peligrosidad. Finalmente, se han comparado los resultados obtenidos en este trabajo (tanto los parámetros sísmicos de la nueva zonificación como las aceleraciones resultantes del estudio de peligrosidad) con los resultados pertenecientes al estudio recogido en el libro Amenaza Sísmica en América Central de Benito et al.(2010), y en la posterior publicación de Benito et al. (2012), analizando así las principales diferencias entre ambos.
Resumo:
Este Trabajo Fin de Grado trata de dar respuesta a un problema de movilidad sostenible en el municipio de Madrid. Mediante las herramientas de análisis geoespacial de los Sistemas de Información Geográfica (SIG) se buscan soluciones para la ampliación de la red de estaciones de suministro de combustibles alternativos como el Gas Licuado de Petróleo (GLP), Gas Natural Comprimido (GNC) y electricidad. Los resultados obtenidos determinan las posibles ubicaciones de los nuevos puntos atendiendo a criterios específicos según el tipo de combustible. Estas soluciones procuran que se alcancen las medidas impuestas por las directivas europeas en la materia de las Smart Cities. Además, con este Trabajo se muestran las capacidades de gestión de los SIG en el ámbito urbano y sus posibles aplicaciones. ABSTRACT: This Final Project answers the problem of sustainable mobility in the city of Madrid. By means of geospatial analysis tools of Geographic Information Systems (GIS) solutions are searched to extend the supply stations network for alternative fuels like Liquefied Petroleum Gas (LPG), Compressed Natural Gas (CNG) and electricity. The final results are the best possible locations of new items according to specific criteria depending on the type of fuel. These solutions seek to the measures imposed by the European directives are reached in the field of Smart Cities. In addition, This Final Project shows management capabilities of GIS in urban areas and their possible application.
Resumo:
El objetivo de este trabajo es analizar las propiedades dinámicas de una presa bóveda de doble curvatura (presa de La Tajera, Guadalajara) para ajustar un modelo de elementos finitos. Para ello se han utilizado acelerómetros de alta sensibilidad sincronizados inalámbricamente. Se han obtenido las frecuencias, amortiguamientos y formas modales frente a los efectos de las acciones de tipo ambiental (viento, paso de vehículos). Se ha modelado mediante elementos finitos la presa y su cimiento incorporando el efecto del nivel del embalse. Con las propiedades dinámicas de la estructura halladas numéricamente se ha realizado un plan de medidas en los puntos que se consideraban más significativos. Tras realizar las medidas, se ha procedido al análisis de resultados mediante un Análisis Modal Operacional. Ello permite estimar los parámetros modales (frecuencias, amortiguamientos y formas modales) experimentalmente y se ha valorado el alcance de los mismos. Posteriormente viene la parte fundamental de este trabajo, que es el ajuste del modelo de elementos finitos inicial considerando el comportamiento dinámico obtenido experimentalmente. El modelo actualizado puede utilizarse dentro de un sistema de detección de daños, o por ejemplo, para el estudio del comportamiento ante un sismo considerando la interacción presa-embalse-cimiento. The purpose of this paper is to study the dynamic characteristics of a double curvature arch dam (La Tajera arch dam) for a Finite Element Model Updating. To achieve it, high sensitivity accelerometers synchronized wirelessly have been used. The system modal dampings, natural frequencies mode shapes are identified using output only identification techniques under environmental loads (wind, vehicles). Firstly, a finite element model of the dam-reservoir-foundation system was created. Once the dynamic properties of the structure were numerically obtained, a testing plan was then carried out identifying the most significant test points. After the measurements were carried out, an Operational Modal Analysis was performed to obtain experimentally the structure dynamic properties: natural frequencies, modal dampings and mode shapes. experimentally and to assess its reach. Then, the finite element model updating of the initial model was carried out to match the recorded dynamic behavior. The updated model may be used within a structural health monitoring and damage detection system or, as it is proposed on this thesis, for the analysis of the seismic response of arch dam-reservoir-foundation coupled systems
Resumo:
El objetivo general de este trabajo es el correcto funcionamiento de un sistema de reconocimiento facial compuesto de varios módulos, implementados en distintos lenguajes. Uno de dichos módulos está escrito en Python y se encargarí de determinar el género del rostro o rostros que aparecen en una imagen o en un fotograma de una secuencia de vídeo. El otro módulo, escrito en C++, llevará a cabo el reconocimiento de cada una de las partes de la cara (ojos, nariz, boca) y la orientación hacia la que está posicionada (derecha, izquierda). La primera parte de esta memoria corresponde a la reimplementación de todas las partes de un analizador facial, que constituyen el primer módulo antes mencionado. Estas partes son un analizador, compuesto a su vez por un reconocedor (Tracker) y un procesador (Processor), y una clase visor para poder visualizar los resultados. Por un lado, el reconocedor o "Tracker.es el encargado de encontrar la cara y sus partes, que serán pasadas al procesador o Processor, que analizará la cara obtenida por el reconocedor y determinará su género. Este módulo estaba dise~nado completamente en C y OpenCV 1.0, y ha sido reescrito en Python y OpenCV 2.4. Y en la segunda parte, se explica cómo realizar la comunicación entre el primer módulo escrito en Python y el segundo escrito en C++. Además, se analizarán diferentes herramientas para poder ejecutar código C++ desde programas Python. Dichas herramientas son PyBindGen, Cython y Boost. Dependiendo de las necesidades del programador se contará cuál de ellas es más conveniente utilizar en cada caso. Por último, en el apartado de resultados se puede observar el funcionamiento del sistema con la integración de los dos módulos, y cómo se muestran por pantalla los puntos de interés, el género y la orientación del rostro utilizando imágenes tomadas con una cámara web.---ABSTRACT---The main objective of this document is the proper functioning of a facial recognition system composed of two modules, implemented in diferent languages. One of these modules is written in Python, and his purpose is determining the gender of the face or faces in an image or a frame of a video sequence. The other module is written in C ++ and it will perform the recognition of each of the parts of the face (eyes, nose , mouth), and the head pose (right, left).The first part of this document corresponds to the reimplementacion of all components of a facial analyzer , which constitute the first module that I mentioned before. These parts are an analyzer , composed by a tracke) and a processor, and a viewer to display the results. The tracker function is to find and its parts, which will be passed to the processor, which will analyze the face obtained by the tracker. The processor will determine the face's gender. This module was completely written in C and OpenCV 1.0, and it has been rewritten in Python and OpenCV 2.4. And in the second part, it explains how to comunicate two modules, one of them written in Python and the other one written in C++. Furthermore, it talks about some tools to execute C++ code from Python scripts. The tools are PyBindGen, Cython and Boost. It will tell which one of those tools is better to use depend on the situation. Finally, in the results section it is possible to see how the system works with the integration of the two modules, and how the points of interest, the gender an the head pose are displayed on the screen using images taken from a webcam.
Resumo:
La embriogénesis es el proceso mediante el cual una célula se convierte en un ser un vivo. A lo largo de diferentes etapas de desarrollo, la población de células va proliferando a la vez que el embrión va tomando forma y se configura. Esto es posible gracias a la acción de varios procesos genéticos, bioquímicos y mecánicos que interaccionan y se regulan entre ellos formando un sistema complejo que se organiza a diferentes escalas espaciales y temporales. Este proceso ocurre de manera robusta y reproducible, pero también con cierta variabilidad que permite la diversidad de individuos de una misma especie. La aparición de la microscopía de fluorescencia, posible gracias a proteínas fluorescentes que pueden ser adheridas a las cadenas de expresión de las células, y los avances en la física óptica de los microscopios han permitido observar este proceso de embriogénesis in-vivo y generar secuencias de imágenes tridimensionales de alta resolución espacio-temporal. Estas imágenes permiten el estudio de los procesos de desarrollo embrionario con técnicas de análisis de imagen y de datos, reconstruyendo dichos procesos para crear la representación de un embrión digital. Una de las más actuales problemáticas en este campo es entender los procesos mecánicos, de manera aislada y en interacción con otros factores como la expresión genética, para que el embrión se desarrolle. Debido a la complejidad de estos procesos, estos problemas se afrontan mediante diferentes técnicas y escalas específicas donde, a través de experimentos, pueden hacerse y confrontarse hipótesis, obteniendo conclusiones sobre el funcionamiento de los mecanismos estudiados. Esta tesis doctoral se ha enfocado sobre esta problemática intentando mejorar las metodologías del estado del arte y con un objetivo específico: estudiar patrones de deformación que emergen del movimiento organizado de las células durante diferentes estados del desarrollo del embrión, de manera global o en tejidos concretos. Estudios se han centrado en la mecánica en relación con procesos de señalización o interacciones a nivel celular o de tejido. En este trabajo, se propone un esquema para generalizar el estudio del movimiento y las interacciones mecánicas que se desprenden del mismo a diferentes escalas espaciales y temporales. Esto permitiría no sólo estudios locales, si no estudios sistemáticos de las escalas de interacción mecánica dentro de un embrión. Por tanto, el esquema propuesto obvia las causas de generación de movimiento (fuerzas) y se centra en la cuantificación de la cinemática (deformación y esfuerzos) a partir de imágenes de forma no invasiva. Hoy en día las dificultades experimentales y metodológicas y la complejidad de los sistemas biológicos impiden una descripción mecánica completa de manera sistemática. Sin embargo, patrones de deformación muestran el resultado de diferentes factores mecánicos en interacción con otros elementos dando lugar a una organización mecánica, necesaria para el desarrollo, que puede ser cuantificado a partir de la metodología propuesta en esta tesis. La metodología asume un medio continuo descrito de forma Lagrangiana (en función de las trayectorias de puntos materiales que se mueven en el sistema en lugar de puntos espaciales) de la dinámica del movimiento, estimado a partir de las imágenes mediante métodos de seguimiento de células o de técnicas de registro de imagen. Gracias a este esquema es posible describir la deformación instantánea y acumulada respecto a un estado inicial para cualquier dominio del embrión. La aplicación de esta metodología a imágenes 3D + t del pez zebra sirvió para desvelar estructuras mecánicas que tienden a estabilizarse a lo largo del tiempo en dicho embrión, y que se organizan a una escala semejante al del mapa de diferenciación celular y con indicios de correlación con patrones de expresión genética. También se aplicó la metodología al estudio del tejido amnioserosa de la Drosophila (mosca de la fruta) durante el cierre dorsal, obteniendo indicios de un acoplamiento entre escalas subcelulares, celulares y supracelulares, que genera patrones complejos en respuesta a la fuerza generada por los esqueletos de acto-myosina. En definitiva, esta tesis doctoral propone una estrategia novedosa de análisis de la dinámica celular multi-escala que permite cuantificar patrones de manera inmediata y que además ofrece una representación que reconstruye la evolución de los procesos como los ven las células, en lugar de como son observados desde el microscopio. Esta metodología por tanto permite nuevas formas de análisis y comparación de embriones y tejidos durante la embriogénesis a partir de imágenes in-vivo. ABSTRACT The embryogenesis is the process from which a single cell turns into a living organism. Through several stages of development, the cell population proliferates at the same time the embryo shapes and the organs develop gaining their functionality. This is possible through genetic, biochemical and mechanical factors that are involved in a complex interaction of processes organized in different levels and in different spatio-temporal scales. The embryogenesis, through this complexity, develops in a robust and reproducible way, but allowing variability that makes possible the diversity of living specimens. The advances in physics of microscopes and the appearance of fluorescent proteins that can be attached to expression chains, reporting about structural and functional elements of the cell, have enabled for the in-vivo observation of embryogenesis. The imaging process results in sequences of high spatio-temporal resolution 3D+time data of the embryogenesis as a digital representation of the embryos that can be further analyzed, provided new image processing and data analysis techniques are developed. One of the most relevant and challenging lines of research in the field is the quantification of the mechanical factors and processes involved in the shaping process of the embryo and their interactions with other embryogenesis factors such as genetics. Due to the complexity of the processes, studies have focused on specific problems and scales controlled in the experiments, posing and testing hypothesis to gain new biological insight. However, methodologies are often difficult to be exported to study other biological phenomena or specimens. This PhD Thesis is framed within this paradigm of research and tries to propose a systematic methodology to quantify the emergent deformation patterns from the motion estimated in in-vivo images of embryogenesis. Thanks to this strategy it would be possible to quantify not only local mechanisms, but to discover and characterize the scales of mechanical organization within the embryo. The framework focuses on the quantification of the motion kinematics (deformation and strains), neglecting the causes of the motion (forces), from images in a non-invasive way. Experimental and methodological challenges hamper the quantification of exerted forces and the mechanical properties of tissues. However, a descriptive framework of deformation patterns provides valuable insight about the organization and scales of the mechanical interactions, along the embryo development. Such a characterization would help to improve mechanical models and progressively understand the complexity of embryogenesis. This framework relies on a Lagrangian representation of the cell dynamics system based on the trajectories of points moving along the deformation. This approach of analysis enables the reconstruction of the mechanical patterning as experienced by the cells and tissues. Thus, we can build temporal profiles of deformation along stages of development, comprising both the instantaneous events and the cumulative deformation history. The application of this framework to 3D + time data of zebrafish embryogenesis allowed us to discover mechanical profiles that stabilized through time forming structures that organize in a scale comparable to the map of cell differentiation (fate map), and also suggesting correlation with genetic patterns. The framework was also applied to the analysis of the amnioserosa tissue in the drosophila’s dorsal closure, revealing that the oscillatory contraction triggered by the acto-myosin network organized complexly coupling different scales: local force generation foci, cellular morphology control mechanisms and tissue geometrical constraints. In summary, this PhD Thesis proposes a theoretical framework for the analysis of multi-scale cell dynamics that enables to quantify automatically mechanical patterns and also offers a new representation of the embryo dynamics as experienced by cells instead of how the microscope captures instantaneously the processes. Therefore, this framework enables for new strategies of quantitative analysis and comparison between embryos and tissues during embryogenesis from in-vivo images.
Resumo:
El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.
Resumo:
Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.
Resumo:
El riesgo asociado a la rotura de un depósito de agua en entorno urbano (como la ocurrida, por ejemplo, en la Ciudad Autónoma de Melilla en Noviembre de 1997) y los potenciales daños que puede causar, pone en duda la seguridad de este tipo de infraestructuras que, por necesidades del servicio de abastecimiento de agua, se construyen habitualmente en puntos altos y cercanos a los núcleos de población a los que sirven. Sin embargo, la baja probabilidad de que se produzca una rotura suele rebajar los niveles de alerta asociados a los depósitos, haciéndose hincapié en la mejora de los métodos constructivos sin elaborar metodologías que, como en el caso de las presas y las balsas de riego, establezcan la necesidad de clasificar el riesgo potencial de estas infraestructuras en función de su emplazamiento y de estudiar la posible construcción de medidas mitigadoras de una posible rotura. Por otro lado, para establecer los daños que pueden derivarse de una rotura de este tipo, se hace imprescindible la modelización bidimensional de la ola de rotura por cuanto la malla urbana a la que afectaran no es susceptible de simulaciones unidimensionales, dado que no hay un cauce que ofrezca un camino preferente al agua. Este tipo de simulación requiere de una inversión económica que no siempre está disponible en la construcción de depósitos de pequeño y mediano tamaño. Esta tesis doctoral tiene como objetivo el diseño de una metodología simplificada que, por medio de graficas y atendiendo a las variables principales del fenómeno, pueda estimar un valor para el riesgo asociado a una posible rotura y sirva como guía para establecer si un deposito (existente o de nueva implantación) requiere de un modelo de detalle para estimar el riesgo y si es conveniente implantar alguna medida mitigadora de la energía producida en una rotura de este tipo. Con carácter previo se ha establecido que las variables que intervienen en la definición de riesgo asociado a la rotura, son el calado y la velocidad máxima en cada punto sensible de sufrir daños (daños asociados al vuelco y arrastre de personas principalmente), por lo que se ha procedido a estudiar las ecuaciones que rigen el problema de la rotura del depósito y de la transmisión de la onda de rotura por la malla urbana adyacente al mismo, así como los posibles métodos de resolución de las mismas y el desarrollo informático necesario para una primera aproximación a los resultados. Para poder analizar las condiciones de contorno que influyen en los valores resultantes de velocidad y calado, se ha diseñado una batería de escenarios simplificados que, tras una modelización en detalle y un análisis adimensional, han dado como resultado que las variables que influyen en los valores de calado y velocidad máximos en cada punto son: la altura de la lamina de agua del depósito, la pendiente del terreno, la rugosidad, la forma del terreno (en términos de concavidad) y la distancia del punto de estudio al deposito. Una vez definidas las variables que influyen en los resultados, se ha llevado a cabo una segunda batería de simulaciones de escenarios simplificados que ha servido para la discusión y desarrollo de las curvas que se presentan como producto principal de la metodología simplificada. Con esta metodología, que solamente necesita de unos cálculos simples para su empleo, se obtiene un primer valor de calado y velocidad introduciendo la altura de la lámina de agua máxima de servicio del depósito cuyo riesgo se quiere evaluar. Posteriormente, y utilizando el ábaco propuesto, se obtienen coeficientes correctores de los valores obtenidos para la rugosidad y pendiente media del terreno que se esta evaluando, así como para el grado de concavidad del mismo (a través de la pendiente transversal). Con los valores obtenidos con las curvas anteriores se obtienen los valores de calado y velocidad en el punto de estudio y, aplicando la formulación propuesta, se obtiene una estimación del riesgo asociado a la rotura de la infraestructura. Como corolario a la metodología mencionada, se propone una segunda serie de gráficos para evaluar, también de forma simplificada, la reducción del riesgo que se obtendría con la construcción de alguna medida mitigadora como puede ser un dique o murete perimetral al depósito. Este método de evaluación de posible medidas mitigadoras, aporta una guía para analizar la posibilidad de disminuir el riesgo con la construcción de estos elementos, o la necesidad de buscar otro emplazamiento que, si bien pueda ser no tan favorable desde el punto de vista de la explotación del depósito, presente un menor riesgo asociado a su rotura. Como complemento a la metodología simplificada propuesta, y además de llevar a cabo la calibración de la misma con los datos obtenidos tras la rotura del depósito de agua de Melilla, se ha realizado una serie de ejemplos de utilización de la metodología para, además de servir de guía de uso de la misma, poder analizar la diferencia entre los resultados que se obtendrían con una simulación bidimensional detallada de cada uno de los casos y el método simplificado aplicado a los mismos. The potential risk of a catastrophic collapse of a water supply reservoir in an urban area (such as the one occurred in Melilla in November 1997) and the damages that can cause, make question the security in this kind of infrastructures, which, by operational needs, are frequently built in high elevations and close to the urban areas they serve to. Since the likelihood of breakage is quite low, the alert levels associated to those infrastructures have also been downgraded focussing on the improvement of the constructive methods without developing methodologies (like the ones used in the case of dams or irrigation ponds) where there is a need of classifying the potential risk of those tanks and also of installing mitigating measures. Furthermore, to establish the damages related to a breakage of this kind, a twodimensional modelling of the breakage wave becomes imperative given that the urban layout does not provide a preferential way to the water. This kind of simulation requires financial investment that is not always available in the construction of small and medium sized water tanks. The purpose of this doctoral thesis is to design a simplified methodology, by means of charts and attending to the main variables of the phenomenon, that could estimate a value to the risk associated to a possible breakage. It can also be used as a guidance to establish if a reservoir (existing or a new one) requires a detailed model to estimate the risk of a breakage and the benefits of installing measures to mitigate the breakage wave effects. Previously, it has been established that the variables involved in the risk associated to a breakage are the draft and the maximum speed in every point susceptible to damages (mainly damages related to people). Bellow, the equations ruling the problem of the reservoir breakage have been studied as well as the transmission of the breakage wave through the urban network of the city and the possible methods to solve the equations and the computer development needed to a first approach to the results. In order to be able to analyse the boundary conditions affecting the values resulting (speed and draft), a set of scenarios have been designed. After a detailed modelling and a dimensionless analysis it has been proved that the variables that influence the operational draughts and the maximum speed in every point are the water level in the tank, the slope, the roughness and form (in terms of concavity) of the terrain and the distance between the tank and the control point. Having defined the involving variables, a second set of simulations of the simplified scenarios has been carried out and has helped to discuss and develop the curves that are here presented as the final product of the simplified methodology. This methodology only needs some simple calculations and gives a first value of draft and speed by introducing the maximum water level of the tank being evaluated. Subsequently, using the suggested charts, the method gives correction coefficients of the measured values for roughness and average slope of the assessed terrain as well as the degree of concavity (through transverse gradient).With the values from the previous curves (operational draughts and speed at the point of survey) and applying the proposed formulation, an estimation of the risk associated to the breakage of the infrastructure is finally obtained. As a corollary of the mentioned methodology, another set of diagrams is proposed in order to evaluate, in a simplified manner also, the risk reduction that could be gained with the construction of some mitigating measures such as dikes or retaining walls around the reservoir. This evaluating method provides a guide to analyse the possibility to reduce the risk, constructing those elements or even looking for a different site that could be worse in terms of exploitation of the tank but much safer. As a complement to the simplified methodology here proposed, and apart from completing its calibration with the obtained data after the reservoir breakage in Melilla, a number of examples of the use of the methodology have been made to be used as a user guide of the methodology itself, as well as giving the possibility of analysing the different results that can be obtained from a thorough two-dimensional simulation or from the simplified method applied to the examples.
Resumo:
El método de Muskingum-Cunge, con más de 45 años de historia, sigue siendo uno de los más empleados a la hora de calcular el tránsito en un cauce. Una vez calibrado, permite realizar cálculos precisos, siendo asimismo mucho más rápido que los métodos que consideran las ecuaciones completas. Por esta razón, en el presente trabajo de investigación se llevó a cabo un análisis de su precisión, comparándolo con los resultados de un modelo hidráulico bidimensional. En paralelo se llevó a cabo un análisis de sus limitaciones y se ensayó una metodología práctica de aplicación. Con esta motivación se llevaron a cabo más de 200 simulaciones de tránsito en cauces prismáticos y naturales. Los cálculos se realizaron empleando el programa HEC-HMS con el método de Muskingum-Cunge de sección de 8 puntos, así como con la herramienta de cálculo hidráulico bidimensional InfoWorks ICM. Se eligieron HEC-HMS por su gran difusión e InfoWorks ICM por su rapidez de cálculo, pues emplea la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo). Inicialmente se validó el modelo hidráulico bidimensional contrastándolo con la formulación unidimensional en régimen uniforme y variado, así como con fórmulas analíticas de régimen variable, consiguiéndose resultados muy satisfactorios. También se llevó a cabo un análisis de la sensibilidad al mallado del modelo bidimensional aplicado a tránsitos, obteniéndose unos ábacos con tamaños recomendados de los elementos 2D que cuantifican el error cometido. Con la técnica del análisis dimensional se revisó una correlación de los resultados obtenidos entre ambos métodos, ponderando su precisión y definiendo intervalos de validez para la mejor utilización del método de Muskingum-Cunge. Simultáneamente se desarrolló una metodología que permite obtener la sección característica media de 8 puntos para el cálculo de un tránsito, basándose en una serie de simulaciones bidimensionales simplificadas. De este modo se pretende facilitar el uso y la correcta definición de los modelos hidrológicos. The Muskingum-Cunge methodology, which has been used for more 45 than years, is still one of the main procedures to calculate stream routing. Once calibrated, it gives precise results, and it is also much faster than other methods that consider the full hydraulic equations. Therefore, in the present investigation an analysis of its accuracy was carried out by comparing it with the results of a two-dimensional hydraulic model. At the same time, reasonable ranges of applicability as well as an iterative method for its adequate use were defined. With this motivation more than 200 simulations of stream routing were conducted in both synthetic and natural waterways. Calculations were performed with the aid of HEC-HMS choosing the Muskingum-Cunge 8 point cross-section method and in InfoWorks ICM, a two-dimensional hydraulic calculation software. HEC-HMS was chosen because its extensive use and InfoWorks ICM for its calculation speed as it takes advantage of the CUDA technology (Compute Unified Device Architecture). Initially, the two-dimensional hydraulic engine was compared to one-dimensional formulation in both uniform and varied flow. Then it was contrasted to variable flow analytical formulae, achieving most satisfactory results. A sensitivity size analysis of the two-dimensional rooting model mesh was also conduced, obtaining charts with suggested 2D element sizes to narrow the committed error. With the technique of dimensional analysis a correlation of results between the two methods was reviewed, assessing their accuracy and defining valid intervals for improved use of the Muskingum-Cunge method. Simultaneously, a methodology to draw a representative 8 point cross-section was developed, based on a sequence of simplified two-dimensional simulations. This procedure is intended to provide a simplified approach and accurate definition of hydrological models.
Resumo:
La Vega de Aranjuez ha sido desde hace siglos conocida por la notoriedad de sus jardines y huertas históricas y también, en épocas más recientes, por ser la despensa de Madrid. A mediados del siglo XX, sin embargo, con las transformaciones que el sector agrario ha experimentado no sólo a nivel local, sino a escala global, empezó un proceso de declive que se ha acentuado en los últimos años. Paralelamente, en el año 2001, la Unesco declara el Paisaje Cultural de Aranjuez, como Patrimonio de la Humanidad con un valor universal excepcional. Parte de lo que sustenta este reconocimiento a nivel internacional radica en las peculiaridades del paisaje que conforma la actividad agraria. El cambio de orientación, eminentemente hortofrutícola hacia cultivos extensivos y superficies en barbecho, y la pérdida de importancia del sector, no han pasado desapercibidos para la administración local y han sido varios los intentos de recuperación y dinamización del sector en los últimos años. La investigación de la que es objeto esta Tesis Doctoral surgió por iniciativa del Ayuntamiento de Aranjuez, que en al año 2010 deseó conocer la situación del sector hortícola en el municipio, para lo cual, encargó un estudio a la UPM-ETSIA. Para conocer la realidad desde una perspectiva integral, se planteó abordar el análisis desde la perspectiva de Cadena de Valor. Las implicaciones de este concepto, su evolución y su papel como instrumento de análisis de la cadena alimentaria, han sido revisadas y presentadas en el epígrafe del Marco Conceptual. Por cadena de valor se entiende el conjunto de procesos desde el consumidor, a través de los proveedores que proporcionan productos, servicios e información que añaden valor hacia los clientes (Lambert & Cooper, 2000; Chen, 2004). Para el análisis de la situación del sector hortícola en Aranjuez, se procedió en varios pasos, los cuales constituyeron la primera fase de la investigación y contemplaron lo siguiente: 1. La identificación de los problemas y de las demandas de los actores de la cadena, realizando cortes transversales en el mercado a distintos niveles para conocer los puntos de vista de los operadores de la cadena (Gunasekaran & Patel ,2004; Rojas, 2009; Schiefer, 2007). Para ello se diseñaron cuestionarios y se dirigieron a representantes de cinco eslabones de la cadena presentes en el caso de estudio: Agricultores (15), Mayoristas (11), Detallistas (55), Consumidores (85) y Restaurantes (36), tanto en Aranjuez como en Madrid (un total de 202). 2. Análisis D.A.F.O de cada uno de los eslabones y de la cadena completa, como herramienta para identificar y sintetizar la problemática y las potencialidades del sector. 3. Análisis global de la Cadena de Valor mediante el Método de Organización Sectorial, según Briz, de Felipe y Briz (2010), el cual permite estudiar aspectos de la estructura, la conducta y el funcionamiento de la cadena. 4. Jornada de análisis por parte de un Panel de Expertos en la sede de la Fundación Foro Agrario, en la cual se presentaron las conclusiones del análisis de la cadena de valor y se plantearon estrategias para la dinamización del sector. Con los resultados del análisis en esta primera fase de la investigación, se obtuvo una panorámica de la cadena de valor. Algunos de los aspectos más destacados son los siguientes: • El eslabón productivo en Aranjuez está muy atomizado y trabaja por lo general de forma independiente. Cultiva hasta veinte productos hortícolas diferentes, entre los cuales los frutales están casi en desaparición y hay poca presencia de producto ecológico. Le preocupan los precios poco estables y bajos y por lo general no trabaja con contratos. •El eslabón mayorista prácticamente carece de presencia en Aranjuez y está representado en su mayoría por operadores de Mercamadrid, los cuales demandan mayores volúmenes y mejor normalización de los productos hortícolas procedentes de Aranjuez. • El eslabón detallista consultado es diverso (con representación de comercios minoristas, supermercados e hipermercados) y también demanda mayores volúmenes de producción y mejoras en la normalización. Un 80% conoce los productos de Aranjuez, especialmente el espárrago y la fresa-fresón citados en un 74% y 63% de los casos respectivamente. • En el eslabón de consumidores, el 79% de los encuestados da importancia a la procedencia de los productos hortícolas y un 82% conoce los productos de la Huerta de Aranjuez, siendo los más consumidos el espárrago y el fresón. Un 42% de los encuestados compra producto ecológico por razones de salud, sabor y buscando la ausencia de químicos. • El eslabón de restaurantes es un gran consumidor de hortalizas, la gran mayoría de los productos incluidos en el análisis se oferta en más del 75% de los casos. Las más presentes son tomate y espárrago. La fresa y el fresón (en un 83% de los casos), y el espárrago (72%) seguido de la alcachofa (44%) son los productos de Aranjuez que más se conocen en el conjunto de los restaurantes entrevistados. El 75% de los restaurantes prefiere el producto fresco frente al procesado o congelado. La mayoría de los restaurantes locales (92%) estaría dispuesto a incluir en su carta una diferenciación para los productos de Aranjuez. Sin embargo, en el resto de restaurantes el porcentaje es mucho menor (21%). Entre las conclusiones del análisis se evidenció que un 52% de las ventas de los agricultores se realizaba sin intermediarios y un 69% de los consumidores se manifestaba interesado en adquirir productos de Aranjuez directamente del campo a su casa. Se identificó de esta manera que el acortamiento de la cadena se está utilizando como una forma de crear valor. Para profundizar en este aspecto, se planteó una segunda fase en la investigación. Además de estudiar diversos aspectos de los canales cortos de comercialización, se planteó estudiar el enfoque multifuncional de la horticultura, como estrategia para poner en valor la Huerta ribereña. Para dar una coherencia con la fase anterior, el planteamiento se realizó también desde la perspectiva de la cadena de valor, orientando la consulta hacia el eslabón consumidor. De esta manera, se realizó una consulta mediante cuestionario a 221 consumidores sobre diferentes aspectos relativos a los Canales Cortos de Comercialización (CCC) y la Horticultura Multifuncional (HM)1, lo cual permitió realizar un análisis cuantitativo de diferentes variables. Para completar la visión integral de la cadena corta, se seleccionaron 6 proyectos significativos que son ejemplos de diversas tipologías de canales cortos de comercialización en Aranjuez y Madrid, como representantes del denominado eslabón de “Promotores de CCC” y se consultó también a la Asociación de Productores de la Huerta de Aranjuez, constituida formalmente en el año 2014, como representante del eslabón Productor. Para la obtención de información, la cual tiene un carácter cualitativo en el caso de estos dos eslabones de la cadena, se realizaron cuestionarios y Estudios de Caso de cada proyecto. Los cuestionarios de esta segunda fase de consulta a los eslabones de la cadena corta contuvieron cuestiones relativas a los canales cortos de comercialización, tanto a nivel general (concepto de canal corto, puntos fuertes y ventajas que aportan, dificultades para su desarrollo, factores clave para su éxito) como para el caso concreto de la Huerta de Aranjuez (perfil del consumidor, factores implicados en la compra de verduras, utilización de diversas modalidades de canal corto, relación con las tecnologías de la información y comunicación (TICs) y la producción ecológica o la importancia del factor confianza). También aspectos relacionados con la Horticultura Multifuncional, como son, la valoración de diferentes actividades o proyectos de carácter agro-turístico, educativo, social o terapéutico, o la percepción del consumidor de las actividades de huerta como fuente de bienestar y como agente satisfactor de diversas necesidades humanas. Para completar la visión sobre estos dos temas, CCC y HM, se realizó una consulta mediante cuestionario a Expertos en el campo de los canales cortos de comercialización, procedentes del ámbito académico, y a Profesionales en activo trabajando en proyectos de horticultura social y terapéutica. La información aportada, aunque tiene carácter cualitativo, complementa el estudio ofreciendo la perspectiva académica en el caso de los canales cortos y amplía la información sobre la horticultura multifuncional, tratando cuestiones relativas al desempeño profesional o a la formación existente en España en el campo de la horticultura social y terapéutica. Los resultados de esta segunda fase de la investigación, entre otras cuestiones, evidenciaron que: • Los canales cortos de comercialización implican mucho más que la simple reducción de intermediarios y comprenden una gran diversidad de tipologías. • Los casos estudiados, están enfocados en su mayoría al producto ecológico y su funcionamiento está muy fundamentado en el uso de TICs y en el factor confianza. • En relación a la compra de verduras en el ámbito de los canales cortos, son aspectos muy valorados por el consumidor la calidad del producto, la rapidez y frescura con la que llega del campo a la mesa y que el Producto sea recogido en su punto óptimo de maduración. • Las actividades en el ámbito de la horticultura multifuncional son valoradas positivamente por los consumidores, siendo las más puntuadas las de huerto educativo, huerto terapéutico, seguidas de visitas guiadas y degustaciones de productos de huerta en restaurantes. • Por lo general existe una valoración muy alta de la huerta como fuente de bienestar y de satisfacción de necesidades humanas básicas, especialmente las de una alimentación saludable y de conexión con la naturaleza. Para terminar esta síntesis de la investigación realizada, se presentan las principales conclusiones a nivel global de la Tesis, que son las siguientes: 1. La metodología de cadena de valor ha resultado adecuada para conocer la complejidad y el funcionamiento del sector hortícola arancetano desde una perspectiva integral. 2. La Huerta de Aranjuez cuenta con importantes fortalezas, sustentadas en la calidad de sus suelos y en la fama que mantienen sus productos, pero también debilidades. Esto supone poco volumen de producción, que dificulta la relación con mayoristas y grandes detallistas. 3. El acortamiento de la cadena, mediante canales cortos de comercialización se ha identificado como una forma de creación de valor en la cadena. Existen oportunidades de abastecimiento a consumidores de Madrid mediante canales cortos, sin embargo, las modalidades que requieren mayor organización o requisitos de producción ecológica todavía no están desarrolladas. 4. La producción ecológica podría ser una estrategia para crear valor pero todavía es un método de cultivo muy minoritario en la cadena productiva arancetana. 5. Las peculiaridades de la Huerta de Aranjuez propician la puesta en práctica del enfoque multifuncional de la horticultura como vía de desarrollo económico. Los resultados apuntan a una posible demanda de servicios que contemplen actividades de horticultura de carácter educativo, terapéutico y agro-turístico, conducidas por profesionales. Existe una percepción positiva sobre el potencial de la huerta como fuente de bienestar y de satisfacción de necesidades humanas básicas. 6. La puesta en marcha de proyectos empresariales en el ámbito de la horticultura social es una apuesta interesante para crear valor en la huerta que ha sido valorada positivamente por los eslabones de la cadena corta consultados. 7. El campo de la Horticultura Multifuncional que contempla aspectos educativos, sociales y terapéuticos conforma una disciplina con posibilidades de desarrollo que en la investigación se perciben como limitadas por la falta de profesionales y su acceso a una formación adecuada en España. El estudio de los Canales Cortos de Comercialización y de la Horticultura Multifuncional como vías de puesta en valor en el caso de la Huerta de Aranjuez ha tenido un carácter exploratorio y en gran parte cualitativo en esta Tesis Doctoral. Ambos conceptos han desvelado cierta complejidad y requieren de un mayor conocimiento en diversos aspectos para su puesta en práctica con éxito. Se abre, por tanto, un campo para futuras investigaciones que profundicen en estos ámbitos. ABSTRACT La Vega de Aranjuez has been known for centuries for the reputation of its orchards and historic gardens and, more recently, as the pantry of Madrid. However, in the mid-twentieth century, with the transformations in agriculture, not only locally, but globally, began a process of decline that has been accentuated in recent years. Meanwhile, in 2001, Unesco declared Aranjuez Cultural Landscape, as a World Heritage Site with outstanding universal value. Part of what underpins this international recognition lies in the peculiarities of the landscape created by farming. The shift, from an eminently horticultural vocation to extensive field crops and fallow surfaces, and the loss of importance of the sector, have not gone unnoticed for local authorities and have been several attempts at recovery and revitalization of the sector in recent years. The beginning of this research came at the initiative of the municipality of Aranjuez, which in 2010 wanted to know the situation of the horticultural sector, for which he commissioned a study by the UPM-ETSIA. To know reality from an integral perspective, it was proposed to approach the analysis from the perspective of value chain. The implications of this concept, its evolution and its role as an instrument of analysis of the food chain, have been reviewed and presented in Chapter 3.2. The value chain concept refers to all the processes from the consumer, through suppliers who provide products, services and information that add value to customers (Lambert & Cooper, 2000; Chen, 2004). For the analysis of the situation of the horticultural sector in Aranjuez, which constituted the first phase of research, it proceeded in several steps: 1. Identifying the problems and demands of the actors in the chain, making transverse cuts in the market at different levels to meet the views of the chain operators (Gunasekaran & Patel , 2004; Rojas, 2009; Schiefer, 2007). Questionnaires were designed for it and went to representatives of the five links in the chain: Farmers (15), Wholesalers (11), Retailers (55), Consumers (85) and Restaurants (36), both in Aranjuez and Madrid (a total of 202). 2. SWOT analysis of each chain actor and of the whole supply chain, as a tool to identify and synthesize the problems and potential of the sector. 3. Analysis of the whole supply chain by Industrial Organization Method according to Briz et al. (2010), which allows to study aspects of the structure, conduct and performance of the chain. 4. Analysis by a Panel of Experts at Foro Agrario Foundation headquarters, where the conclusions of the analysis were presented and strategies for the revitalization of the sector were raised. The results of the analysis in this first phase of the research, presented an overview of the value chain. Some of the highlights are: - The productive sector in Aranjuez is very fragmented and usually works independently. With a wide variety of horticultural products (up to 20), fruit crops almost disappearing and little presence of organic product. Is concerned about the unstable and low prices and usually does not work with contracts. - The wholesale sector with virtually no presence in Aranjuez is represented mostly by Mercamadrid operators, who demand higher volumes and better standardization of horticultural products from Aranjuez. - The retailer sector is diversified (with representation from retailers, supermarkets and hypermarkets) and also demand higher production volumes and improved standardization. 80% know the products of Aranjuez, especially asparagus and strawberry-strawberry cited by 74% and 63% of cases respectively. - Among the consumers, 79% give importance to the origin of horticultural products and 82% know the products from Aranjuez, the most consumed asparagus and strawberries. 42% buy organic products for health, taste and absence of chemicals. - Restaurants are big consumers of vegetables, most of the products included in the analysis is offered in over 75% of cases. The most: tomato and asparagus. Strawberry (83% of cases), and asparagus (72%) followed by the artichoke (44%) are the products of Aranjuez more known in all the surveyed restaurants. 75% of the restaurants prefer fresh product against processed or frozen. Most local restaurants (92%) would be willing to include in their menu a differentiation for products of Aranjuez. However, for those restaurants from Madrid the percentage is much lower (21%). Among the conclusions of the analysis it showed that 52% of sales were realized from farmers without intermediaries and 69% of consumers expressed interest in acquiring products directly from field to table. It has been identified that the shortening of the chain is being used as a way to create value. To deepen this aspect, a second phase investigation arose. Besides studying various aspects of the short supply chains, it was also proposed to study the functional approach of horticulture as a strategy to add value. To provide consistency with the previous phase, the focus was also conducted from the perspective of the value chain, directing the query to consumers. Thus, again it was used the questionnaire as a methodological tool, and 221 consumers were asked about different aspects of the Short Suppy Chains (SSC) and Multifunctional Horticulture (MH)2, which allowed a quantitative analysis of several variables. To complete the comprehensive view of the short chain, 6 significant projects were selected as examples of different types of short supply chains in Aranjuez and Madrid, representing "SSC Promoters" and also the “Asociación de Productores de la Huerta de Aranjuez”, formally constituted in 2014, was asked representing the productive sector. The Study Case and again the questionnaire were elected as methodological tools in a qualitative analysis. The questionnaires of this second phase of research contained short supply chain issues, as a general topic (short supply chain concept, strengths and advantages they bring difficulties for its development, key factors success) and also refered to the case of Aranjuez (consumer profile, factors involved in the purchase of vegetables, use of several types of short supply chains, relation with information and communication technologies (ICTs) and organic production or the importance of trust in short supply chains). It also contemplated aspects of multifunctional horticulture, such as the valuation of different activities (agro-tourism, educational, social or therapeutic horticulture) and consumer perception about horticultural activities as a source of welfare and satisfactor of human needs. To complete the vision of these two issues, SSC and MH, experts in the field of short supply chains and professionals working in the field of social and therapeutic horticulture were asked. The qualitative information provided, complements the study offering a new perspective in the value chain analysis, such as those relating to job performance, the difficulties encountered or training existing in our country in the field of social and therapeutic horticulture. The results of this second phase of research showed that: Short supply chains involve much more than simply reducing intermediaries and cover a wide range of types. The cases studied are mostly focused on ecological product and its operation is heavily based on the use of ICTs and the trust factor. In connection with the purchase of vegetables in the field of short supply chains, product quality, speed and freshness with which comes from the field to the table and products picked at its peak maturation, are aspects highly valued by the consumer. Activities in the field of multifunctional horticulture are positively valued by consumers, the most scored: the educational garden, therapeutic garden, followed by guided tours and tastings of vegetables from Aranjuez in restaurants. Horticultural activities were highly valuated as a source of welfare and satisfaction of human needs, especially those of healthy eating and connection with nature. To complete this summary, the main conclusions of the research are presented as follows: 1. The value chain approach has been adequate to meet the complexity and operation of the horticultural sector in Aranjuez from a holistic perspective. 2. La Huerta de Aranjuez has important strengths, underpinned by the quality of its soils and fame that keep their products, but also weaknesses. This implies low volume of production, which makes difficult the link with wholesalers and large retailers. 3. The shortening of the chain by short supply chains has been identified as a way of creating value in the chain. Opportunities exist to supply consumers from Madrid by short supply chains, however, methods that require greater organization or requirements of organic production are not yet developed. 4. Organic production could be a strategy to create value but is not generally being implemented in the production chain. 5. The peculiarity of the Huerta de Aranjuez favours the implementation of the multifunctional approach as a means of economic development. The results point to a possible demand for multifunctional horticulture that include educational, therapeutic and agro-tourism activities. There is a positive perception of the potential of horticultural activities as a source of welfare and satisfaction of basic human needs. 6. The implementation of business projects in the field of social horticulture are an interesting way to create value that has been highly valued in the short supply chain. 7. The field of Multifunctional Horticulture which includes educational, social and therapeutic aspects, forms a discipline with possibilities of development, which in research are seen as limited by the lack of professionals and access to adequate training in our country. The study of Short Supply Chains and Multifunctional Horticulture as strategies to create value in the case of the Huerta de Aranjuez has an exploratory character and largely qualitative in this research. Both concepts have revealed some complexity and require greater knowledge in various aspects for successful implementation. It opens therefore a field for future research to deepen in these areas.
Resumo:
En el planteamiento de la tesis se desarrolla una metodología para la construcción de la paleta cromática representativa de un espacio urbano. El objetivo principal es hallar una paleta representativa con la finalidad de determinar diferencias cromáticas entre ámbitos urbanos de época y composición urbana distinta. En el estado del arte se describe en primer lugar la teoría del color resaltando los factores que influyen en el proceso cromático perceptivo; en segundo lugar se hace un estudio clasificatorio de diferentes sistemas cromáticos y la teoría de la verbalidad del color y por último se hace un análisis del espacio público puntualizando en la relación entre la morfología y el factor cromático. Para la construcción de las paletas cromáticas se lleva a cabo un procesamiento informático de fotografías digitales con una aplicación que ha sido creada específicamente para la extracción y conversión de valores cromáticos y un proceso de filtrado con cálculo estadístico para la elección de las muestras. En el análisis también se establece una relación entre los factores urbanos y la resultante cromática, como instrumento para determinar las correspondencias de ciertas características urbanas con el comportamiento cromático. La resultante cromática de cada espacio se establece mediante el sistema cromático HSL y su composición es valorada y comparada entre los diferentes puntos de análisis establecidos y las diferentes orientaciones. Finalmente, en base a las paletas cromáticas se plantea una comparativa entre espacios urbanos de la ciudad de Madrid con la finalidad de establecer diferencias cromáticas entre planteamientos urbanos de distinta índole morfológica y constructiva. ABSTRACT In the approach of the thesis is developed a methodology for the construction of a representative palette of urban space. The main objective is to find a representative palette in order to determine color differences between urban areas of different age and urban composition. In the prior art is described first color theory highlighting the factors that influencing the perceptual color process; in second it is a qualifying study of various color systems and the theory of color verbality and finally is an analysis of public space pointing in the relationship between morphology and the color factor. For the construction of the color palette is carried out computer processing of digital photos in an application that has been created specifically for the extraction and conversion of color values and a filtering process with statistical calculation for the election of the samples. In analyzing a relationship between urban factors and the resulting color as an instrument is also set to determine the correlation of certain urban characteristics with the color behavior. The resulting color of each space is set by the HSL color system and its composition is evaluated and compared between the different established points of analysis and different orientations. Finally, based on the color palettes, arises a comparison between urban spaces in the city of Madrid with the aim of establishing color differences between urban approaches of different morphological and constructive nature.
Resumo:
Los adhesivos se conocen y han sido utilizados en multitud de aplicaciones a lo lago de la historia. En la actualidad, la tecnología de la adhesión como método de unión de materiales estructurales está en pleno crecimiento. Los avances científicos han permitido comprender mejor los fenómenos de adhesión, así como, mejorar y desarrollar nuevas formulaciones poliméricas que incrementan el rango de aplicaciones de los adhesivos. Por otro lado, el desarrollo de nuevos materiales y la necesidad de aligerar peso, especialmente en el sector transporte, hace que las uniones adhesivas se introduzcan en aplicaciones hasta ahora reservadas a otros sistemas de unión como la soldadura o las uniones mecánicas, ofreciendo rendimientos similares y, en ocasiones, superiores a los aportados por estas. Las uniones adhesivas ofrecen numerosas ventajas frente a otros sistemas de unión. En la industria aeronáutica y en automoción, las uniones adhesivas logran una reducción en el número de componentes (tales como los tornillos, remaches, abrazaderas) consiguiendo como consecuencia diseños más ligeros y una disminución de los costes de manipulación y almacenamiento, así como una aceleración de los procesos de ensamblaje, y como consecuencia, un aumento de los procesos de producción. En el sector de la construcción y en la fabricación de equipos industriales, se busca la capacidad para soportar la expansión y contracción térmica. Por lo tanto, se usan las uniones adhesivas para evitar producir la distorsión del sustrato al no ser necesario el calentamiento ni la deformación de las piezas cuando se someten a un calentamiento elevado y muy localizado, como en el caso de la soldadura, o cuando se someten a esfuerzos mecánicos localizados, en el caso de montajes remachados. En la industria naval, se están desarrollando técnicas de reparación basadas en la unión adhesiva para distribuir de forma más uniforme y homogénea las tensiones con el objetivo de mejorar el comportamiento frente a fatiga y evitar los problemas asociados a las técnicas de reparación habituales de corte y soldadura. Las uniones adhesivas al no requerir importantes aportes de calor como la soldadura, no producen modificaciones microestructurales indeseables como sucede en la zona fundida o en la zona afectada térmicamente de las uniones soldadas, ni deteriora los recubrimientos protectores de metales de bajo punto de fusión o de naturaleza orgánica. Sin embargo, las uniones adhesivas presentan una desventaja que dificulta su aplicación, se trata de su durabilidad a largo plazo. La primera causa de rotura de los materiales es la rotura por fatiga. Este proceso de fallo es la causa del 85% de las roturas de los materiales estructurales en servicio. La rotura por fatiga se produce cuando se somete al material a la acción de cargas que varían cíclicamente o a vibraciones durante un tiempo prolongado. Las uniones y estructuras sometidas a fatiga pueden fallar a niveles de carga por debajo del límite de resistencia estática del material. La rotura por fatiga en las uniones adhesivas no se produce por un proceso de iniciación y propagación de grieta de forma estable, el proceso de fatiga va debilitando poco a poco la unión hasta que llega un momento que provoca una rotura de forma rápida. Underhill explica este mecanismo como un proceso de daño irreversible de los enlaces más débiles en determinados puntos de la unión. Cuando se ha producido el deterioro de estas zonas más débiles, su área se va incrementando hasta que llega un momento en que la zona dañada es tan amplia que se produce el fallo completo de la unión. En ensayos de crecimiento de grieta realizados sobre probetas preagrietadas en viga con doble voladizo (DCB), Dessureault identifica los procesos de iniciación y crecimiento de grietas en muestras unidas con adhesivo epoxi como una acumulación de microfisuras en la zona próxima al fondo de grieta que, luego, van coalesciendo para configurar la grieta principal. Lo que supone, igualmente, un proceso de daño del adhesivo en la zona de mayor concentración de tensiones que, posteriormente, conduce al fallo de la unión. La presente tesis surge con el propósito de aumentar los conocimientos existentes sobre el comportamiento a fatiga de las uniones adhesivas y especialmente las realizadas con dos tipos de adhesivos estructurales aplicados en aceros con diferentes acabados superficiales. El estudio incluye la obtención de las curvas de tensión frente al número de ciclos hasta el fallo del componente, curvas SN o curvas de Wöhler, que permitirán realizar una estimación de la resistencia a la fatiga de un determinado material o estructura. Los ensayos de fatiga realizados mediante ciclos predeterminados de carga sinusoidales, de amplitud y frecuencia constantes, han permitido caracterizar el comportamiento a la fatiga por el número de ciclos hasta la rotura, siendo el límite de fatiga el valor al que tiende la tensión cuando el número de ciclos es muy grande. En algunos materiales, la fatiga no tiende a un valor límite sino que decrece de forma constante a medida que aumenta el número de ciclos. Para estas situaciones, se ha definido la resistencia a la fatiga (o límite de resistencia) por la tensión en que se produce la rotura para un número de ciclos predeterminado. Todos estos aspectos permitirán un mejor diseño de las uniones y las condiciones de trabajo de los adhesivos con el fin de lograr que la resistencia a fatiga de la unión sea mucho más duradera y el comportamiento total de la unión sea mucho mejor, contribuyendo al crecimiento de la utilización de las uniones adhesivas respecto a otras técnicas. ABSTRACT Adhesives are well-known and have been used in many applications throughout history. At present, adhesion bonding technology of structural materials is experiencing an important growth. Scientific advances have enabled a better understanding of the phenomena of adhesion, as well as to improve and develop new polymeric formulations that increase the range of applications. On the other hand, the development of new materials and the need to save weight, especially in the transport sector, have promote the use of adhesive bonding in many applications previously reserved for other joining technologies such as welded or mechanical joints, presenting similar or even higher performances. Adhesive bonding offers many advantages over other joining methods. For example, in the aeronautic industry and in the automation sector, adhesive bonding allows a reduction in the number of components (such as bolts, rivets, clamps) and as consequence, resulting in lighter designs and a decrease in handling and storage costs, as well as faster assembly processes and an improvement in the production processes. In the construction sector and in the industrial equipment manufacturing, the ability to withstand thermal expansion and contraction is required. Therefore, adhesion bonding technology is used to avoid any distortion of the substrate since this technology does not require heating nor the deformation of the pieces when these are exposed to very high and localized heating, as in welding, or when are subjected to localized mechanical stresses in the case of riveted joints. In the naval industry, repair techniques based in the adhesive bonding are being developed in order to distribute stresses more uniform and homogeneously in order to improve the performance against fatigue and to avoid the problems associated with standard repair techniques as cutting and welding. Adhesive bonding does not require the use of high temperatures and as consequence they do not produce undesirable microstructural changes, as it can be observed in molten zones or in heat-affected zones in the case of welding, neither is there damage of the protective coating of metals with low melting points or polymeric films. However, adhesive bonding presents a disadvantage that limits its application, the low longterm durability. The most common cause of fractures of materials is fatigue fracture. This failure process is the cause of 85% of the fracture of structural materials in service. Fatigue failure occurs when the materials are subjected to the action of cyclic loads or vibrations for a long period of time. The joints and structures subjected to fatigue can fail at stress values below the static strength of the material. Fatigue failure do not occurs by a static and homogeneous process of initiation and propagation of crack. The fatigue process gradually weakens the bond until the moment in which the fracture occurs very rapidly. Underhill explains this mechanism as a process of irreversible damage of the weakest links at certain points of the bonding. When the deterioration in these weaker zones occurs, their area increase until the damage zone is so extensive that the full failure of the joint occurs. During the crack growth tests performed on precracked double-cantilever beam specimen, (DCB), Dessureault identified the processes of crack initiation and growth in samples bonded with epoxy adhesive as a process of accumulation of microcracks on the zone near the crack bottom, then, they coalesced to configure the main crack. This is a damage process of the adhesive in the zone of high stress concentration that leads to failure of the bond. This thesis aims to further the understanding of the fatigue behavior of the adhesive bonding, primarily those based on two different types of structural adhesives used on carbon-steel with different surface treatments. This memory includes the analysis of the SN or Wöhler curves (stress vs. number of cycles curves up to the failure), allowing to carry out an estimation of the fatigue strength of a specific material or structure. The fatigue tests carried out by means of predetermined cycles of sinusoidal loads, with a constant amplitude and frequency, allow the characterisation of the fatigue behaviour. For some materials, there is a maximum stress amplitude below which the material never fails for any number of cycles, known as fatigue limit. In the other hand, for other materials, the fatigue does not tend toward a limit value but decreases constantly as the number of cycles increases. For these situations, the fatigue strength is defined by the stress at which the fracture occurs for a predetermined number of cycles. All these aspects will enable a better joint design and service conditions of adhesives in order to get more durable joints from the fatigue failure point of view and in this way contribute to increase the use of adhesive bonding over other joint techniques.
Resumo:
La dinámica estructural estudia la respuesta de una estructura ante cargas o fenómenos variables en el tiempo. En muchos casos, estos fenómenos requieren realizar análisis paramétricos de la estructura considerando una gran cantidad de configuraciones de diseño o modificaciones de la estructura. Estos cambios, ya sean en fases iniciales de diseño o en fases posteriores de rediseño, alteran las propiedades físicas de la estructura y por tanto del modelo empleado para su análisis, cuyo comportamiento dinámico se modifica en consecuencia. Un caso de estudio de este tipo de modificaciones es la supervisión de la integridad estructural, que trata de identificar la presencia de daño estructural y prever el comportamiento de la estructura tras ese daño, como puede ser la variación del comportamiento dinámico de la estructura debida a una delaminación, la aparición o crecimiento de grieta, la debida a la pérdida de pala sufrida por el motor de un avión en vuelo, o la respuesta dinámica de construcciones civiles como puentes o edificios frente a cargas sísmicas. Si a la complejidad de los análisis dinámicos requeridos en el caso de grandes estructuras se añade la variación de determinados parámetros en busca de una respuesta dinámica determinada o para simular la presencia de daños, resulta necesario la búsqueda de medios de simplificación o aceleración del conjunto de análisis que de otra forma parecen inabordables tanto desde el punto de vista del tiempo de computación, como de la capacidad requerida de almacenamiento y manejo de grandes volúmenes de archivos de datos. En la presente tesis doctoral se han revisado los métodos de reducción de elementos .nitos más habituales para análisis dinámicos de grandes estructuras. Se han comparado los resultados de casos de estudio de los métodos más aptos, para el tipo de estructuras y modificaciones descritas, con los resultados de aplicación de un método de reducción reciente. Entre los primeros están el método de condensación estática de Guyan extendido al caso con amortiguamiento no proporcional y posteriores implementaciones de condensaciones dinámicas en diferentes espacios vectoriales. El método de reducción recientemente presentado se denomina en esta tesis DACMAM (Dynamic Analysis in Complex Modal space Acceleration Method), y consiste en el análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura, calculada en el espacio modal complejo y que admite modificaciones estructurales. El método DACMAM permite seleccionar un número reducido de grados de libertad significativos para la dinámica del fenómeno que se quiere estudiar como son los puntos de aplicación de la carga, localizaciones de los cambios estructurales o puntos donde se quiera conocer la respuesta, de forma que al implementar las modificaciones estructurales, se ejecutan los análisis necesarios sólo de dichos grados de libertad sin pérdida de precisión. El método permite considerar alteraciones de masa, rigidez, amortiguamiento y la adición de nuevos grados de libertad. Teniendo en cuenta la dimensión del conjunto de ecuaciones a resolver, la parametrización de los análisis no sólo resulta posible, sino que es también manejable y controlable gracias a la sencilla implementación del procedimiento para los códigos habituales de cálculo mediante elementos .nitos. En el presente trabajo se muestra la bondad y eficiencia del método en comparación con algunos de los métodos de reducción de grandes modelos estructurales, verificando las diferencias entre sí de los resultados obtenidos y respecto a la respuesta real de la estructura, y comprobando los medios empleados en ellos tanto en tiempo de ejecución como en tamaño de ficheros electrónicos. La influencia de los diversos factores que se tienen en cuenta permite identificar los límites y capacidades de aplicación del método y su exhaustiva comparación con los otros procedimientos. ABSTRACT Structural dynamics studies the response of a structure under loads or phenomena which vary over time. In many cases, these phenomena require the use of parametric analyses taking into consideration several design configurations or modifications of the structure. This is a typical need in an engineering o¢ ce, no matter the structural design is in early or final stages. These changes modify the physical properties of the structure, and therefore, the finite element model to analyse it. A case study, that exempli.es this circumstance, is the structural health monitoring to predict the variation of the dynamical behaviour after damage, such as a delaminated structure, a crack onset or growth, an aircraft that suffers a blade loss event or civil structures (buildings or bridges) under seismic loads. Not only large structures require complex analyses to appropriately acquire an accurate solution, but also the variation of certain parameters. There is a need to simplify the analytical process, in order to bring CPU time, data .les, management of solutions to a reasonable size. In the current doctoral thesis, the most common finite element reduction methods for large structures are reviewed. Results of case studies are compared between a recently proposed method, herein named DACMAM (Dynamic Analysis in Complex Modal space Acceleration Method), and different condensation methods, namely static or Guyan condensation and dynamic condensation in different vectorial spaces. All these methods are suitable for considering non-classical damping. The reduction method DACMAM consist of a structural modification in the complex modal domain which provides a dynamic response solution for the reduced models. This process allows the selection of a few degrees of freedom that are relevant for the dynamic response of the system. These d.o.f. are the load application points, relevant structural points or points in which it is important to know the response. Consequently, an analysis with structural modifications implies only the calculation of the dynamic response of the selected degrees of freedom added, but with no loss of information. Therefore, mass, stiffness or damping modifications are easily considered as well as new degrees of freedom. Taking into account the size of the equations to be solved, the parameterization of the dynamic solutions is not only possible, but also manageable and controllable due to the easy implementation of the procedure in the standard finite element solvers. In this thesis, the proposed reduction method for large structural models is compared with other published model order reduction methods. The comparison shows and underlines the efficiency of the new method, and veri.es the differences in the response when compared with the response of the full model. The CPU time, the data files and the scope of the parameterization are also addressed.