584 resultados para HORMIGÓN-MEZCLAS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este Trabajo de Fin de Grado es el estudio e implementación de estrategias de detección de objetos móviles basadas en el uso de Local Binary Patterns. Para ello, en primer lugar se han analizado los métodos de substracción de fondos basados en información de textura propuestos durante los últimos años. Como resultado de este análisis, se ha implementado una estrategia basada en Local Binary Patterns a la que posteriormente se le han añadido las mejoras que se han considerado más apropiadas, las cuales están destinadas tanto a reducir el coste computacional de la estrategia como a mejorar la calidad de los resultados obtenidos. Por último se ha realizado un estudio comparativo entre las estrategias implementadas y otros métodos populares empleados para la substracción de fondos, como los basados en el uso de mezclas de gaussianas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pérdida de bosques en la Tierra, principalmente en ecosistemas amazónicos, es un factor clave en el proceso del cambio climático. Para revertir esta situación, los mecanismos REDD (Reducing Emission from Deforestation and forest Degradation) están permitiendo la implementación de actividades de protección del clima a través de la reducción de emisiones por deforestación evitada, según los esquemas previstos en el Protocolo de Kioto. El factor técnico más crítico en un proyecto REDD es la determinación de la línea de referencia de emisiones, que define la expectativa futura sobre las emisiones de CO2 de origen forestal en ausencia de esfuerzos adicionales obtenidos como consecuencia de la implementación del programa REDD para frenar este tipo de emisiones. La zona del estudio se ubica en la región de San Martín (Perú), provincia cubierta fundamentalmente por bosques tropicales cuyas tasas de deforestación son de las más altas de la cuenca amazónica. En las últimas décadas del siglo XX, la región empezó un acelerado proceso de deforestación consecuencia de la integración vial con el resto del país y la rápida inmigración desde zonas rurales en busca de nuevas tierras agrícolas. Desde el punto de vista de la investigación llevada a cabo en la tesis doctoral, se pueden destacar dos líneas: 1. El estudio multitemporal mediante imágenes de satélite Landsat 5/TM con el propósito de calcular las pérdidas de bosque entre períodos. El estudio multitemporal se llevó a cabo en el período 1998-2011 utilizando imágenes Landsat 5/TM, aplicando la metodología de Análisis de Mezclas Espectrales (Spectral Mixtures Analysis), que permite descomponer la reflectancia de cada píxel de la imagen en diferentes fracciones de mezcla espectral. En este proceso, las etapas más críticas son el establecimiento de los espectros puros o endemembers y la recopilación de librerías espectrales adecuadas, en este caso de bosques tropicales, que permitan reducir la incertidumbre de los procesos. Como resultado de la investigación se ha conseguido elaborar la línea de referencia de emisiones histórica, para el período de estudio, teniendo en cuenta tanto los procesos de deforestación como de degradación forestal. 2. Relacionar los resultados de pérdida de bosque con factores de causalidad directos e indirectos. La determinación de los procesos de cambio de cobertura forestal utilizando técnicas geoespaciales permite relacionar, de manera significativa, información de los indicadores causales de dichos procesos. De igual manera, se pueden estimar escenarios futuros de deforestación y degradación de acuerdo al análisis de la evolución de dichos vectores, teniendo en cuenta otros factores indirectos o subyacentes, como pueden ser los económicos, sociales, demográficos y medioambientales. La identificación de los agentes subyacentes o indirectos es una tarea más compleja que la de los factores endógenos o directos. Por un lado, las relaciones causa – efecto son mucho más difusas; y, por otro, los efectos pueden estar determinados por fenómenos más amplios, consecuencia de superposición o acumulación de diferentes causas. A partir de los resultados de pérdida de bosque obtenidos mediante la utilización de imágenes Landsat 5/TM, se investigaron los criterios de condicionamiento directos e indirectos que podrían haber influido en la deforestación y degradación forestal en ese período. Para ello, se estudiaron las series temporales, para las mismas fechas, de 9 factores directos (infraestructuras, hidrografía, temperatura, etc.) y 196 factores indirectos (económicos, sociales, demográficos y ambientales, etc.) con, en principio, un alto potencial de causalidad. Finalmente se ha analizado la predisposición de cada factor con la ocurrencia de deforestación y degradación forestal por correlación estadística de las series temporales obtenidas. ABSTRACT Forests loss on Earth, mainly in Amazonian ecosystems, is a key factor in the process of climate change. To reverse this situation, the REDD (Reducing Emission from Deforestation and forest Degradation) are allowing the implementation of climate protection activities through reducing emissions from avoided deforestation, according to the schemes under the Kyoto Protocol. Also, the baseline emissions in a REDD project defines a future expectation on CO2 emissions from deforestation and forest degradation in the absence of additional efforts as a result of REDD in order to stop these emissions. The study area is located in the region of San Martín (Peru), province mainly covered by tropical forests whose deforestation rates are the highest in the Amazon basin. In the last decades of the twentieth century, the region began an accelerated process of deforestation due to road integration with the rest of the country and the rapid migration from rural areas for searching of new farmland. From the point of view of research in the thesis, we can highlight two lines: 1. The multitemporal study using Landsat 5/TM satellite images in order to calculate the forest loss between periods. The multitemporal study was developed in the period 1998-2011 using Landsat 5/TM, applying the methodology of Spectral Mixture Analysis, which allows decomposing the reflectance of each pixel of the image in different fractions of mixture spectral. In this process, the most critical step is the establishment of pure spectra or endemembers spectra, and the collecting of appropriate spectral libraries, in this case of tropical forests, to reduce the uncertainty of the process. As a result of research has succeeded in developing the baseline emissions for the period of study, taking into account both deforestation and forest degradation. 2. Relate the results of forest loss with direct and indirect causation factors. Determining the processes of change in forest cover using geospatial technologies allows relating, significantly, information of the causal indicators in these processes. Similarly, future deforestation and forest degradation scenarios can be estimated according to the analysis of the evolution of these drivers, taking into account other indirect or underlying factors, such as economic, social, demographic and environmental. Identifying the underlying or indirect agents is more complex than endogenous or direct factors. On the one hand, cause - effect relationships are much more diffuse; and, second, the effects may be determined by broader phenomena, due to superposition or accumulation of different causes. From the results of forest loss obtained using Landsat 5/TM, the criteria of direct and indirect conditioning that might have contributed to deforestation and forest degradation in that period were investigated. For this purpose, temporal series, for the same dates, 9 direct factors (infrastructure, hydrography, temperature, etc.) and 196 underlying factors (economic, social, demographic and environmental) with, in principle, a high potential of causality. Finally it was analyzed the predisposition of each factor to the occurrence of deforestation and forest degradation by statistical correlation of the obtained temporal series.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El refuerzo de forjados existentes de madera incrementando su capacidad resistente y/o su rigidez es una intervención estructural muy extendida. El refuerzo mediante recrecidos de hormigón unidos solidariamente a las viguetas de madera mediante conexiones metálicas presenta las siguientes ventajas: Incremento de la resistencia y rigidez del forjado inicial; el forjado se transforma en un diafragma rígido frente a las acciones horizontales y, cuando es posible ejecutar el refuerzo sin necesidad de apuntalar, puede mantenerse el uso de la zona inferior al forjado que se está reforzando. El principal inconveniente de la técnica radica en la carga añadida por el peso del hormigón. El empleo de hormigones ligeros estructurales (HLE) constituye una alternativa atractiva frente a los hormigones convencionales (HC), al aunar todas las ventajas de la técnica y disminuir considerablemente los inconvenientes debido al menor peso del hormigón ligero. Se han comparado los resultados obtenidos en la evaluación de forjados de madera de distintas luces, secciones y sobrecargas, reforzados con recrecidos de HC y de HLE. En concreto se han estudiado 3 luces (4.0, 4.5 y 5.0m) y 2 sobrecargas de uso (2kN/m2 y 3kN/m2). En todos los casos la sección de la madera se ha obtenido con criterios antiguos de dimensionamiento, utilizando las luces y acciones de los forjados a evaluar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"El proyecto actúa en el corazón del barrio interviniendo en la losa deportiva a través de la mejora de la infraestructura y servicios públicos y en los mímites del asentamiento con un tratamiento de borde. La intervención de losa deportiva supone la culminación del existente ""Eje de la Cultura"". Extiende las zonas verdes, rehabilita la escuela y la sala multiusos relacionándolos y se genera un graderío para el festival de teatro local Fiteca. En los límites del asentamiento se reubican las viviendas poco consolidadas que se encuentran en riesgo tras unaoperación de contención de tierras y aterrazamiento. Las viviendas surgen en torno a una caseta sanitaria semilla, creciendo progresivamente construyéndose por los mismos pobladores. Se aprovechan áreas en desuso para generar accesibilidad y servicios. Elprincipal sistema constructivo empleado es el sitema LOK BILD o TABLIBLOC que se basan en la construcción mediante bloques huecos prefabricados de hormigón."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"En la línea de trabajo que hemos seguido, en todo momento hemos tenido en cuenta que una mejora en las condiciones de vida de la población no sería posible sin: _ la creación de nuevas actividades productivas que puedan dar trabajo a los hombres y generar economía en estos pueblos _ un mejor acondicionamiento de los espacios públicos donde mujeres y niños pasan la mayor parte del día actualmente A escala territorial, la mejora en el sistema hídrico podría ayudar a una mejor explotación agrícola de las tierras, permitiendo con el tiempo, generar una actividad productiva con la venta de cultivos (existente en otras partes de la provincia) A escala urbana, . poner en valor las construcciones tradicionales y evitar que se pierda la forma tradicional de construcción con tierra característica de estos pueblos con la introducción de la técnica del btc empleando un 2-7% de cemento, con lo que conseguiríamos lo bueno del hormigón [ausencia de mantenimiento y rapidez en la construcción] y de la tierra [buen funcionamiento térmico] . una mejora en las competencias técnicas de quienes se dedican a la construcción y el aprendizaje de un nuevo oficio por parte de otros, haciéndoles partícipes de la construcción de su propio entorno. Un año después de la llegada de los talleres de construcción con tierra a los pueblos del oasis, se han producido algunos cambios que suponemos estaban ya a punto de florecer. La construcción de una red hídrica que deriva el agua a las casas en M´Hamid ha empezado a construirse mientras llevábamos a cabo el análisis para esta práctica."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo fundamental del proyecto es el replanteo de la obra en las fases de implantación o encaje, cimentación, estructura (de hormigón y metálica), albañilería y urbanización. También se abordan ciertos trabajos de auscultación y control. Para ello se realizan una serie de trabajos topográficos en cada una de las fases de la obra, que serán detallados y explicados en esta memoria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis tiene como objetivo principal el desarrollo de métodos de identificación del daño que sean robustos y fiables, enfocados a sistemas estructurales experimentales, fundamentalmente a las estructuras de hormigón armado reforzadas externamente con bandas fibras de polímeros reforzados (FRP). El modo de fallo de este tipo de sistema estructural es crítico, pues generalmente es debido a un despegue repentino y frágil de la banda del refuerzo FRP originado en grietas intermedias causadas por la flexión. La detección de este despegue en su fase inicial es fundamental para prevenir fallos futuros, que pueden ser catastróficos. Inicialmente, se lleva a cabo una revisión del método de la Impedancia Electro-Mecánica (EMI), de cara a exponer sus capacidades para la detección de daño. Una vez la tecnología apropiada es seleccionada, lo que incluye un analizador de impedancias así como novedosos sensores PZT para monitorización inteligente, se ha diseñado un procedimiento automático basado en los registros de impedancias de distintas estructuras de laboratorio. Basándonos en el hecho de que las mediciones de impedancias son posibles gracias a una colocación adecuada de una red de sensores PZT, la estimación de la presencia de daño se realiza analizando los resultados de distintos indicadores de daño obtenidos de la literatura. Para que este proceso sea automático y que no sean necesarios conocimientos previos sobre el método EMI para realizar un experimento, se ha diseñado e implementado un Interfaz Gráfico de Usuario, transformando la medición de impedancias en un proceso fácil e intuitivo. Se evalúa entonces el daño a través de los correspondientes índices de daño, intentando estimar no sólo su severidad, sino también su localización aproximada. El desarrollo de estos experimentos en cualquier estructura genera grandes cantidades de datos que han de ser procesados, y algunas veces los índices de daño no son suficientes para una evaluación completa de la integridad de una estructura. En la mayoría de los casos se pueden encontrar patrones de daño en los datos, pero no se tiene información a priori del estado de la estructura. En este punto, se ha hecho una importante investigación en técnicas de reconocimiento de patrones particularmente en aprendizaje no supervisado, encontrando aplicaciones interesantes en el campo de la medicina. De ahí surge una idea creativa e innovadora: detectar y seguir la evolución del daño en distintas estructuras como si se tratase de un cáncer propagándose por el cuerpo humano. En ese sentido, las lecturas de impedancias se emplean como información intrínseca de la salud de la propia estructura, de forma que se pueden aplicar las mismas técnicas que las empleadas en la investigación del cáncer. En este caso, se ha aplicado un algoritmo de clasificación jerárquica dado que ilustra además la clasificación de los datos de forma gráfica, incluyendo información cualitativa y cuantitativa sobre el daño. Se ha investigado la efectividad de este procedimiento a través de tres estructuras de laboratorio, como son una viga de aluminio, una unión atornillada de aluminio y un bloque de hormigón reforzado con FRP. La primera ayuda a mostrar la efectividad del método en sencillos escenarios de daño simple y múltiple, de forma que las conclusiones extraídas se aplican sobre los otros dos, diseñados para simular condiciones de despegue en distintas estructuras. Demostrada la efectividad del método de clasificación jerárquica de lecturas de impedancias, se aplica el procedimiento sobre las estructuras de hormigón armado reforzadas con bandas de FRP objeto de esta tesis, detectando y clasificando cada estado de daño. Finalmente, y como alternativa al anterior procedimiento, se propone un método para la monitorización continua de la interfase FRP-Hormigón, a través de una red de sensores FBG permanentemente instalados en dicha interfase. De esta forma, se obtienen medidas de deformación de la interfase en condiciones de carga continua, para ser implementadas en un modelo de optimización multiobjetivo, cuya solución se haya por medio de una expansión multiobjetivo del método Particle Swarm Optimization (PSO). La fiabilidad de este último método de detección se investiga a través de sendos ejemplos tanto numéricos como experimentales. ABSTRACT This thesis aims to develop robust and reliable damage identification methods focused on experimental structural systems, in particular Reinforced Concrete (RC) structures externally strengthened with Fiber Reinforced Polymers (FRP) strips. The failure mode of this type of structural system is critical, since it is usually due to sudden and brittle debonding of the FRP reinforcement originating from intermediate flexural cracks. Detection of the debonding in its initial stage is essential thus to prevent future failure, which might be catastrophic. Initially, a revision of the Electro-Mechanical Impedance (EMI) method is carried out, in order to expose its capabilities for local damage detection. Once the appropriate technology is selected, which includes impedance analyzer as well as novel PZT sensors for smart monitoring, an automated procedure has been design based on the impedance signatures of several lab-scale structures. On the basis that capturing impedance measurements is possible thanks to an adequately deployed PZT sensor network, the estimation of damage presence is done by analyzing the results of different damage indices obtained from the literature. In order to make this process automatic so that it is not necessary a priori knowledge of the EMI method to carry out an experimental test, a Graphical User Interface has been designed, turning the impedance measurements into an easy and intuitive procedure. Damage is then assessed through the analysis of the corresponding damage indices, trying to estimate not only the damage severity, but also its approximate location. The development of these tests on any kind of structure generates large amounts of data to be processed, and sometimes the information provided by damage indices is not enough to achieve a complete analysis of the structural health condition. In most of the cases, some damage patterns can be found in the data, but none a priori knowledge of the health condition is given for any structure. At this point, an important research on pattern recognition techniques has been carried out, particularly on unsupervised learning techniques, finding interesting applications in the medicine field. From this investigation, a creative and innovative idea arose: to detect and track the evolution of damage in different structures, as if it were a cancer propagating through a human body. In that sense, the impedance signatures are used to give intrinsic information of the health condition of the structure, so that the same clustering algorithms applied in the cancer research can be applied to the problem addressed in this dissertation. Hierarchical clustering is then applied since it also provides a graphical display of the clustered data, including quantitative and qualitative information about damage. The performance of this approach is firstly investigated using three lab-scale structures, such as a simple aluminium beam, a bolt-jointed aluminium beam and an FRP-strengthened concrete specimen. The first one shows the performance of the method on simple single and multiple damage scenarios, so that the first conclusions can be extracted and applied to the other two experimental tests, which are designed to simulate a debonding condition on different structures. Once the performance of the impedance-based hierarchical clustering method is proven to be successful, it is then applied to the structural system studied in this dissertation, the RC structures externally strengthened with FRP strips, where the debonding failure in the interface between the FRP and the concrete is successfully detected and classified, proving thus the feasibility of this method. Finally, as an alternative to the previous approach, a continuous monitoring procedure of the FRP-Concrete interface is proposed, based on an FBGsensors Network permanently deployed within that interface. In this way, strain measurements can be obtained under controlled loading conditions, and then they are used in order to implement a multi-objective model updating method solved by a multi-objective expansion of the Particle Swarm Optimization (PSO) method. The feasibility of this last proposal is investigated and successfully proven on both numerical and experimental RC beams strengthened with FRP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las exigencias de calidad, tanto en el ámbito de la rehabilitación como en el de las obras de nueva planta, obligan a evitar la fisuración de la tabiquería. Una de sus principales causas es la deformación excesiva de los forjados. Aunque en la mayoría de los casos no tiene efectos estructurales sino solamente estéticos, es necesario tomar precauciones para evitar la fisuración, pues es una de las patologías más frecuentes y en muchos casos motivo de reclamación de los usuarios. El aumento del consumo de los paneles de placa de yeso laminado y lana de roca para la realización de tabiquerías, justifica la necesidad de ahondar en el conocimiento del comportamiento y del mecanismo de fisuración de este material, pues hasta la fecha no se ha encontrado ningún trabajo especificamente dedicado al estudio del comportamiento en fractura de paneles sandwich de placa de yeso laminado y lana de roca en su plano. A la hora de abordar el estudio del comportamiento en fractura del material objeto de esta tesis, es preciso tener en cuenta que se trata de un material compuesto y, como tal, sus propiedades mecánicas y resistentes dependen en gran medida de las de sus componentes. Por tanto, para poder explicar el comportamiento en fractura del panel sandwich, habrá que estudiar también el de sus componentes. Por otro lado, se considera también muy útil disponer de una herramienta de calculo para la simulación de la fractura de paneles sandwich que sea predictiva. Este modelo hará posible facilitar el diseño de tabiquerías que no se fisure con este material, al poder relacionar las flechas que pueden tomar los forjados con su potencial fisuración. Para contrastar y validar un modelo de este tipo, es necesario disponer de suficientes datos experimentales del comportamiento en fractura del panel sandwich de placa de yeso laminado y lana de roca, que se puedan simular numericamente con el mismo. A partir de lo anteriormente expuesto se plantea, en primer lugar, una campaña experimental con el fin de obtener los parámetros necesarios para caracterizar el comportamiento en fractura de los paneles sandwich y sus componentes: placa de yeso laminado y lana de roca, estudiando también, su comportamiento en fractura en Modo Mixto, y el efecto del tamaño en los parámetros del panel. Por otro lado se propone un modelo de cálculo para la simulación de la fractura en Modo Mixto de paneles sandwich de placa de yeso laminado y lana de roca, comprobando la validez del modelo numérico a partir de los resultados experimentales obtenidos en la campaña de ensayos. Finalmente, se aplica el modelo para estudiar la fisuración de tabiquería realizada con el panel sandwich producida por la deformación de forjados unidireccionales realizados con viguetas de hormigón y bovedilla cerámica, por ser esta tipología la más usual en obras de edificación de viviendas. The quality requirements in terms of rehabilitation and new Works, force to prevent cracking on partitions and one of the main causes is the excessive deformation of the floor. In most of the cases, there are any structural damages, only aesthetic effects, but it is necessary to take precautions to avoid cracking because it is one of the most common diseases and in addition is the main reason of user’s complaints. The increased consumption of plasterboard panels and mineral wool used to build partitions, justifies the need to develop a deeper understanding of the cracking behaviour and mechanism, because by now, any specifically work dedicated to the study of fractures behaviour of sandwich plasterboard panels and rock wool has been found. When approaching the study of the fracture behaviour of the material it must bear in mind that we are referring to a composite material and as such, its mechanical and strength properties depend heavily on its components. Therefore, to explain the fracture behaviour of sandwich panels its components must be studied as well. On the other hand, it is also considered very useful to have a calculation tool to simulate the more likely fractures of the sandwich panel in order to predict it. This model used to perform simulations will enable the design of partitions built with these materials without cracks because it will relate the deflections in decks with its potential cracking. To contrast and validate this type of model, it is necessary and imperative to have enough experimental data of the sandwich plasterboard and rock wool fractures in order to enable its numerical simulation with it. On the basis of the above, the question arises firstly an experimental campaign in order to obtain the necessary parameters to characterize the cracking behaviour of sandwich panels and its components: plasterboard and rock wool, studying also its cracking behaviour in a mixed mode fracture and the effect of size parameters of the panel. Furthermore, a calculation model to simulate fractures in mixed mode of the sandwich panels made of plasterboard and rock wool is proposed in order to check the validity of the numerical model, based on experimental results obtained from the test campaign. Finally, this model is applied to study cracking on partitions built with sandwich panels resulting from the unidirectional floor’s deformations built with prestressed concrete beams and slab pottery pieces being this typology the most common one on residential buildings works.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta investigación se ha estudiado el efecto de la variación de la temperatura en la deflexión de firmes flexibles. En primer lugar se han recopilado los criterios existentes de ajuste de la deflexión por efecto de la temperatura. Posteriormente, se ha llevado a cabo un estudio empírico mediante la auscultación de las deflexiones en cinco tramos de carretera con firme flexible y con diferentes espesores de mezclas bituminosas (entre 10 y 30 cm). Las medidas se han efectuado en dos campañas (verano e invierno), tratando de abarcar un amplio rango de temperaturas. En cada campaña, se han llevado a cabo distintas auscultaciones a diferentes temperaturas. Las medidas de cada campaña se han realizado el mismo día. Se han obtenido los coeficientes empíricos de ajuste por temperatura para cada tramo analizado. Además, se ha realizado un estudio teórico mediante la elaboración de diferentes modelos (multicapa elástico lineal, multicapa visco-elástico lineal y elementos finitos) que reproducen la respuesta estructural de los firmes flexibles auscultados. La caracterización mecánica de las mezclas bituminosas se ha realizado mediante ensayos de módulo complejo en laboratorio, a diferentes temperaturas y frecuencias, sobre testigos extraídos en las carreteras estudiadas. Se han calculado los coeficientes teóricos de ajuste por temperatura para cada modelo elaborado y tramo analizado. Finalmente, se ha realizado un estudio comparativo entre los distintos coeficientes de ajuste (existentes, empíricos y teóricos), que ha puesto de manifiesto que, en todos los casos analizados, los coeficientes obtenidos en el modelo de elementos finitos son los que más se aproximan a los coeficientes empíricos (valor de referencia para los tramos analizados). El modelo desarrollado de elementos finitos permite reproducir el comportamiento visco-elástico de las mezclas bituminosas y el carácter dinámico de las cargas aplicadas. Se han utilizado elementos tipo tetraedro isoparamétrico lineal (C3D8R) para el firme y la parte superior del cimiento, mientras que para la parte inferior se han empleado elementos infinitos (CIN3D8). In this research the effect produced by the temperature change on flexible pavements deflection is analysed. First, the existing criteria of deflection adjustment by temperature were collected. Additionally, an empirical analysis was carried out, consisting on deflection tests in five flexible-pavement road sections with different asphalt mix thickness (from 10 to 30 cm). The measures were taken in two seasons (summer and winter) in an effort to register a wide range of temperatures. Different surveys were carried out at different temperatures in each season. The tests of each season were done at the same day. The empirical temperature adjustment factors for every analysed section were obtained. A theoretical study was carried out by developing different models (linear elastic multilayer, linear visco-elastic multilayer and finite elements) that reproduce the structural response of the tested flexible pavements. The mechanical characterization of the asphalt mixes was achieved through laboratory complex-modulus tests at different temperatures and frequencies, using pavement cores from the surveyed roads. The theoretical temperature adjustment factors for each model developed and each section analysed were calculated. Finally, a comparative study among the different adjustment factors (existing, empirical and theoretical) was carried out. It has shown that, in all analysed cases, the factors obtained with the finite elements model are the closest to the empirical factors (reference value for the analysed sections). The finite elements model developed makes it possible to reproduce the visco-elastic behavior of the asphalt mixes and the dynamic nature of the applied loads. Linear isoparametric tetrahedral elements (C3D8R) have been used for the pavement and the subgrade, while infinite elements (CIN3D8) have been used for the foundations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el laboratorio de Acústica y Vibraciones de la ETS de Arquitectura UPM se ha construido una cámara de transmisión vertical de dimensiones reducidas con fines de investigación y docencia. Dispone de una abertura de ensayo de área 7,5 m2, sobre la que se ha instalado una losa de hormigón de 140 mm de espesor. Los volúmenes de las salas superior e inferior son 13,2 m3 y 11,8 m3 respectivamente. En este trabajo se muestran los ensayos realizados en la caracterización de la cámara siguiendo las directrices generales indicadas en las Normas UNE-EN ISO 10140-3 y 5: 2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La utilización de barras corrugadas de acero inoxidable en estructuras de hormigón armado, se está mostrando como una alternativa con gran futuro en estructuras expuestas a ambientes muy agresivos o que requieran vidas en servicio muy elevadas. Estos aceros inoxidables cuentan con similares propiedades mecánicas que los aceros al carbono pero un comportamiento muy mejorado frente a la corrosión, especialmente frente a cloruros. Dentro de los aceros inoxidables, los del tipo dúplex tienen como ventaja una composición con una cantidad menor de níquel, reduciendo de esta manera el coste de estos y haciendo que su precio dependa menos de las fluctuaciones del precio del níquel. Este trabajo estudia la resistencia frente a la corrosión bajo tensión de estos aceros inoxidables del tipo dúplex (AISI 2001 y AISI 2205). The use of stainless steel reinforcing bars in concrete structures is proving to be an alternative with great future in structures exposed to aggressive environments or that are required to perform very long service lives. These steels have similar mechanical properties as carbon steels but very improved corrosion resistance, particularly against chlorides. Within stainless steels, duplex type ones have as an advantage their lower content of nickel in their composition, reducing this way their price and making it less related to nickel price fluctuations. This project will study stress corrosion cracking behavior for some of these duplex stainless steels (AISI 2001 and AISI 2205)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El agotamiento, la ausencia o, simplemente, la incertidumbre sobre la cantidad de las reservas de combustibles fósiles se añaden a la variabilidad de los precios y a la creciente inestabilidad en la cadena de aprovisionamiento para crear fuertes incentivos para el desarrollo de fuentes y vectores energéticos alternativos. El atractivo de hidrógeno como vector energético es muy alto en un contexto que abarca, además, fuertes inquietudes por parte de la población sobre la contaminación y las emisiones de gases de efecto invernadero. Debido a su excelente impacto ambiental, la aceptación pública del nuevo vector energético dependería, a priori, del control de los riesgos asociados su manipulación y almacenamiento. Entre estos, la existencia de un innegable riesgo de explosión aparece como el principal inconveniente de este combustible alternativo. Esta tesis investiga la modelización numérica de explosiones en grandes volúmenes, centrándose en la simulación de la combustión turbulenta en grandes dominios de cálculo en los que la resolución que es alcanzable está fuertemente limitada. En la introducción, se aborda una descripción general de los procesos de explosión. Se concluye que las restricciones en la resolución de los cálculos hacen necesario el modelado de los procesos de turbulencia y de combustión. Posteriormente, se realiza una revisión crítica de las metodologías disponibles tanto para turbulencia como para combustión, que se lleva a cabo señalando las fortalezas, deficiencias e idoneidad de cada una de las metodologías. Como conclusión de esta investigación, se obtiene que la única estrategia viable para el modelado de la combustión, teniendo en cuenta las limitaciones existentes, es la utilización de una expresión que describa la velocidad de combustión turbulenta en función de distintos parámetros. Este tipo de modelos se denominan Modelos de velocidad de llama turbulenta y permiten cerrar una ecuación de balance para la variable de progreso de combustión. Como conclusión también se ha obtenido, que la solución más adecuada para la simulación de la turbulencia es la utilización de diferentes metodologías para la simulación de la turbulencia, LES o RANS, en función de la geometría y de las restricciones en la resolución de cada problema particular. Sobre la base de estos hallazgos, el crea de un modelo de combustión en el marco de los modelos de velocidad de la llama turbulenta. La metodología propuesta es capaz de superar las deficiencias existentes en los modelos disponibles para aquellos problemas en los que se precisa realizar cálculos con una resolución moderada o baja. Particularmente, el modelo utiliza un algoritmo heurístico para impedir el crecimiento del espesor de la llama, una deficiencia que lastraba el célebre modelo de Zimont. Bajo este enfoque, el énfasis del análisis se centra en la determinación de la velocidad de combustión, tanto laminar como turbulenta. La velocidad de combustión laminar se determina a través de una nueva formulación capaz de tener en cuenta la influencia simultánea en la velocidad de combustión laminar de la relación de equivalencia, la temperatura, la presión y la dilución con vapor de agua. La formulación obtenida es válida para un dominio de temperaturas, presiones y dilución con vapor de agua más extenso de cualquiera de las formulaciones previamente disponibles. Por otra parte, el cálculo de la velocidad de combustión turbulenta puede ser abordado mediante el uso de correlaciones que permiten el la determinación de esta magnitud en función de distintos parámetros. Con el objetivo de seleccionar la formulación más adecuada, se ha realizado una comparación entre los resultados obtenidos con diversas expresiones y los resultados obtenidos en los experimentos. Se concluye que la ecuación debida a Schmidt es la más adecuada teniendo en cuenta las condiciones del estudio. A continuación, se analiza la importancia de las inestabilidades de la llama en la propagación de los frentes de combustión. Su relevancia resulta significativa para mezclas pobres en combustible en las que la intensidad de la turbulencia permanece moderada. Estas condiciones son importantes dado que son habituales en los accidentes que ocurren en las centrales nucleares. Por ello, se lleva a cabo la creación de un modelo que permita estimar el efecto de las inestabilidades, y en concreto de la inestabilidad acústica-paramétrica, en la velocidad de propagación de llama. El modelado incluye la derivación matemática de la formulación heurística de Bauwebs et al. para el cálculo de la incremento de la velocidad de combustión debido a las inestabilidades de la llama, así como el análisis de la estabilidad de las llamas con respecto a una perturbación cíclica. Por último, los resultados se combinan para concluir el modelado de la inestabilidad acústica-paramétrica. Tras finalizar esta fase, la investigación se centro en la aplicación del modelo desarrollado en varios problemas de importancia para la seguridad industrial y el posterior análisis de los resultados y la comparación de los mismos con los datos experimentales correspondientes. Concretamente, se abordo la simulación de explosiones en túneles y en contenedores, con y sin gradiente de concentración y ventilación. Como resultados generales, se logra validar el modelo confirmando su idoneidad para estos problemas. Como última tarea, se ha realizado un analisis en profundidad de la catástrofe de Fukushima-Daiichi. El objetivo del análisis es determinar la cantidad de hidrógeno que explotó en el reactor número uno, en contraste con los otros estudios sobre el tema que se han centrado en la determinación de la cantidad de hidrógeno generado durante el accidente. Como resultado de la investigación, se determinó que la cantidad más probable de hidrogeno que fue consumida durante la explosión fue de 130 kg. Es un hecho notable el que la combustión de una relativamente pequeña cantidad de hidrogeno pueda causar un daño tan significativo. Esta es una muestra de la importancia de este tipo de investigaciones. Las ramas de la industria para las que el modelo desarrollado será de interés abarca la totalidad de la futura economía de hidrógeno (pilas de combustible, vehículos, almacenamiento energético, etc) con un impacto especial en los sectores del transporte y la energía nuclear, tanto para las tecnologías de fisión y fusión. ABSTRACT The exhaustion, absolute absence or simply the uncertainty on the amount of the reserves of fossil fuels sources added to the variability of their prices and the increasing instability and difficulties on the supply chain are strong incentives for the development of alternative energy sources and carriers. The attractiveness of hydrogen in a context that additionally comprehends concerns on pollution and emissions is very high. Due to its excellent environmental impact, the public acceptance of the new energetic vector will depend on the risk associated to its handling and storage. Fromthese, the danger of a severe explosion appears as the major drawback of this alternative fuel. This thesis investigates the numerical modeling of large scale explosions, focusing on the simulation of turbulent combustion in large domains where the resolution achievable is forcefully limited. In the introduction, a general description of explosion process is undertaken. It is concluded that the restrictions of resolution makes necessary the modeling of the turbulence and combustion processes. Subsequently, a critical review of the available methodologies for both turbulence and combustion is carried out pointing out their strengths and deficiencies. As a conclusion of this investigation, it appears clear that the only viable methodology for combustion modeling is the utilization of an expression for the turbulent burning velocity to close a balance equation for the combustion progress variable, a model of the Turbulent flame velocity kind. Also, that depending on the particular resolution restriction of each problem and on its geometry the utilization of different simulation methodologies, LES or RANS, is the most adequate solution for modeling the turbulence. Based on these findings, the candidate undertakes the creation of a combustion model in the framework of turbulent flame speed methodology which is able to overcome the deficiencies of the available ones for low resolution problems. Particularly, the model utilizes a heuristic algorithm to maintain the thickness of the flame brush under control, a serious deficiency of the Zimont model. Under the approach utilized by the candidate, the emphasis of the analysis lays on the accurate determination of the burning velocity, both laminar and turbulent. On one side, the laminar burning velocity is determined through a newly developed correlation which is able to describe the simultaneous influence of the equivalence ratio, temperature, steam dilution and pressure on the laminar burning velocity. The formulation obtained is valid for a larger domain of temperature, steam dilution and pressure than any of the previously available formulations. On the other side, a certain number of turbulent burning velocity correlations are available in the literature. For the selection of the most suitable, they have been compared with experiments and ranked, with the outcome that the formulation due to Schmidt was the most adequate for the conditions studied. Subsequently, the role of the flame instabilities on the development of explosions is assessed. Their significance appears to be of importance for lean mixtures in which the turbulence intensity remains moderate. These are important conditions which are typical for accidents on Nuclear Power Plants. Therefore, the creation of a model to account for the instabilities, and concretely, the acoustic parametric instability is undertaken. This encloses the mathematical derivation of the heuristic formulation of Bauwebs et al. for the calculation of the burning velocity enhancement due to flame instabilities as well as the analysis of the stability of flames with respect to a cyclic velocity perturbation. The results are combined to build a model of the acoustic-parametric instability. The following task in this research has been to apply the model developed to several problems significant for the industrial safety and the subsequent analysis of the results and comparison with the corresponding experimental data was performed. As a part of such task simulations of explosions in a tunnel and explosions in large containers, with and without gradient of concentration and venting have been carried out. As a general outcome, the validation of the model is achieved, confirming its suitability for the problems addressed. As a last and final undertaking, a thorough study of the Fukushima-Daiichi catastrophe has been carried out. The analysis performed aims at the determination of the amount of hydrogen participating on the explosion that happened in the reactor one, in contrast with other analysis centered on the amount of hydrogen generated during the accident. As an outcome of the research, it was determined that the most probable amount of hydrogen exploding during the catastrophe was 130 kg. It is remarkable that the combustion of such a small quantity of material can cause tremendous damage. This is an indication of the importance of these types of investigations. The industrial branches that can benefit from the applications of the model developed in this thesis include the whole future hydrogen economy, as well as nuclear safety both in fusion and fission technology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La motivación principal de este trabajo fin de máster es el estudio del comportamiento en rotura de un material metálico muy dúctil como es una aleación de aluminio. El conocimiento del comportamiento de los materiales en su régimen plástico es muy valioso, puesto que el concepto de ductilidad de un material está relacionado directamente con la seguridad de una estructura. Un material dúctil es aquel que resiste estados tensionales elevados y alcanza altos niveles de deformación, siendo capaz de absorber gran cantidad de energía antes de su rotura y permitiendo una redistribución de esfuerzos entre elementos estructurales. Por tanto, la utilización de materiales dúctiles en el mundo de la construcción supone en general un incremento de la seguridad estructural por su “capacidad de aviso”, es decir, la deformación que estos materiales experimentan antes de su rotura. Al contrario que los materiales frágiles, que carecen de esta capacidad de aviso antes de su rotura, produciéndose ésta de forma repentina y sin apenas deformación previa. En relación a esto, el ensayo de tracción simple se considera una de las técnicas más sencillas y utilizadas en la caracterización de materiales metálicos, puesto que a partir de la curva fuerza-desplazamiento que este ensayo proporciona, permite obtener de forma precisa la curva tensión-deformación desde el instante de carga máxima. No obstante, existen dificultades para la definición del comportamiento del material desde el instante de carga máxima hasta rotura, lo que provoca que habitualmente no se considere este último tramo de la curva tensión-deformación cuando, tal y como sabemos, contiene una información muy importante y valiosa. Y es que, este último tramo de la curva tensión-deformación es primordial a la hora de determinar la energía máxima que un elemento es capaz de absorber antes de su rotura, aspecto elemental, por ejemplo para conocer si una rotura ha sido accidental o intencionada. Por tanto, el tramo final de la curva tensión-deformación proporciona información muy interesante sobre el comportamiento del material frente a situaciones límite de carga. El objetivo por tanto va a ser continuar con el trabajo realizado por el doctor Ingeniero de Caminos, Canales y Puertos, Fernando Suárez Guerra, el cual estudió en su Tesis Doctoral el comportamiento en rotura de dos materiales metálicos como son, un Material 1: acero perlítico empleado en la fabricación de alambres de pretensado, y un Material 2: acero tipo B 500 SD empleado como armadura pasiva en hormigón armado. Estos materiales presentan un comportamiento a rotura claramente diferenciado, siendo más dúctil el Material 2 que el Material 1. Tomando como partida esta Tesis Doctoral, este Trabajo Fin de Máster pretende continuar con el estudio del comportamiento en rotura de un material metálico mucho más dúctil que los experimentados anteriormente, como es el aluminio. Analizando el último tramo de la curva tensión-deformación, que corresponde al tramo entre el instante de carga máxima y el de rotura del material. Atendiendo a los mecanismos de rotura de un material metálico, es necesario distinguir dos comportamientos distintos. Uno que corresponde a una rotura en forma de copa y cono, y otro que corresponde a una superficie de rotura plana perpendicular a la dirección de aplicación de la carga.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La combinación de nuevos materiales para lograr una mejoría en las propiedades del mortero y del hormigón, ha dado impulso al desarrollo de muchas investigaciones en la actualidad. La lucha por lograr materiales resistentes y durables es hoy en día el objetivo principal de los investigadores de materiales. La variación en las dosificaciones, la sustitución de materiales, la utilización de adiciones, nanopartículas y fibras, entre otras, son novedades que antes eran impensables en el mundo del hormigón. El presente trabajo enmarcado dentro de un Trabajo Fin de Máster, pretende evaluar el efecto de la adición simultánea de Humo de Sílice y Nanosílice en morteros, a nivel microestructural y macroestructural, las adiciones se suministrarán en porcentajes variables respecto del peso del cemento y comparando con un mortero de referencia sin adiciones. Para poder realizar estas comparaciones se ha diseñado una campaña experimental que engloba ensayos a nivel microestructural, refiriéndose a porosimetría por intrusión de mercurio (PIM) y análisis térmico diferencial (ATD), y a nivel macroestructural la evaluación de resistencias a flexo-tracción y compresión respectivamente. Finalmente se ha realizado un análisis de los resultados, se han planteado las conclusiones y las propuestas para trabajos futuros.