822 resultados para Daño estructural


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Una de las barreras para la aplicación de las técnicas de monitorización de la integridad estructural (SHM) basadas en ondas elásticas guiadas (GLW) en aeronaves es la influencia perniciosa de las condiciones ambientales y de operación (EOC). En esta tesis se ha estudiado dicha influencia y la compensación de la misma, particularizando en variaciones del estado de carga y temperatura. La compensación de dichos efectos se fundamenta en Redes Neuronales Artificiales (ANN) empleando datos experimentales procesados con la Transformada Chirplet. Los cambios en la geometría y en las propiedades del material respecto al estado inicial de la estructura (lo daños) provocan cambios en la forma de onda de las GLW (lo que denominamos característica sensible al daño o DSF). Mediante técnicas de tratamiento de señal se puede buscar una relación entre dichas variaciones y los daños, esto se conoce como SHM. Sin embargo, las variaciones en las EOC producen también cambios en los datos adquiridos relativos a las GLW (DSF) que provocan errores en los algoritmos de diagnóstico de daño (SHM). Esto sucede porque las firmas de daño y de las EOC en la DSF son del mismo orden. Por lo tanto, es necesario cuantificar y compensar el efecto de las EOC sobre la GLW. Si bien existen diversas metodologías para compensar los efectos de las EOC como por ejemplo “Optimal Baseline Selection” (OBS) o “Baseline Signal Stretching” (BSS), estas, se emplean exclusivamente en la compensación de los efectos térmicos. El método propuesto en esta tesis mezcla análisis de datos experimentales, como en el método OBS, y modelos basados en Redes Neuronales Artificiales (ANN) que reemplazan el modelado físico requerido por el método BSS. El análisis de datos experimentales consiste en aplicar la Transformada Chirplet (CT) para extraer la firma de las EOC sobre la DSF. Con esta información, obtenida bajo diversas EOC, se entrena una ANN. A continuación, la ANN actuará como un interpolador de referencias de la estructura sin daño, generando información de referencia para cualquier EOC. La comparación de las mediciones reales de la DSF con los valores simulados por la ANN, dará como resultado la firma daño en la DSF, lo que permite el diagnóstico de daño. Este esquema se ha aplicado y verificado, en diversas EOC, para una estructura unidimensional con un único camino de daño, y para una estructura representativa de un fuselaje de una aeronave, con curvatura y múltiples elementos rigidizadores, sometida a un estado de cargas complejo, con múltiples caminos de daños. Los efectos de las EOC se han estudiado en detalle en la estructura unidimensional y se han generalizado para el fuselaje, demostrando la independencia del método respecto a la configuración de la estructura y el tipo de sensores utilizados para la adquisición de datos GLW. Por otra parte, esta metodología se puede utilizar para la compensación simultánea de una variedad medible de EOC, que afecten a la adquisición de datos de la onda elástica guiada. El principal resultado entre otros, de esta tesis, es la metodología CT-ANN para la compensación de EOC en técnicas SHM basadas en ondas elásticas guiadas para el diagnóstico de daño. ABSTRACT One of the open problems to implement Structural Health Monitoring techniques based on elastic guided waves in real aircraft structures at operation is the influence of the environmental and operational conditions (EOC) on the damage diagnosis problem. This thesis deals with the compensation of these environmental and operational effects, specifically, the temperature and the external loading, by the use of the Chirplet Transform working with Artificial Neural Networks. It is well known that the guided elastic wave form is affected by the damage appearance (what is known as the damage sensitive feature or DSF). The DSF is modified by the temperature and by the load applied to the structure. The EOC promotes variations in the acquired data (DSF) and cause mistakes in damage diagnosis algorithms. This effect promotes changes on the waveform due to the EOC variations of the same order than the damage occurrence. It is difficult to separate both effects in order to avoid damage diagnosis mistakes. Therefore it is necessary to quantify and compensate the effect of EOC over the GLW forms. There are several approaches to compensate the EOC effects such as Optimal Baseline Selection (OBS) or Baseline Signal Stretching (BSS). Usually, they are used for temperature compensation. The new method proposed here mixes experimental data analysis, as in the OBS method, and Artificial Neural Network (ANN) models to replace the physical modelling which involves the BSS method. The experimental data analysis studied is based on apply the Chirplet Transform (CT) to extract the EOC signature on the DSF. The information obtained varying EOC is employed to train an ANN. Then, the ANN will act as a baselines interpolator of the undamaged structure. The ANN generates reference information at any EOC. By comparing real measurements of the DSF against the ANN simulated values, the damage signature appears clearly in the DSF, enabling an accurate damage diagnosis. This schema has been applied in a range of EOC for a one-dimensional structure containing single damage path and two dimensional real fuselage structure with stiffener elements and multiple damage paths. The EOC effects tested in the one-dimensional structure have been generalized to the fuselage showing its independence from structural arrangement and the type of sensors used for GLW data acquisition. Moreover, it can be used for the simultaneous compensation of a variety of measurable EOC, which affects the guided wave data acquisition. The main result, among others, of this thesis is the CT-ANN methodology for the compensation of EOC in GLW based SHM technique for damage diagnosis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesis analiza la mejora de la resistencia estructural ante vuelco de autocares enfocando dos vías de actuación: análisis y propuestas de requisitos reglamentarios a nivel europeo y la generación de herramientas que ayuden al diseño y a la verificación de estos requisitos. Los requisitos reglamentarios de resistencia estructural a vuelco contemplan la superestructura de los vehículos pero no para los asientos y sistemas de retención. La influencia de los pasajeros retenidos es superior a la incluida en reglamentación (Reg. 66.01) debiendo considerarse unida al vehículo un porcentaje de la masa de los pasajeros del 91% para cinturón de tres puntos y del 52% para cinturón subabdominal frente al 50% reglamentario para todos los casos. Se ha determinado la cinemática y dinámica del vuelco normativo en sus diferentes fases, formulando las energías en las fases iniciales (hasta el impacto contra el suelo) y determinando la fase final de deformación a través del análisis secuencial de ensayos de módulos reales. Se han determinado los esfuerzos para los asientos que se dividen en dos fases diferenciadas temporalmente: una primera debida a la deformación estructural y una segunda debida al esfuerzo del pasajero retenido que se produce en sentido opuesto (con una deceleración del pasajero en torno a 3.3 g). Se ha caracterizado a través de ensayos cuasi.estáticos el comportamiento de perfiles a flexión y de las uniones estructurales de las principales zonas del vehículo (piso, ventana y techo) verificándose la validez del comportamiento plástico teórico Kecman.García para perfiles de hasta 4 mm de espesor y caracterizando la resistencia y rigidez en la zona elástica de las uniones en función del tipo de refuerzo, materiales y perfiles (análisis de más de 180 probetas). Se ha definido un método de ensayo cuasi.estático para asientos ante esfuerzos de vuelco, ensayándose 19 butacas y determinándose que son resistentes (salvo las uniones a vehículo con pinzas), que son capaces de absorber hasta más de un 17% de la energía absorbida, aunque algunos necesitan optimización para llegar a contribuir en el mecanismo de deformación estructural. Se han generado modelos simplificados para introducir en los modelos barra.rótula plástica: un modelo combinado unión+rótula plástica (que incluye la zona de rigidez determinada en función del tipo de unión) para la superestructura y un modelo simplificado de muelles no.lineales para los asientos. Igualmente se ha generado la metodología de diseño a través de ensayos virtuales con modelos de detalle de elementos finitos tanto de las uniones como de los asientos. Se ha propuesto una metodología de diseño basada en obtener el “mecanismo óptimo de deformación estructural” (elevando la zona de deformación lateral a nivel de ventana y en pilar o en costilla en techo). Para ello se abren dos vías: diseño de la superestructura (selección de perfiles y generación de uniones resistentes) o combinación con asientos (que en lugar de solo resistir las cargas pueden llegar a modificar el mecanismo de deformación). Se ha propuesto una metodología de verificación alternativa al vuelco de vehículo completo que contempla el cálculo cuasi.estático con modelos simplificados barra.rótula plástica más el ensayo de una sección representativa con asientos y utillajes antropomórficos retenidos que permite validar el diseño de las uniones, determinar el porcentaje de energía que debe absorberse por deformación estructural (factor C) y verificar el propio asiento como sistema de retención. ABSTRACT This research analyzes the improvement of the structural strength of buses and coaches under rollover from two perspectives: regulatory requirements at European level and generation of tools that will help to the design and to the verification of requirements. European Regulations about rollover structural strength includes requirements for the superstructure of the vehicles but not about seats, anchorages and restraint systems. The influence of the retained passengers is higher than the one included currently in the Regulations (Reg. 66.01), being needed to consider a 91% of the passenger mass as rigidly joint to the vehicle (for 3 points’ belt, a 52% for 2 points’ belt) instead of the 50% included in the Regulation. Kinematic and dynamic of the normative rollover has been determined from testing of different sections, formulating the energies of the first phases (up to the first impact with the ground) and determining the last deformation phase through sequential analysis of movements and deformations. The efforts due to rollover over the seats have been established, being divided in two different temporal phases: a first one due to the structural deformation of the vehicle and a second one due to the effort of the restrained passenger being this second one in opposite sense (with a passenger deceleration around 3.3 g). From quasi.static testing, the behavior of the structural tubes under flexural loads, including the principal joints in the vehicle (floor, window and roof), the validity of the theoretical plastic behavior according Kecman.García theories have been verified up to 4 mm of thickness. Strength of the joints as well as the stiffness of the elastic zone has been determined in function of main parameters: type of reinforcement, materials and section of the tubes (more than 180 test specimens). It has been defined a quasi.static testing methodology to characterize the seats and restrain system behavior under rollover, testing 19 double seats and concluding that they are resistant (excepting clamping joints), that they can absorb more than a 17 of the absorbed energy, and that some of them need optimization to contribute in the structural deformation mechanism. It has been generated simplified MEF models, to analyze in a beam.plastic hinge model: a combined model joint+plastic hinge (including the stiffness depending on the type of joint) for the superstructure and a simplified model with non.lineal springs to represent the seats. It has been detailed methodologies for detailed design of joints and seats from virtual testing (MEF models). A design methodology based in the “optimized structural deformation mechanism” (increasing the height of deformation of the lateral up to window level) is proposed. Two possibilities are analyzed: design of the superstructure based on the selection of profiles and design of strength joints (were seats only resist the efforts and contribute in the energy absorption) or combination structure.seats, were seats contributes in the deformation mechanism. An alternative methodology to the rollover of a vehicle that includes the quasi.static calculation with simplified models “beam.joint+plastic hinge” plus the testing of a representative section of the vehicle including seats and anthropomorphic ballast restrained by the safety belts is presented. The test of the section allows validate the design of the joints, determine the percentage of energy to be absorbed by structural deformation (factor C) and verify the seat as a retention system.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los fenómenos dinámicos pueden poner en peligro la integridad de estructuras aeroespaciales y los ingenieros han desarrollado diferentes estrategias para analizarlos. Uno de los grandes problemas que se plantean en la ingeniería es cómo atacar un problema dinámico estructural. En la presente tesis se plantean distintos fenómenos dinámicos y se proponen métodos para estimar o simular sus comportamientos mediante un análisis paramétrico determinista y aleatorio del problema. Se han propuesto desde problemas sencillos con pocos grados de libertad que sirven para analizar las diferentes estrategias y herramientas a utilizar, hasta fenómenos muy dinámicos que contienen comportamientos no lineales, daños y fallos. Los primeros ejemplos de investigación planteados cubren una amplia gama de los fenómenos dinámicos, como el análisis de vibraciones de elementos másicos, incluyendo impactos y contactos, y el análisis de una viga con carga armónica aplicada a la que también se le añaden parámetros aleatorios que pueden responder a un desconocimiento o incertidumbre de los mismos. Durante el desarrollo de la tesis se introducen conceptos y se aplican distintos métodos, como el método de elementos finitos (FEM) en el que se analiza su resolución tanto por esquemas implícitos como explícitos, y métodos de análisis paramétricos y estadísticos mediante la técnica de Monte Carlo. Más adelante, una vez ya planteadas las herramientas y estrategias de análisis, se estudian fenómenos más complejos, como el impacto a baja velocidad en materiales compuestos, en el que se busca evaluar la resistencia residual y, por lo tanto, la tolerancia al daño de la estructura. Se trata de un suceso que puede producirse por la caída de herramienta, granizo o restos en la pista de aterrizaje. Otro de los fenómenos analizados también se da en un aeropuerto y se trata de la colisión con un dispositivo frangible, el cual tiene que romperse bajo ciertas cargas y, sin embargo, soportar otras. Finalmente, se aplica toda la metodología planteada en simular y analizar un posible incidente en vuelo, el fenómeno de la pérdida de pala de un turbohélice. Se trata de un suceso muy particular en el que la estructura tiene que soportar unas cargas complejas y excepcionales con las que la aeronave debe ser capaz de completar con éxito el vuelo. El análisis incluye comportamientos no lineales, daños, y varios tipos de fallos, y en el que se trata de identificar los parámetros clave en la secuencia del fallo. El suceso se analiza mediante análisis estructurales deterministas más habituales y también mediante otras técnicas como el método de Monte Carlo con el que se logran estudiar distintas incertidumbres en los parámetros con variables aleatorias. Se estudian, entre otros, el tamaño de pala perdida, la velocidad y el momento en el que se produce la rotura, y la rigidez y resistencia de los apoyos del motor. Se tiene en cuenta incluso el amortiguamiento estructural del sistema. Las distintas estrategias de análisis permiten obtener unos resultados valiosos e interesantes que han sido objeto de distintas publicaciones. ABSTRACT Dynamic phenomena can endanger the integrity of aerospace structures and, consequently, engineers have developed different strategies to analyze them. One of the major engineering problems is how to deal with the structural dynamics. In this thesis, different dynamic phenomena are introduced and several methods are proposed to estimate or simulate their behaviors. The analysis is considered through parametric, deterministic and statistical methods. The suggested issues are from simple problems with few degrees of freedom, in order to develop different strategies and tools to solve them, to very dynamic phenomena containing nonlinear behaviors failures, damages. The first examples cover a wide variety of dynamic phenomena such as vibration analysis of mass elements, including impacts and contacts, and beam analysis with harmonic load applied, in which random parameters are included. These parameters can represent the unawareness or uncertainty of certain variables. During the development of the thesis several concepts are introduced and different methods are applied, such as the finite element method (FEM), which is solved through implicit and explicit schemes, and parametrical and statistical methods using the Monte Carlo analysis technique. Next, once the tools and strategies of analysis are set out more complex phenomena are studied. This is the case of a low-speed impact in composite materials, the residual strength of the structure is evaluated, and therefore, its damage tolerance. This incident may occur from a tool dropped, hail or debris throw on the runway. At an airport may also occur, and it is also analyzed, a collision between an airplane and a frangible device. The devise must brake under these loads, however, it must withstand others. Finally, all the considered methodology is applied to simulate and analyze a flight incident, the blade loss phenomenon of a turboprop. In this particular event the structure must support complex and exceptional loads and the aircraft must be able to successfully complete the flight. Nonlinear behavior, damage, and different types of failures are included in the analysis, in which the key parameters in the failure sequence are identified. The incident is analyzed by deterministic structural analysis and also by other techniques such as Monte Carlo method, in which it is possible to include different parametric uncertainties through random variables. Some of the evaluated parameters are, among others, the blade loss size, propeller rotational frequency, speed and angular position where the blade is lost, and the stiffness and strength of the engine mounts. The study does also research on the structural damping of the system. The different strategies of analysis obtain valuable and interesting results that have been already published.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El daño cerebral adquirido (DCA) es un problema social y sanitario grave, de magnitud creciente y de una gran complejidad diagnóstica y terapéutica. Su elevada incidencia, junto con el aumento de la supervivencia de los pacientes, una vez superada la fase aguda, lo convierten también en un problema de alta prevalencia. En concreto, según la Organización Mundial de la Salud (OMS) el DCA estará entre las 10 causas más comunes de discapacidad en el año 2020. La neurorrehabilitación permite mejorar el déficit tanto cognitivo como funcional y aumentar la autonomía de las personas con DCA. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma donde se puedan diseñar tratamientos que sean intensivos, personalizados, monitorizados y basados en la evidencia. Ya que son estas cuatro características las que aseguran que los tratamientos son eficaces. A diferencia de la mayor parte de las disciplinas médicas, no existen asociaciones de síntomas y signos de la alteración cognitiva que faciliten la orientación terapéutica. Actualmente, los tratamientos de neurorrehabilitación se diseñan en base a los resultados obtenidos en una batería de evaluación neuropsicológica que evalúa el nivel de afectación de cada una de las funciones cognitivas (memoria, atención, funciones ejecutivas, etc.). La línea de investigación en la que se enmarca este trabajo de investigación pretende diseñar y desarrollar un perfil cognitivo basado no sólo en el resultado obtenido en esa batería de test, sino también en información teórica que engloba tanto estructuras anatómicas como relaciones funcionales e información anatómica obtenida de los estudios de imagen. De esta forma, el perfil cognitivo utilizado para diseñar los tratamientos integra información personalizada y basada en la evidencia. Las técnicas de neuroimagen representan una herramienta fundamental en la identificación de lesiones para la generación de estos perfiles cognitivos. La aproximación clásica utilizada en la identificación de lesiones consiste en delinear manualmente regiones anatómicas cerebrales. Esta aproximación presenta diversos problemas relacionados con inconsistencias de criterio entre distintos clínicos, reproducibilidad y tiempo. Por tanto, la automatización de este procedimiento es fundamental para asegurar una extracción objetiva de información. La delineación automática de regiones anatómicas se realiza mediante el registro tanto contra atlas como contra otros estudios de imagen de distintos sujetos. Sin embargo, los cambios patológicos asociados al DCA están siempre asociados a anormalidades de intensidad y/o cambios en la localización de las estructuras. Este hecho provoca que los algoritmos de registro tradicionales basados en intensidad no funcionen correctamente y requieran la intervención del clínico para seleccionar ciertos puntos (que en esta tesis hemos denominado puntos singulares). Además estos algoritmos tampoco permiten que se produzcan deformaciones grandes deslocalizadas. Hecho que también puede ocurrir ante la presencia de lesiones provocadas por un accidente cerebrovascular (ACV) o un traumatismo craneoencefálico (TCE). Esta tesis se centra en el diseño, desarrollo e implementación de una metodología para la detección automática de estructuras lesionadas que integra algoritmos cuyo objetivo principal es generar resultados que puedan ser reproducibles y objetivos. Esta metodología se divide en cuatro etapas: pre-procesado, identificación de puntos singulares, registro y detección de lesiones. Los trabajos y resultados alcanzados en esta tesis son los siguientes: Pre-procesado. En esta primera etapa el objetivo es homogeneizar todos los datos de entrada con el objetivo de poder extraer conclusiones válidas de los resultados obtenidos. Esta etapa, por tanto, tiene un gran impacto en los resultados finales. Se compone de tres operaciones: eliminación del cráneo, normalización en intensidad y normalización espacial. Identificación de puntos singulares. El objetivo de esta etapa es automatizar la identificación de puntos anatómicos (puntos singulares). Esta etapa equivale a la identificación manual de puntos anatómicos por parte del clínico, permitiendo: identificar un mayor número de puntos lo que se traduce en mayor información; eliminar el factor asociado a la variabilidad inter-sujeto, por tanto, los resultados son reproducibles y objetivos; y elimina el tiempo invertido en el marcado manual de puntos. Este trabajo de investigación propone un algoritmo de identificación de puntos singulares (descriptor) basado en una solución multi-detector y que contiene información multi-paramétrica: espacial y asociada a la intensidad. Este algoritmo ha sido contrastado con otros algoritmos similares encontrados en el estado del arte. Registro. En esta etapa se pretenden poner en concordancia espacial dos estudios de imagen de sujetos/pacientes distintos. El algoritmo propuesto en este trabajo de investigación está basado en descriptores y su principal objetivo es el cálculo de un campo vectorial que permita introducir deformaciones deslocalizadas en la imagen (en distintas regiones de la imagen) y tan grandes como indique el vector de deformación asociado. El algoritmo propuesto ha sido comparado con otros algoritmos de registro utilizados en aplicaciones de neuroimagen que se utilizan con estudios de sujetos control. Los resultados obtenidos son prometedores y representan un nuevo contexto para la identificación automática de estructuras. Identificación de lesiones. En esta última etapa se identifican aquellas estructuras cuyas características asociadas a la localización espacial y al área o volumen han sido modificadas con respecto a una situación de normalidad. Para ello se realiza un estudio estadístico del atlas que se vaya a utilizar y se establecen los parámetros estadísticos de normalidad asociados a la localización y al área. En función de las estructuras delineadas en el atlas, se podrán identificar más o menos estructuras anatómicas, siendo nuestra metodología independiente del atlas seleccionado. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la identificación automática de lesiones utilizando estudios de imagen médica estructural, concretamente estudios de resonancia magnética. Basándose en estos cimientos, se han abrir nuevos campos de investigación que contribuyan a la mejora en la detección de lesiones. ABSTRACT Brain injury constitutes a serious social and health problem of increasing magnitude and of great diagnostic and therapeutic complexity. Its high incidence and survival rate, after the initial critical phases, makes it a prevalent problem that needs to be addressed. In particular, according to the World Health Organization (WHO), brain injury will be among the 10 most common causes of disability by 2020. Neurorehabilitation improves both cognitive and functional deficits and increases the autonomy of brain injury patients. The incorporation of new technologies to the neurorehabilitation tries to reach a new paradigm focused on designing intensive, personalized, monitored and evidence-based treatments. Since these four characteristics ensure the effectivity of treatments. Contrary to most medical disciplines, it is not possible to link symptoms and cognitive disorder syndromes, to assist the therapist. Currently, neurorehabilitation treatments are planned considering the results obtained from a neuropsychological assessment battery, which evaluates the functional impairment of each cognitive function (memory, attention, executive functions, etc.). The research line, on which this PhD falls under, aims to design and develop a cognitive profile based not only on the results obtained in the assessment battery, but also on theoretical information that includes both anatomical structures and functional relationships and anatomical information obtained from medical imaging studies, such as magnetic resonance. Therefore, the cognitive profile used to design these treatments integrates information personalized and evidence-based. Neuroimaging techniques represent an essential tool to identify lesions and generate this type of cognitive dysfunctional profiles. Manual delineation of brain anatomical regions is the classical approach to identify brain anatomical regions. Manual approaches present several problems related to inconsistencies across different clinicians, time and repeatability. Automated delineation is done by registering brains to one another or to a template. However, when imaging studies contain lesions, there are several intensity abnormalities and location alterations that reduce the performance of most of the registration algorithms based on intensity parameters. Thus, specialists may have to manually interact with imaging studies to select landmarks (called singular points in this PhD) or identify regions of interest. These two solutions have the same inconvenient than manual approaches, mentioned before. Moreover, these registration algorithms do not allow large and distributed deformations. This type of deformations may also appear when a stroke or a traumatic brain injury (TBI) occur. This PhD is focused on the design, development and implementation of a new methodology to automatically identify lesions in anatomical structures. This methodology integrates algorithms whose main objective is to generate objective and reproducible results. It is divided into four stages: pre-processing, singular points identification, registration and lesion detection. Pre-processing stage. In this first stage, the aim is to standardize all input data in order to be able to draw valid conclusions from the results. Therefore, this stage has a direct impact on the final results. It consists of three steps: skull-stripping, spatial and intensity normalization. Singular points identification. This stage aims to automatize the identification of anatomical points (singular points). It involves the manual identification of anatomical points by the clinician. This automatic identification allows to identify a greater number of points which results in more information; to remove the factor associated to inter-subject variability and thus, the results are reproducible and objective; and to eliminate the time spent on manual marking. This PhD proposed an algorithm to automatically identify singular points (descriptor) based on a multi-detector approach. This algorithm contains multi-parametric (spatial and intensity) information. This algorithm has been compared with other similar algorithms found on the state of the art. Registration. The goal of this stage is to put in spatial correspondence two imaging studies of different subjects/patients. The algorithm proposed in this PhD is based on descriptors. Its main objective is to compute a vector field to introduce distributed deformations (changes in different imaging regions), as large as the deformation vector indicates. The proposed algorithm has been compared with other registration algorithms used on different neuroimaging applications which are used with control subjects. The obtained results are promising and they represent a new context for the automatic identification of anatomical structures. Lesion identification. This final stage aims to identify those anatomical structures whose characteristics associated to spatial location and area or volume has been modified with respect to a normal state. A statistical study of the atlas to be used is performed to establish which are the statistical parameters associated to the normal state. The anatomical structures that may be identified depend on the selected anatomical structures identified on the atlas. The proposed methodology is independent from the selected atlas. Overall, this PhD corroborates the investigated research hypotheses regarding the automatic identification of lesions based on structural medical imaging studies (resonance magnetic studies). Based on these foundations, new research fields to improve the automatic identification of lesions in brain injury can be proposed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El Daño Cerebral (DC) se refiere a cualquier lesión producida en el cerebro y que afecta a su funcionalidad. Se ha convertido en una de las principales causas de discapacidad neurológica de las sociedades desarrolladas. Hasta la más sencilla de las actividades y acciones que realizamos en nuestro día a día involucran a los procesos cognitivos. Por ello, la alteración de las funciones cognitivas como consecuencia del DC, limita no sólo la calidad de vida del paciente sino también la de las persona de su entorno. La rehabilitación cognitiva trata de aumentar la autonomía y calidad de vida del paciente minimizando o compensando los desórdenes funciones causados por el episodio de DC. La plasticidad cerebral es una propiedad intrínseca al sistema nervioso humano por la que en función a la experiencia se crean nuevos patrones de conectividad. El propósito de la neurorrehabilitación es precisamente modular esta propiedad intrínseca a partir de ejercicios específicos, los cuales podrían derivar en la recuperación parcial o total de las funciones afectadas. La incorporación de la tecnología a las terapias de rehabilitación ha permitido desarrollar nuevas metodologías de trabajo. Esto ha ayudado a hacer frente a las dificultades de la rehabilitación que los procesos tradicionales no logran abarcar. A pesar del gran avance realizado en los Ãoltimos años, todavía existen debilidades en el proceso de rehabilitación; por ejemplo, la trasferencia a la vida real de las habilidades logradas durante la terapia de rehabilitación, así como su generalización a otras actividades cotidianas. Los entornos virtuales pueden reproducir situaciones cotidianas. Permiten simular, de forma controlada, los requisitos conductuales que encontramos en la vida real. En un contexto terapéutico, puede ser utilizado por el neuropsicólogo para corregir en el paciente comportamientos patológicos no deseados, realizar intervenciones terapéuticas sobre Actividades de Vida Diaria que estimulen conductas adaptativas. A pesar de que las tecnologías actuales tienen potencial suficiente para aportar nuevos beneficios al proceso de rehabilitación, existe cierta reticencia a su incorporación a la clínica diaria. A día de hoy, no se ha podido demostrar que su uso aporte una mejorar significativa con respecto a otro tipo de intervención; en otras palabras, no existe evidencia científica de la eficacia del uso de entornos virtuales interactivos en rehabilitación. En este contexto, la presente Tesis Doctoral trata de abordar los aspectos que mantienen a los entornos virtuales interactivos al margen de la rutina clínica diaria. Se estudian las diferentes etapas del proceso de rehabilitación cognitiva relacionado con la integración y uso de estos entornos: diseño de las actividades, su implementación en el entorno virtual, y finalmente la ejecución por el paciente y análisis de los respectivos datos. Por tanto, los bloques en los que queda dividido el trabajo de investigación expuesto en esta memoria son: 1. Diseño de las AVD. La definición y configuración de los elementos que componen la AVD permite al terapeuta diseñar estrategias de intervención terapéutica para actuar sobre el comportamiento del paciente durante la ejecución de la actividad. En esta parte de la tesis se pretende formalizar el diseño de las AVD de tal forma que el terapeuta pueda explotar el potencial tecnológico de los entornos virtuales interactivos abstrayéndose de la complejidad implícita a la tecnología. Para hacer viable este planteamiento se propone una metodología que permita modelar la definición de las AVD, representar el conocimiento implícito en ellas, y asistir al neuropsicólogo durante el proceso de diseño de la intervención clínica. 2. Entorno virtual interactivo. El gran avance tecnológico producido durante los Ãoltimos años permite reproducir AVD interactivas en un contexto de uso clínico. El objetivo perseguido en esta parte de la Tesis es el de extraer las características potenciales de esta solución tecnológica y aplicarla a las necesidades y requisitos de la rehabilitación cognitiva. Se propone el uso de la tecnología de Vídeo Interactivo para el desarrollo de estos entornos virtuales. Para la evaluación de la misma se realiza un estudio experimental dividido en dos fases con la participación de sujetos sanos y pacientes, donde se valora su idoneidad para ser utilizado en terapias de rehabilitación cognitiva. 3. Monitorización de las AVD. El uso de estos entornos virtuales interactivos expone al paciente ante una gran cantidad de estímulos e interacciones. Este hecho requiere de instrumentos de monitorización avanzado que aporten al terapeuta información objetiva sobre el comportamiento del paciente, lo que le podría permitir por ejemplo evaluar la eficacia del tratamiento. En este apartado se propone el uso de métricas basadas en la atención visual y la interacción con el entorno para conocer datos sobre el comportamiento del paciente durante la AVD. Se desarrolla un sistema de monitorización integrado con el entorno virtual que ofrece los instrumentos necesarios para la evaluación de estas métricas para su uso clínico. La metodología propuesta ha permitido diseñar una AVD basada en la definición de intervenciones terapéuticas. Posteriormente esta AVD has sido implementada mediante la tecnología de vídeo interactivo, creando así el prototipo de un entorno virtual para ser utilizado por pacientes con déficit cognitivo. Los resultados del estudio experimental mediante el cual ha sido evaluado demuestran la robustez y usabilidad del sistema, así como su capacidad para intervenir sobre el comportamiento del paciente. El sistema monitorización que ha sido integrado con el entorno virtual aporta datos objetivos sobre el comportamiento del paciente durante la ejecución de la actividad. Los resultados obtenidos permiten contrastar las hipótesis de investigación planteadas en la Tesis Doctoral, aportando soluciones que pueden ayudar a la integración de los entornos virtuales interactivos en la rutina clínica. Esto abre una nueva vía de investigación y desarrollo que podría suponer un gran progreso y mejora en los procesos de neurorrehabilitación cognitiva en daño cerebral. ABSTRACT Brain injury (BI) refers to medical conditions that occur in the brain, altering its function. It becomes one of the main neurological disabilities in the developed society. Cognitive processes determine individual performance in Activities of Daily Living (ADL), thus, the cognitive disorders after BI result in a loss of autonomy and independence, affecting the patient’s quality of life. Cognitive rehabilitation seeks to increase patients’ autonomy and quality of life minimizing or compensating functional disorders showed by BI patients. Brain plasticity is an intrinsic property of the human nervous system whereby its structure is changed depending on experience. Neurorehabilitation pursuits a precise modulation of this intrinsic property, based on specific exercises to induce functional changes, which could result in partial or total recovery of the affected functions. The new methodologies that can be approached by applying technologies to the rehabilitation process, permit to deal with the difficulties which are out of the scope of the traditional rehabilitation. Despite this huge breakthrough, there are still weaknesses in the rehabilitation process, such as the transferring to the real life those skills reached along the therapy, and its generalization to others daily activities. Virtual environments reproduce daily situations. Behavioural requirements which are similar to those we perceive in real life, are simulated in a controlled way. In these virtual environments the therapist is allowed to interact with patients without even being present, inhibiting unsuitable behaviour patterns, stimulating correct answers throughout the simulation and enhancing stimuli with supplementary information when necessary. Despite the benefits which could be brought to the cognitive rehabilitation by applying the potential of the current technologies, there are barriers for widespread use of interactive virtual environments in clinical routine. At present, the evidence that these technologies bring a significant improvement to the cognitive therapies is limited. In other words, there is no evidence about the efficacy of using virtual environments in rehabilitation. In this context, this work aims to address those issues which keep the virtual environments out of the clinical routine. The stages of the cognitive rehabilitation process, which are related with the use and integration of these environments, are analysed: activities design, its implementation in the virtual environment, and the patient’s performance and the data analysis. Hence, the thesis is comprised of the main chapters that are listed below: 1. ADL Design.Definition and configuration of the elements which comprise the ADL allow the therapist to design intervention strategies to influence over the patient behaviour along the activity performance. This chapter aims to formalise the AVD design in order to help neuropsychologists to make use of the interactive virtual environments’ potential but isolating them from the complexity of the technology. With this purpose a new methodology is proposed as an instrument to model the ADL definition, to manage its implied knowledge and to assist the clinician along the design process of the therapeutic intervention. 2. Interactive virtual environment. Continuous advancements make the technology feasible for re-creating rehabilitation therapies based on ADL. The goal of this stage is to analyse the main features of virtual environments in order to apply them according to the cognitive rehabilitation’s requirements. The interactive video is proposed as the technology to develop virtual environments. Experimental study is carried out to assess the suitability of the interactive video to be used by cognitive rehabilitation. 3. ADL monitoring system. This kind of virtual environments bring patients in front lots of stimuli and interactions. Thus, advanced monitoring instruments are needed to provide therapist with objective information about patient’s behaviour. This thesis chapter propose the use of metrics rely on visual patients’ visual attention and their interactions with the environment. A monitoring system has been developed and integrated with the interactive video-based virtual environment, providing neuropsychologist with the instruments to evaluate the clinical force of this metrics. Therapeutic interventions-based ADL has been designed by using the proposed methodology. Interactive video technology has been used to develop the ADL, resulting in a virtual environment prototype to be use by patients who suffer a cognitive deficits. An experimental study has been performed to evaluate the virtual environment, whose overcomes show the usability and solidity of the system, and also its capacity to have influence over patient’s behaviour. The monitoring system, which has been embedded in the virtual environment, provides objective information about patients’ behaviour along their activity performance. Research hypothesis of the Thesis are proven by the obtained results. They could help to incorporate the interactive virtual environments in the clinical routine. This may be a significant step forward to enhance the cognitive neurorehabilitation processes in brain injury.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La fusión nuclear es, hoy en día, una alternativa energética a la que la comunidad internacional dedica mucho esfuerzo. El objetivo es el de generar entre diez y cincuenta veces más energía que la que consume mediante reacciones de fusión que se producirán en una mezcla de deuterio (D) y tritio (T) en forma de plasma a doscientos millones de grados centígrados. En los futuros reactores nucleares de fusión será necesario producir el tritio utilizado como combustible en el propio reactor termonuclear. Este hecho supone dar un paso más que las actuales máquinas experimentales dedicadas fundamentalmente al estudio de la física del plasma. Así pues, el tritio, en un reactor de fusión, se produce en sus envolturas regeneradoras cuya misión fundamental es la de blindaje neutrónico, producir y recuperar tritio (fuel para la reacción DT del plasma) y por último convertir la energía de los neutrones en calor. Existen diferentes conceptos de envolturas que pueden ser sólidas o líquidas. Las primeras se basan en cerámicas de litio (Li2O, Li4SiO4, Li2TiO3, Li2ZrO3) y multiplicadores neutrónicos de Be, necesarios para conseguir la cantidad adecuada de tritio. Los segundos se basan en el uso de metales líquidos o sales fundidas (Li, LiPb, FLIBE, FLINABE) con multiplicadores neutrónicos de Be o el propio Pb en el caso de LiPb. Los materiales estructurales pasan por aceros ferrítico-martensíticos de baja activación, aleaciones de vanadio o incluso SiCf/SiC. Cada uno de los diferentes conceptos de envoltura tendrá una problemática asociada que se estudiará en el reactor experimental ITER (del inglés, “International Thermonuclear Experimental Reactor”). Sin embargo, ITER no puede responder las cuestiones asociadas al daño de materiales y el efecto de la radiación neutrónica en las diferentes funciones de las envolturas regeneradoras. Como referencia, la primera pared de un reactor de fusión de 4000MW recibiría 30 dpa/año (valores para Fe-56) mientras que en ITER se conseguirían <10 dpa en toda su vida útil. Esta tesis se encuadra en el acuerdo bilateral entre Europa y Japón denominado “Broader Approach Agreement “(BA) (2007-2017) en el cual España juega un papel destacable. Estos proyectos, complementarios con ITER, son el acelerador para pruebas de materiales IFMIF (del inglés, “International Fusion Materials Irradiation Facility”) y el dispositivo de fusión JT-60SA. Así, los efectos de la irradiación de materiales en materiales candidatos para reactores de fusión se estudiarán en IFMIF. El objetivo de esta tesis es el diseño de un módulo de IFMIF para irradiación de envolturas regeneradoras basadas en metales líquidos para reactores de fusión. El módulo se llamará LBVM (del inglés, “Liquid Breeder Validation Module”). La propuesta surge de la necesidad de irradiar materiales funcionales para envolturas regeneradoras líquidas para reactores de fusión debido a que el diseño conceptual de IFMIF no contaba con esta utilidad. Con objeto de analizar la viabilidad de la presente propuesta, se han realizado cálculos neutrónicos para evaluar la idoneidad de llevar a cabo experimentos relacionados con envolturas líquidas en IFMIF. Así, se han considerado diferentes candidatos a materiales funcionales de envolturas regeneradoras: Fe (base de los materiales estructurales), SiC (material candidato para los FCI´s (del inglés, “Flow Channel Inserts”) en una envoltura regeneradora líquida, SiO2 (candidato para recubrimientos antipermeación), CaO (candidato para recubrimientos aislantes), Al2O3 (candidato para recubrimientos antipermeación y aislantes) y AlN (material candidato para recubrimientos aislantes). En cada uno de estos materiales se han calculado los parámetros de irradiación más significativos (dpa, H/dpa y He/dpa) en diferentes posiciones de IFMIF. Estos valores se han comparado con los esperados en la primera pared y en la zona regeneradora de tritio de un reactor de fusión. Para ello se ha elegido un reactor tipo HCLL (del inglés, “Helium Cooled Lithium Lead”) por tratarse de uno de los más prometedores. Además, los valores también se han comparado con los que se obtendrían en un reactor rápido de fisión puesto que la mayoría de las irradiaciones actuales se hacen en reactores de este tipo. Como conclusión al análisis de viabilidad, se puede decir que los materiales funcionales para mantos regeneradores líquidos podrían probarse en la zona de medio flujo de IFMIF donde se obtendrían ratios de H/dpa y He/dpa muy parecidos a los esperados en las zonas más irradiadas de un reactor de fusión. Además, con el objetivo de ajustar todavía más los valores, se propone el uso de un moderador de W (a considerar en algunas campañas de irradiación solamente debido a que su uso hace que los valores de dpa totales disminuyan). Los valores obtenidos para un reactor de fisión refuerzan la idea de la necesidad del LBVM, ya que los valores obtenidos de H/dpa y He/dpa son muy inferiores a los esperados en fusión y, por lo tanto, no representativos. Una vez demostrada la idoneidad de IFMIF para irradiar envolturas regeneradoras líquidas, y del estudio de la problemática asociada a las envolturas líquidas, también incluida en esta tesis, se proponen tres tipos de experimentos diferentes como base de diseño del LBVM. Éstos se orientan en las necesidades de un reactor tipo HCLL aunque a lo largo de la tesis se discute la aplicabilidad para otros reactores e incluso se proponen experimentos adicionales. Así, la capacidad experimental del módulo estaría centrada en el estudio del comportamiento de litio plomo, permeación de tritio, corrosión y compatibilidad de materiales. Para cada uno de los experimentos se propone un esquema experimental, se definen las condiciones necesarias en el módulo y la instrumentación requerida para controlar y diagnosticar las cápsulas experimentales. Para llevar a cabo los experimentos propuestos se propone el LBVM, ubicado en la zona de medio flujo de IFMIF, en su celda caliente, y con capacidad para 16 cápsulas experimentales. Cada cápsula (24-22 mm de diámetro y 80 mm de altura) contendrá la aleación eutéctica LiPb (hasta 50 mm de la altura de la cápsula) en contacto con diferentes muestras de materiales. Ésta irá soportada en el interior de tubos de acero por los que circulará un gas de purga (He), necesario para arrastrar el tritio generado en el eutéctico y permeado a través de las paredes de las cápsulas (continuamente, durante irradiación). Estos tubos, a su vez, se instalarán en una carcasa también de acero que proporcionará soporte y refrigeración tanto a los tubos como a sus cápsulas experimentales interiores. El módulo, en su conjunto, permitirá la extracción de las señales experimentales y el gas de purga. Así, a través de la estación de medida de tritio y el sistema de control, se obtendrán los datos experimentales para su análisis y extracción de conclusiones experimentales. Además del análisis de datos experimentales, algunas de estas señales tendrán una función de seguridad y por tanto jugarán un papel primordial en la operación del módulo. Para el correcto funcionamiento de las cápsulas y poder controlar su temperatura, cada cápsula se equipará con un calentador eléctrico y por tanto el módulo requerirá también ser conectado a la alimentación eléctrica. El diseño del módulo y su lógica de operación se describe en detalle en esta tesis. La justificación técnica de cada una de las partes que componen el módulo se ha realizado con soporte de cálculos de transporte de tritio, termohidráulicos y mecánicos. Una de las principales conclusiones de los cálculos de transporte de tritio es que es perfectamente viable medir el tritio permeado en las cápsulas mediante cámaras de ionización y contadores proporcionales comerciales, con sensibilidades en el orden de 10-9 Bq/m3. Los resultados son aplicables a todos los experimentos, incluso si son cápsulas a bajas temperaturas o si llevan recubrimientos antipermeación. Desde un punto de vista de seguridad, el conocimiento de la cantidad de tritio que está siendo transportada con el gas de purga puede ser usado para detectar de ciertos problemas que puedan estar sucediendo en el módulo como por ejemplo, la rotura de una cápsula. Además, es necesario conocer el balance de tritio de la instalación. Las pérdidas esperadas el refrigerante y la celda caliente de IFMIF se pueden considerar despreciables para condiciones normales de funcionamiento. Los cálculos termohidráulicos se han realizado con el objetivo de optimizar el diseño de las cápsulas experimentales y el LBVM de manera que se pueda cumplir el principal requisito del módulo que es llevar a cabo los experimentos a temperaturas comprendidas entre 300-550ºC. Para ello, se ha dimensionado la refrigeración necesaria del módulo y evaluado la geometría de las cápsulas, tubos experimentales y la zona experimental del contenedor. Como consecuencia de los análisis realizados, se han elegido cápsulas y tubos cilíndricos instalados en compartimentos cilíndricos debido a su buen comportamiento mecánico (las tensiones debidas a la presión de los fluidos se ven reducidas significativamente con una geometría cilíndrica en lugar de prismática) y térmico (uniformidad de temperatura en las paredes de los tubos y cápsulas). Se han obtenido campos de presión, temperatura y velocidad en diferentes zonas críticas del módulo concluyendo que la presente propuesta es factible. Cabe destacar que el uso de códigos fluidodinámicos (e.g. ANSYS-CFX, utilizado en esta tesis) para el diseño de cápsulas experimentales de IFMIF no es directo. La razón de ello es que los modelos de turbulencia tienden a subestimar la temperatura de pared en mini canales de helio sometidos a altos flujos de calor debido al cambio de las propiedades del fluido cerca de la pared. Los diferentes modelos de turbulencia presentes en dicho código han tenido que ser estudiados con detalle y validados con resultados experimentales. El modelo SST (del inglés, “Shear Stress Transport Model”) para turbulencia en transición ha sido identificado como adecuado para simular el comportamiento del helio de refrigeración y la temperatura en las paredes de las cápsulas experimentales. Con la geometría propuesta y los valores principales de refrigeración y purga definidos, se ha analizado el comportamiento mecánico de cada uno de los tubos experimentales que contendrá el módulo. Los resultados de tensiones obtenidos, han sido comparados con los valores máximos recomendados en códigos de diseño estructural como el SDC-IC (del inglés, “Structural Design Criteria for ITER Components”) para así evaluar el grado de protección contra el colapso plástico. La conclusión del estudio muestra que la propuesta es mecánicamente robusta. El LBVM implica el uso de metales líquidos y la generación de tritio además del riesgo asociado a la activación neutrónica. Por ello, se han estudiado los riesgos asociados al uso de metales líquidos y el tritio. Además, se ha incluido una evaluación preliminar de los riesgos radiológicos asociados a la activación de materiales y el calor residual en el módulo después de la irradiación así como un escenario de pérdida de refrigerante. Los riesgos asociados al módulo de naturaleza convencional están asociados al manejo de metales líquidos cuyas reacciones con aire o agua se asocian con emisión de aerosoles y probabilidad de fuego. De entre los riesgos nucleares destacan la generación de gases radiactivos como el tritio u otros radioisótopos volátiles como el Po-210. No se espera que el módulo suponga un impacto medioambiental asociado a posibles escapes. Sin embargo, es necesario un manejo adecuado tanto de las cápsulas experimentales como del módulo contenedor así como de las líneas de purga durante operación. Después de un día de después de la parada, tras un año de irradiación, tendremos una dosis de contacto de 7000 Sv/h en la zona experimental del contenedor, 2300 Sv/h en la cápsula y 25 Sv/h en el LiPb. El uso por lo tanto de manipulación remota está previsto para el manejo del módulo irradiado. Por último, en esta tesis se ha estudiado también las posibilidades existentes para la fabricación del módulo. De entre las técnicas propuestas, destacan la electroerosión, soldaduras por haz de electrones o por soldadura láser. Las bases para el diseño final del LBVM han sido pues establecidas en el marco de este trabajo y han sido incluidas en el diseño intermedio de IFMIF, que será desarrollado en el futuro, como parte del diseño final de la instalación IFMIF. ABSTRACT Nuclear fusion is, today, an alternative energy source to which the international community devotes a great effort. The goal is to generate 10 to 50 times more energy than the input power by means of fusion reactions that occur in deuterium (D) and tritium (T) plasma at two hundred million degrees Celsius. In the future commercial reactors it will be necessary to breed the tritium used as fuel in situ, by the reactor itself. This constitutes a step further from current experimental machines dedicated mainly to the study of the plasma physics. Therefore, tritium, in fusion reactors, will be produced in the so-called breeder blankets whose primary mission is to provide neutron shielding, produce and recover tritium and convert the neutron energy into heat. There are different concepts of breeding blankets that can be separated into two main categories: solids or liquids. The former are based on ceramics containing lithium as Li2O , Li4SiO4 , Li2TiO3 , Li2ZrO3 and Be, used as a neutron multiplier, required to achieve the required amount of tritium. The liquid concepts are based on molten salts or liquid metals as pure Li, LiPb, FLIBE or FLINABE. These blankets use, as neutron multipliers, Be or Pb (in the case of the concepts based on LiPb). Proposed structural materials comprise various options, always with low activation characteristics, as low activation ferritic-martensitic steels, vanadium alloys or even SiCf/SiC. Each concept of breeding blanket has specific challenges that will be studied in the experimental reactor ITER (International Thermonuclear Experimental Reactor). However, ITER cannot answer questions associated to material damage and the effect of neutron radiation in the different breeding blankets functions and performance. As a reference, the first wall of a fusion reactor of 4000 MW will receive about 30 dpa / year (values for Fe-56) , while values expected in ITER would be <10 dpa in its entire lifetime. Consequently, the irradiation effects on candidate materials for fusion reactors will be studied in IFMIF (International Fusion Material Irradiation Facility). This thesis fits in the framework of the bilateral agreement among Europe and Japan which is called “Broader Approach Agreement “(BA) (2007-2017) where Spain plays a key role. These projects, complementary to ITER, are mainly IFMIF and the fusion facility JT-60SA. The purpose of this thesis is the design of an irradiation module to test candidate materials for breeding blankets in IFMIF, the so-called Liquid Breeder Validation Module (LBVM). This proposal is born from the fact that this option was not considered in the conceptual design of the facility. As a first step, in order to study the feasibility of this proposal, neutronic calculations have been performed to estimate irradiation parameters in different materials foreseen for liquid breeding blankets. Various functional materials were considered: Fe (base of structural materials), SiC (candidate material for flow channel inserts, SiO2 (candidate for antipermeation coatings), CaO (candidate for insulating coatings), Al2O3 (candidate for antipermeation and insulating coatings) and AlN (candidate for insulation coating material). For each material, the most significant irradiation parameters have been calculated (dpa, H/dpa and He/dpa) in different positions of IFMIF. These values were compared to those expected in the first wall and breeding zone of a fusion reactor. For this exercise, a HCLL (Helium Cooled Lithium Lead) type was selected as it is one of the most promising options. In addition, estimated values were also compared with those obtained in a fast fission reactor since most of existing irradiations have been made in these installations. The main conclusion of this study is that the medium flux area of IFMIF offers a good irradiation environment to irradiate functional materials for liquid breeding blankets. The obtained ratios of H/dpa and He/dpa are very similar to those expected in the most irradiated areas of a fusion reactor. Moreover, with the aim of bringing the values further close, the use of a W moderator is proposed to be used only in some experimental campaigns (as obviously, the total amount of dpa decreases). The values of ratios obtained for a fission reactor, much lower than in a fusion reactor, reinforce the need of LBVM for IFMIF. Having demonstrated the suitability of IFMIF to irradiate functional materials for liquid breeding blankets, and an analysis of the main problems associated to each type of liquid breeding blanket, also presented in this thesis, three different experiments are proposed as basis for the design of the LBVM. These experiments are dedicated to the needs of a blanket HCLL type although the applicability of the module for other blankets is also discussed. Therefore, the experimental capability of the module is focused on the study of the behavior of the eutectic alloy LiPb, tritium permeation, corrosion and material compatibility. For each of the experiments proposed an experimental scheme is given explaining the different module conditions and defining the required instrumentation to control and monitor the experimental capsules. In order to carry out the proposed experiments, the LBVM is proposed, located in the medium flux area of the IFMIF hot cell, with capability of up to 16 experimental capsules. Each capsule (24-22 mm of diameter, 80 mm high) will contain the eutectic allow LiPb (up to 50 mm of capsule high) in contact with different material specimens. They will be supported inside rigs or steel pipes. Helium will be used as purge gas, to sweep the tritium generated in the eutectic and permeated through the capsule walls (continuously, during irradiation). These tubes, will be installed in a steel container providing support and cooling for the tubes and hence the inner experimental capsules. The experimental data will consist of on line monitoring signals and the analysis of purge gas by the tritium measurement station. In addition to the experimental signals, the module will produce signals having a safety function and therefore playing a major role in the operation of the module. For an adequate operation of the capsules and to control its temperature, each capsule will be equipped with an electrical heater so the module will to be connected to an electrical power supply. The technical justification behind the dimensioning of each of these parts forming the module is presented supported by tritium transport calculations, thermalhydraulic and structural analysis. One of the main conclusions of the tritium transport calculations is that the measure of the permeated tritium is perfectly achievable by commercial ionization chambers and proportional counters with sensitivity of 10-9 Bq/m3. The results are applicable to all experiments, even to low temperature capsules or to the ones using antipermeation coatings. From a safety point of view, the knowledge of the amount of tritium being swept by the purge gas is a clear indicator of certain problems that may be occurring in the module such a capsule rupture. In addition, the tritium balance in the installation should be known. Losses of purge gas permeated into the refrigerant and the hot cell itself through the container have been assessed concluding that they are negligible for normal operation. Thermal hydraulic calculations were performed in order to optimize the design of experimental capsules and LBVM to fulfill one of the main requirements of the module: to perform experiments at uniform temperatures between 300-550ºC. The necessary cooling of the module and the geometry of the capsules, rigs and testing area of the container were dimensioned. As a result of the analyses, cylindrical capsules and rigs in cylindrical compartments were selected because of their good mechanical behavior (stresses due to fluid pressure are reduced significantly with a cylindrical shape rather than prismatic) and thermal (temperature uniformity in the walls of the tubes and capsules). Fields of pressure, temperature and velocity in different critical areas of the module were obtained concluding that the proposal is feasible. It is important to mention that the use of fluid dynamic codes as ANSYS-CFX (used in this thesis) for designing experimental capsules for IFMIF is not direct. The reason for this is that, under strongly heated helium mini channels, turbulence models tend to underestimate the wall temperature because of the change of helium properties near the wall. Therefore, the different code turbulence models had to be studied in detail and validated against experimental results. ANSYS-CFX SST (Shear Stress Transport Model) for transitional turbulence model has been identified among many others as the suitable one for modeling the cooling helium and the temperature on the walls of experimental capsules. Once the geometry and the main purge and cooling parameters have been defined, the mechanical behavior of each experimental tube or rig including capsules is analyzed. Resulting stresses are compared with the maximum values recommended by applicable structural design codes such as the SDC- IC (Structural Design Criteria for ITER Components) in order to assess the degree of protection against plastic collapse. The conclusion shows that the proposal is mechanically robust. The LBVM involves the use of liquid metals, tritium and the risk associated with neutron activation. The risks related with the handling of liquid metals and tritium are studied in this thesis. In addition, the radiological risks associated with the activation of materials in the module and the residual heat after irradiation are evaluated, including a scenario of loss of coolant. Among the identified conventional risks associated with the module highlights the handling of liquid metals which reactions with water or air are accompanied by the emission of aerosols and fire probability. Regarding the nuclear risks, the generation of radioactive gases such as tritium or volatile radioisotopes such as Po-210 is the main hazard to be considered. An environmental impact associated to possible releases is not expected. Nevertheless, an appropriate handling of capsules, experimental tubes, and container including purge lines is required. After one day after shutdown and one year of irradiation, the experimental area of the module will present a contact dose rate of about 7000 Sv/h, 2300 Sv/h in the experimental capsules and 25 Sv/h in the LiPb. Therefore, the use of remote handling is envisaged for the irradiated module. Finally, the different possibilities for the module manufacturing have been studied. Among the proposed techniques highlights the electro discharge machining, brazing, electron beam welding or laser welding. The bases for the final design of the LBVM have been included in the framework of the this work and included in the intermediate design report of IFMIF which will be developed in future, as part of the IFMIF facility final design.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existe normalmente el propósito de obtener la mejor solución posible cuando se plantea un problema estructural, entendiendo como mejor la solución que cumpliendo los requisitos estructurales, de uso, etc., tiene un coste físico menor. En una primera aproximación se puede representar el coste físico por medio del peso propio de la estructura, lo que permite plantear la búsqueda de la mejor solución como la de menor peso. Desde un punto de vista práctico, la obtención de buenas soluciones—es decir, soluciones cuyo coste sea solo ligeramente mayor que el de la mejor solución— es una tarea tan importante como la obtención de óptimos absolutos, algo en general difícilmente abordable. Para disponer de una medida de la eficiencia que haga posible la comparación entre soluciones se propone la siguiente definición de rendimiento estructural: la razón entre la carga útil que hay que soportar y la carga total que hay que contabilizar (la suma de la carga útil y el peso propio). La forma estructural puede considerarse compuesta por cuatro conceptos, que junto con el material, definen una estructura: tamaño, esquema, proporción, y grueso.Galileo (1638) propuso la existencia de un tamaño insuperable para cada problema estructural— el tamaño para el que el peso propio agota una estructura para un esquema y proporción dados—. Dicho tamaño, o alcance estructural, será distinto para cada material utilizado; la única información necesaria del material para su determinación es la razón entre su resistencia y su peso especifico, una magnitud a la que denominamos alcance del material. En estructuras de tamaño muy pequeño en relación con su alcance estructural la anterior definición de rendimiento es inútil. En este caso —estructuras de “talla nula” en las que el peso propio es despreciable frente a la carga útil— se propone como medida del coste la magnitud adimensional que denominamos número de Michell, que se deriva de la “cantidad” introducida por A. G. M. Michell en su artículo seminal de 1904, desarrollado a partir de un lema de J. C. Maxwell de 1870. A finales del siglo pasado, R. Aroca combino las teorías de Galileo y de Maxwell y Michell, proponiendo una regla de diseño de fácil aplicación (regla GA), que permite la estimación del alcance y del rendimiento de una forma estructural. En el presente trabajo se estudia la eficiencia de estructuras trianguladas en problemas estructurales de flexión, teniendo en cuenta la influencia del tamaño. Por un lado, en el caso de estructuras de tamaño nulo se exploran esquemas cercanos al optimo mediante diversos métodos de minoración, con el objetivo de obtener formas cuyo coste (medido con su numero deMichell) sea muy próximo al del optimo absoluto pero obteniendo una reducción importante de su complejidad. Por otro lado, se presenta un método para determinar el alcance estructural de estructuras trianguladas (teniendo en cuenta el efecto local de las flexiones en los elementos de dichas estructuras), comparando su resultado con el obtenido al aplicar la regla GA, mostrando las condiciones en las que es de aplicación. Por último se identifican las líneas de investigación futura: la medida de la complejidad; la contabilidad del coste de las cimentaciones y la extensión de los métodos de minoración cuando se tiene en cuenta el peso propio. ABSTRACT When a structural problem is posed, the intention is usually to obtain the best solution, understanding this as the solution that fulfilling the different requirements: structural, use, etc., has the lowest physical cost. In a first approximation, the physical cost can be represented by the self-weight of the structure; this allows to consider the search of the best solution as the one with the lowest self-weight. But, from a practical point of view, obtaining good solutions—i.e. solutions with higher although comparable physical cost than the optimum— can be as important as finding the optimal ones, because this is, generally, a not affordable task. In order to have a measure of the efficiency that allows the comparison between different solutions, a definition of structural efficiency is proposed: the ratio between the useful load and the total load —i.e. the useful load plus the self-weight resulting of the structural sizing—. The structural form can be considered to be formed by four concepts, which together with its material, completely define a particular structure. These are: Size, Schema, Slenderness or Proportion, and Thickness. Galileo (1638) postulated the existence of an insurmountable size for structural problems—the size for which a structure with a given schema and a given slenderness, is only able to resist its self-weight—. Such size, or structural scope will be different for every different used material; the only needed information about the material to determine such size is the ratio between its allowable stress and its specific weight: a characteristic length that we name material structural scope. The definition of efficiency given above is not useful for structures that have a small size in comparison with the insurmountable size. In this case—structures with null size, inwhich the self-weight is negligible in comparisonwith the useful load—we use as measure of the cost the dimensionless magnitude that we call Michell’s number, an amount derived from the “quantity” introduced by A. G. M. Michell in his seminal article published in 1904, developed out of a result from J. C.Maxwell of 1870. R. Aroca joined the theories of Galileo and the theories of Maxwell and Michell, obtaining some design rules of direct application (that we denominate “GA rule”), that allow the estimation of the structural scope and the efficiency of a structural schema. In this work the efficiency of truss-like structures resolving bending problems is studied, taking into consideration the influence of the size. On the one hand, in the case of structures with null size, near-optimal layouts are explored using several minimization methods, in order to obtain forms with cost near to the absolute optimum but with a significant reduction of the complexity. On the other hand, a method for the determination of the insurmountable size for truss-like structures is shown, having into account local bending effects. The results are checked with the GA rule, showing the conditions in which it is applicable. Finally, some directions for future research are proposed: the measure of the complexity, the cost of foundations and the extension of optimization methods having into account the self-weight.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Tesis investiga aquellas obras en las que se ha producido un desplazamiento de la estructura portante hacia el perímetro del edificio para alcanzar su posterior desvanecimiento aplicando ciertos mecanismos arquitectónicos. En el proceso de la investigación se ha detectado cómo la rotundidad e inmediatez de la huella de lo estructural percibida en la arquitectura tradicional, tiende a desvanecerse, su desmaterialización queda patente en ciertas obras de la arquitectura contemporánea. La investigación comienza con la concordancia hallada entre tres edificios contemporáneos cuyo perímetro lo conforma una Envolvente Estructural: la tienda TODS, de Toyo Ito (2003); PRADA, de Herzog&de Meuron (2000) y DIOR, de SANAA (2001). Tres obras de fechas consecutivas, que, aun respondiendo a las mismas condiciones de ubicación, Omotesando (Tokio), uso, volumetría, altura y superficie, su Envolvente se configura de modo muy diverso, produciendo soluciones estructurales diferenciadas y heterogéneas. De estos tres modos de configurarse la envolvente, se desprenden las tres estrategias arquitectónicas empleadas en el desarrollo de la Tesis: figuración, abstracción y desmaterialización. Así pues, la investigación descubre, por una parte, un procedimiento figurativo que pone el acento en valores expresivos empleando códigos de significado como son los objetos de la naturaleza; por otra parte, un procedimiento abstracto, priorizando las reglas de construcción formal del propio objeto; y por último, como continuación de los anteriores, se descubre un procedimiento de desmaterialización planteado desde la delgadez de los muros, los materiales efímeros o una semitransparencia que pretende mayor conexión con el mundo exterior. Con el análisis de estas tres categorías secuenciales desveladas por los edificios citados de Omotesando, se han identificado otras obras clarividentes de Toyo Ito, Herzog&de Meuron y SANAA, por ser representativos de dichas nociones. Así pues, se han seleccionado veinticuatro casos de estudio y se han ordenado formando una colección de obras capaz de llegar a formular por sí misma un enunciado conclusivo sobre los procedimientos arquitectónicos capaces de velar la estructura mecánica. En la actualidad, el planteamiento de la Envolvente Estructural recurre a un nuevo modo de abordar la arquitectura. Esta ya no consiste en el juego sabio, correcto y magnífico, sino que adquiere una nueva dimensión poética desde la ausencia de la esencia resistente. Efectivamente, por un lado, se ha afirmado que ‘sin estructura no hay arquitectura’; y por otro lado, se trata de hacerla desaparecer. Así queda expresado en palabras de SANAA: “Para nosotros la estructura es muy importante, incluso su desaparición lo es”. Por otro lado, la Envolvente Estructural analizada en la Tesis recoge el legado de la historia, lo interpreta y se manifiesta con el lenguaje contemporáneo manteniendo aquella unidad entre las disciplinas de arquitectura e ingeniería comenzada en el siglo XIX. El contorno edilicio, conformado en un único elemento compacto e indiferenciado, resuelve diversas funciones habitualmente asignadas a otros elementos específicos: Encierra en un reducido espesor el cerramiento, la estructura resistente, el ornamento y el acondicionamiento térmico (en algunos casos); configura la forma arquitectónica y envuelve el espacio arquitectónico mostrando una libertad formal (cáscaras esculturales) y un lenguaje de liviandad (muros de espesores reducidos) sin precedentes. La tipología planteada condensa todo aquello que le permite expresar el enunciado más inmaterial de la estructura mecánica. Concluyendo, la Tesis verifica que una parte de la arquitectura contemporánea ya ha pasado del límite denso, corporeizado y mecánico tradicional, a un límite borroso, que se ha erosionado, se ha transmutado hasta su desmaterialización, su desvanecimiento o incluso su desaparición. ABSTRACT This thesis researches those buildings where the bearing structure has been moved towards the perimeter in order to reach its fading by means of architectural strategies. In the research development it has been detected how the clearness and immediacy of the footprint of the structure as noticed in the traditional architecture, tends to vanish, its dematerialization remains patent in certain contemporary architecture works. The research begins with the agreement found in three contemporary buildings whose perimeter is shaped by a structural envelope: TODS shop, by Toyo Ito (2003); PRADA, by Herzog&de Meuron (2000) and DIOR, by SANAA (2001). Three works in consecutive dates, that share the placement conditions, Omotesando (Tokio), use, volume, height and area, but its envelope is shaped in various ways, generating different and heterogeneous structural solutions. From these three ways of the envelope shape are deduced the three architectural strategies studied during the Thesis development: figuration, abstraction and dematerialization. Thus, the research discovers, on one hand, a figurative procedure that highlights the expressive values by using meaning codes such as the nature objects; on the other hand, an abstract procedure, prioritizing the formal construction rules typical of the object; at last, as a continuation of the others, a dematerialization procedure is shown, set out from the wall thinness, the ephemeral materials or the semitransparency that tries to increase the connection with the world around. With the analysis of these three categories in a sequence, shown in the Ometesando buildings, other works from Toyo Ito, Herzog&de Meuron and SANNAA have been identified because of being representative of those concepts. Therefore, twenty four case studies have been selected and have been ordered to set a collection of works that are able to formulate by themselves a conclusive statement about the architectural procedures that are able to veil the mechanical structure. Nowadays, the Structural envelope approach leads to a new way of dealing with architecture. This is not any more a wise game, correct and magnificent, but it acquires a new poetic dimension from the absence of the resistant essence. Indeed, on the one hand, it has been stated that ‘without structure there is no architecture’; and on the other hand, it tries to make it disappear. It is so stated in SANAA words: ‘The structure is very important for us, and even its disappearance” On the other hand, the Structural envelope analysed in this Thesis gathers the legacy of history, interprets it and it is expressed with a contemporary language, by keeping that unity between disciplines of architecture and engineering already started in the XIX century. The building boundary, shaped as a compacted and undifferentiated single element, solves several functions commonly assigned to other specific elements: keeps in a small thickness the envelope, the bearing structure, the ornament and the thermal conditioning (in same cases); it shapes the architectural form and envelopes the architectural space by showing a formal freedom (sculptural shells) and a lightness language (small thickness walls) with no precedents. This typology gathers all what lets to express the most immaterial statement of the mechanical structure. As a conclusion, the Thesis verifies that a part of the contemporary architecture has already gone over the dense limit, shaped and mechanical traditional to a blur limit that has been eroded, it has been changed until its dematerialization, its fading or event its disappearance.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dada la actual tendencia de las empresas de poseer sus propios edificios de oficinas con espacios dedicados al público en general como son bibliotecas, salas de conferencias, etc. Mapfre decide la compra del Edificio de L’Union, que se sitúa en el emplazamiento antes mencionado. Este nuevo edificio, además de contar con los espacios mencionados, se decide la ampliación del parking subterráneo actual para posibilitar a los empleados su aparcamiento. Este documento persigue un doble objetivo. En primer lugar, llevará a cabo una exposición del proceso seguido para la obtención de la solución más adecuada, partiendo de una serie de estudios previos y normativas, para alcanzar tres soluciones aceptables que será sometidas a un proceso de valoración a partir del cual se obtendrá la alternativa más adecuada evaluando una serie de parámetros que la diferenciarán del resto de alternativas. Una vez elegida la solución más adecuada se va a llevar a cabo el desarrollo de un estudio en profundidad de la misma definiendo sus aspectos principales, estructura, método constructivo, etc., que permitirán llevar a cabo la ejecución del edificio

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La hipótesis de partida de esta tesis es que la teoría de las Relaciones Internacionales (RRII) se encuentra ante un problema de carácter filosófico que impide su adecuada fundamentación. El objeto mismo de la teoría de las RRII ha sido foco de numerosas disputas a lo largo y ancho de los debates con que la disciplina ha explicado sus diversos posicionamientos y enfoques. De igual manera, diferentes aproximaciones metodológicas han ido evolucionando al albur de los avances que la Filosofía de la Ciencia venía incorporando. Así, los diversos puntos de vista han tratado de adaptarse a las novedades de carácter epistemológico que incorporaba la Teoría de la Ciencia en forma de nuevos paradigmas y programas de investigación sin detenerse lo suficiente en revisar los postulados sustanciales sobre los que partió y se desarrollaron las distintas teorizaciones. Con demasiada frecuencia, los conceptos que guiaron los esfuerzos de la revisión de dichos postulados fueron utilizados de forma superficial, tratando con ello más bien de sustentar las teorías pre-configuradas que de realizar una aproximación reflexiva a la realidad sobre la que se pretendía teorizar, lo que ha evidenciado una insuficiencia conceptual de la teoría de las RRII para hacer frente a la realidad (Ashley 1984; Bohman 2009; Cox y Schechter 2002; Jackson 2008; Lapid 2003; Monteiro y Ruby 2009; Walker 1993)...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El material más frecuentemente utilizado en la implatología oral en la es el titanio comercialmente puro, ya que presenta una gran biocompatibilidad y constituye el material ideal para conseguir la osteointegración con éxito a largo plazo tras la carga funcional 2.HIPÓTESIS DE TRABAJO Las diferentes hipótesis nulas que se plantearon con respecto a la relación de las diferentes variables observadas en nuestro estudio fueron las siguientes: 1.Ho:Fuerzas superiores a 80Nw/cm2 no presentarían ni deformidades,ni alteraciones en la superficie de los implantes de conexión externa ni en los de conexión interna. 2.Ho:Fuerzas superiores a 90Nw/cm2 no presentarían deformidades, ni alteración en la superficie, ni fisuras en los implantes de conexión externa ni en los de conexión interna. 3.Ho:Fuerzas superiores a 100Nw/cm2 no presentarían deformidades en el transportador del implante, ni alteraciones en los hexágonos de los implantes de conexión externa ni en los de conexión interna...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las alteraciones en el sistema inmune innato y en la respuesta inflamatoria, ya sean causadas por factores endógenos o exógenos, han sido implicadas como un componente fundamental en la fisiopatología de las enfermedades psiquiátricas. Esto es de gran relevancia en la esquizofrenia, una enfermedad incurable de gran impacto socioeconómico que afecta al 1% de la población mundial, caracterizada por alteraciones en la neurotransmisión, cuyos tratamientos antipsicóticos sólo engloban parte de la sintomatología de la enfermedad, tienen importantes efectos adversos, y una gran proporción de los pacientes muestran resistencia al tratamiento y baja adherencia. Uno de los principales factores de riesgo ambiental de esta enfermedad es la exposición al estrés. El estrés es capaz de activar indirectamente, mediante el daño celular o la permisividad ante patógenos, uno de las principales agentes de la inmunidad innata, los receptores tipo Toll (TLR). TLR3 actúa principalmente como centinela frente a infecciones virales al reconocer las dobles hebras de RNA viral, en cambio, TLR4 detecta principalmente el LPS, un componente estructural de las paredes de bacterias Gram negativas. Además, ambos TLRs son capaces de detectar patrones moleculares asociados a daño (DAMPs). Los principales coordinadores de la respuesta celular inmune son las citoquinas, las cuales inducen una respuesta Th1, Th2 o Th reguladora, también son las encargadas de activar la microglía en reposo, y una vez más son las que orquestan la polarización M1 o M2 según las citoquinas presentes en el ambiente. Por otro lado, el daño celular y la acumulación de mediadores proinflamatorios oxidativo/nitrosativos activan vías antioxidantes como la del factor NRF2, que a su vez también incide en la regulación de la activación microglial. Otro factor que interviene en el proceso, y que se relaciona directamente con la enfermedad es el sistema endocannabinoide...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El síndrome de distrés respiratorio agudo (SDRA) se caracteriza por edema pulmonar y colapso alveolar que conduce a hipoxemia arterial grave. Las causas más frecuentes de SDRA son la sepsis y los traumatismos. Aunque las estrategias protectoras de soporte ventilatorio y hemodinámico han permitido mejorar el pronóstico, la mortalidad asociada se mantiene intolerablemente elevada por lo que el descubrimiento de nuevos tratamientos efectivos tendría un gran impacto en la supervivencia de los pacientes. Además, la existencia de disfunción vascular pulmonar es un factor independiente asociado a un peor pronóstico en estos pacientes. Los esfingolípidos son componentes estructurales de las membranas, que regulan la dinámica de éstas y forman parte de los microdominios de membrana denominados balsas lipídicas de membrana (“lipid rafts”). Los esfingolípidos actúan también como segundos mensajeros intracelulares implicados en la regulación de procesos celulares clave como la diferenciación, el crecimiento, la apoptosis o la inmunidad innata y adquirida. Estudios previos sugieren que la ceramida producida por la esfingomielinasa (SMasa) neutra (nSMasa) está implicada en la regulación del tono vascular pulmonar. Además, la esfingomielinasa ácida (aSMasa) se encuentra elevada en pacientes en estado crítico. Las evidencias acumuladas durante los últimos años sugieren que los esfingolípidos podrían desempeñar un papel en el SDRA. La imipramina o su análogo desipramina y el D609 son compuestos no relacionados químicamente que tienen en común su capacidad de inhibir la esfingomielinasa ácida...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo conecta dos dimensiones de la violencia que están presentes en los estudios sobre Investigación para la Paz. A partir de la conocida clasificación de Galtung, en este ensayo abordamos dos tipos de violencia: la estructural (exclusión, desigualdad) y la cultural (o legitimación de la violencia). Del cruce entre tres ámbitos de exclusión comunicativa y los tres modelos que abordan la desigualdad en la comunicación, se obtienen las líneas de investigación que se proponen para el estudio de la desigualdad en el ámbito comunicativo. Es una reflexión teórica que atiende a las diferentes metodologías empleadas en el estudio del fenómeno comunicativo y que pueden ser productivas para el estudio de la desigualdad en el ámbito cultural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Según estimaciones de la Organización de Naciones Unidas (ONU) más de cien millones de niños tienen en la calle su único hogar y medio de vida. En este artículo se pretende realizar una aproximación a esta situación que viene siendo, desde hace décadas, objeto prioritario de interés por parte de la teoría social. Tomando como ejemplo más que significativo el caso de los gamines colombianos, se hace un análisis de los distintos enfoques teóricos, tanto de los centrados en el entorno del individuo como en el entorno social, que se han aproximado al estudio de este preocupante fenómeno, paradigma, sin duda, de exclusión, pobreza y violencia estructural. A modo de conclusión, se aboga por una perspectiva integradora que supere los límites y deficiencias de las aproximaciones teóricas expuestas.