774 resultados para DIAGNOSTICO POR IMAGENES
Resumo:
Este trabajo presenta las experiencias y resultados obtenidos al aplicar tecnicas de planificacion de trayectorias para vehıculos aereos no tripulados con el objetivo doble de tomar imagenes aereas de alta resolucion para realizar mosaicos de cultivos asi como recoger los datos recopilados por motas o sistemas sensoriales inalambricos con capacidad de crear y gestionar redes. Dichas redes son utilizadas para la monitorizacion y evaluacion de tendencias en variables como la temperatura o humedad.
Resumo:
En este proyecto se ha desarrollado un código de MATLAB para el procesamiento de imágenes tomográficas 3D, de muestras de asfalto de carreteras en Polonia. Estas imágenes en 3D han sido tomadas por un equipo de investigación de la Universidad Tecnológica de Lodz (LUT). El objetivo de este proyecto es crear una herramienta que se pueda utilizar para estudiar las diferentes muestras de asfalto 3D y pueda servir para estudiar las pruebas de estrés que experimentan las muestras en el laboratorio. Con el objetivo final de encontrar soluciones a la degradación sufrida en las carreteras de Polonia, debido a diferentes causas, como son las condiciones meteorológicas. La degradación de las carreteras es un tema que se ha investigado desde hace muchos años, debido a la fuerte degradación causada por diferentes factores como son climáticos, la falta de mantenimiento o el tráfico excesivo en algunos casos. Es en Polonia, donde estos tres factores hacen que la composición de muchas carreteras se degrade rápidamente, sobre todo debido a las condiciones meteorológicas sufridas a lo largo del año, con temperaturas que van desde 30° C en verano a -20° C en invierno. Esto hace que la composición de las carreteras sufra mucho y el asfalto se levante, lo que aumenta los costos de mantenimiento y los accidentes de carretera. Este proyecto parte de la base de investigación que se lleva a cabo en la LUT, tratando de mejorar el análisis de las muestras de asfalto, por lo que se realizarán las pruebas de estrés y encontrar soluciones para mejorar el asfalto en las carreteras polacas. Esto disminuiría notablemente el costo de mantenimiento. A pesar de no entrar en aspectos muy técnicos sobre el asfalto y su composición, se ha necesitado realizar un estudio profundo sobre todas sus características, para crear un código capaz de obtener los mejores resultados. Por estas razones, se ha desarrollado en Matlab, los algoritmos que permiten el estudio de los especímenes 3D de asfalto. Se ha utilizado este software, ya que Matlab es una poderosa herramienta matemática que permite operar con matrices para realización de operaciones rápidamente, permitiendo desarrollar un código específico para el tratamiento y procesamiento de imágenes en 3D. Gracias a esta herramienta, estos algoritmos realizan procesos tales como, la segmentación de la imagen 3D, pre y post procesamiento de la imagen, filtrado o todo tipo de análisis microestructural de las muestras de asfalto que se están estudiando. El código presentado para la segmentación de las muestras de asfalto 3D es menos complejo en su diseño y desarrollo, debido a las herramientas de procesamiento de imágenes que incluye Matlab, que facilitan significativamente la tarea de programación, así como el método de segmentación utilizado. Respecto al código, este ha sido diseñado teniendo en cuenta el objetivo de facilitar el trabajo de análisis y estudio de las imágenes en 3D de las muestras de asfalto. Por lo tanto, el principal objetivo es el de crear una herramienta para el estudio de este código, por ello fue desarrollado para que pueda ser integrado en un entorno visual, de manera que sea más fácil y simple su utilización. Ese es el motivo por el cual todos estos algoritmos y funciones, que ha sido desarrolladas, se integrarán en una herramienta visual que se ha desarrollado con el GUIDE de Matlab. Esta herramienta ha sido creada en colaboración con Jorge Vega, y fue desarrollada en su proyecto final de carrera, cuyo título es: Segmentación microestructural de Imágenes en 3D de la muestra de asfalto utilizando Matlab. En esta herramienta se ha utilizado todo las funciones programadas en este proyecto, y tiene el objetivo de desarrollar una herramienta que permita crear un entorno gráfico intuitivo y de fácil uso para el estudio de las muestras de 3D de asfalto. Este proyecto se ha dividido en 4 capítulos, en un primer lugar estará la introducción, donde se presentarán los aspectos más importante que se va a componer el proyecto. En el segundo capítulo se presentarán todos los datos técnicos que se han tenido que estudiar para desarrollar la herramienta, entre los que cabe los tres temas más importantes que se han estudiado en este proyecto: materiales asfálticos, los principios de la tomografías 3D y el procesamiento de imágenes. Esta será la base para el tercer capítulo, que expondrá la metodología utilizada en la elaboración del código, con la explicación del entorno de trabajo utilizado en Matlab y todas las funciones de procesamiento de imágenes utilizadas. Además, se muestra todo el código desarrollado, así como una descripción teórica de los métodos utilizados para el pre-procesamiento y segmentación de las imagenes en 3D. En el capítulo 4, se mostrarán los resultados obtenidos en el estudio de una de las muestras de asfalto, y, finalmente, el último capítulo se basa en las conclusiones sobre el desarrollo de este proyecto. En este proyecto se ha llevado han realizado todos los puntos que se establecieron como punto de partida en el anteproyecto para crear la herramienta, a pesar de que se ha dejado para futuros proyectos nuevas posibilidades de este codigo, como por ejemplo, la detección automática de las diferentes regiones de una muestra de asfalto debido a su composición. Como se muestra en este proyecto, las técnicas de procesamiento de imágenes se utilizan cada vez más en multitud áreas, como pueden ser industriales o médicas. En consecuencia, este tipo de proyecto tiene multitud de posibilidades, y pudiendo ser la base para muchas nuevas aplicaciones que se puedan desarrollar en un futuro. Por último, se concluye que este proyecto ha contribuido a fortalecer las habilidades de programación, ampliando el conocimiento de Matlab y de la teoría de procesamiento de imágenes. Del mismo modo, este trabajo proporciona una base para el desarrollo de un proyecto más amplio cuyo alcance será una herramienta que puedas ser utilizada por el equipo de investigación de la Universidad Tecnológica de Lodz y en futuros proyectos. ABSTRACT In this project has been developed one code in MATLAB to process X-ray tomographic 3D images of asphalt specimens. These images 3D has been taken by a research team of the Lodz University of Technology (LUT). The aim of this project is to create a tool that can be used to study differents asphalt specimen and can be used to study them after stress tests undergoing the samples. With the final goal to find solutions to the degradation suffered roads in Poland due to differents causes, like weather conditions. The degradation of the roads is an issue that has been investigated many years ago, due to strong degradation suffered caused by various factors such as climate, poor maintenance or excessive traffic in some cases. It is in Poland where these three factors make the composition of many roads degrade rapidly, especially due to the weather conditions suffered along the year, with temperatures ranging from 30 o C in summer to -20 ° C in winter. This causes the roads suffers a lot and asphalt rises shortly after putting, increasing maintenance costs and road accident. This project part of the base that research is taking place at the LUT, in order to better analyze the asphalt specimens, they are tested for stress and find solutions to improve the asphalt on Polish roads. This would decrease remarkable maintenance cost. Although this project will not go into the technical aspect as asphalt and composition, but it has been required a deep study about all of its features, to create a code able to obtain the best results. For these reasons, there have been developed in Matlab, algorithms that allow the study of 3D specimens of asphalt. Matlab is a powerful mathematical tool, which allows arrays operate fastly, allowing to develop specific code for the treatment and processing of 3D images. Thus, these algorithms perform processes such as the multidimensional matrix sgementation, pre and post processing with the same filtering algorithms or microstructural analysis of asphalt specimen which being studied. All these algorithms and function that has been developed to be integrated into a visual tool which it be developed with the GUIDE of Matlab. This tool has been created in the project of Jorge Vega which name is: Microstructural segmentation of 3D images of asphalt specimen using Matlab engine. In this tool it has been used all the functions programmed in this project, and it has the aim to develop an easy and intuitive graphical environment for the study of 3D samples of asphalt. This project has been divided into 4 chapters plus the introduction, the second chapter introduces the state-of-the-art of the three of the most important topics that have been studied in this project: asphalt materials, principle of X-ray tomography and image processing. This will be the base for the third chapter, which will outline the methodology used in developing the code, explaining the working environment of Matlab and all the functions of processing images used. In addition, it will be shown all the developed code created, as well as a theoretical description of the methods used for preprocessing and 3D image segmentation. In Chapter 4 is shown the results obtained from the study of one of the specimens of asphalt, and finally the last chapter draws the conclusions regarding the development of this project.
Resumo:
La presente Tesis analiza las posibilidades que ofrecen en la actualidad las tecnologías del habla para la detección de patologías clínicas asociadas a la vía aérea superior. El estudio del habla que tradicionalmente cubre tanto la producción como el proceso de transformación del mensaje y las señales involucradas, desde el emisor hasta alcanzar al receptor, ofrece una vía de estudio alternativa para estas patologías. El hecho de que la señal emitida no solo contiene este mensaje, sino también información acerca del locutor, ha motivado el desarrollo de sistemas orientados a la identificación y verificación de la identidad de los locutores. Estos trabajos han recibido recientemente un nuevo impulso, orientándose tanto hacia la caracterización de rasgos que son comunes a varios locutores, como a las diferencias existentes entre grabaciones de un mismo locutor. Los primeros resultan especialmente relevantes para esta Tesis dado que estos rasgos podrían evidenciar la presencia de características relacionadas con una cierta condición común a varios locutores, independiente de su identidad. Tal es el caso que se enfrenta en esta Tesis, donde los rasgos identificados se relacionarían con una de la patología particular y directamente vinculada con el sistema de físico de conformación del habla. El caso del Síndrome de Apneas Hipopneas durante el Sueno (SAHS) resulta paradigmático. Se trata de una patología con una elevada prevalencia mundo, que aumenta con la edad. Los pacientes de esta patología experimentan episodios de cese involuntario de la respiración durante el sueño, que se prolongan durante varios segundos y que se reproducen a lo largo de la noche impidiendo el correcto descanso. En el caso de la apnea obstructiva, estos episodios se deben a la imposibilidad de mantener un camino abierto a través de la vía aérea, de forma que el flujo de aire se ve interrumpido. En la actualidad, el diagnostico de estos pacientes se realiza a través de un estudio polisomnográfico, que se centra en el análisis de los episodios de apnea durante el sueño, requiriendo que el paciente permanezca en el hospital durante una noche. La complejidad y el elevado coste de estos procedimientos, unidos a las crecientes listas de espera, han evidenciado la necesidad de contar con técnicas rápidas de detección, que si bien podrían no obtener tasas tan elevadas, permitirían reorganizar las listas de espera en función del grado de severidad de la patología en cada paciente. Entre otros, los sistemas de diagnostico por imagen, así como la caracterización antropométrica de los pacientes, han evidenciado la existencia de patrones anatómicos que tendrían influencia directa sobre el habla. Los trabajos dedicados al estudio del SAHS en lo relativo a como esta afecta al habla han sido escasos y algunos de ellos incluso contradictorios. Sin embargo, desde finales de la década de 1980 se conoce la existencia de patrones específicos relativos a la articulación, la fonación y la resonancia. Sin embargo, su descripción resultaba difícilmente aprovechable a través de un sistema de reconocimiento automático, pero apuntaba la existencia de un nexo entre voz y SAHS. En los últimos anos las técnicas de procesado automático han permitido el desarrollo de sistemas automáticos que ya son capaces de identificar diferencias significativas en el habla de los pacientes del SAHS, y que los distinguen de los locutores sanos. Por contra, poco se conoce acerca de la conexión entre estos nuevos resultados, los sé que habían obtenido en el pasado y la patogénesis del SAHS. Esta Tesis continua la labor desarrollada en este ámbito considerando específicamente: el estudio de la forma en que el SAHS afecta el habla de los pacientes, la mejora en las tasas de clasificación automática y la combinación de la información obtenida con los predictores utilizados por los especialistas clínicos en sus evaluaciones preliminares. Las dos primeras tareas plantean problemas simbióticos, pero diferentes. Mientras el estudio de la conexión entre el SAHS y el habla requiere de modelos acotados que puedan ser interpretados con facilidad, los sistemas de reconocimiento se sirven de un elevado número de dimensiones para la caracterización y posterior identificación de patrones. Así, la primera tarea debe permitirnos avanzar en la segunda, al igual que la incorporación de los predictores utilizados por los especialistas clínicos. La Tesis aborda el estudio tanto del habla continua como del habla sostenida, con el fin de aprovechar las sinergias y diferencias existentes entre ambas. En el análisis del habla continua se tomo como punto de partida un esquema que ya fue evaluado con anterioridad, y sobre el cual se ha tratado la evaluación y optimización de la representación del habla, así como la caracterización de los patrones específicos asociados al SAHS. Ello ha evidenciado la conexión entre el SAHS y los elementos fundamentales de la señal de voz: los formantes. Los resultados obtenidos demuestran que el éxito de estos sistemas se debe, fundamentalmente, a la capacidad de estas representaciones para describir dichas componentes, obviando las dimensiones ruidosas o con poca capacidad discriminativa. El esquema resultante ofrece una tasa de error por debajo del 18%, sirviéndose de clasificadores notablemente menos complejos que los descritos en el estado del arte y de una única grabación de voz de corta duración. En relación a la conexión entre el SAHS y los patrones observados, fue necesario considerar las diferencias inter- e intra-grupo, centrándonos en la articulación característica del locutor, sustituyendo los complejos modelos de clasificación por el estudio de los promedios espectrales. El resultado apunta con claridad hacia ciertas regiones del eje de frecuencias, sugiriendo la existencia de un estrechamiento sistemático en la sección del tracto en la región de la orofaringe, ya prevista en la patogénesis de este síndrome. En cuanto al habla sostenida, se han reproducido los estudios realizados sobre el habla continua en grabaciones de la vocal /a/ sostenida. Los resultados son cualitativamente análogos a los anteriores, si bien en este caso las tasas de clasificación resultan ser más bajas. Con el objetivo de identificar el sentido de este resultado se reprodujo el estudio de los promedios espectrales y de la variabilidad inter e intra-grupo. Ambos estudios mostraron importantes diferencias con los anteriores que podrían explicar estos resultados. Sin embargo, el habla sostenida ofrece otras oportunidades al establecer un entorno controlado para el estudio de la fonación, que también había sido identificada como una fuente de información para la detección del SAHS. De su estudio se pudo observar que, en el conjunto de datos disponibles, no existen variaciones que pudieran asociarse fácilmente con la fonación. Únicamente aquellas dimensiones que describen la distribución de energía a lo largo del eje de frecuencia evidenciaron diferencias significativas, apuntando, una vez más, en la dirección de las resonancias espectrales. Analizados los resultados anteriores, la Tesis afronta la fusión de ambas fuentes de información en un único sistema de clasificación. Con ello es posible mejorar las tasas de clasificación, bajo la hipótesis de que la información presente en el habla continua y el habla sostenida es fundamentalmente distinta. Esta tarea se realizo a través de un sencillo esquema de fusión que obtuvo un 88.6% de aciertos en clasificación (tasa de error del 11.4%), lo que representa una mejora significativa respecto al estado del arte. Finalmente, la combinación de este clasificador con los predictores utilizados por los especialistas clínicos ofreció una tasa del 91.3% (tasa de error de 8.7%), que se encuentra dentro del margen ofrecido por esquemas más costosos e intrusivos, y que a diferencia del propuesto, no pueden ser utilizados en la evaluación previa de los pacientes. Con todo, la Tesis ofrece una visión clara sobre la relación entre el SAHS y el habla, evidenciando el grado de madurez alcanzado por la tecnología del habla en la caracterización y detección del SAHS, poniendo de manifiesto que su uso para la evaluación de los pacientes ya sería posible, y dejando la puerta abierta a futuras investigaciones que continúen el trabajo aquí iniciado. ABSTRACT This Thesis explores the potential of speech technologies for the detection of clinical disorders connected to the upper airway. The study of speech traditionally covers both the production process and post processing of the signals involved, from the speaker up to the listener, offering an alternative path to study these pathologies. The fact that utterances embed not just the encoded message but also information about the speaker, has motivated the development of automatic systems oriented to the identification and verificaton the speaker’s identity. These have recently been boosted and reoriented either towards the characterization of traits that are common to several speakers, or to the differences between records of the same speaker collected under different conditions. The first are particularly relevant to this Thesis as these patterns could reveal the presence of features that are related to a common condition shared among different speakers, regardless of their identity. Such is the case faced in this Thesis, where the traits identified would relate to a particular pathology, directly connected to the speech production system. The Obstructive Sleep Apnea syndrome (OSA) is a paradigmatic case for analysis. It is a disorder with high prevalence among adults and affecting a larger number of them as they grow older. Patients suffering from this disorder experience episodes of involuntary cessation of breath during sleep that may last a few seconds and reproduce throughout the night, preventing proper rest. In the case of obstructive apnea, these episodes are related to the collapse of the pharynx, which interrupts the air flow. Currently, OSA diagnosis is done through a polysomnographic study, which focuses on the analysis of apnea episodes during sleep, requiring the patient to stay at the hospital for the whole night. The complexity and high cost of the procedures involved, combined with the waiting lists, have evidenced the need for screening techniques, which perhaps would not achieve outstanding performance rates but would allow clinicians to reorganize these lists ranking patients according to the severity of their condition. Among others, imaging diagnosis and anthropometric characterization of patients have evidenced the existence of anatomical patterns related to OSA that have direct influence on speech. Contributions devoted to the study of how this disorder affects scpeech are scarce and somehow contradictory. However, since the late 1980s the existence of specific patterns related to articulation, phonation and resonance is known. By that time these descriptions were virtually useless when coming to the development of an automatic system, but pointed out the existence of a link between speech and OSA. In recent years automatic processing techniques have evolved and are now able to identify significant differences in the speech of OSAS patients when compared to records from healthy subjects. Nevertheless, little is known about the connection between these new results with those published in the past and the pathogenesis of the OSA syndrome. This Thesis is aimed to progress beyond the previous research done in this area by addressing: the study of how OSA affects patients’ speech, the enhancement of automatic OSA classification based on speech analysis, and its integration with the information embedded in the predictors generally used by clinicians in preliminary patients’ examination. The first two tasks, though may appear symbiotic at first, are quite different. While studying the connection between speech and OSA requires simple narrow models that can be easily interpreted, classification requires larger models including a large number dimensions for the characterization and posterior identification of the observed patterns. Anyhow, it is clear that any progress made in the first task should allow us to improve our performance on the second one, and that the incorporation of the predictors used by clinicians shall contribute in this same direction. The Thesis considers both continuous and sustained speech analysis, to exploit the synergies and differences between them. On continuous speech analysis, a conventional speech processing scheme, designed and evaluated before this Thesis, was taken as a baseline. Over this initial system several alternative representations of the speech information were proposed, optimized and tested to select those more suitable for the characterization of OSA-specific patterns. Evidences were found on the existence of a connection between OSA and the fundamental constituents of the speech: the formants. Experimental results proved that the success of the proposed solution is well explained by the ability of speech representations to describe these specific OSA-related components, ignoring the noisy ones as well those presenting low discrimination capabilities. The resulting scheme obtained a 18% error rate, on a classification scheme significantly less complex than those described in the literature and operating on a single speech record. Regarding the connection between OSA and the observed patterns, it was necessary to consider inter-and intra-group differences for this analysis, and to focus on the articulation, replacing the complex classification models by the long-term average spectra. Results clearly point to certain regions on the frequency axis, suggesting the existence of a systematic narrowing in the vocal tract section at the oropharynx. This was already described in the pathogenesis of this syndrome. Regarding sustained speech, similar experiments as those conducted on continuous speech were reproduced on sustained phonations of vowel / a /. Results were qualitatively similar to the previous ones, though in this case perfomance rates were found to be noticeably lower. Trying to derive further knowledge from this result, experiments on the long-term average spectra and intraand inter-group variability ratios were also reproduced on sustained speech records. Results on both experiments showed significant differences from the previous ones obtained from continuous speech which could explain the differences observed on peformance. However, sustained speech also provided the opportunity to study phonation within the controlled framework it provides. This was also identified in the literature as a source of information for the detection of OSA. In this study it was found that, for the available dataset, no sistematic differences related to phonation could be found between the two groups of speakers. Only those dimensions which relate energy distribution along the frequency axis provided significant differences, pointing once again towards the direction of resonant components. Once classification schemes on both continuous and sustained speech were developed, the Thesis addressed their combination into a single classification system. Under the assumption that the information in continuous and sustained speech is fundamentally different, it should be possible to successfully merge the two of them. This was tested through a simple fusion scheme which obtained a 88.6% correct classification (11.4% error rate), which represents a significant improvement over the state of the art. Finally, the combination of this classifier with the variables used by clinicians obtained a 91.3% accuracy (8.7% error rate). This is within the range of alternative, but costly and intrusive schemes, which unlike the one proposed can not be used in the preliminary assessment of patients’ condition. In the end, this Thesis has shed new light on the underlying connection between OSA and speech, and evidenced the degree of maturity reached by speech technology on OSA characterization and detection, leaving the door open for future research which shall continue in the multiple directions that have been pointed out and left as future work.
Resumo:
Contiene: Apolo Carretero, alias el Parnaso Triunfal : esto es, nueva coleccion de los ingeniosos versos que se tiraban al pueblo de los Carros Triunfales de los Oficios / su autor Domingo Pablo, enano de Santa Ana, 1761
Resumo:
En este discurso de ingreso se destacó la importancia de la Mecánica de Materiales y el Modelado Matemático en Biomedicina y, en particular, se mostraron algunas aportaciones relacionadas con el comportamiento funcional de tejidos biológicos. Más en concreto se discutió la importancia de la transdisciplinariedad en la investigación actual y el papel que en esa búsqueda de un lenguaje común entre disciplinas tienen el modelado matemático y la simulación computacional.En particular, en la nueva Biomedicina basada en la evidencia, la interacción transdisciplinar es esencial, como lo demuestran resultados tan evidentes como los dispositivos e implantes inteligentes, las nuevas técnicas de imagen médica, la aparición de órganos artificiales o las crecientemente importantes técnicas de Ingeniería Tisular y Terapias Génica y Celular. Uno de los aspectos de creciente estudio en los últimos años es la epigenética, es decir, el estudio de la influencia del entorno específico de cada individuo en su respuesta biológica. Uno de estos estímulos externos, que se está constatando como fundamental, corresponde a las deformaciones, y ello en todas las escalas: molecular, celular, tisular y orgánica, dando lugar a una nueva subdisciplina: la Mecanobiología de creciente interés. En ella se acoplan los fenómenos mecánicos (movimiento, deformaciones, tensiones,..) con los biológicos (respuesta celular, expresión génica, adaptación tisular, regeneración y morfogénesis orgánica, etc.) y, en general, con otros campos físicos como la bioquímica o la electricidad también acoplados en los procesos de señalización y expresión celular. De nuevo el modelado multiescala y multifísico de estos problemas es esencial en su comprensión última y en el diseño de nuevas estrategias quirúrgicas, terapéuticas o de diagnostico. En este discurso se mostraron los problemas y posibilidades de estas metodologías y su aplicación en problemas tales como el diseño de implantes, la remodelación reparación y morfogénesis óseas, así como en la planificación preoperatoria y cirugía virtual.
Resumo:
El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.
Resumo:
Precede al tít.: "Jesus, Maria, Joseph, S. Joaquin y S. Ana"
Resumo:
El modelo de proyecto futuro requiere de un equilibrio entre la presencia estructural de sus técnicas, y el diagnostico de las ausencias culturales de su tiempo.
Resumo:
Inscripción de la primera imagen: "Plano Geometral del Sepulcro de Zalamea. Plan Géometral du Tombeau de Zalamea. Plan Geometrical of the Tomb at ZALAMEA". Inscripción de la segunda imagen: "Sepulcro de ZALAMEA. Tombeau de Zalamea. Tomb at Zalamea"
Resumo:
La Comunidad de Madrid ha tenido un pasado minero importante que ha dejado su vestigio en el territorio. Actualmente la explotación de minerales no metálicos y de rocas industriales y ornamentales continúa, pero no así la de la minería metálica que en el pasado fue abundante. Hoy en día todas estas minas están abandonadas, dando lugar a zonas degradadas con un elevado riesgo para la seguridad de las personas y de los animales terrestres que habitan por sus inmediaciones, y necesitan ser intervenidas atendiendo, además, a su integración o recuperación ecológica y paisajística en el territorio. El principal propósito de esta tesis es conocer la situación actual que presentan las minas abandonadas de metales y proponer unos modelos de actuación para la rehabilitación e integración de los espacios mineros abandonados de la Comunidad de Madrid, cuya ventaja también estriba en su posible extrapolación a otras aéreas de gestión con una problemática similar. Partiendo de una selección de cincuenta y siete minas de interior metálicas abandonadas, se ha hecho un diagnostico en función de su seguridad (riesgo), interés cultural, arqueológico e histórico y por su afección a espacios protegidos, resultando que en todas, excepto en tres de ellas, es preciso llevar a cabo medidas protectoras y de restauración e integración en el medio ambiente. El conjunto de minas catalogadas de alto riesgo para la seguridad son veintitrés, y sobre ellas se ha realizado un Análisis Clúster, en el que además de los criterios de gestión formulados: seguridad, protección del patrimonio minero-industrial e integración ecológico-paisajística, se han incorporado otros modificadores como distancia a poblaciones, caminos, pistas y vías pecuarias, y accesibilidad. Con los resultados de este análisis se obtienen una clasificación por grupos de las minas en relación con las características intrínsecas de las explotaciones preseleccionadas y la tipología de problemas que presentan, y a partir de ella se plantean soluciones viables que se concretan en la redacción de una serie de anteproyectos tipo. Una de las principales aportaciones es que se trata de un modelo de inventariocaracterización- actuación extrapolable a otros entornos similares con problemáticas parecidas. Las propuestas de actuación que figuran en los anteproyectos tipo se proponen como medidas aplicables en situaciones similares. La tesis además también incorpora una base de datos georreferenciada que permite la localización de las explotaciones mineras abandonadas, el acceso rápido a sus características y a la propuesta de restauración correspondiente. ABSTRACT The Community of Madrid had an important mining past that left its traces in the territory. Currently the explotation of non-metallic minerals and industrial and ornamental rocks continues, but not so much with the metal deposits that were abundant in the past. Today these mines are abandoned, resulting in degraded areas with a high risk to the safety of nearby people and animals that inhabit its vicinity, and they need to be intervened, by tending to their environment integration or ecological and landscape recovery. The main objective of this thesis is to know the current situation of abandoned metal mines and propose an action model for the rehabilitation and integration of abandoned mining areas of the Community of Madrid, whose advantage also is its possible extrapolation to other management areas with similar problems. From a selection of fifty-seven abandoned metal mines, a diagnosis has been made, based on safety (risk), cultural, archaeological and historical interests and how it can be related to protected areas, resulting that all but three of them need measures of protection, restoration and integration to the environment. The set of mines that are classified as a high security risk are twenty-three, and it has been made on them an Cluster Analysis, as in addition to the management formulated criteria, such as safety, protection of mining and industrial heritage and eco-landscape integration, it has been incorporated other modifying variables, such as distance to populations, roads, tracks and livestock paths, and accessibility. With the results of this analysis, a classification of similar groups of mines in relation with the intrinsic characteristics of the preselected mines and typology problems, and from it a set of viable solutions will be specified, being then drafted on a series of proposals. One of the main contributions of this research is that it consists of an inventorycharacterization- action model, which can be extrapolated to other similar environments with similar problems. The action measures that are contained in the proposals are defined as applicable to similar situations. The thesis also incorporates a geo-referenced database that allows finding the location of abandoned mines, thus giving quick access to its features and its corresponding restoration proposal.
Resumo:
O objetivo dessa tese é aprofundar, a partir do discurso pós-colonial, uma crise na perspectiva teológica da libertação. Esta promoveu, na década de 1970, uma reviravolta nos estudos teológicos no terceiro mundo. Para tanto, leremos um conto de Gabriel García Márquez chamado “El ahogado más hermosodel mundo” (1968) analizando e avaliando as estratégias políticas e culturais ali inscritas. Para levar a frente tal avaliação é preciso ampliar o escopo de uma visão que divide o mundo em secular/religioso, ou em ideias/práticas religiosas e não religiosas, para dar passo a uma visão unificada que compreende a mundanalidade, tanto do que é catalogado como ‘religioso’ quanto do que se pretende ‘não religioso’. A teologia/ciências da religião, como discurso científico sobre a economia das trocas que lidam com visões, compreensões e práticas de mundo marcadas pelo reconhecimento do mistério que lhes é inerente, possuem um papel fundamental na compreensão, explicitação, articulação e disponibilização de tais forças culturais. A percepção de existirem elementos no conto que se relacionam com os símbolos sobre Jesus/Cristo nos ofereceu um vetor de análise; entretanto, não nos deixamos limitar pelos grilhões disciplinares que essa simbologia implica. Ao mesmo tempo, esse vínculo, compreendido desde a relação imperial/colonial inerente aos discursos e imagens sobre Jesus-Cristo, embora sem centralizar a análise, não poderia ficar intocado. Partimos para a construção de uma estrutura teórica que explicitasse os valores, gestos, e horizontes mundanos do conto, cristológicos e não-cristológicos, contribuindo assim para uma desestabilização dos quadros tradicionais a partir dos quais se concebem a teologia e as ciências da religião, a obra de García Márquez como literatura, e a geografia imperial/colonial que postula o realismo ficcional de territórios como “América Latina”. Abrimos, assim, um espaço de significação que lê o conto como uma “não-cristologia”, deslocando o aprisionamento disciplinar e classificatório dos elementos envolvidos na análise. O discurso crítico de Edward Said, Homi Bhabha e GayatriSpivak soma-se à prática teórica de teólogas críticas feministas da Ásia, da África e da América Latina para formular o cenário político emancipatório que denominaremos teologia crítica secular.
Resumo:
No Quarto Evangelho Jesus se apresenta por meio de metáforas, sendo o objeto de nossa pesquisa a frase: “Eu sou o caminho, e a verdade, e a vida”, que será o ponto de partida condutor em busca da identidade do grupo joanino. No final do primeiro século, o grupo joanino se entende como fiéis herdeiros de Jesus, agora seguidores do discípulo João (filho de Zebedeu), o qual caminhou com Jesus. O grupo não se apresenta alheio à realidade da multiplicidade religiosa do período, mas está atento aos conflitos e aos caminhos divergentes para Deus. Isso nos aponta o quão identitário é o tema. A partir de uma leitura em João 13.33-14.31, nossa dissertação tem como objeto o modo como o grupo joanino recebe essa mensagem no imaginário, a exterioriza e reage no cotidiano, bem como os grupos posteriores do gnosticismo —como o Evangelho da Verdade da Biblioteca Copta de Nag Hammadi, elaborado a partir de leituras ulteriores que plasmam o mundo simbólico imaginário, cultivando diferentes características de pertença, gerando a identidade do grupo joanino.
Resumo:
Riassunto I biomarcatori o “marcatori biologici” svolgono un ruolo fondamentale nel monitoraggio biologico. In questo lavoro ci siamo soffermati sullo studio di biomarcatori di effetto e di esposizione a xenobiotici ambientali. Nel primo caso abbiamo valutato i micro RNA (miRNA) da utilizzare per la diagnosi precoce del tumore al polmone in matrici di facile accesso, quale il CAE e il plasma, utilizzando il miRNA-21, oncogeno, e il miRNA-486, oncosoppressore. I risultati evidenziano una loro capacità di distinguere correttamente i soggetti con tumore polmonare dai soggetti sani, ipotizzando un loro utilizzo a scopo diagnostico. Nella seconda parte del lavoro di tesi sono stati studiati i biomarcatori di esposizione a benzene per valutare gli effetti dell’esposizione a concentrazioni ambientali su bambini residenti in città e a diverso livello di urbanizzazione. Lo studio ha evidenziato una correlazione dose-effetto fra le concentrazioni di benzene e dei suoi metaboliti urinari e un danno ossidativo a livello degli acidi nucleici. Tuttavia, le concentrazioni di benzene urinario non sono influenzate dal grado di industrializzazione, a differenza dell’S-PMA e degli indicatori di stress ossidativo (8-oxodGuo e 8-oxoGuo) che sembrano risentire sia della residenza che del momento del campionamento. Infine abbiamo ricercato possibili biomarcatori di esposizione a vinilcicloesene (VCH), sottoprodotto industriale nella polimerizzazione del 1,3-butadiene, poiché non sono ancora stati proposti BEI di riferimento nonostante i bassi valori di TLV-TWA (0.1 ppm) proposti dall’ACGIH. Nella prima fase del lavoro abbiamo studiato i meccanismi di tossicità del VCH tramite modelli in vitro, testando varie linee cellulari. I risultati evidenziano come la dose reale di VCH sia di molto inferiore a quella nominale per effetto dell’evaporazione. Inoltre, nelle linee cellulari più sensibili si sono evidenziati effetti citostatici, con alterazioni del ciclo cellulare, a differenza dell’esposizione agli epossidi del VCH, il VCD e l’1,2-VCHME, che determinano lisi cellulare con IC50 di 3 ordini di grandezza inferiori a quelli del VCH. La quantificazione dei metaboliti di I fase e di II fase del VCH nelle linee cellulari epatiche ha evidenziato concentrazioni di circa 1000 volte inferiori a quelle del VCH confermando come la sua tossicità sia principalmente dovuta alla produzione degli intermedi epossidici. La trasformazione nei metaboliti di II fase conferma inoltre l’effetto detossificante del metabolismo. La trasferibilità dei risultati ottenuti in vitro su sistemi in vivo fornirà le basi per poter identificare possibili metaboliti da proporre per il monitoraggio biologico di lavoratori esposti a VCH. PAROLE CHIAVE: biomarcatori di effetto e di esposizione, tumore al polmone, miRNA, benzene, vinilcicloesene.
Resumo:
L’apparato respiratorio rappresenta il bersaglio di numerose sostanze tossiche aerodisperse che rivestono un ruolo chiave nella patogenesi della maggior parte delle patologie polmonari e pleuriche, sia benigne che maligne. Nonostante per alcune di esse siano noti specifici fattori di rischio, le sole attività di prevenzione primaria non sono sufficienti a limitarne la diffusione. Si rende quindi necessario attuare adeguate misure di prevenzione secondaria per la diagnosi di malattie potenzialmente curabili allo stadio iniziale, in modo da aumentare l’efficacia dei trattamenti terapeutici e le possibilità di guarigione. Un approccio non invasivo per lo studio dei meccanismi fisiopatologici alla base delle patologie polmonari e pleuriche potrebbe essere effettuato anche con nuove metodiche (es. naso elettronico), al fine di identificare e validare nuovi biomarcatori per un più specifico approccio diagnostico. Il lavoro scientifico ha riguardato inizialmente l’identificazione di un indicatore o di un gruppo di indicatori dotati di potere diagnostico sufficientemente elevato per poter discriminare precocemente, nell’ambito di soggetti con pregressa esposizone ad asbesto, patologie benigne, sia polmonari che pleuriche, da patologie maligne. Successivamente l’attenzione è stata rivolta alla diagnosi precoce di patologie neoplastiche a carico del solo parenchima polmonare, valutando il potere discriminante di un pattern di composti organici volatili (VOCs, tra cui pentano, 2-metilpentano, esano, etilbenzene, eptanale e trans-2-nonenale) raccolti con metodiche non invasive e dotati di potere diagnostico tale da discriminare patologie benigne da patologie maligne potenzialmente curabili in soggetti ad alto rischio di sviluppare cancro del polmone. Infine abbiamo tentato di ottimizzare i parametri di impostazione e raccolta di un nuovo strumento: il naso elettronico. Su di esso esistono alcuni lavori in letteratura in cui ne vengono descritte le potenzialità in ambito diagnostico per il riconoscimento di specifici pattern suggestivi di patologie polmonari, sia flogistiche (TBC, BPCO) che neoplastiche (mesotelioma, NSCLC). Purtroppo nessuno di questi lavori definisce le condizioni ottimali di utilizzo, i limiti dello strumento e le interferenze di fattori ambientali e soggettivi riguardo al segnale elaborato. Il lavoro si è concentrato soprattutto sull’indagine delle condizioni ottimali di utilizzo e sull’eventuale condizionamento del segnale da parte di determinate variabili ambientali (es. umidità) o individuali (es. fumo, cibo, alcol).
Resumo:
Introducción: Las respuestas anómalas tras la ingestión de alimentos es un hecho ampliamente conocido y frecuente. Se pueden producir diferente tipo de reacciones, entre las cuales destacan la alergia alimentaria y la intolerancia alimentaria. Objetivos: Elaborar un protocolo de actuación que permita realizar un proceso estandarizado a la hora de desarrollar un diagnostico precoz y plantear un plan de cuidado apropiado y específico para cada usuario. Material y métodos: Para operacionalizar la búsqueda en las bases de datos fue utilizado los descriptores enfermería, AP, intolerancia, alergia, infancia, celiaquía con este fin fueron consultadas las siguientes bases indexadoras PubMed, cuiden y Google académico. Resultados: En España, en un periodo de 15 años (desde 1997 a 2012) han pasado de existir 800.000 a 3 millones de personas que padecen reacciones adversas a los alimentos. Con respecto a las alergias alimentarias podemos decir que es la segunda más frecuente. Afecta a uno de cada 50 niños. La prevalencia real en adultos es del 2%, sin embargo la incidencia en la población infantil es del 3-7%. Conclusiones: Es importante la acción de enfermería en la detección de casos intolerancias o alergias. Es importante el papel de la enfermería en el seguimiento de múltiples enfermedades crónicas o no, debido al contacto que tenemos con el usuario. Es necesario fomentar la comunicación entre los profesionales del equipo de atención primaria, para mejorar la calidad asistencial y facilitar el diagnóstico, tratamiento y seguimiento de las diversas enfermedades.