841 resultados para Segmentación espectral


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente trabajo describe una nueva metodología para la detección automática del espacio glotal de imágenes laríngeas tomadas a partir de 15 vídeos grabados por el servicio ORL del hospital Gregorio Marañón de Madrid con luz estroboscópica. El sistema desarrollado está basado en el modelo de contornos activos (snake). El algoritmo combina en el pre-procesado, algunas técnicas tradicionales (umbralización y filtro de mediana) con técnicas más sofisticadas tales como filtrado anisotrópico. De esta forma, se obtiene una imagen apropiada para el uso de las snakes. El valor escogido para el umbral es del 85% del pico máximo del histograma de la imagen; sobre este valor la información de los píxeles no es relevante. El filtro anisotrópico permite distinguir dos niveles de intensidad, uno es el fondo y el otro es la glotis. La inicialización se basa en obtener el módulo del campo GVF; de esta manera se asegura un proceso automático para la selección del contorno inicial. El rendimiento del algoritmo se valida usando los coeficientes de Pratt y se compara contra una segmentación realizada manualmente y otro método automático basado en la transformada de watershed. SUMMARY: The present work describes a new methodology for the automatic detection of the glottal space from laryngeal images taken from 15 videos recorded by the ENT service of the Gregorio Marañon Hospital in Madrid with videostroboscopic equipment. The system is based on active contour models (snakes). The algorithm combines for the pre-processing, some traditional techniques (thresholding and median filter) with more sophisticated techniques such as anisotropic filtering. In this way, we obtain an appropriate image for the use of snake. The value selected for the threshold is 85% of the maximum peak of the image histogram; over this point the information of the pixels is not relevant. The anisotropic filter permits to distinguish two intensity levels, one is the background and the other one is the glottis. The initialization is based on the obtained magnitude by GVF field; in this manner an automatic process for the initial contour selection will be assured. The performance of the algorithm is tested using the Pratt coefficient and compared against a manual segmentation and another automatic method based on the watershed transformation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta Tesis Doctoral se aborda la utilización de filtros de difusión no lineal para obtener imágenes constantes a trozos como paso previo al proceso de segmentación. En una primera parte se propone un formulación intrínseca para la ecuación de difusión no lineal que proporcione las condiciones de diseño necesarias sobre los filtros de difusión. A partir del marco teórico propuesto, se proporciona una nueva familia de difusividades; éstas son obtenidas a partir de técnicas de difusión no lineal relacionadas con los procesos de difusión regresivos. El objetivo es descomponer la imagen en regiones cerradas que sean homogéneas en sus niveles de grises sin contornos difusos. Asimismo, se prueba que la función de difusividad propuesta satisface las condiciones de un correcto planteamiento semi-discreto. Esto muestra que mediante el esquema semi-implícito habitualmente utilizado, realmente se hace un proceso de difusión no lineal directa, en lugar de difusión inversa, conectando con proceso de preservación de bordes. Bajo estas condiciones establecidas, se plantea un criterio de parada para el proceso de difusión, para obtener imágenes constantes a trozos con un bajo coste computacional. Una vez aplicado todo el proceso al caso unidimensional, se extienden los resultados teóricos, al caso de imágenes en 2D y 3D. Para el caso en 3D, se detalla el esquema numérico para el problema evolutivo no lineal, con condiciones de contorno Neumann homogéneas. Finalmente, se prueba el filtro propuesto para imágenes reales en 2D y 3D y se ilustran los resultados de la difusividad propuesta como método para obtener imágenes constantes a trozos. En el caso de imágenes 3D, se aborda la problemática del proceso previo a la segmentación del hígado, mediante imágenes reales provenientes de Tomografías Axiales Computarizadas (TAC). En ese caso, se obtienen resultados sobre la estimación de los parámetros de la función de difusividad propuesta. This Ph.D. Thesis deals with the case of using nonlinear diffusion filters to obtain piecewise constant images as a previous process for segmentation techniques. I have first shown an intrinsic formulation for the nonlinear diffusion equation to provide some design conditions on the diffusion filters. According to this theoretical framework, I have proposed a new family of diffusivities; they are obtained from nonlinear diffusion techniques and are related with backward diffusion. Their goal is to split the image in closed contours with a homogenized grey intensity inside and with no blurred edges. It has also proved that the proposed filters satisfy the well-posedness semi-discrete and full discrete scale-space requirements. This shows that by using semi-implicit schemes, a forward nonlinear diffusion equation is solved, instead of a backward nonlinear diffusion equation, connecting with an edgepreserving process. Under the conditions established for the diffusivity and using a stopping criterion I for the diffusion time, I have obtained piecewise constant images with a low computational effort. The whole process in the one-dimensional case is extended to the case where 2D and 3D theoretical results are applied to real images. For 3D, develops in detail the numerical scheme for nonlinear evolutionary problem with homogeneous Neumann boundary conditions. Finally, I have tested the proposed filter with real images for 2D and 3D and I have illustrated the effects of the proposed diffusivity function as a method to get piecewise constant images. For 3D I have developed a preprocess for liver segmentation with real images from CT (Computerized Tomography). In this case, I have obtained results on the estimation of the parameters of the given diffusivity function.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Despite the growth experienced by e-commerce in recent years, results in terms of adoption rates and revenue are still far from the predictions made a few years ago. In order to achieve the expected growth rates, characteristics of con-sumers have to be studied so that an offer adapted to the customers' needs may be developed. In recent years, various methods have been used to perform consumer segmentations. In this paper we have analyzed and classified the articles published on e-commerce segmentation according to five criteria: country, target audience, type of segmentation variables, objective of segmentation and influence of product types. The results of the analysis show a small number of papers, mainly empiri-cal, that have provided only partial conclusions. New research options are pro-posed in the final section.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se presenta un algoritmo semiautomático de segmentación de aneurismas aórticos abdominales (AAA) basado en modelos activos de forma (ASM) y modelos de textura. La información de textura viene dada por un conjunto de cuatro imágenes 3D de resonancia magnética (RM) compuestas por cortes axiales de la zona abdominal. En estas imágenes son visibles la luz aórtica, la pared aórtica y el trombo intraluminal (ILT). Dado el tamaño limitado del conjunto de imágenes de RM, se han implementado un ASM que capture las características específicas del conjunto de entrenamiento compuesto por 35 imágenes de tomografía axial computarizada (CTA), de modo que la variación de forma pueda ser adecuadamente caracterizada. La textura se caracteriza a partir de las imágenes de RM. Para la evaluación del algoritmo se ha llevado a cabo una validación cruzada dejando uno fuera sobre el conjunto de imágenes de RM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento está organizado en cuatro grandes bloques. Tras este primer bloque introductorio, con un enfoque global, está el bloque II, dedicado al estado de la cuestión. En ella se desarrollarán, en dos capítulos, temas fuertemente relacionados con este proyecto. Por un lado, se ha realiza una introducción a la Neurociencia y a toda la parte biológica que se tratará durante el documento. Se explicarán herramientas informáticas que actualmente se usan en la biología, y se presentarán trabajos previos similares a los de este trabajo, y sobre todo la forma actual de recuperación de los datos biológicos necesarios. La parte III se corresponde con el estudio del problema y las posibles propuestas para su resolución. Se tratarán todos los algoritmos estudiados y se mostrarán los resultados obtenidos de la ejecución de alguno de ellos. En la última parte y para terminar, se expondrán las conclusiones del trabajo realizado, así como las líneas futuras en este campo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El análisis del comportamiento de los modos de interferencia tiene una aplicación cada vez mas amplia, especialmente en el campo de los biosensores opticos. En este tipo de sensores se observa el desplazamiento Δν de los modos de interferencia de la señal de transducción al reconocer un determinado agente biologico. Para medir ese desplazamiento se debe detectar la posición de un máximo o minimo de la senal antes y después de dicho desplazamiento. En este tipo de biosensores un parámetro de gran importancia es el periodo Pν de la senal el cual es inversamente proporcional al espesor óptico h0 del sensor en ausencia de agente biologico. El aumento de dicho periodo mejora la sensibilidad del sensor pero parece dificultar la detección del minimo o maximo. Por tanto, su efecto sobre la incetidumbre del resultado de la medida presentados efectos contrapuestos: la mejora de la sensibilidad frente a la dificultad creciente en la detección del minimo o maximo. En este trabajo, los autores analizan la propagación de incertidumbres en estos sensores utilizando herramientas de ajuste por MM.CC. para la detección de los minimos o máximos de la senal y técnicas de propagación de incertidumbres descritas en los suplementos 2 de la Guia ISO-GUM. El resultado del análisis permite dar una respuesta, justificada desde el punto de vista metrologico, de en que condiciones es conveniente o no aumentar el periodo Pν de la senal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis doctoral está encuadrada dentro del marco general de la ingeniería biomédica aplicada al tratamiento de las enfermedades cardiovasculares, enfermedades que provocan alrededor de 1.9 millones (40%) de muertes al año en la Unión Europea. En este contexto surge el proyecto europeo SCATh-Smart Catheterization, cuyo objetivo principal es mejorar los procedimientos de cateterismo aórtico introduciendo nuevas tecnologías de planificación y navegación quirúrgica y minimizando el uso de fluoroscopía. En particular, esta tesis aborda el modelado y diagnóstico de aneurismas aórticos abdominales (AAA) y del trombo intraluminal (TIL), allí donde esté presente, así como la segmentación de estas estructuras en imágenes preoperatorias de RM. Los modelos físicos específicos del paciente, construidos a partir de imágenes médicas preoperatorias, tienen múltiples usos, que van desde la evaluación preoperatoria de estructuras anatómicas a la planificación quirúrgica para el guiado de catéteres. En el diagnóstico y tratamiento de AAA, los modelos físicos son útiles a la hora de evaluar diversas variables biomecánicas y fisiológicas de las estructuras vasculares. Existen múltiples técnicas que requieren de la generación de modelos físicos que representen la anatomía vascular. Una de las principales aplicaciones de los modelos físicos es el análisis de elementos finitos (FE). Las simulaciones de FE para AAA pueden ser específicas para el paciente y permiten modelar estados de estrés complejos, incluyendo los efectos provocados por el TIL. La aplicación de métodos numéricos de análisis tiene como requisito previo la generación de una malla computacional que representa la geometría de interés mediante un conjunto de elementos poliédricos, siendo los hexaédricos los que presentan mejores resultados. En las estructuras vasculares, generar mallas hexaédricas es un proceso especialmente exigente debido a la compleja anatomía 3D ramificada. La mayoría de los AAA se encuentran situados en la bifurcación de la arteria aorta en las arterias iliacas y es necesario modelar de manera fiel dicha bifurcación. En el caso de que la sangre se estanque en el aneurisma provocando un TIL, éste forma una estructura adyacente a la pared aórtica. De este modo, el contorno externo del TIL es el mismo que el contorno interno de la pared, por lo que las mallas resultantes deben reflejar esta particularidad, lo que se denomina como "mallas conformadas". El fin último de este trabajo es modelar las estructuras vasculares de modo que proporcionen nuevas herramientas para un mejor diagnóstico clínico, facilitando medidas de riesgo de rotura de la arteria, presión sistólica o diastólica, etc. Por tanto, el primer objetivo de esta tesis es diseñar un método novedoso y robusto para generar mallas hexaédricas tanto de la pared aórtica como del trombo. Para la identificación de estas estructuras se utilizan imágenes de resonancia magnética (RM). Deben mantenerse sus propiedades de adyacencia utilizando elementos de alta calidad, prestando especial atención al modelado de la bifurcación y a que sean adecuadas para el análisis de FE. El método tiene en cuenta la evolución de la línea central del vaso en el espacio tridimensional y genera la malla directamente a partir de las imágenes segmentadas, sin necesidad de reconstruir superficies triangulares. Con el fin de reducir la intervención del usuario en el proceso de generación de las mallas, es también objetivo de esta tesis desarrollar un método de segmentación semiautomática de las distintas estructuras de interés. Las principales contribuciones de esta tesis doctoral son: 1. El diseño, implementación y evaluación de un algoritmo de generación de mallas hexaédricas conformadas de la pared y el TIL a partir de los contornos segmentados en imágenes de RM. Se ha llevado a cabo una evaluación de calidad que determine su aplicabilidad a métodos de FE. Los resultados demuestran que el algoritmo desarrollado genera mallas conformadas de alta calidad incluso en la región de la bifurcación, que son adecuadas para su uso en métodos de análisis de FE. 2. El diseño, implementación y evaluación de un método de segmentación automático de las estructuras de interés. La luz arterial se segmenta de manera semiautomática utilizando un software disponible a partir de imágenes de RM con contraste. Los resultados de este proceso sirven de inicialización para la segmentación automática de las caras interna y externa de la pared aórtica utilizando métodos basado en modelos de textura y forma a partir de imágenes de RM sin contraste. Los resultados demuestran que el algoritmo desarrollado proporciona segmentaciones fieles de las distintas estructuras de interés. En conclusión, el trabajo realizado en esta tesis doctoral corrobora las hipótesis de investigación postuladas, y pretende servir como aportación para futuros avances en la generación de modelos físicos de geometrías biológicas. ABSTRACT The frame of this PhD Thesis is the biomedical engineering applied to the treatment of cardiovascular diseases, which cause around 1.9 million deaths per year in the European Union and suppose about 40% of deaths per year. In this context appears the European project SCATh-Smart Catheterization. The main objective of this project is creating a platform which improves the navigation of catheters in aortic catheterization minimizing the use of fluoroscopy. In the framework of this project, the specific field of this PhD Thesis is the diagnosis and modeling of abdominal aortic aneurysm (AAAs) and the intraluminal thrombus (ILT) whenever it is present. Patient-specific physical models built from preoperative imaging are becoming increasingly important in the area of minimally invasive surgery. These models can be employed for different purposes, such as the preoperatory evaluation of anatomic structures or the surgical planning for catheter guidance. In the specific case of AAA diagnosis and treatment, physical models are especially useful for evaluating pressures over vascular structures. There are multiple techniques that require the generation of physical models which represent the target anatomy. Finite element (FE) analysis is one the principal applications for physical models. FE simulations for AAA may be patient-specific and allow modeling biomechanical and physiological variables including those produced by ILT, and also the segmentation of those anatomical structures in preoperative MR images. Applying numeric methods requires the generation of a proper computational mesh. These meshes represent the patient anatomy using a set of polyhedral elements, with hexahedral elements providing better results. In the specific case of vascular structures, generating hexahedral meshes is a challenging task due to the complex 3D branching anatomy. Each patient’s aneurysm is unique, characterized by its location and shape, and must be accurately represented for subsequent analyses to be meaningful. Most AAAs are located in the region where the aorta bifurcates into the iliac arteries and it is necessary to model this bifurcation precisely and reliably. If blood stagnates in the aneurysm and forms an ILT, it exists as a conforming structure with the aortic wall, i.e. the ILT’s outer contour is the same as the wall’s inner contour. Therefore, resulting meshes must also be conforming. The main objective of this PhD Thesis is designing a novel and robust method for generating conforming hexahedral meshes for the aortic wall and the thrombus. These meshes are built using largely high-quality elements, especially at the bifurcation, that are suitable for FE analysis of tissue stresses. The method accounts for the evolution of the vessel’s centerline which may develop outside a single plane, and generates the mesh directly from segmented images without the requirement to reconstruct triangular surfaces. In order to reduce the user intervention in the mesh generation process is also a goal of this PhD. Thesis to develop a semiautomatic segmentation method for the structures of interest. The segmentation is performed from magnetic resonance image (MRI) sequences that have tuned to provide high contrast for the arterial tissue against the surrounding soft tissue, so that we determine the required information reliably. The main contributions of this PhD Thesis are: 1. The design, implementation and evaluation of an algorithm for generating hexahedral conforming meshes of the arterial wall and the ILT from the segmented contours. A quality inspection has been applied to the meshes in order to determine their suitability for FE methods. Results show that the developed algorithm generates high quality conforming hexahedral meshes even at the bifurcation region. Thus, these meshes are suitable for FE analysis. 2. The design, implementation and evaluation of a semiautomatic segmentation method for the structures of interest. The lumen is segmented in a semiautomatic way from contrast filled MRI using an available software. The results obtained from this process are used to initialize the automatic segmentation of the internal and external faces of the aortic wall. These segmentations are performed by methods based on texture and shape models from MRI with no contrast. The results show that the algorithm provides faithful segmentations of the structures of interest requiring minimal user intervention. In conclusion, the work undertaken in this PhD. Thesis verifies the investigation hypotheses. It intends to serve as basis for future physical model generation of proper biological anatomies used by numerical methods.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La reconstrucción y caracterización de las espinas dendríticas es hoy en día un área de trabajo de gran interés en la investigación neurobiológica. Las dendritas son prolongaciones en forma de ramas de la neurona. Las espinas dendríticas se encuentran a lo largo de las dendritas y son las encargadas de transmitir los impulsos electroquímicos al cuerpo de la neurona. El objetivo de este trabajo es desarrollar un algoritmo con el objetivo de mejorar las reconstrucciones 3D de las espinas dendríticas. Se ha utilizado un algoritmo de segmentación basado en los contornos activos morfológicos para analizar las imágenes de partida y conseguir nuevas reconstrucciones 3D fieles a estas imágenes. En este documento presentamos todo el desarrollo necesario para llevar a cabo los objetivos del proyecto. Por último también se presentarán los resultados obtenidos con este método comparándolo con las reconstrucciones de partida. ABSTRACT The reconstruction and characterization of dendritic spines is a hot topic in modern neurobiology research. Dendrites are the branched ramifications of a neuron. Dendritic spines are found along the dendrites and are responsible for transmitting electrochemical signals to the neuron’s main body. The purpose of this work is to develop an algorithm to improve the 3D reconstruction of dendritic spines. We use a segmentation algorithm based on morphological active contours to analyze the images and get new faithful 3D reconstructions of these images. In this document we present all the development necessary to accomplish the project goals. Finally, we will compare present results obtained by this method with the starting reconstructions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La segmentación de imágenes puede plantearse como un problema de minimización de una energía discreta. Nos enfrentamos así a una doble cuestión: definir una energía cuyo mínimo proporcione la segmentación buscada y, una vez definida la energía, encontrar un mínimo absoluto de la misma. La primera parte de esta tesis aborda el segundo problema, y la segunda parte, en un contexto más aplicado, el primero. Las técnicas de minimización basadas en cortes de grafos permiten obtener el mínimo de una energía discreta en tiempo polinomial mediante algoritmos de tipo min-cut/max-flow. Sin embargo, estas técnicas solo pueden aplicarse a energías que son representabas por grafos. Un importante reto es estudiar qué energías son representabas así como encontrar un grafo que las represente, lo que equivale a encontrar una función gadget con variables adicionales. En la primera parte de este trabajo se estudian propiedades de las funciones gadgets que permiten acotar superiormente el número de variables adicionales. Además se caracterizan las energías con cuatro variables que son representabas, definiendo gadgets con dos variables adicionales. En la segunda parte, más práctica, se aborda el problema de segmentación de imágenes médicas, base en muchas ocasiones para la diagnosis y el seguimiento de terapias. La segmentación multi-atlas es una potente técnica de segmentación automática de imágenes médicas, con tres aspectos importantes a destacar: el tipo de registro entre los atlas y la imagen objetivo, la selección de atlas y el método de fusión de etiquetas. Este último punto puede formularse como un problema de minimización de una energía. A este respecto introducimos dos nuevas energías representables. La primera, de orden dos, se utiliza en la segmentación en hígado y fondo de imágenes abdominales obtenidas mediante tomografía axial computarizada. La segunda, de orden superior, se utiliza en la segmentación en hipocampos y fondo de imágenes cerebrales obtenidas mediante resonancia magnética. ABSTRACT The image segmentation can be described as the problem of minimizing a discrete energy. We face two problems: first, to define an energy whose minimum provides the desired segmentation and, second, once the energy is defined we must find its global minimum. The first part of this thesis addresses the second problem, and the second part, in a more applied context, the first problem. Minimization techniques based on graph cuts find the minimum of a discrete energy in polynomial time via min-cut/max-flow algorithms. Nevertheless, these techniques can only be applied to graph-representable energies. An important challenge is to study which energies are graph-representable and to construct graphs which represent these energies. This is the same as finding a gadget function with additional variables. In the first part there are studied the properties of gadget functions which allow the number of additional variables to be bounded from above. Moreover, the graph-representable energies with four variables are characterised and gadgets with two additional variables are defined for these. The second part addresses the application of these ideas to medical image segmentation. This is often the first step in computer-assisted diagnosis and monitoring therapy. Multiatlas segmentation is a powerful automatic segmentation technique for medical images, with three important aspects that are highlighted here: the registration between the atlas and the target image, the atlas selection, and the label fusion method. We formulate the label fusion method as a minimization problem and we introduce two new graph-representable energies. The first is a second order energy and it is used for the segmentation of the liver in computed tomography (CT) images. The second energy is a higher order energy and it is used for the segmentation of the hippocampus in magnetic resonance images (MRI).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The analysis of the interference modes has an increasing application, especially in the field of optical biosensors. In this type of sensors, the displacement Δν of the interference modes of the transduction signal is observed when a particular biological agent is placed over the biosensor. In order to measure this displacement, the position of a maximum (or a minimum) of the signal must be detected before and after placing the agent over the sensor. A parameter of great importance for this kind of sensors is the period Pν of the signal, which is inversely proportional to the optical thickness h0 of the sensor in the absence of the biological agent. The increase of this period improves the sensitivity of the sensor but it worsens the detection of the maximum. In this paper, authors analyze the propagation of uncertainties in these sensors when using least squares techniques for the detection of the maxima (or minima) of the signal. Techniques described in supplement 2 of the ISO-GUM Guide are used. The result of the analysis allows a metrological educated answer to the question of which is the optimal period Pν of the signal. El análisis del comportamiento de los modos de interferencia tiene una aplicación cada vez más amplia, especialmente en el campo de los biosensores ópticos. En este tipo de sensores se observa el desplazamiento Δν de los modos de interferencia de la señal de transducción al reconocer un de-terminado agente biológico. Para medir ese desplazamiento se debe detectar la posición de un máximo o mínimo de la señal antes y después de dicho desplazamiento. En este tipo de biosensores un parámetro de gran importancia es el periodo Pν de la señal el cual es inversamente proporcional al espesor óptico h0 del sensor en ausencia de agente biológico. El aumento de dicho periodo mejora la sensibilidad del sensor pero parece dificultar la detección del mínimo o máximo. Por tanto, su efecto sobre la incertidumbre del resultado de la medida presenta dos efectos contrapuestos: la mejora de la sensibilidad frente a la dificultad creciente en la detección del mínimo ó máximo. En este trabajo, los autores analizan la propagación de incertidumbres en estos sensores utilizando herramientas de ajuste por MM.CC. para la detección de los mínimos o máximos de la señal y técnicas de propagación de incertidumbres descritas en el suplemento 2 de la Guía ISO-GUM. El resultado del análisis permite dar una respuesta, justificada desde el punto de vista metrológico, de en que condiciones es conveniente o no aumentar el periodo Pν de la señal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este Trabajo de Fin de Grado consiste en el análisis, evaluación y mejora de un sistema de segmentación temporal de vídeo, embebido dentro de un programa de caracterización estética de vídeos que detecta cambios de plano a través de cortes, fundidos y encadenados. En primer lugar se realiza un análisis del programa original empleando métricas que permitan cuantificar el rendimiento y detectar los principales problemas y su contexto, buscando patrones comunes que permitan enfocar las mejoras necesarias para solventar dichos problemas. A continuación, se proponen mejoras tanto funcionales como no funcionales, que son acometidas en la fase de diseño e implementación. Para las mejoras relacionadas con la segmentación temporal, se aplican técnicas existentes en el estado del arte y se adaptan a las necesidades del programa. Finalmente, se evalúa el programa comprobando que las métricas que habían cuantificado los problemas han mejorado y detallando el posible trabajo futuro a realizar sobre el programa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomografía axial computerizada (TAC) es la modalidad de imagen médica preferente para el estudio de enfermedades pulmonares y el análisis de su vasculatura. La segmentación general de vasos en pulmón ha sido abordada en profundidad a lo largo de los últimos años por la comunidad científica que trabaja en el campo de procesamiento de imagen; sin embargo, la diferenciación entre irrigaciones arterial y venosa es aún un problema abierto. De hecho, la separación automática de arterias y venas está considerado como uno de los grandes retos futuros del procesamiento de imágenes biomédicas. La segmentación arteria-vena (AV) permitiría el estudio de ambas irrigaciones por separado, lo cual tendría importantes consecuencias en diferentes escenarios médicos y múltiples enfermedades pulmonares o estados patológicos. Características como la densidad, geometría, topología y tamaño de los vasos sanguíneos podrían ser analizados en enfermedades que conllevan remodelación de la vasculatura pulmonar, haciendo incluso posible el descubrimiento de nuevos biomarcadores específicos que aún hoy en dípermanecen ocultos. Esta diferenciación entre arterias y venas también podría ayudar a la mejora y el desarrollo de métodos de procesamiento de las distintas estructuras pulmonares. Sin embargo, el estudio del efecto de las enfermedades en los árboles arterial y venoso ha sido inviable hasta ahora a pesar de su indudable utilidad. La extrema complejidad de los árboles vasculares del pulmón hace inabordable una separación manual de ambas estructuras en un tiempo realista, fomentando aún más la necesidad de diseñar herramientas automáticas o semiautomáticas para tal objetivo. Pero la ausencia de casos correctamente segmentados y etiquetados conlleva múltiples limitaciones en el desarrollo de sistemas de separación AV, en los cuales son necesarias imágenes de referencia tanto para entrenar como para validar los algoritmos. Por ello, el diseño de imágenes sintéticas de TAC pulmonar podría superar estas dificultades ofreciendo la posibilidad de acceso a una base de datos de casos pseudoreales bajo un entorno restringido y controlado donde cada parte de la imagen (incluyendo arterias y venas) está unívocamente diferenciada. En esta Tesis Doctoral abordamos ambos problemas, los cuales están fuertemente interrelacionados. Primero se describe el diseño de una estrategia para generar, automáticamente, fantomas computacionales de TAC de pulmón en humanos. Partiendo de conocimientos a priori, tanto biológicos como de características de imagen de CT, acerca de la topología y relación entre las distintas estructuras pulmonares, el sistema desarrollado es capaz de generar vías aéreas, arterias y venas pulmonares sintéticas usando métodos de crecimiento iterativo, que posteriormente se unen para formar un pulmón simulado con características realistas. Estos casos sintéticos, junto a imágenes reales de TAC sin contraste, han sido usados en el desarrollo de un método completamente automático de segmentación/separación AV. La estrategia comprende una primera extracción genérica de vasos pulmonares usando partículas espacio-escala, y una posterior clasificación AV de tales partículas mediante el uso de Graph-Cuts (GC) basados en la similitud con arteria o vena (obtenida con algoritmos de aprendizaje automático) y la inclusión de información de conectividad entre partículas. La validación de los fantomas pulmonares se ha llevado a cabo mediante inspección visual y medidas cuantitativas relacionadas con las distribuciones de intensidad, dispersión de estructuras y relación entre arterias y vías aéreas, los cuales muestran una buena correspondencia entre los pulmones reales y los generados sintéticamente. La evaluación del algoritmo de segmentación AV está basada en distintas estrategias de comprobación de la exactitud en la clasificación de vasos, las cuales revelan una adecuada diferenciación entre arterias y venas tanto en los casos reales como en los sintéticos, abriendo así un amplio abanico de posibilidades en el estudio clínico de enfermedades cardiopulmonares y en el desarrollo de metodologías y nuevos algoritmos para el análisis de imágenes pulmonares. ABSTRACT Computed tomography (CT) is the reference image modality for the study of lung diseases and pulmonary vasculature. Lung vessel segmentation has been widely explored by the biomedical image processing community, however, differentiation of arterial from venous irrigations is still an open problem. Indeed, automatic separation of arterial and venous trees has been considered during last years as one of the main future challenges in the field. Artery-Vein (AV) segmentation would be useful in different medical scenarios and multiple pulmonary diseases or pathological states, allowing the study of arterial and venous irrigations separately. Features such as density, geometry, topology and size of vessels could be analyzed in diseases that imply vasculature remodeling, making even possible the discovery of new specific biomarkers that remain hidden nowadays. Differentiation between arteries and veins could also enhance or improve methods processing pulmonary structures. Nevertheless, AV segmentation has been unfeasible until now in clinical routine despite its objective usefulness. The huge complexity of pulmonary vascular trees makes a manual segmentation of both structures unfeasible in realistic time, encouraging the design of automatic or semiautomatic tools to perform the task. However, this lack of proper labeled cases seriously limits in the development of AV segmentation systems, where reference standards are necessary in both algorithm training and validation stages. For that reason, the design of synthetic CT images of the lung could overcome these difficulties by providing a database of pseudorealistic cases in a constrained and controlled scenario where each part of the image (including arteries and veins) is differentiated unequivocally. In this Ph.D. Thesis we address both interrelated problems. First, the design of a complete framework to automatically generate computational CT phantoms of the human lung is described. Starting from biological and imagebased knowledge about the topology and relationships between structures, the system is able to generate synthetic pulmonary arteries, veins, and airways using iterative growth methods that can be merged into a final simulated lung with realistic features. These synthetic cases, together with labeled real CT datasets, have been used as reference for the development of a fully automatic pulmonary AV segmentation/separation method. The approach comprises a vessel extraction stage using scale-space particles and their posterior artery-vein classification using Graph-Cuts (GC) based on arterial/venous similarity scores obtained with a Machine Learning (ML) pre-classification step and particle connectivity information. Validation of pulmonary phantoms from visual examination and quantitative measurements of intensity distributions, dispersion of structures and relationships between pulmonary air and blood flow systems, show good correspondence between real and synthetic lungs. The evaluation of the Artery-Vein (AV) segmentation algorithm, based on different strategies to assess the accuracy of vessel particles classification, reveal accurate differentiation between arteries and vein in both real and synthetic cases that open a huge range of possibilities in the clinical study of cardiopulmonary diseases and the development of methodological approaches for the analysis of pulmonary images.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Ingeniería Biomédica surgió en la década de 1950 como una fascinante mezcla interdisciplinaria, en la cual la ingeniería, la biología y la medicina aunaban esfuerzos para analizar y comprender distintas enfermedades. Las señales existentes en este área deben ser analizadas e interpretadas, más allá de las capacidades limitadas de la simple vista y la experiencia humana. Aquí es donde el procesamiento digital de la señal se postula como una herramienta indispensable para extraer la información relevante oculta en dichas señales. La electrocardiografía fue una de las primeras áreas en las que se aplicó el procesado digital de señales hace más de 50 años. Las señales electrocardiográficas continúan siendo, a día de hoy, objeto de estudio por parte de cardiólogos e ingenieros. En esta área, las técnicas de procesamiento de señal han ayudado a encontrar información oculta a simple vista que ha cambiado la forma de tratar ciertas enfermedades que fueron ya diagnosticadas previamente. Desde entonces, se han desarrollado numerosas técnicas de procesado de señales electrocardiográficas, pudiéndose resumir estas en tres grandes categorías: análisis tiempo-frecuencia, análisis de organización espacio-temporal y separación de la actividad atrial del ruido y las interferencias. Este proyecto se enmarca dentro de la primera categoría, análisis tiempo-frecuencia, y en concreto dentro de lo que se conoce como análisis de frecuencia dominante, la cual se va a aplicar al análisis de señales de fibrilación auricular. El proyecto incluye una parte teórica de análisis y desarrollo de algoritmos de procesado de señal, y una parte práctica, de programación y simulación con Matlab. Matlab es una de las herramientas fundamentales para el procesamiento digital de señales por ordenador, la cual presenta importantes funciones y utilidades para el desarrollo de proyectos en este campo. Por ello, se ha elegido dicho software como herramienta para la implementación del proyecto. ABSTRACT. Biomedical Engineering emerged in the 1950s as a fascinating interdisciplinary blend, in which engineering, biology and medicine pooled efforts to analyze and understand different diseases. Existing signals in this area should be analyzed and interpreted, beyond the limited capabilities of the naked eye and the human experience. This is where the digital signal processing is postulated as an indispensable tool to extract the relevant information hidden in these signals. Electrocardiography was one of the first areas where digital signal processing was applied over 50 years ago. Electrocardiographic signals remain, even today, the subject of close study by cardiologists and engineers. In this area, signal processing techniques have helped to find hidden information that has changed the way of treating certain diseases that were already previously diagnosed. Since then, numerous techniques have been developed for processing electrocardiographic signals. These methods can be summarized into three categories: time-frequency analysis, analysis of spatio-temporal organization and separation of atrial activity from noise and interferences. This project belongs to the first category, time-frequency analysis, and specifically to what is known as dominant frequency analysis, which is one of the fundamental tools applied in the analysis of atrial fibrillation signals. The project includes a theoretical part, related to the analysis and development of signal processing algorithms, and a practical part, related to programming and simulation using Matlab. Matlab is one of the fundamental tools for digital signal processing, presenting significant functions and advantages for the development of projects in this field. Therefore, we have chosen this software as a tool for project implementation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La distribución de nutrientes del suelo presenta una gran variabilidad. Algunos estudios indican la interdependencia entre atributos físico-químicos, concluyendo que se necesitan muestreos densos para caracterizar eficientemente la distribución espacial. Para la realización de este trabajo experimental se han empleado datos tanto espectrales, obtenidos con el espectrofotómetro Veris Vis-NIR, como de referencia, mediante análisis de laboratorio, correspondientes a 341 muestras de suelo de 41 ha. Para ambos tipos de datos se ha realizado un análisis de componentes principales (PCA), y un análisis de Conglomerados (Clúster). En las variables de referencia se escogieron aquellos atributos con mayor coeficiente de variación: arcilla, potasio, fósforo, calcio, magnesio, materia orgánica y capacidad de intercambio catiónica efectiva. El objetivo principal es establecer las necesidades mínimas de muestreo comparando los resultados obtenidos con plantillas cartesianas de distinta resolución, y determinar la relación existente entre la cantidad de nutrientes y la reflectáncia espectral Vis-NIR.