916 resultados para Imágenes biomédicas
Resumo:
La tomografía axial computerizada (TAC) es la modalidad de imagen médica preferente para el estudio de enfermedades pulmonares y el análisis de su vasculatura. La segmentación general de vasos en pulmón ha sido abordada en profundidad a lo largo de los últimos años por la comunidad científica que trabaja en el campo de procesamiento de imagen; sin embargo, la diferenciación entre irrigaciones arterial y venosa es aún un problema abierto. De hecho, la separación automática de arterias y venas está considerado como uno de los grandes retos futuros del procesamiento de imágenes biomédicas. La segmentación arteria-vena (AV) permitiría el estudio de ambas irrigaciones por separado, lo cual tendría importantes consecuencias en diferentes escenarios médicos y múltiples enfermedades pulmonares o estados patológicos. Características como la densidad, geometría, topología y tamaño de los vasos sanguíneos podrían ser analizados en enfermedades que conllevan remodelación de la vasculatura pulmonar, haciendo incluso posible el descubrimiento de nuevos biomarcadores específicos que aún hoy en dípermanecen ocultos. Esta diferenciación entre arterias y venas también podría ayudar a la mejora y el desarrollo de métodos de procesamiento de las distintas estructuras pulmonares. Sin embargo, el estudio del efecto de las enfermedades en los árboles arterial y venoso ha sido inviable hasta ahora a pesar de su indudable utilidad. La extrema complejidad de los árboles vasculares del pulmón hace inabordable una separación manual de ambas estructuras en un tiempo realista, fomentando aún más la necesidad de diseñar herramientas automáticas o semiautomáticas para tal objetivo. Pero la ausencia de casos correctamente segmentados y etiquetados conlleva múltiples limitaciones en el desarrollo de sistemas de separación AV, en los cuales son necesarias imágenes de referencia tanto para entrenar como para validar los algoritmos. Por ello, el diseño de imágenes sintéticas de TAC pulmonar podría superar estas dificultades ofreciendo la posibilidad de acceso a una base de datos de casos pseudoreales bajo un entorno restringido y controlado donde cada parte de la imagen (incluyendo arterias y venas) está unívocamente diferenciada. En esta Tesis Doctoral abordamos ambos problemas, los cuales están fuertemente interrelacionados. Primero se describe el diseño de una estrategia para generar, automáticamente, fantomas computacionales de TAC de pulmón en humanos. Partiendo de conocimientos a priori, tanto biológicos como de características de imagen de CT, acerca de la topología y relación entre las distintas estructuras pulmonares, el sistema desarrollado es capaz de generar vías aéreas, arterias y venas pulmonares sintéticas usando métodos de crecimiento iterativo, que posteriormente se unen para formar un pulmón simulado con características realistas. Estos casos sintéticos, junto a imágenes reales de TAC sin contraste, han sido usados en el desarrollo de un método completamente automático de segmentación/separación AV. La estrategia comprende una primera extracción genérica de vasos pulmonares usando partículas espacio-escala, y una posterior clasificación AV de tales partículas mediante el uso de Graph-Cuts (GC) basados en la similitud con arteria o vena (obtenida con algoritmos de aprendizaje automático) y la inclusión de información de conectividad entre partículas. La validación de los fantomas pulmonares se ha llevado a cabo mediante inspección visual y medidas cuantitativas relacionadas con las distribuciones de intensidad, dispersión de estructuras y relación entre arterias y vías aéreas, los cuales muestran una buena correspondencia entre los pulmones reales y los generados sintéticamente. La evaluación del algoritmo de segmentación AV está basada en distintas estrategias de comprobación de la exactitud en la clasificación de vasos, las cuales revelan una adecuada diferenciación entre arterias y venas tanto en los casos reales como en los sintéticos, abriendo así un amplio abanico de posibilidades en el estudio clínico de enfermedades cardiopulmonares y en el desarrollo de metodologías y nuevos algoritmos para el análisis de imágenes pulmonares. ABSTRACT Computed tomography (CT) is the reference image modality for the study of lung diseases and pulmonary vasculature. Lung vessel segmentation has been widely explored by the biomedical image processing community, however, differentiation of arterial from venous irrigations is still an open problem. Indeed, automatic separation of arterial and venous trees has been considered during last years as one of the main future challenges in the field. Artery-Vein (AV) segmentation would be useful in different medical scenarios and multiple pulmonary diseases or pathological states, allowing the study of arterial and venous irrigations separately. Features such as density, geometry, topology and size of vessels could be analyzed in diseases that imply vasculature remodeling, making even possible the discovery of new specific biomarkers that remain hidden nowadays. Differentiation between arteries and veins could also enhance or improve methods processing pulmonary structures. Nevertheless, AV segmentation has been unfeasible until now in clinical routine despite its objective usefulness. The huge complexity of pulmonary vascular trees makes a manual segmentation of both structures unfeasible in realistic time, encouraging the design of automatic or semiautomatic tools to perform the task. However, this lack of proper labeled cases seriously limits in the development of AV segmentation systems, where reference standards are necessary in both algorithm training and validation stages. For that reason, the design of synthetic CT images of the lung could overcome these difficulties by providing a database of pseudorealistic cases in a constrained and controlled scenario where each part of the image (including arteries and veins) is differentiated unequivocally. In this Ph.D. Thesis we address both interrelated problems. First, the design of a complete framework to automatically generate computational CT phantoms of the human lung is described. Starting from biological and imagebased knowledge about the topology and relationships between structures, the system is able to generate synthetic pulmonary arteries, veins, and airways using iterative growth methods that can be merged into a final simulated lung with realistic features. These synthetic cases, together with labeled real CT datasets, have been used as reference for the development of a fully automatic pulmonary AV segmentation/separation method. The approach comprises a vessel extraction stage using scale-space particles and their posterior artery-vein classification using Graph-Cuts (GC) based on arterial/venous similarity scores obtained with a Machine Learning (ML) pre-classification step and particle connectivity information. Validation of pulmonary phantoms from visual examination and quantitative measurements of intensity distributions, dispersion of structures and relationships between pulmonary air and blood flow systems, show good correspondence between real and synthetic lungs. The evaluation of the Artery-Vein (AV) segmentation algorithm, based on different strategies to assess the accuracy of vessel particles classification, reveal accurate differentiation between arteries and vein in both real and synthetic cases that open a huge range of possibilities in the clinical study of cardiopulmonary diseases and the development of methodological approaches for the analysis of pulmonary images.
Resumo:
Abstract: Medical image processing in general and brain image processing in particular are computationally intensive tasks. Luckily, their use can be liberalized by means of techniques such as GPU programming. In this article we study NiftyReg, a brain image processing library with a GPU implementation using CUDA, and analyse different possible ways of further optimising the existing codes. We will focus on fully using the memory hierarchy and on exploiting the computational power of the CPU. The ideas that lead us towards the different attempts to change and optimize the code will be shown as hypotheses, which we will then test empirically using the results obtained from running the application. Finally, for each set of related optimizations we will study the validity of the obtained results in terms of both performance and the accuracy of the resulting images.
Resumo:
En el campo de la biomedicina se genera una inmensa cantidad de imágenes diariamente. Para administrarlas es necesaria la creación de sistemas informáticos robustos y ágiles, que necesitan gran cantidad de recursos computacionales. El presente artículo presenta un servicio de cloud computing capaz de manejar grandes colecciones de imágenes biomédicas. Gracias a este servicio organizaciones y usuarios podrían administrar sus imágenes biomédicas sin necesidad de poseer grandes recursos informáticos. El servicio usa un sistema distribuido multi agente donde las imágenes son procesadas y se extraen y almacenan en una estructura de datos las regiones que contiene junto con sus características. Una característica novedosa del sistema es que una misma imagen puede ser dividida, y las sub-imágenes resultantes pueden ser almacenadas por separado por distintos agentes. Esta característica ayuda a mejorar el rendimiento del sistema a la hora de buscar y recuperar las imágenes almacenadas.
Resumo:
La cuantificación del cambio de uso del suelo presenta aún altos niveles de incertidumbre, lo que repercute por ejemplo en la estimación de las emisiones de CO 2 . En este estudio se desarrollaron métodos, basados en imágenes de satélite y trabajo de campo, para estimar la tasa de cambio de la cobertura y uso del suelo, y las emisiones de CO 2 en la subcuenca río Dipilto, Nueva Segovia. La superficie de los tipos de vegetación se determinó con imágenes Landsat. Se utilizaron datos de carbono de nueve parcelas de muestreo en bosque de pino que fueron correlacionadas, para establecer un modelo de regresión lineal con el objetivo de estimar el Stock de Carbono. La sobreposición y algebra de mapas se utilizó para el escenario de emisiones de CO 2 . El análisis con imágenes de los años 1993, 2000 y 2011 reveló que durante es tos 18 años la velocidad a la que se perdieron los bosques latifoliados cerrado fue variable. Durante los primeros 7 años (1993 a 2000) se registró un aumento de 99.95 ha , que corresponde a una tasa de deforestación de - 1.45 % anual. Durante los últimos once años (2000 a 2011) esta cantidad cambió totalmente, ya que se eliminaron 331.76 h a , que corresponde a una tasa de deforestación anual de 3.41 %. Finalmente considerando el periodo de análisis, se transformaron más de 232.01 h a por año, correspondiente a u na tasa de deforestación anual de 1.55 %. La imagen de 2011 demostró que las reservas o Stock de C oscila entre 40 - 150 t/ha. Este intervalo de valores fue estimado por un modelo de regresión con razonable ajuste (R2 = 0.73 ), cuyas variables independientes fueron la reflectancia de las distintas bandas como índices de vegetación e infrarrojo cercano. Las pérdidas de C se estimaron en intervalos 1 - 191 t/h a en 20.76% del área. El 32.85% del área se mantuvo estable y 46.39% ganancias de 1 - 210 t/ha. La combinación de imágenes de resolución espacial media como son las de la serie Landsat para definir trayectorias de cambio de la cobertura del suelo, es una opción viable para la solución de interrogantes relacionadas con el cambio climático, tales como la estimación de las emisiones de CO 2 derivadas del cambio de uso del suelo.
Resumo:
Resumen: El trabajo que presentamos a continuación tiene como objetivo abordar distintos aspectos sobre la construcción de las imágenes y de las prácticas discursivas que se proyectaron sobre el Islam y los musulmanes en la Castilla medieval. En este sentido, daremos cuenta del contexto mediterráneo y peninsular en la tensión Cristianismo-Islam, así como también de algunas medidas que desde la Iglesia romana se proyectaban sobre los moros. Recogeremos los antecedentes de las polémicas antiislámicas para luego adentrarnos en el universo castellano y ejemplificar estas disputas con algunos escritores cristianos para analizar sus posturas respecto del Islam y la veracidad de su religión.
Resumo:
Resumen: El artículo invita a la reflexión respecto de la dicotomía entre economía y sociedad. Para esto, presenta una descripción de diferentes imágenes del mercado. La primera, representada por un mercado como espacio total, descripto a partir de la ciudad de Chicago y mediante los postulados de Becker. Luego, la segunda imagen remite a las tensiones entre mercado y sociedad, a través de las ideas de desarrolladas por Coraggio. Finalmente, el autor concluye presentando la imagen del mercado como un espacio humano y civil, presentando las consideraciones desarrolladas por Zamagni. Así, el autor deja planteado el interrogante acerca de cuál de las tres imágenes del mercado predominará en la agenda de las decisiones políticas, de la realidad económica y social y, en el imaginario simbólico de nuestra cultura.
Resumo:
Resumen: La adquisición de nuevos retratos de la reina Isabel II ha propiciado la revisión y puesta al día de un sugestivo corpus fotográfi co enormemente ilustrativo de la diversidad de recursos que la fotografía decimonónica ofrecía, así como de los cambios que afectaron al tema de la representación regia.
Resumo:
[ES] El proyecto estudia algoritmos de detección de bordes aplicados a imágenes fotográficas y procedentes de nubes de puntos, posteriormente combina los resultados y analiza las posibilidades de mejora de la solución conjunta.
Resumo:
En esta tesis de máster se presenta una metodología para el análisis automatizado de las señales del sonar de largo alcance y una aplicación basada en la técnica de reconocimiento óptico de Optical Character Recognition, caracteres (OCR). La primera contribución consiste en el análisis de imágenes de sonar mediante técnicas de procesamiento de imágenes. En este proceso, para cada imagen de sonar se extraen y se analizan las regiones medibles, obteniendo para cada región un conjunto de características. Con la ayuda de los expertos, cada región es identi cada en una clase (atún o no-atún). De este modo, mediante el aprendizaje supervisado se genera la base de datos y, a su vez, se obtiene un modelo de clasi cación. La segunda contribución es una aplicación OCR que reconoce y extrae de las capturas de pantalla de imágenes de sonar, los caracteres alfanuméricos correspondientes a los parámetros de situación (velocidad, rumbo, localización GPS) y la confi guración de sonar (ganancias, inclinación, ancho del haz). El objetivo de este proceso es el de maximizar la e ficiencia en la detección de atún en el Golfo de Vizcaya y dar el primer paso hacia el desarrollo de un índice de abundancia de esta especie, el cual esté basado en el procesamiento automático de las imágenes de sonar grabadas a bordo de la ota pesquera durante su actividad pesquera rutinaria.
Resumo:
Este proyecto consiste en analizar la viabilidad técnica un sistema de información para mejorar el comercio electrónico de compra –venta de ropa. El nuevo sistema de comercio electrónico ayudará al usuario a escoger el tamaño de la prenda con más precisión. El sistema consiste en calcular las medidas esenciales del cuerpo del cliente utilizando el dispositivo Kinect. Posteriormente, estas medidas se introducen en el programa Makehuman que genera un maniquí en 3D. Con la idea de que en el futuro se puede utilizar el maniquí para probar virtualmente prendas de vestir, se ha ideado un método, utilizando el programa Blender, que genera ropa en 3D con fotografías de prendas. Se generan dos ejemplos (pantalón y camiseta) para ilustrarlo.
Resumo:
El objetivo principal de este proyecto es la detección automática de objetos de interés en imágenes aéreas de zonas urbanas mediante el uso de descriptores característicos. Los descriptores considerados para esta tarea han sido los histogramas color y los descriptores LBP (Local Binary Pattern), así como la concatenación de ambos dando lugar a descriptores híbridos
Resumo:
En este proyecto se ha realizado el procesamiento de una imagen satelital multiespectral de México concretamente centrada en la región del Lago de Chapala. Este proceso tiene como objetivo la distinción de tierra y agua mediante un proceso semi-automático utilizando distintos software o herramientas informáticas. Dentro del proyecto podemos destacar ciertas fases u operaciones como el preprocesado realizado a la imagen satelital donde se han aplicado una serie de transformaciones, la aplicación de técnicas de clasificación supervisada mediante la realización de entrenamiento y testeo con regiones de interés extraídas de la imagen satelital para la obtención de clasificadores o la aplicación de estos clasificadores en la binarización de la imagen, obteniendo una imagen binaria donde un valor representa agua y otro tierra. También podemos destacar el empleo de índices de agua y vegetación como una herramienta fundamental en la detección y en el análisis de cuerpos de agua. Éstos han marcado la calidad de los resultados obtenidos en el proyecto.
Resumo:
Revista con LCC: Reconocimiento – NoComercial – SinObraDerivada (by-nc-nd)
Resumo:
Las nanoestructuras han sido muy estudiadas debido a su importancia en aplicaciones tecnológicas y biomédicas, como por ejemplo el recubrimiento de los sensores y biosensores. Estas necesitan ser recubiertas para su protección y/o funcionalización. Un estudio sobre las superficies de nanopartículas magnéticas y esféricas (MNPs) de Fe y Ni reveló que el tolueno actúa como catalizador de reacciones de condensación de los componentes aromáticos formando estructuras gigantes, policíclicas e irregulares, creando así una especie de recubrimiento de carbono. También se ha estudiado la posibilidad de formar recubrimientos con carbono en películas de hierro y permalloy (FeNi) en tiempos largos de tratamiento de 1 año. En el presente trabajo, debido a los resultados anteriores para las películas delgadas de hierro, se ha estudiado el desarrollo del proceso de deposición del grafeno defectuoso a temperatura ambiente, sobre las superficies de las películas delgadas de hierro en periodos de entre unos días hasta medio año aproximadamente. Se ha hecho un estudio en función del tiempo de inmersión en tolueno de las propiedades estructurales y magnéticas de las películas de hierro depositadas sobre vidrio. Las películas de hierro han sido preparadas por el método de pulverización catódica y después sumergidas en tolueno. Las técnicas utilizadas para la caracterización estructural han sido, la difracción de Rayos-X, los estudios de microscopia electrónica de barrido (SEM) y la perfilómetría. La caracterización magnética se ha hecho con un magnetómetro de Kerr (MOKE) y un magnetómetro vibrante (VSM). Las muestras cristalizaban en el sistema cúbico FCC del grupo espacial Fm-3m, con parámetro de celda de 3.5922Ǻ. El tamaño de dominio coherente para los índices de Miller (110) ha ido aumentando a lo largo del tratamiento. Para el índice de Miller (211) el tamaño de dominio coherente ha disminuido. Este comportamiento se explica tendiendo en cuenta el modelo propuesto en la literatura científica del proceso de formación de las estructuras de grafeno defectuoso. El análisis de las imágenes de SEM y los correspondientes datos de la emisión de Rayos-X han confirmado la presencia del carbono en la superficie. La cantidad del carbono en la superficie de las películas de hierro aumenta con el incremento del tiempo de inmersión en tolueno. Ha sido posible detectar la presencia del carbono en la superficie después de 9 días de inmersión (por lo tanto, el proceso de las estructuras policíclicas e irregulares es relativamente rápido). La deposición del carbono no resulta en una formación de estructura uniforme, así que cuanto más largo es el tratamiento, más complicadas son las estructuras. Como resultado del tratamiento superficial durante aproximadamente medio año, se observa un aumento de rugosidad de un micrómetro aproximadamente. La diferencia entre las medidas de MOKE y VSM para el campo coercitivo y la remanencia, se explica teniendo en cuenta el proceso de oxidación de la superficie y la interacción de algunas partes de la película de hierro con el tolueno, que pueden causar la relajación de las tensiones. La imanación de saturación obtenida para las películas después del tiempo de tratamiento de 135 días es de 192 emu por gramo. La disminución de la imanación de saturación es debida a la oxidación de las películas por el contacto con la atmósfera y el tolueno. En un cálculo aproximado se ha llegado a la conclusión que dicha capa tiene un espesor de 50 nm, repartida en dos capas de 25 nm. De todo lo anterior y de la base de análisis de las propiedades estructurales y magnéticas de las películas delgadas de hierro sumergidas en tolueno para hacer el tratamiento superficial a temperatura ambiente, se concluye, que las estructuras policíclicas e irregulares de grafeno defectuoso se forman relativamente rápido. El tratamiento con el tolueno no causa muchos cambios en la estructura y en las propiedades magnéticas, se trata de procesos superficiales. La modificación in situ de películas de hierro en tolueno, puede ser candidato a método de protección y funcionalización de los sensores magnéticos.
Resumo:
A lo largo de este Proyecto de Fin de Carrera se ha implementado una versión paralela mediante OpenMP de una aproximación al algoritmo de seg- mentación de imágenes level set. El fin de esta segmentación es la extracción de ciertas características de las imágenes necesarias para el cliente con el que se trabaja a lo largo de este proyecto. Además, se ha realizado un estudio previo de los tipos de técnicas de segmentación existentes y se han realizado pruebas experimentales con la paralelización realizada, con el fin de analizar la mejora realizada frente al algoritmo en serie.