8 resultados para Procesamiento Imágenes Cerebrales
em Repositorio Institucional de la Universidad de Málaga
Resumo:
Abstract: As time has passed, the general purpose programming paradigm has evolved, producing different hardware architectures whose characteristics differ widely. In this work, we are going to demonstrate, through different applications belonging to the field of Image Processing, the existing difference between three Nvidia hardware platforms: two of them belong to the GeForce graphics cards series, the GTX 480 and the GTX 980 and one of the low consumption platforms which purpose is to allow the execution of embedded applications as well as providing an extreme efficiency: the Jetson TK1. With respect to the test applications we will use five examples from Nvidia CUDA Samples. These applications are directly related to Image Processing, as the algorithms they use are similar to those from the field of medical image registration. After the tests, it will be proven that GTX 980 is both the device with the highest computational power and the one that has greater consumption, it will be seen that Jetson TK1 is the most efficient platform, it will be shown that GTX 480 produces more heat than the others and we will learn other effects produced by the existing difference between the architecture of the devices.
Resumo:
Abstract: Medical image processing in general and brain image processing in particular are computationally intensive tasks. Luckily, their use can be liberalized by means of techniques such as GPU programming. In this article we study NiftyReg, a brain image processing library with a GPU implementation using CUDA, and analyse different possible ways of further optimising the existing codes. We will focus on fully using the memory hierarchy and on exploiting the computational power of the CPU. The ideas that lead us towards the different attempts to change and optimize the code will be shown as hypotheses, which we will then test empirically using the results obtained from running the application. Finally, for each set of related optimizations we will study the validity of the obtained results in terms of both performance and the accuracy of the resulting images.
Resumo:
La aplicación Control Camera IP, desarrolla como Proyecto Fin de Carrera en la ETS. De Ingeniería Informática de la Universidad de Málaga, fue concebida como una interfaz de usuario para la monitorización y control de cámaras IP de forma remota, pudiendo ésta ejecutarse en diferentes plataformas, incluyendo dispositivos móviles con sistemas Android. En aquel momento sin embargo, las plataformas Android no disponían de una librería oficial dentro del marco de la herramienta de desarrollo utilizada (la biblioteca de desarrollo multiplataforma Qt), por lo que fue utilizada una versión alternativa no oficial denominada Necessitas Qt for Android. Hoy, con la versión 5 de Qt, existe la posibilidad de dar soporte a las plataformas Android de forma oficial, por lo que es posible adaptar la aplicación a esta nueva versión. En este Trabajo Fin de Grado, se ha adaptado la aplicación Control Camera IP a la versión 5 de Qt, logrando así crear plataformas para dispositivos Android de forma oficial. Además, se hace uso de la biblioteca OpenCV para el desarrollo de varios métodos de procesamiento sobre la imagen recibida por la cámara IP, así como algoritmos de detección de movimiento y de caras de personas, haciendo uso de técnicas de visión por computador. Finalmente, se introduce la posibilidad de utilizar APIs estandarizadas para la conectividad de la aplicación con cámaras IP de bajo coste, adaptando algunas de sus funciones a la aplicación Control Camera IP.
Resumo:
En esta tesis se aborda la implementación de un sistema completo de visión activa, en el que se capturan y generan imágenes de resolución espacial variable. Todo el sistema se integra en un sólo dispositivo del tipo AP SoC (All Programmable System on Chip), lo que nos permite llevar a cabo el codiseño hardware-software del mismo, implementando en la parte lógica los bloques de preprocesado intensivo, y en la parte software los algoritmos de procesado de control más complejo. El objetivo es que, trabajando con un campo visual del orden de Megapíxeles, se pueda procesar una tasa moderada de imágenes por segundo. Las imágenes multiresolución se generan a partir de sensores de resolución uniforme con una latencia nula, lo que permite tener preparada la imagen de resolución variable en el mismo instante en que se ha terminado de capturar la imagen original. Como innovación con respecto a las primeras contribuciones relacionadas con esta Tesis, se procesan imágenes con toda la información de color. Esto implica la necesidad de diseñar conversores entre espacios de color distintos, para adecuar la información al tipo de procesado que se va a realizar con ella. Estos bloques se integran sin alterar la latencia de entrega de los sucesivos fotogramas. El procesamiento de estas imágenes multirresolución genera un mapa de saliencia que permite mover la fóvea hacía la región considerada como más relevante en la escena. El contenido de la imagen se estructura en una jerarquía de niveles de abstracción. A diferencia de otras arquitecturas de este tipo, como son la pirámide regular y el polígono foveal, en las que se trabaja con imágenes de resolución uniforme en los distintos niveles de la jerarquía, la pirámide irregular foveal que se propone en esta tesis combina las ideas de trabajar con una imagen realmente multirresolución, que incluya el campo de visión completo que abarcan sensor y óptica, con el procesamiento jerárquico propio de las pirámides irregulares. Para ello en esta tesis se propone la implementación de un algoritmo de diezmado irregular que, tomando como base la imagen multirresolución, dará como resultado una estructura piramidal donde los distintos niveles no son imágenes sino grafos orientados a la resolución del problema de segmentación y estimación de saliencia. Todo el sistema se integra en torno a la arquitectura de bus AXI, que permite conectar entre si todos los cores desarrollados en la parte lógica, así como el acceso a la memoria compartida con los algoritmos implementados en la parte software. Esto es posible gracias a los bloques de acceso directo a memoria AXI-VDMA, en una propuesta de configuración que permite tanto la integración perfectamente coordinada de la transferencia de la imagen multirresolución generada a la zona de trabajo del algoritmo de segmentación como su recuperación para la posterior visualización del resultado del proceso, y todo ello con una tasa de trabajo que mejora los resultados de plataformas similares.
Resumo:
Este trabajo nace de una idea conjunta del desarrollo de un software capaz de trabajar con una máquina de rayos X para la toma de mamografías, y ser una herramienta para los radiólogos a la hora de analizar las imágenes y localizar zonas que pudieran ser sensibles de tener algún tipo de tumoración. No se trata de un software que pretenda suplantar la función de un radiólogo; es importante tener claro que el experto en radiología es el único capaz de analizar, comparar y tomar decisiones reales, y este software pretende simplificar esa tarea al máximo. Este programa utiliza como recursos para su funcionamiento una base de datos de mamografías procesadas anteriormente, a partir de las cuales entrena a la red neuronal para que sea capaz de clasificar mamografías nuevas y mostrar las posibles zonas críticas. Esta base de datos debe indicar a la red qué mamografías presentan algún tumor y dónde, para que la red aprenda a diferenciar entre zonas críticas y zonas no críticas. Esta idea deriva en la realización de dos trabajos que se especializan en los dos ámbitos del proyecto, en primer lugar el procesamiento y el análisis de esas mamografías obtenidas de la máquina de rayos X, que da lugar al presente trabajo; y en segundo lugar, deriva en un trabajo paralelo que explica la obtención, el análisis y la clasificación de los datos que se desprenden de este proyecto utilizando redes neuronales, titulado “Detección y clasificación de tumores en mamografías a través de redes neuronales”; realizado por Rodrigo Culotta López
Resumo:
Conferencia y debate posterior con Matt Madden y Jessica Abel, reconocidos autores internacionales de cómic que disertaron sobre sus resppectivos procesos de trabajo y acerca de sus fuentes y referencias, centrándose especialmente en relacionar sus modos de producción con los del arte contemporáneo. Matt Madden es un historietista estadounidense de gran reconocimiento internacional, miembro del movimiento OuBaPo. Empezó su carrera en Míchigan editando sus propios mini-cómics. Publicó su primera novela gráfica, Black Candy, en el año 1998. Usando como referencia el libro Ejercicios de estilo, escrito por Raymond Queneau, publicó en el año 2005 99 ejercicios de estilo, donde la misma historieta de una página se repite de 99 formas distintas. Desde el año 2006 es editor, junto con su esposa Jessica Abel, de The Best American Comics, una serie de libros de periodicidad anual que recogen lo mejor de la historieta estadounidense por año. Cada volumen cuenta con un editor invitado, normalmente un historietista relevante, como Neil Gaiman (2010) o Alison Bechdel (2011). Madden y Abel imparten clases en la Escuela de Artes Visuales de la Universidad de Yale (New Haven, Connecticut, USA). Jessica Abel es una historietista estadounidense, también de gran proyección internacional, conocida por sus trabajos Life Sucks, Drawing Words & Writing Pictures, Soundtrack, La Perdida, Mirror, Window,Radio: An Illustrated Guide (en colaboración con Ira Glass) y la antología Artbabe. Las exposiciones unipersonales de Abel incluyen Corridoio Altervox en Roma, en la Galería Phoenix de Brighton; el Festival Internacional de Cómics de Oporto, en Portugal; Viñetas desde o Atlántico en La Coruña, España; y en la Comicon de Nápoles. Sus exposiciones grupales incluyen la Galería Jean Albano en Chicago; Athaneum, Stripdagen, en Holanda; las galerías Davidson en Seattle; la Galería Forbes en Hyde Park Art Center, en Nueva York; la Galería Regina Miller y la Galería Vox en Filadelfia; el Centre National de la Bande Dessinée et de l'Image en Angoulême, Francia; y el Museo Norman Rockwell en Stockbridge, Massachussetts.
Resumo:
La eutrofización marina es un problema que afecta a los mares europeos y particularmente a sus aguas costeras. Se trata del enriquecimiento anómalo en nutrientes de las aguas marinas, generalmente compuestos del nitrógeno y fósforo aportados por la actividad del ser humano, y que tiene como resultado consecuencias nocivas para la calidad de las aguas y la biodiversidad. La Directiva Marco de las Estrategias Marinas, que entró en vigor en 2010, recoge esta problemática y emplaza a los estados miembros para su evaluación y en su caso para la remediación de sus efectos nocivos identificando el origen de los aportes de nutrientes. Esta tarea requiere metodologías y procedimientos operativos que permitan ser implementados de forma coordinada por los estados miembros a nivel regional. En el primer capítulo de esta tesis se presenta una metodología para realizar la zonación del norte del mar Alborán a partir de imágenes de satélite de clorofila a tal que permite delimitar las áreas con características de productividad diferenciadas que pueden ser propuestas como unidades de gestión de la eutrofización y que se puedan emplear tanto en el diseño de los programas de seguimiento como en el aprovechamiento de los datos oceanográficos medidos in situ. En este capítulo se describe la metodología analítica utilizada, que está basada en la aplicación del análisis clúster de las k-medias a las imágenes de satélite de clorofila, así como su validez a partir del análisis de las series temporales de datos tomados in situ. El segundo capítulo se hace una evaluación de los indicadores de la eutrofización en una zona reducida de Alborán, donde existen multitud de datos oceanográficos, meteorológicos y ambientales. Para llevarla a cabo, se adaptó la metodología empleada en el capítulo 1 a la región ECOMALAGA. Una vez realizada la zonación, se agregaron los datos oceanográficos, meteorológicos y ambientales potencialmente relacionados con la eutrofización en cada área, y posteriormente se evaluaron las diferencias estadísticas a lo largo del ciclo estacional y entre las diferentes zonas. Con esta finalidad, se estiman las tendencias temporales de las variables ambientales en cada zona. A partir de los resultados obtenidos se infirió qué variables y/o mecanismos podrían estar influyendo sobre la concentración superficial de la clorofila a. En el tercer capítulo se ensayaron modelos aditivos generalizados (GAM) con el fin de identificar las variables más importantes que afectan a los indicadores de la eutrofización. Como variable respuesta del modelo se usó la clorofila a, pues se trata del indicador directo de la eutrofización más empleado. Las variables explicativas se componen de variables oceanográficas, meteorológicas y ambientales. En el cuarto capítulo se desarrolla un algoritmo regional para el mar de Alborán que permite obtener valores de clorofila a a partir de imágenes de satélite más ajustados a los valores que proporcionan los algoritmos disponibles que la sobreestiman considerablemente. En la discusión final y conclusiones se hace énfasis en el enfoque práctico de esta tesis doctoral, detallando la potencialidad de la metodología presentada para la evaluación de la eutrofización. Para esto, se detallan los resultados de la evaluación obtenidos para el mar Alborán empleando dicha metodología, definiendo su estado actual y las tendencias registradas, así como las causas de los problemas encontrados. Finalmente se evalúan y proponen posibles medidas para su remediación y control.
Resumo:
A medida que se incrementa el nímero de dispositivos inteligentes, el esfuerzo requerido para adaptarlos a las necesidades de cada usuario también crece. Asimismo, el proceso de adaptación de un dispositivo al contexto de un usuario es todavía un proceso muy manual. A pesar de que en los últimos años han surgido algunas propuestas centradas en obtener la información contextual de los usuarios para crear sus perfiles virtuales, se necesitan soluciones novedosas que permitan crear perfiles más completos, que sean utilizados por los dispositivos inteligentes para adaptarse automáticamente a las necesidades de sus usuarios, redundando en una mayor exactitud de la adaptación. En este artículo se propone la integración del modelo computacional People as a Service (PeaaS) con el procesamiento de eventos complejos (CEP) para la creación en tiempo real de perfiles virtuales complejos desde el propio dispositivo móvil y la compartición de estos como servicios para el resto de sistemas y dispositivos. Además, se evalúa esta integración en un caso de estudio sobre Alzheimer. Los resultados confirman que el uso de la tecnología CEP para la identificación de información contextual compleja es posible.