60 resultados para Imágenes narrativas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nuevas tecnologías aplicadas a la arqueología

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente Proyecto de Fin de Carrera viene motivado por el conocimiento de la existencia de fenómenos erosivos en la zona de Orgaz - Los Yébenes. El objetivo es el estudio de la distribución de procesos erosivos en el área citada y la relación de las zonas en que estos se producen, con las propiedades analíticas del suelo. La pérdida de suelo por erosión inducida por el hombre, supera a la erosión natural en varios órdenes de magnitud, por lo que cabe considerarla como un grave problema ambiental que propicia la pérdida de fertilidad. Esto es debido a que en los ecosistemas agrarios, sobre todo en cultivos de secano,se han aplicado manejos que han acelerado las tasas de erosión naturales. En los cultivos de secano más extendidos, se ha eliminado toda la cubierta vegetal, se ha compactado el suelo y esquilmado la materia orgánica. Como consecuencia de estos manejos poco respetuosos con el suelo, las tasas de erosión son mayores a las tasas de formación y constituyen un poderoso factor de desertificación. La respuesta erosiva de un determinado ambiente o uso del suelo suele ser bastante diferente según la época del año en la que se produzcan las lluvias,su intensidad y duración, el estado de la vegetación, el tiempo en el que el suelo permanece desnudo tras el levantamiento de la cosecha, etc.… Del uso y gestión que se haga del suelo y de la cubierta vegetal dependerá que, con el tiempo, la erosión potencial no se convierta en erosión actual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este proyecto es evaluar la mejora de rendimiento que aporta la paralelización de algoritmos de procesamiento de imágenes, para su ejecución en una tarjeta gráfica. Para ello, una vez seleccionados los algoritmos a estudio, fueron desarrollados en lenguaje C++ bajo el paradigma secuencial. A continuación, tomando como base estas implementaciones, se paralelizaron siguiendo las directivas de la tecnología CUDA (Compute Unified Device Architecture) desarrollada por NVIDIA. Posteriormente, se desarrolló un interfaz gráfico de usuario en Visual C#, para una utilización más sencilla de la herramienta. Por último, se midió el rendimiento de cada uno de los algoritmos, en términos de tiempo de ejecución paralela y speedup, mediante el procesamiento de una serie de imágenes de distintos tamaños.---ABSTRACT---The aim of this Project is to evaluate the performance improvement provided by the parallelization of image processing algorithms, which will be executed on a graphics processing unit. In order to do this, once the algorithms to study were selected, each of them was developed in C++ under sequential paradigm. Then, based on these implementations, these algorithms were implemented using the compute unified device architecture (CUDA) programming model provided by NVIDIA. After that, a graphical user interface (GUI) was developed to increase application’s usability. Finally, performance of each algorithm was measured in terms of parallel execution time and speedup by processing a set of images of different sizes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las nuevas tendencias de compartir archivos multimedia a través de redes abiertas, demanda el uso de mejores técnicas de encriptación que garanticen la integridad, disponibilidad y confidencialidad, manteniendo y/o mejorando la eficiencia del proceso de cifrado sobre estos archivos. Hoy en día es frecuente la transferencia de imágenes a través de medios tecnológicos, siendo necesario la actualización de las técnicas de encriptación existentes y mejor aún, la búsqueda de nuevas alternativas. Actualmente los algoritmos criptográficos clásicos son altamente conocidos en medio de la sociedad informática lo que provoca mayor vulnerabilidad, sin contar los altos tiempos de procesamiento al momento de ser utilizados, elevando la probabilidad de ser descifrados y minimizando la disponibilidad inmediata de los recursos. Para disminuir estas probabilidades, el uso de la teoría de caos surge como una buena opción para ser aplicada en un algoritmo que tome partida del comportamiento caótico de los sistemas dinámicos, y aproveche las propiedades de los mapas logísticos para elevar el nivel de robustez en el cifrado. Es por eso que este trabajo propone la creación de un sistema criptográfico basado sobre una arquitectura dividida en dos etapas de confusión y difusión. Cada una de ellas utiliza una ecuación logística para generar números pseudoaleatorios que permitan desordenar la posición del píxel y cambiar su intensidad en la escala de grises. Este proceso iterativo es determinado por la cantidad total de píxeles de una imagen. Finalmente, toda la lógica de cifrado es ejecutada sobre la tecnología CUDA que permite el procesamiento en paralelo. Como aporte sustancial, se propone una nueva técnica de encriptación vanguardista de alta sensibilidad ante ruidos externos manteniendo no solo la confidencialidad de la imagen, sino también la disponibilidad y la eficiencia en los tiempos de proceso.---ABSTRACT---New trends to share multimedia files over open networks, demand the best use of encryption techniques to ensure the integrity, availability and confidentiality, keeping and/or improving the efficiency of the encryption process on these files. Today it is common to transfer pictures through technological networks, thus, it is necessary to update existing techniques encryption, and even better, the searching of new alternatives. Nowadays, classic cryptographic algorithms are highly known in the midst of the information society which not only causes greater vulnerability, but high processing times when this algorithms are used. It raise the probability of being deciphered and minimizes the immediate availability of resources. To reduce these odds, the use of chaos theory emerged as a good option to be applied on an algorithm that takes advantage of chaotic behavior of dynamic systems, and take logistic maps’ properties to raise the level of robustness in the encryption. That is why this paper proposes the creation of a cryptographic system based on an architecture divided into two stages: confusion and diffusion. Each stage uses a logistic equation to generate pseudorandom numbers that allow mess pixel position and change their intensity in grayscale. This iterative process is determined by the total number of pixels of an image. Finally, the entire encryption logic is executed on the CUDA technology that enables parallel processing. As a substantial contribution, it propose a new encryption technique with high sensitivity on external noise not only keeping the confidentiality of the image, but also the availability and efficiency in processing times.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este Trabajo de Fin de Grado se diseña, implementa y evalúa un sistema se digitalización de muestras de esputo basado en telefonía móvil e integrable con TuberSpot. Además, se proponen técnicas de procesamiento de imagen para el control de calidad del análisis y se implementa un mecanismo para evaluar la eficiencia de la inteligencia colectiva y la gamificación en este contexto. El sistema de adquisición propuesto utiliza smartphones, adaptadores móvil-microscopio y una aplicación Android. El protocolo de adquisición se ha diseñado conforme a un estudio realizado con personal médico cualificado. El control de calidad se basa en la inserción de bacilos simulados en las imágenes. Para la evaluación de eficiencia de TuberSpot se crea, en colaboración con médicos especialistas, un repositorio de imágenes en las que posición y número de bacilos quedan registrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Prefacio: Imágenes de la perspectiva

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el presente documento se presenta una nueva metodología para la caracterización de formaciones de vegetación de ribera y su morfología fluvial asociada. La metodología está basada en la utilización de sensores aerotransportados LiDAR y Cámara Digital multiespectral de gran formato junto a perfiles batimétricos tomados en campo. Este trabajo pone de manifiesto la utilidad de los datos captados por sensores LiDAR y cámaras digitales aerotransportadas en aplicaciones medioambientales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El análisis de imágenes hiperespectrales permite obtener información con una gran resolución espectral: cientos de bandas repartidas desde el espectro infrarrojo hasta el ultravioleta. El uso de dichas imágenes está teniendo un gran impacto en el campo de la medicina y, en concreto, destaca su utilización en la detección de distintos tipos de cáncer. Dentro de este campo, uno de los principales problemas que existen actualmente es el análisis de dichas imágenes en tiempo real ya que, debido al gran volumen de datos que componen estas imágenes, la capacidad de cómputo requerida es muy elevada. Una de las principales líneas de investigación acerca de la reducción de dicho tiempo de procesado se basa en la idea de repartir su análisis en diversos núcleos trabajando en paralelo. En relación a esta línea de investigación, en el presente trabajo se desarrolla una librería para el lenguaje RVC – CAL – lenguaje que está especialmente pensado para aplicaciones multimedia y que permite realizar la paralelización de una manera intuitiva – donde se recogen las funciones necesarias para implementar el clasificador conocido como Support Vector Machine – SVM. Cabe mencionar que este trabajo complementa el realizado en [1] y [2] donde se desarrollaron las funciones necesarias para implementar una cadena de procesado que utiliza el método unmixing para procesar la imagen hiperespectral. En concreto, este trabajo se encuentra dividido en varias partes. La primera de ellas expone razonadamente los motivos que han llevado a comenzar este Trabajo de Investigación y los objetivos que se pretenden conseguir con él. Tras esto, se hace un amplio estudio del estado del arte actual y, en él, se explican tanto las imágenes hiperespectrales como sus métodos de procesado y, en concreto, se detallará el método que utiliza el clasificador SVM. Una vez expuesta la base teórica, nos centraremos en la explicación del método seguido para convertir una versión en Matlab del clasificador SVM optimizado para analizar imágenes hiperespectrales; un punto importante en este apartado es que se desarrolla la versión secuencial del algoritmo y se asientan las bases para una futura paralelización del clasificador. Tras explicar el método utilizado, se exponen los resultados obtenidos primero comparando ambas versiones y, posteriormente, analizando por etapas la versión adaptada al lenguaje RVC – CAL. Por último, se aportan una serie de conclusiones obtenidas tras analizar las dos versiones del clasificador SVM en cuanto a bondad de resultados y tiempos de procesado y se proponen una serie de posibles líneas de actuación futuras relacionadas con dichos resultados. ABSTRACT. Hyperspectral imaging allows us to collect high resolution spectral information: hundred of bands covering from infrared to ultraviolet spectrum. These images have had strong repercussions in the medical field; in particular, we must highlight its use in cancer detection. In this field, the main problem we have to deal with is the real time analysis, because these images have a great data volume and they require a high computational power. One of the main research lines that deals with this problem is related with the analysis of these images using several cores working at the same time. According to this investigation line, this document describes the development of a RVC – CAL library – this language has been widely used for working with multimedia applications and allows an optimized system parallelization –, which joins all the functions needed to implement the Support Vector Machine – SVM - classifier. This research complements the research conducted in [1] and [2] where the necessary functions to implement the unmixing method to analyze hyperspectral images were developed. The document is divided in several chapters. The first of them introduces the motivation of the Master Thesis and the main objectives to achieve. After that, we study the state of the art of some technologies related with this work, like hyperspectral images, their processing methods and, concretely, the SVM classifier. Once we have exposed the theoretical bases, we will explain the followed methodology to translate a Matlab version of the SVM classifier optimized to process an hyperspectral image to RVC – CAL language; one of the most important issues in this chapter is that a sequential implementation is developed and the bases of a future parallelization of the SVM classifier are set. At this point, we will expose the results obtained in the comparative between versions and then, the results of the different steps that compose the SVM in its RVC – CAL version. Finally, we will extract some conclusions related with algorithm behavior and time processing. In the same way, we propose some future research lines according to the results obtained in this document.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo general de este trabajo es el correcto funcionamiento de un sistema de reconocimiento facial compuesto de varios módulos, implementados en distintos lenguajes. Uno de dichos módulos está escrito en Python y se encargarí de determinar el género del rostro o rostros que aparecen en una imagen o en un fotograma de una secuencia de vídeo. El otro módulo, escrito en C++, llevará a cabo el reconocimiento de cada una de las partes de la cara (ojos, nariz, boca) y la orientación hacia la que está posicionada (derecha, izquierda). La primera parte de esta memoria corresponde a la reimplementación de todas las partes de un analizador facial, que constituyen el primer módulo antes mencionado. Estas partes son un analizador, compuesto a su vez por un reconocedor (Tracker) y un procesador (Processor), y una clase visor para poder visualizar los resultados. Por un lado, el reconocedor o "Tracker.es el encargado de encontrar la cara y sus partes, que serán pasadas al procesador o Processor, que analizará la cara obtenida por el reconocedor y determinará su género. Este módulo estaba dise~nado completamente en C y OpenCV 1.0, y ha sido reescrito en Python y OpenCV 2.4. Y en la segunda parte, se explica cómo realizar la comunicación entre el primer módulo escrito en Python y el segundo escrito en C++. Además, se analizarán diferentes herramientas para poder ejecutar código C++ desde programas Python. Dichas herramientas son PyBindGen, Cython y Boost. Dependiendo de las necesidades del programador se contará cuál de ellas es más conveniente utilizar en cada caso. Por último, en el apartado de resultados se puede observar el funcionamiento del sistema con la integración de los dos módulos, y cómo se muestran por pantalla los puntos de interés, el género y la orientación del rostro utilizando imágenes tomadas con una cámara web.---ABSTRACT---The main objective of this document is the proper functioning of a facial recognition system composed of two modules, implemented in diferent languages. One of these modules is written in Python, and his purpose is determining the gender of the face or faces in an image or a frame of a video sequence. The other module is written in C ++ and it will perform the recognition of each of the parts of the face (eyes, nose , mouth), and the head pose (right, left).The first part of this document corresponds to the reimplementacion of all components of a facial analyzer , which constitute the first module that I mentioned before. These parts are an analyzer , composed by a tracke) and a processor, and a viewer to display the results. The tracker function is to find and its parts, which will be passed to the processor, which will analyze the face obtained by the tracker. The processor will determine the face's gender. This module was completely written in C and OpenCV 1.0, and it has been rewritten in Python and OpenCV 2.4. And in the second part, it explains how to comunicate two modules, one of them written in Python and the other one written in C++. Furthermore, it talks about some tools to execute C++ code from Python scripts. The tools are PyBindGen, Cython and Boost. It will tell which one of those tools is better to use depend on the situation. Finally, in the results section it is possible to see how the system works with the integration of the two modules, and how the points of interest, the gender an the head pose are displayed on the screen using images taken from a webcam.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomografía axial computerizada (TAC) es la modalidad de imagen médica preferente para el estudio de enfermedades pulmonares y el análisis de su vasculatura. La segmentación general de vasos en pulmón ha sido abordada en profundidad a lo largo de los últimos años por la comunidad científica que trabaja en el campo de procesamiento de imagen; sin embargo, la diferenciación entre irrigaciones arterial y venosa es aún un problema abierto. De hecho, la separación automática de arterias y venas está considerado como uno de los grandes retos futuros del procesamiento de imágenes biomédicas. La segmentación arteria-vena (AV) permitiría el estudio de ambas irrigaciones por separado, lo cual tendría importantes consecuencias en diferentes escenarios médicos y múltiples enfermedades pulmonares o estados patológicos. Características como la densidad, geometría, topología y tamaño de los vasos sanguíneos podrían ser analizados en enfermedades que conllevan remodelación de la vasculatura pulmonar, haciendo incluso posible el descubrimiento de nuevos biomarcadores específicos que aún hoy en dípermanecen ocultos. Esta diferenciación entre arterias y venas también podría ayudar a la mejora y el desarrollo de métodos de procesamiento de las distintas estructuras pulmonares. Sin embargo, el estudio del efecto de las enfermedades en los árboles arterial y venoso ha sido inviable hasta ahora a pesar de su indudable utilidad. La extrema complejidad de los árboles vasculares del pulmón hace inabordable una separación manual de ambas estructuras en un tiempo realista, fomentando aún más la necesidad de diseñar herramientas automáticas o semiautomáticas para tal objetivo. Pero la ausencia de casos correctamente segmentados y etiquetados conlleva múltiples limitaciones en el desarrollo de sistemas de separación AV, en los cuales son necesarias imágenes de referencia tanto para entrenar como para validar los algoritmos. Por ello, el diseño de imágenes sintéticas de TAC pulmonar podría superar estas dificultades ofreciendo la posibilidad de acceso a una base de datos de casos pseudoreales bajo un entorno restringido y controlado donde cada parte de la imagen (incluyendo arterias y venas) está unívocamente diferenciada. En esta Tesis Doctoral abordamos ambos problemas, los cuales están fuertemente interrelacionados. Primero se describe el diseño de una estrategia para generar, automáticamente, fantomas computacionales de TAC de pulmón en humanos. Partiendo de conocimientos a priori, tanto biológicos como de características de imagen de CT, acerca de la topología y relación entre las distintas estructuras pulmonares, el sistema desarrollado es capaz de generar vías aéreas, arterias y venas pulmonares sintéticas usando métodos de crecimiento iterativo, que posteriormente se unen para formar un pulmón simulado con características realistas. Estos casos sintéticos, junto a imágenes reales de TAC sin contraste, han sido usados en el desarrollo de un método completamente automático de segmentación/separación AV. La estrategia comprende una primera extracción genérica de vasos pulmonares usando partículas espacio-escala, y una posterior clasificación AV de tales partículas mediante el uso de Graph-Cuts (GC) basados en la similitud con arteria o vena (obtenida con algoritmos de aprendizaje automático) y la inclusión de información de conectividad entre partículas. La validación de los fantomas pulmonares se ha llevado a cabo mediante inspección visual y medidas cuantitativas relacionadas con las distribuciones de intensidad, dispersión de estructuras y relación entre arterias y vías aéreas, los cuales muestran una buena correspondencia entre los pulmones reales y los generados sintéticamente. La evaluación del algoritmo de segmentación AV está basada en distintas estrategias de comprobación de la exactitud en la clasificación de vasos, las cuales revelan una adecuada diferenciación entre arterias y venas tanto en los casos reales como en los sintéticos, abriendo así un amplio abanico de posibilidades en el estudio clínico de enfermedades cardiopulmonares y en el desarrollo de metodologías y nuevos algoritmos para el análisis de imágenes pulmonares. ABSTRACT Computed tomography (CT) is the reference image modality for the study of lung diseases and pulmonary vasculature. Lung vessel segmentation has been widely explored by the biomedical image processing community, however, differentiation of arterial from venous irrigations is still an open problem. Indeed, automatic separation of arterial and venous trees has been considered during last years as one of the main future challenges in the field. Artery-Vein (AV) segmentation would be useful in different medical scenarios and multiple pulmonary diseases or pathological states, allowing the study of arterial and venous irrigations separately. Features such as density, geometry, topology and size of vessels could be analyzed in diseases that imply vasculature remodeling, making even possible the discovery of new specific biomarkers that remain hidden nowadays. Differentiation between arteries and veins could also enhance or improve methods processing pulmonary structures. Nevertheless, AV segmentation has been unfeasible until now in clinical routine despite its objective usefulness. The huge complexity of pulmonary vascular trees makes a manual segmentation of both structures unfeasible in realistic time, encouraging the design of automatic or semiautomatic tools to perform the task. However, this lack of proper labeled cases seriously limits in the development of AV segmentation systems, where reference standards are necessary in both algorithm training and validation stages. For that reason, the design of synthetic CT images of the lung could overcome these difficulties by providing a database of pseudorealistic cases in a constrained and controlled scenario where each part of the image (including arteries and veins) is differentiated unequivocally. In this Ph.D. Thesis we address both interrelated problems. First, the design of a complete framework to automatically generate computational CT phantoms of the human lung is described. Starting from biological and imagebased knowledge about the topology and relationships between structures, the system is able to generate synthetic pulmonary arteries, veins, and airways using iterative growth methods that can be merged into a final simulated lung with realistic features. These synthetic cases, together with labeled real CT datasets, have been used as reference for the development of a fully automatic pulmonary AV segmentation/separation method. The approach comprises a vessel extraction stage using scale-space particles and their posterior artery-vein classification using Graph-Cuts (GC) based on arterial/venous similarity scores obtained with a Machine Learning (ML) pre-classification step and particle connectivity information. Validation of pulmonary phantoms from visual examination and quantitative measurements of intensity distributions, dispersion of structures and relationships between pulmonary air and blood flow systems, show good correspondence between real and synthetic lungs. The evaluation of the Artery-Vein (AV) segmentation algorithm, based on different strategies to assess the accuracy of vessel particles classification, reveal accurate differentiation between arteries and vein in both real and synthetic cases that open a huge range of possibilities in the clinical study of cardiopulmonary diseases and the development of methodological approaches for the analysis of pulmonary images.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sin duda, el rostro humano ofrece mucha más información de la que pensamos. La cara transmite sin nuestro consentimiento señales no verbales, a partir de las interacciones faciales, que dejan al descubierto nuestro estado afectivo, actividad cognitiva, personalidad y enfermedades. Estudios recientes [OFT14, TODMS15] demuestran que muchas de nuestras decisiones sociales e interpersonales derivan de un previo análisis facial de la cara que nos permite establecer si esa persona es confiable, trabajadora, inteligente, etc. Esta interpretación, propensa a errores, deriva de la capacidad innata de los seres humanas de encontrar estas señales e interpretarlas. Esta capacidad es motivo de estudio, con un especial interés en desarrollar métodos que tengan la habilidad de calcular de manera automática estas señales o atributos asociados a la cara. Así, el interés por la estimación de atributos faciales ha crecido rápidamente en los últimos años por las diversas aplicaciones en que estos métodos pueden ser utilizados: marketing dirigido, sistemas de seguridad, interacción hombre-máquina, etc. Sin embargo, éstos están lejos de ser perfectos y robustos en cualquier dominio de problemas. La principal dificultad encontrada es causada por la alta variabilidad intra-clase debida a los cambios en la condición de la imagen: cambios de iluminación, oclusiones, expresiones faciales, edad, género, etnia, etc.; encontradas frecuentemente en imágenes adquiridas en entornos no controlados. Este de trabajo de investigación estudia técnicas de análisis de imágenes para estimar atributos faciales como el género, la edad y la postura, empleando métodos lineales y explotando las dependencias estadísticas entre estos atributos. Adicionalmente, nuestra propuesta se centrará en la construcción de estimadores que tengan una fuerte relación entre rendimiento y coste computacional. Con respecto a éste último punto, estudiamos un conjunto de estrategias para la clasificación de género y las comparamos con una propuesta basada en un clasificador Bayesiano y una adecuada extracción de características. Analizamos en profundidad el motivo de porqué las técnicas lineales no han logrado resultados competitivos hasta la fecha y mostramos cómo obtener rendimientos similares a las mejores técnicas no-lineales. Se propone un segundo algoritmo para la estimación de edad, basado en un regresor K-NN y una adecuada selección de características tal como se propuso para la clasificación de género. A partir de los experimentos desarrollados, observamos que el rendimiento de los clasificadores se reduce significativamente si los ´estos han sido entrenados y probados sobre diferentes bases de datos. Hemos encontrado que una de las causas es la existencia de dependencias entre atributos faciales que no han sido consideradas en la construcción de los clasificadores. Nuestro resultados demuestran que la variabilidad intra-clase puede ser reducida cuando se consideran las dependencias estadísticas entre los atributos faciales de el género, la edad y la pose; mejorando el rendimiento de nuestros clasificadores de atributos faciales con un coste computacional pequeño. Abstract Surely the human face provides much more information than we think. The face provides without our consent nonverbal cues from facial interactions that reveal our emotional state, cognitive activity, personality and disease. Recent studies [OFT14, TODMS15] show that many of our social and interpersonal decisions derive from a previous facial analysis that allows us to establish whether that person is trustworthy, hardworking, intelligent, etc. This error-prone interpretation derives from the innate ability of human beings to find and interpret these signals. This capability is being studied, with a special interest in developing methods that have the ability to automatically calculate these signs or attributes associated with the face. Thus, the interest in the estimation of facial attributes has grown rapidly in recent years by the various applications in which these methods can be used: targeted marketing, security systems, human-computer interaction, etc. However, these are far from being perfect and robust in any domain of problems. The main difficulty encountered is caused by the high intra-class variability due to changes in the condition of the image: lighting changes, occlusions, facial expressions, age, gender, ethnicity, etc.; often found in images acquired in uncontrolled environments. This research work studies image analysis techniques to estimate facial attributes such as gender, age and pose, using linear methods, and exploiting the statistical dependencies between these attributes. In addition, our proposal will focus on the construction of classifiers that have a good balance between performance and computational cost. We studied a set of strategies for gender classification and we compare them with a proposal based on a Bayesian classifier and a suitable feature extraction based on Linear Discriminant Analysis. We study in depth why linear techniques have failed to provide competitive results to date and show how to obtain similar performances to the best non-linear techniques. A second algorithm is proposed for estimating age, which is based on a K-NN regressor and proper selection of features such as those proposed for the classification of gender. From our experiments we note that performance estimates are significantly reduced if they have been trained and tested on different databases. We have found that one of the causes is the existence of dependencies between facial features that have not been considered in the construction of classifiers. Our results demonstrate that intra-class variability can be reduced when considering the statistical dependencies between facial attributes gender, age and pose, thus improving the performance of our classifiers with a reduced computational cost.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el campo del análisis multirresolución de señales, bien sean señales unidimensionales o imágenes, la transformada wavelet (u ondícula) es una de las herramientas más atractivas y potentes debido a su capacidad de análisis de las estructuras y singularidades presentes en una señal cuando esta es analizada en distintas escalas. Este trabajo parte de la investigación de cómo la modificación directa de los coeficientes wavelets permite añadir información en forma de marcas de agua a una imagen o también como con las mismas técnicas se pueden realizar esquemas relativamente sencillos de eliminación de ruido en imágenes. Estas aplicaciones son el primer paso para entender qué información capturan los coeficientes wavelet obtenidos mediante las distintas versiones existentes de transformada wavelet Siguiendo la relación entre el módulo de los coeficientes wavelets resultantes en distintas escalas llegamos a poder caracterizar las singularidades presentes en señales o imágenes con aplicaciones prácticas en campos como el análisis de imágenes mamográficas. Esta relación no es más que el primer paso para enlazar la teoría wavelet con el formalismo multifractal, relación definida en primera instancia a partir de la transforma wavelet de módulo máximo. El análisis entre señal, transformada wavelet de módulo máximo e información local de cada coeficiente wavelet da origen a la contribución principal de este trabajo de tesis que consiste en la estimación directa de distintos parámetros multifractales a partir del cálculo de coeficientes derivados de manera local para cada muestra de una señal o pixel de una imagen. La metodología propuesta se aplica en primer lugar a señales de una dimensión de gran complejidad o irregularidad como son las series financieras y específicamente los valores que componen el índice Dow Jones. El resultado permite la cuantificación de la volatilidad o riesgo asociado a cada uno de esas series. En segundo lugar y como principal aplicación de la metodología de análisis multiescala propuesta, el trabajo de investigación se centra en cómo calcular parámetros multifractales en imágenes que reflejan la estructura de suelos agrícolas. Estas imágenes son obtenidas bien aplicando un tinte especial o mediante modernas técnicas de tomografía axial computarizada. En ambos casos, el objetivo es completar la caracterización estadística de la geometría de los flujos preferenciales de agua y otras sustancias, aspectos claves para el correcto tratamiento de suelos agrícolas. Para validar e interpretar cada uno de los algoritmos desarrollados se utilizan señales multifractales sintetizadas y se comparan los resultados obtenidos en las distintas aplicaciones respecto de algoritmos ya consolidados en cada caso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto consta de dos partes principales y dos anexos. La primera es teórica, en ella realizamos; a modo de introducción, un estudio sobre el tratamiento digital de la imagen, desarrollando las principales técnicas de tratamiento y análisis de imágenes que pudimos estudiar durante la carrera. Una vez desgranado el análisis nos centraremos en la correlación digital de imagen, su evolución y distintas técnicas, donde nos centramos en la correlación cruzada normalizada que usamos posteriormente para la correlación de imágenes con Matlab. La segunda parte consiste en la implementación de un sencillo programa mediante Matlab en el que podremos evaluar y analizar las diferencias entre dos o más imágenes, pudiendo observar gráficamente la desviación en milímetros entre varias imágenes y su dirección con vectores. Posteriormente analizamos los resultados obtenidos y proponemos posibles mejoras para futuros proyectos de correlación de imágenes digitales. Por último, incluimos un par de anexos en los que incluimos un tutorial para automatizar acciones con Adobe Photoshop para facilitar el pretratamiento de fotografías antes de analizarlas con el script y una posible práctica de laboratorio para futuros alumnos de la escuela utilizando nuestro script de Matlab. ABSTRACT. The project involves two main parts and two annexes. The first is theoretical, it performed; by way of introduction, a study on digital image processing, developing the main treatment techniques and image analysis we were able to study along our career. Once shelled analysis we will focus on digital image correlation, evolution and different techniques, where we focus on normalized cross-correlation which we use later for the correlation of images with Matlab. The second part is the implementation of a simple program using Matlab where we can evaluate and analyze the differences between two or more images and can graphically see the deviation in millimeters between various images and their direction vectors. Then we analyze the results and propose possible improvements for future projects correlation of digital images. Finally, we have a couple of annexes in which we include a tutorial to automate actions with Adobe Photoshop to facilitate pretreatment photographs before analyzing the script and a possible lab for future school students using our Matlab script.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo fin de grado forma parte del proyecto Embarazo Saludable que la Fundación EHAS desarrolla con la colaboración de TulaSalud en los departamentos de Alta Verapaz y San Marcos en Guatemala. El proyecto Embarazo Saludable tiene como principal objetivo reducir la mortalidad materna de mujeres gestantes en zonas rurales de Guatemala. Para conseguirlo se han centrado los esfuerzos en mejorar los controles sanitarios en comunidades con pocos recursos y alejadas del centro de salud. En este documento se presenta el estudio e implementación de un mecanismo de sincronización en el Sistema de Información en Salud empleado en el proyecto que está basado en OpenMRS. Este mecanismo de sincronización debe permitir el intercambio de información entre los ordenadores de las brigadas itinerantes de atención y un servidor central. Para empezar, se analizaron los datos recogidos en las citas médicas y se especificaron que tipo de información se quiere conservar en la base de datos y una vez identificada la información a sincronizar, con el objetivo de sincronizar las bases de datos de todas las brigadas, se implementaron los cambios necesarios en el módulo de sincronización de OpenMRS. Además se estudiaron y definieron los roles de usuario dentro de la plataforma y se creó un sistema de alertas entre el enfermero que realiza las consultas y el ginecólogo que supervisa a los enfermeros. Una vez modificado el módulo de sincronización se realizaron pruebas del sistema y se probó el correcto funcionamiento de la sincronización de: imágenes, texto, números, usuarios y formularios entre dispositivos. Estas pruebas se realizaron primero en local y luego en remoto con el servidor central. El trabajo fin de grado se empezó en Madrid hasta alcanzar una versión inicial del programa y posteriormente en Cobán se realizaron tareas de mejora e implementación, así como capacitaciones dirigidas al personal técnico encargado de la plataforma. El uso de OpenMRS como Sistema de Información Sanitaria ha supuesto una importante mejora en la calidad del seguimiento de mujeres gestantes. La posibilidad de sincronizar información entre brigadas permite a todos los facilitadores (enfermeros) disponer de la información de consultas a todas las mujeres gestantes de una comunidad. No obstante, el éxito del proyecto dependerá del mantenimiento y actualización de la plataforma por parte de los técnicos capacitados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La imagen fotográfica es un bloque espacio tiempo congelado, un fragmento referido al antes y el después de algo. Al contemplar una fotografía de un interior doméstico, descubrimos un entretejido sutil entre el habitante y su hábitat. Somos capaces de recaer en más detalles de los que el ojo humano puede apreciar en su visión cotidiana, siempre ligada al devenir espacio temporal. El acto de fotografiar el hogar, de congelar unidades habitadas infinitesimales, se revela como una manifestación radical del modo unipersonal de habitar de cada fotógrafo, profesional o aficionado, y por extensión, dado que hoy todos somos fotógrafos; de cada habitante. Por un lado, la fotografía se piensa aquí como herramienta, capaz de desvelar, de poner en el mundo, los elementos, percepciones y acontecimientos, que subyacen imbricados en la construcción del hogar. Por otro, la imagen se entiende como medio de expresión y de comunicación, como el lenguaje universal de nuestro tiempo, por todos conocido y utilizado. En este momento de interconexión máxima, entre redes, datos y capas de cognición, de velocidad y aceleración, esta tesis doctoral se plantea como una vuelta a la reflexión, a la contemplación del objeto imagen, desde la certeza de que para que ésta hable hay que darle tiempo. Así, la investigación hay que entenderla desde una base ontológica y fenomenológica; desde la experiencia del ser que habita un entorno concreto y determinado. Se enmarca en el actual entorno socio cultural de occidente, se busca desvelar el significado y modo de habitar del habitante común, poniendo de manifiesto aquello que acontece para que una casa cualquiera, de un habitante cualquiera, devenga hogar. Los primeros indicios sobre el tema surgirán del análisis y la reinterpretación hermenéutica de un atlas de imágenes del habitar: cuerpo de imágenes reunido a partir de series fotográficas de hogares, de habitantes anónimos, puestos a luz por la mirada de un grupo de artistas. Posteriormente, ponemos a prueba el conocimiento adquirido en el análisis anterior, mientras que expandimos la investigación hacia el sentir del habitante común, mediante la realización de tres experimentos participativos, o estudios de campo cualitativos. Los resultados, de ambos grupos de casos de estudio, se compilan, organizan y estructuran en una taxonomía del habitar. Esta taxonomía está compuesta por cuarenta y siete parámetros, que explicitan la naturaleza compleja del hogar del siglo XXI. Este hogar es entendido como un constructo personal de cada habitante, un proceso que acontece en el tiempo y en el espacio, y que entraña la propia construcción del habitante. Esta extensa taxonomía se organiza según tres ámbitos del ser humano, en el primero se expresan los factores relacionados con el modo de "estar físicamente" en el hogar, incluyendo: al propio habitante, la casa como espacio arquitectónico y como materialidad: objetos, muebles, iconos y símbolos que pueblan el hogar. En segundo lugar, se manifiestan los parámetros relacionados con el modo de “percibir”: por un lado, aquello que se deriva de lo que se ve, y por otro, lo que se deriva de aquello que no se ve, pero se siente. En tercer lugar, se explicitan los factores relativos al habitante que "crea/juega" su hogar, quién por un lado, es en el mundo actuando, y que por otro, siente el mundo construyéndolo mediante una serie de relaciones que establece con él. Finalmente, la investigación intenta revelar las sinergias, conexiones y relaciones, entre todos estos elementos extraídos del sentir del habitante común, y que fueron inducidos mediante el análisis y reinterpretación de los casos de estudio, poniendo de manifiesto un orden de cosas en el habitar occidental contemporáneo. ABSTRACT The photographic image is a frozen space time block, a fragment referred to a something before and after. When we stare at the photography of domestic interiors we discover a subtle interweaving between the inhabitant and her habitat. We are able to acknowledge infinite more details than the human eye, in its continuous quotidian vision always linked to the space time progression, appreciates. The act of photographing the home, of freezing infinitesimal inhabited units, reveals as a radical statement of the concept of inhabiting for each photographer, professional or amateur, and by extension, as we today all are photographers, for each inhabitant. On the one hand, photography is here conceived as a tool that is capable of revealing, "of placing in the world" the elements, perceptions and happenings that underlie imbricated in the construction of a home. On the other hand, image is thought as an expression and communication media, as the universal language of our time (as far as it is known and used by all of us). In this precise moment of maximum interconnection between networks, data and cognitive layers; of speed and acceleration, this PhD Dissertation is conceived as a return to reflection; to the contemplation of object image, from the certainty of its need of time for talking. Therefore, this research from an ontological and phenomenological base; from the experience of the self who inhabits a determined and concrete environment, that of the western countries at the present, pursues to unveil the meaning and way of inhabiting of a common dweller and manifest what conforms the transformation of any house, of any inhabitant into a home. The first clues will arise from the analysis and hermeneutical reinterpretation of the Atlas of inhabiting; an assembled body of images of anonymous inhabitants houses, brought into life through a group of artist´s glance. Afterwards, we will test the analysis´s acquired knowledge, while extending the investigation to the feel of the common inhabitant (and no longer the expert^ artist) through the execution of three participative experiments conceived as qualitative field works. The results of both case study groups, will be compiled, organized and structured in a taxonomy of the inhabiting. This taxonomy is composed by forty seven parameters that explicitly state the complex nature of the XXI century home, regarded as a personal construct of every single inhabitant, as a process that happens through time and space and that entails the construction of the inhabitant. This wide taxonomy is organized regarding three spheres of the human being, In first place, those elements related to the way of “physically being” at home are expressed, including: the inhabitant its self, the house as architectural space and as materiality: objects, furniture, icons and symbols that fill the home. In second place, parameters related to the way of “perceiving“ are manifested; on the one hand, those that derive from what we see; on the other hand, those that derive from what we do not see, but feel. In third place, those factors deriving from the inhabitant as a home "creator/player" who is acting in the world and feeling the world while constructing it through a myriad of relationships he establishes with it. Finally, the investigation tries to reveal the synergies, connections and relations between all these elements extracted from the feelings of the common inhabitant, induced through the analysis and reinterpretation of the case studies, and therefore exposing a state of things belonging to western world at present.