14 resultados para Imágenes -- Procesamiento -- Técnicas digitales

em Universidad de Alicante


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis doctoral está orientada al estudio de estrategias y técnicas para el tratamiento de oclusiones. Las oclusiones suponen uno de los principales problemas en la percepción de una escena mediante visión por computador. Las condiciones de luz, los puntos de vista con los que se captura información de la escena, las posiciones y orientaciones de los objetos presentes en la escena son algunas de las causas que provocan que los objetos puedan quedar ocluidos parcialmente. Las investigaciones expuestas en esta Tesis se pueden agrupar en función de su objetivo en dos grupos: técnicas cuya finalidad es detectar la presencia de oclusiones y estrategias que permiten mejorar la percepción de un sistema de visión por computador, aun en el caso de la presencia de oclusiones. En primer lugar, se han desarrollado una serie de técnicas orientadas a la detección de oclusiones a partir de procesos de extracción de características y de segmentación color en imágenes. Estas técnicas permiten definir qué regiones en la imagen son susceptibles de considerarse zonas de oclusión, debido a una mala percepción de la escena, como consecuencia de observarla con un mal punto de vista. Como aplicación de estas técnicas se han desarrollado algoritmos basados en la segmentación color de la imagen y en la detección de discontinuidades mediante luz estructurada. Estos algoritmos se caracterizan por no incluir conocimiento previo de la escena. En segundo lugar, se han presentado una serie de estrategias que permiten corregir y/o modificar el punto de vista de la cámara con la que se observa la escena. De esta manera, las oclusiones identificadas, mediante los métodos expuestos en la primera parte de la Tesis, y que generalmente son debidas a una mala localización de la cámara pueden ser eliminadas o atenuadas cambiando el punto de vista con el que se produce la observación. En esta misma línea se presentan dos estrategias para mejorar la posición y orientación espacial de la cámara cuando ésta se emplea para la captura de imágenes en procesos de reconocimiento. La primera de ellas se basa en la retroproyección de características obtenidas de una imagen real, a partir de una posición cualquiera, en imágenes virtuales correspondientes a las posibles posiciones que puede adoptar la cámara. Este algoritmo lleva a cabo la evaluación de un mapa de distancias entre estas características buscando en todo momento, maximizar estas distancias para garantizar un mejor punto de vista. La ventaja radica en que en ningún caso se hace necesario mover la cámara para determinar una nueva posición que mejore la percepción de la escena. La segunda de estas estrategias, busca corregir la posición de la cámara buscando la ortogonalidad. En este caso, se ha partido de la hipótesis inicial de que la mayor superficie visible siempre se suele conseguir situando la cámara ortogonalmente al plano en el que se sitúa el objeto.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Se presenta un estudio y propuesta de interoperabilidad semántica entre ontologías del dominio de la salud basada en técnicas de procesamiento del lenguaje natural. El objetivo fundamental ha sido el desarrollo de un algoritmo de interconexión semántica entre los términos de dos ontologías solapadas y heterogéneas, denominadas «fuente» (Clasificación internacional de enfermedades, 9ª revisión, modificación clínica: CIE-9-MC) y «diana» (esquema jerárquico de la asignatura Enfermería Materno-Infantil: EMI). Esta propuesta permite emparejar semánticamente ontologías, a partir de la reutilización de otro recurso ontológico (WordNet español), sin destruir o modificar la semántica de identidad de cada una de las ontologías involucradas. El modelo presentado puede permitir al usuario acceder a la información que necesita en otra clasificación jerárquica, sin precisar de un entrenamiento referido a la conceptualización de cada sistema, pues utilizaría la ontología «diana» con la que está familiarizado para su aplicación a la recuperación de información.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En este proyecto se pretende diseñar un sistema embebido capaz de realizar procesamiento de imágenes y guiado de un hexacóptero. El hexacóptero dispondrá a bordo de una cámara así como las baterías y todo el hardware necesario para realizar el procesamiento de la información visual obtenida e implementar el controlador necesario para permitir su guiado. OpenCV es una biblioteca de primitivas de procesado de imagen que permite crear algoritmos de Visión por Computador de última generación. OpenCV fue desarrollado originalmente por Intel en 1999 para mostrar la capacidad de procesamiento de los micros de Intel, por lo que la mayoría de la biblioteca está optimizada para correr en estos micros, incluyendo las extensiones MMX y SSE. http://en.wikipedia.org/wiki/OpenCV Actualmente es ampliamente utilizada tanto por la comunidad científica como por la industria, para desarrollar nuevos algoritmos para equipos de sobremesa y sobre todo para sistemas empotrados (robots móviles, cámaras inteligentes, sistemas de inspección, sistemas de vigilancia, etc..). Debido a su gran popularidad se han realizado compilaciones de la biblioteca para distintos sistemas operativos tradicionales (Windows, Linux, Mac), para dispositivos móviles (Android, iOS) y para sistemas embebidos basados en distintos tipos de procesadores (ARM principalmente). - iPhone port: http://www.eosgarden.com/en/opensource/opencv-ios/overview/ - Android port: http://opencv.willowgarage.com/wiki/AndroidExperimental Un ejemplo de plataforma embebida es la tarjeta Zedboard (http://www.zedboard.org/), que representa el estado del arte en dispositivos embebidos basados en la arquitectura Cortex de ARM. La tarjeta incluye un procesador Cortex-A9 dual core junto con una gran cantidad de periféricos y posibilidades de conexión a tarjetas de expansión de terceras partes, lo que permite desarrollar aplicaciones en muy distintos campos de la Visión por Computador.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Uno de los problemas con los que se enfrentan los alumnos a la hora de estudiar las geociencias es la falta de imágenes de alta calidad, especialmente en muestras microscópicas. En este trabajo se examinan distintas técnicas de microscopía óptica para la obtención de fotografías digitales de alta resolución. Las técnicas se han aplicado y desarrollado en el marco de las geociencias, en particular en ámbito de la sedimentología y micropaleontología siendo los objetos geológicos fotografiados fundamentalmente arenas y microfósiles. Las técnicas abarcan las distintas opciones de microscopia óptica (utilización de microscopía simple y compuesta) que incluyen básicamente distintos tipos de luz reflejada, utilización de diferentes tipos de cámara fotográfica, elección de los aumentos y de los grados de luminosidad óptimos para cada tipo muestra. Los resultados obtenidos han permitido establecer las mejores condiciones e instrumental para la implementación de esta técnica como recurso de investigación aplicado a la didáctica de las geociencias marinas, en particular en las asignaturas de “planctología aplicada y micropaleontología marina” y “sedimentología” del grado de ciencias del mar de la universidad de Alicante.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El objetivo del proyecto consiste en crear un videojuego cuyos niveles se generen a partir del procesamiento de imágenes que el usuario podrá capturar con la cámara del móvil, o que podrá obtener de la galería de fotos del dispositivo. Se realizará una segmentación de la imagen y se extraerán así los elementos a utilizar en el juego, como por ejemplo zonas por las que poder movernos con un personaje, o bien piezas de un puzzle que debamos volver a construir. El videojuego se implementará con el motor Cocos2d-x.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Comunicación presentada en la VI Conferencia de la Asociación Española para la Inteligencia Artificial (CAEPIA'95), Alicante, 15-17 noviembre 1995.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este proyecto se basa en la necesidad de replantearse la filosofía clásica del TLH para adecuarse tanto a las fuentes disponibles actualmente (datos no estructurados con multi-modalidad, multi-lingualidad y diferentes grados de formalidad) como a las necesidades reales de los usuarios finales. Para conseguir este objetivo es necesario integrar tanto la comprensión como la generación del lenguaje humano en un modelo único (modelo LEGOLANG) basado en técnicas de deconstrucción de la lengua, independiente de su aplicación final y de la variante de lenguaje humano elegida para expresar el conocimiento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El campo de procesamiento de lenguaje natural (PLN), ha tenido un gran crecimiento en los últimos años; sus áreas de investigación incluyen: recuperación y extracción de información, minería de datos, traducción automática, sistemas de búsquedas de respuestas, generación de resúmenes automáticos, análisis de sentimientos, entre otras. En este artículo se presentan conceptos y algunas herramientas con el fin de contribuir al entendimiento del procesamiento de texto con técnicas de PLN, con el propósito de extraer información relevante que pueda ser usada en un gran rango de aplicaciones. Se pueden desarrollar clasificadores automáticos que permitan categorizar documentos y recomendar etiquetas; estos clasificadores deben ser independientes de la plataforma, fácilmente personalizables para poder ser integrados en diferentes proyectos y que sean capaces de aprender a partir de ejemplos. En el presente artículo se introducen estos algoritmos de clasificación, se analizan algunas herramientas de código abierto disponibles actualmente para llevar a cabo estas tareas y se comparan diversas implementaciones utilizando la métrica F en la evaluación de los clasificadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artículo presenta la aplicación y resultados obtenidos de la investigación en técnicas de procesamiento de lenguaje natural y tecnología semántica en Brand Rain y Anpro21. Se exponen todos los proyectos relacionados con las temáticas antes mencionadas y se presenta la aplicación y ventajas de la transferencia de la investigación y nuevas tecnologías desarrolladas a la herramienta de monitorización y cálculo de reputación Brand Rain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En las últimas décadas diversas técnicas basadas en teledetección mediante sistemas de microondas han servido para aumentar el conocimiento de la superficie terrestre. En concreto, los sistemas basados en Radar de Apertura Sintética (SAR) han demostrado ser una herramienta con un gran potencial en la monitorización de cultivos y de gran ayuda a las técnicas de cultivo de precisión (Precision Farming). En la actualidad existen técnicas de clasificación de cultivos basadas en adquisiciones SAR que permiten con elevada precisión determinar la cobertura espacial de diferentes cultivos sin embargo la estimación de parámetros biofísicos resulta más compleja con estas técnicas. Recientemente diversas estrategias han sido propuestas con el objetivo de determinar el estado de un cultivo, el estado fenológico, en un determinado instante basándose en el análisis de las características de las imágenes SAR polarimétricas (PolSAR). Estas primeras aproximaciones todavía se encuentran en una etapa de desarrollo temprana y por tanto es posible profundizar y analizar las diferentes alternativas a partir de ellas de manera que podamos obtener resultados más precisos y que puedan aportar información de valor añadido a las técnicas de cultivo de precisión. En este trabajo abordaremos la alternativa de aprovechar las series de imágenes SAR obtenidas en diferentes instantes en el ciclo de un cultivo para determinar el estado fenológico de un cultivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El PAT en la Escuela Politécnica está abierto a todos aquellos tutores que deseen formar parte del plan y también a todos los alumnos, que, voluntariamente pueden marcar la opción de participar en el plan en la matrícula, y también a aquellos que, a pesar de no marcar la opción en la matrícula, finalmente han decidido seguir el plan de acción tutorial. Esta característica de participación e inscripción voluntaria permite que el trabajo se realice más satisfactoriamente tanto por parte de tutores como por parte de los alumnos, puesto que han decidido seguir el plan por ello mismos y no como una imposición. Con este trabajo nos proponemos presentar nuestras experiencias en el desarrollo de la tutorización de nuestros estudiantes así como la evolución en el desarrollo de la tutorización por pares.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La actual Red Docente ha trabajado sobre la virtualización de los materiales prácticos de la asignatura Técnicas de Separación, la cual se imparte en el primer semestre del tercer curso del Grado en Química. El objetivo principal de esta tarea es que el alumnado pueda desarrollar y completar su formación teórico-práctica adquirida, de forma que sea una actividad no presencial. El desarrollo de materiales virtuales es necesario debido a la escasez de horas presenciales que poseen las diferentes prácticas que componen la asignatura. Estos materiales proporcionan al estudiante un aprendizaje autónomo, pues recogen de una forma muy didáctica el fundamento teórico en el campo de las Técnicas de separación. Además los mismos llevan asociados material virtual (imágenes, vídeos, etc) así como hipervínculos que ayudan al alumno a entender y recordar los conceptos seguidos durante la asignatura. De este modo, el alumno puede establecer su propio ritmo de aprendizaje (proceso de autoaprendizaje), bajo la supervisión del profesor/a, dedicando el tiempo necesario para asimilar cada concepto. Si bien dichos materiales deben estar presentes desde los primeros cursos, se puede concluir que posibilitan una excelente formación académica del alumnado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El concepto de tejido es un constructo teorético muy útil para aprender a conocer las estructuras microscópicas del organismo y para diagnosticar, de forma objetiva, la mayoría de las lesiones, a través de imágenes histológicas (IH). Tradicionalmente, aprender a interpretar IH se basa en su observación repetitiva y monótona. Esto y la consideración de la Histología como una disciplina meramente descriptiva, ha determinado su escasa relevancia y su alto nivel de olvido para los alumnos, como ha sido puesto de relieve en varias publicaciones. Los recursos digitales han facilitado, de forma sustancial, el aprendizaje de la Histología, aunque todavía sigue basándose en la observación iterativa y monótona de IH. Para facilitar y mejorar dicho aprendizaje hemos creando y publicado una clasificación y sistematización de las IH. En este trabajo presentamos la combinación de la sistematización de las IH con el uso de un microscopio virtual accesible a todos los alumnos en cualquier lugar y momento (tablets, smartphones, ordenadores de mesa, portátiles, etc.). La evaluación de esta metodología, mediante una encuesta, pone de manifiesto su alto grado de aceptación por los alumnos y sus enormes posibilidades para un aprendizaje, a la vez, autónomo y colaborativo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.