865 resultados para PROCESAMIENTO DE IMÁGENES


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gran evolución a lo largo de este tiempo sobre dispositivos móviles y sus características, así como las vías de conexión de alta velocidad 3G/4G, han logrado dar un giro a los planteamientos económicos empresariales consiguiendo que se replanteen los costes de sus infraestructuras tradicionales, involucrando las nuevas tecnologías en su nueva estructura económica y consiguiendo invertir menos recursos humanos en el proceso de producción. Este proyecto propone una solución real para la empresa Madrileña Red de Gas. Mientras el proyecto de contadores inteligentes se termina de concretar y desarrollar, es necesario disponer de un método que automatice la lectura de los contadores analógicos mediante el procesamiento de una imagen digital a través de una aplicación informática que sea capaz de determinar el código de identificación del contador así como la lectura del consumo actual. Para la elaboración del método desarrollado se han utilizado conceptos propios de Visión por Computador y de Aprendizaje Automático, más específicamente tratamiento de imágenes y reconocimiento óptico de caracteres, mediante la aplicación de métodos en el ámbito de dichas disciplinas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estudios en niños con Trastornos en el Neurodesarrollo del Lenguaje (TNDL) han mostrado que esta población tiene mayores dificultades en el acceso al léxico que los niños con Desarrollo Típico (DT). Estas dificultades se materializan principalmente en ausencia de respuesta ante la demanda de denominación de una imagen (respuesta anómica) o la elicitación de una denominación correspondiente a otro objeto, bien por su proximidad semántica o bien por la proximidad entre sus nombres (sustituciones parafásicas semánticas y fonológicas). Sin embargo, estas características no parecen ser generalizables al conjunto de los niños TNDL y se pone en duda que lo sea aún en poblaciones más específicas en las que es una característica bastante común y remarcable como en los niños con TEL. En el presente estudio se ha diseñado y construido una prueba para estudiar el procesamiento léxico en niños con edades comprendidas entre los 2;06 y 7;11 años: el Test de Evaluación y Análisis del Léxico Infantil (ALI). La prueba incluye una tarea de denominación y dos tareas complementarias: una de reconocimiento e identificación de imágenes (comprensión léxica por vía auditiva) y otra de repetición de palabras. La prueba se aplicó a una amplia población de niños con DT del lenguaje (n=240) de las edades mencionadas con objeto de disponer de una primera referencia del comportamiento normativo de la población infantil en la tarea de denominación de imágenes. Los resultados obtenidos con la población de niños con DT ponen de manifiesto que la prueba posee un alto nivel de consistencia interna y validez convergente. Las puntuaciones obtenidas han permitido elaborar un baremo en puntuaciones centiles de la denominación e identificación de imágenes y repetición de palabras para la población comprendida entre los 3 y 6 años...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La aplicación Control Camera IP, desarrolla como Proyecto Fin de Carrera en la ETS. De Ingeniería Informática de la Universidad de Málaga, fue concebida como una interfaz de usuario para la monitorización y control de cámaras IP de forma remota, pudiendo ésta ejecutarse en diferentes plataformas, incluyendo dispositivos móviles con sistemas Android. En aquel momento sin embargo, las plataformas Android no disponían de una librería oficial dentro del marco de la herramienta de desarrollo utilizada (la biblioteca de desarrollo multiplataforma Qt), por lo que fue utilizada una versión alternativa no oficial denominada Necessitas Qt for Android. Hoy, con la versión 5 de Qt, existe la posibilidad de dar soporte a las plataformas Android de forma oficial, por lo que es posible adaptar la aplicación a esta nueva versión. En este Trabajo Fin de Grado, se ha adaptado la aplicación Control Camera IP a la versión 5 de Qt, logrando así crear plataformas para dispositivos Android de forma oficial. Además, se hace uso de la biblioteca OpenCV para el desarrollo de varios métodos de procesamiento sobre la imagen recibida por la cámara IP, así como algoritmos de detección de movimiento y de caras de personas, haciendo uso de técnicas de visión por computador. Finalmente, se introduce la posibilidad de utilizar APIs estandarizadas para la conectividad de la aplicación con cámaras IP de bajo coste, adaptando algunas de sus funciones a la aplicación Control Camera IP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta tesis se aborda la implementación de un sistema completo de visión activa, en el que se capturan y generan imágenes de resolución espacial variable. Todo el sistema se integra en un sólo dispositivo del tipo AP SoC (All Programmable System on Chip), lo que nos permite llevar a cabo el codiseño hardware-software del mismo, implementando en la parte lógica los bloques de preprocesado intensivo, y en la parte software los algoritmos de procesado de control más complejo. El objetivo es que, trabajando con un campo visual del orden de Megapíxeles, se pueda procesar una tasa moderada de imágenes por segundo. Las imágenes multiresolución se generan a partir de sensores de resolución uniforme con una latencia nula, lo que permite tener preparada la imagen de resolución variable en el mismo instante en que se ha terminado de capturar la imagen original. Como innovación con respecto a las primeras contribuciones relacionadas con esta Tesis, se procesan imágenes con toda la información de color. Esto implica la necesidad de diseñar conversores entre espacios de color distintos, para adecuar la información al tipo de procesado que se va a realizar con ella. Estos bloques se integran sin alterar la latencia de entrega de los sucesivos fotogramas. El procesamiento de estas imágenes multirresolución genera un mapa de saliencia que permite mover la fóvea hacía la región considerada como más relevante en la escena. El contenido de la imagen se estructura en una jerarquía de niveles de abstracción. A diferencia de otras arquitecturas de este tipo, como son la pirámide regular y el polígono foveal, en las que se trabaja con imágenes de resolución uniforme en los distintos niveles de la jerarquía, la pirámide irregular foveal que se propone en esta tesis combina las ideas de trabajar con una imagen realmente multirresolución, que incluya el campo de visión completo que abarcan sensor y óptica, con el procesamiento jerárquico propio de las pirámides irregulares. Para ello en esta tesis se propone la implementación de un algoritmo de diezmado irregular que, tomando como base la imagen multirresolución, dará como resultado una estructura piramidal donde los distintos niveles no son imágenes sino grafos orientados a la resolución del problema de segmentación y estimación de saliencia. Todo el sistema se integra en torno a la arquitectura de bus AXI, que permite conectar entre si todos los cores desarrollados en la parte lógica, así como el acceso a la memoria compartida con los algoritmos implementados en la parte software. Esto es posible gracias a los bloques de acceso directo a memoria AXI-VDMA, en una propuesta de configuración que permite tanto la integración perfectamente coordinada de la transferencia de la imagen multirresolución generada a la zona de trabajo del algoritmo de segmentación como su recuperación para la posterior visualización del resultado del proceso, y todo ello con una tasa de trabajo que mejora los resultados de plataformas similares.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los retos en las actividades de innovación en docencia, se basan en la necesidad de proponer nuevos métodos y estrategias que permitan ampliar y armonizar toda clase de recursos que se tengan disponibles, para potencializar los resultados en el proceso de enseñanza - aprendizaje -- En el caso de la asignatura de rocas metamórficas, es muy común identificar dificultades en los estudiantes en el análisis petrográfico, identificación de minerales, patrones texturales, y relación con curvas de blastesis; por lo anterior se quiso implementar el tratamiento de análisis digital de imágenes (ADI), como una herramienta pedagógica que facilite el aprendizaje de los mismos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo nace de una idea conjunta del desarrollo de un software capaz de trabajar con una máquina de rayos X para la toma de mamografías, y ser una herramienta para los radiólogos a la hora de analizar las imágenes y localizar zonas que pudieran ser sensibles de tener algún tipo de tumoración. No se trata de un software que pretenda suplantar la función de un radiólogo; es importante tener claro que el experto en radiología es el único capaz de analizar, comparar y tomar decisiones reales, y este software pretende simplificar esa tarea al máximo. Este programa utiliza como recursos para su funcionamiento una base de datos de mamografías procesadas anteriormente, a partir de las cuales entrena a la red neuronal para que sea capaz de clasificar mamografías nuevas y mostrar las posibles zonas críticas. Esta base de datos debe indicar a la red qué mamografías presentan algún tumor y dónde, para que la red aprenda a diferenciar entre zonas críticas y zonas no críticas. Esta idea deriva en la realización de dos trabajos que se especializan en los dos ámbitos del proyecto, en primer lugar el procesamiento y el análisis de esas mamografías obtenidas de la máquina de rayos X, que da lugar al presente trabajo; y en segundo lugar, deriva en un trabajo paralelo que explica la obtención, el análisis y la clasificación de los datos que se desprenden de este proyecto utilizando redes neuronales, titulado “Detección y clasificación de tumores en mamografías a través de redes neuronales”; realizado por Rodrigo Culotta López

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La cuantificación del cambio de uso del suelo presenta aún altos niveles de incertidumbre, lo que repercute por ejemplo en la estimación de las emisiones de CO 2 . En este estudio se desarrollaron métodos, basados en imágenes de satélite y trabajo de campo, para estimar la tasa de cambio de la cobertura y uso del suelo, y las emisiones de CO 2 en la subcuenca río Dipilto, Nueva Segovia. La superficie de los tipos de vegetación se determinó con imágenes Landsat. Se utilizaron datos de carbono de nueve parcelas de muestreo en bosque de pino que fueron correlacionadas, para establecer un modelo de regresión lineal con el objetivo de estimar el Stock de Carbono. La sobreposición y algebra de mapas se utilizó para el escenario de emisiones de CO 2 . El análisis con imágenes de los años 1993, 2000 y 2011 reveló que durante es tos 18 años la velocidad a la que se perdieron los bosques latifoliados cerrado fue variable. Durante los primeros 7 años (1993 a 2000) se registró un aumento de 99.95 ha , que corresponde a una tasa de deforestación de - 1.45 % anual. Durante los últimos once años (2000 a 2011) esta cantidad cambió totalmente, ya que se eliminaron 331.76 h a , que corresponde a una tasa de deforestación anual de 3.41 %. Finalmente considerando el periodo de análisis, se transformaron más de 232.01 h a por año, correspondiente a u na tasa de deforestación anual de 1.55 %. La imagen de 2011 demostró que las reservas o Stock de C oscila entre 40 - 150 t/ha. Este intervalo de valores fue estimado por un modelo de regresión con razonable ajuste (R2 = 0.73 ), cuyas variables independientes fueron la reflectancia de las distintas bandas como índices de vegetación e infrarrojo cercano. Las pérdidas de C se estimaron en intervalos 1 - 191 t/h a en 20.76% del área. El 32.85% del área se mantuvo estable y 46.39% ganancias de 1 - 210 t/ha. La combinación de imágenes de resolución espacial media como son las de la serie Landsat para definir trayectorias de cambio de la cobertura del suelo, es una opción viable para la solución de interrogantes relacionadas con el cambio climático, tales como la estimación de las emisiones de CO 2 derivadas del cambio de uso del suelo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: El trabajo que presentamos a continuación tiene como objetivo abordar distintos aspectos sobre la construcción de las imágenes y de las prácticas discursivas que se proyectaron sobre el Islam y los musulmanes en la Castilla medieval. En este sentido, daremos cuenta del contexto mediterráneo y peninsular en la tensión Cristianismo-Islam, así como también de algunas medidas que desde la Iglesia romana se proyectaban sobre los moros. Recogeremos los antecedentes de las polémicas antiislámicas para luego adentrarnos en el universo castellano y ejemplificar estas disputas con algunos escritores cristianos para analizar sus posturas respecto del Islam y la veracidad de su religión.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: El artículo invita a la reflexión respecto de la dicotomía entre economía y sociedad. Para esto, presenta una descripción de diferentes imágenes del mercado. La primera, representada por un mercado como espacio total, descripto a partir de la ciudad de Chicago y mediante los postulados de Becker. Luego, la segunda imagen remite a las tensiones entre mercado y sociedad, a través de las ideas de desarrolladas por Coraggio. Finalmente, el autor concluye presentando la imagen del mercado como un espacio humano y civil, presentando las consideraciones desarrolladas por Zamagni. Así, el autor deja planteado el interrogante acerca de cuál de las tres imágenes del mercado predominará en la agenda de las decisiones políticas, de la realidad económica y social y, en el imaginario simbólico de nuestra cultura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se condujo una evaluación de emergía de los sistemas de producción, procesamiento y exportación de café ( Coffea arabica L.), con el objetivo de evaluar la contribución del ambiente a los productos de comercio y así enrriquecer la discusión sobre comercio justo. Los índices de emergía calculados fueron: transformidad, %renovables, relación de carga ambiental y relación de intercambio de emergía. Los diferentes índices de emergía mostraron que el procesamiento e industrialización del café son actividades intensivas, que requieren un gran soporte ambiental. Se calcularon las transformidades para café en uva, café verde (oro), café tostado e instantáneo (3.35 E+05, 1.77 E+06, 3.64 E+06 y 1.29 E+07 sej/J, respectivamente). La relación de intercambio de emergía demostró que casi todos los compradores se benefician de la compra de café verde de Nicaragua. Las ventas de café tostado o instantáneo son beneficiosas para Nicaragua. Esto significa que Nicaragua exporta mucha más emergía en el café verde vendido que la que importa en el dinero recibido por el café, y de esta manera agota sus recursos naturales locales. Un precio justo a pagar por el café verde oscila entre 0.7 a 3 veces el precio actual pagado. El análisis de emergía es una herramienta útil para evaluar las necesidades ambientales directas e indirectas para producir un bien o servicio. Esto la convierte en una herramienta que es capaz de evaluar el comercio de una forma más comprensiva que las medidas económicas convencionales. La inequidad en el comercio internacional puede ser detectada con esta metodología de evaluación. Por lo tanto, proponemos el uso de los valores de la relación de intercambio de emergía (RIE), emdólares y emprecio como medidas útiles para tratar de desarrollar condiciones de comercio más justas y sostenibles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: La adquisición de nuevos retratos de la reina Isabel II ha propiciado la revisión y puesta al día de un sugestivo corpus fotográfi co enormemente ilustrativo de la diversidad de recursos que la fotografía decimonónica ofrecía, así como de los cambios que afectaron al tema de la representación regia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La industria de aserrado de trozas es la principal industria maderera del país. En el presente trabajo se estudian los aspectos de funcionamiento y estado actual de los aserraderos del departamento de Managua. Los objetivos del presente trabajo fueron: 1). Conocer la secuencia de actividades desde la explotación de trozas en el bosque, hasta la obtención de madera aserrada. 2). Descripción de los aserraderos de la ciudad de Managua. 3). Determinar los principales problemas que aquejan a la industria del aserrado en el departamento de Managua. En este estudio que es un censo de las industrias de aserrado en el departamento de Managua, las técnicas usadas para obtener información fueron; entrevistas, visitas y un cuestionario confeccionado para este efecto. La recolección de datos se efectuaran durante los meses de Abril, mayo y Junio de 1972. Se tomaron datos en los nueve aserraderos existentes y en los principales bosques de los que se abastece de madera el departamento de Managua. Las labores en los bosques son deficientes aunque hay cierta tendencia a mecanizar y mejorarlas, esto se explica por el ejemplo que los madereros tomaron de compañías extranjeras que explotan los bosques del país. La explotación de los bosques nicaragüenses se hace careciendo técnicas silviculturales que garanticen un abastecimiento constante de materia prima. Al faltar técnicas para la explotación se están destruyendo los bosques y se obtienen cada vez rendimientos mas bajos. La localización de los aserraderos de Managua no es adecuada y es una de las principales causas para que los costos de producción suban y que el margen de utilidad sea estrecho. En siete de los nueve aserraderos venden solo servicios y la única seguridad de financiamiento constituye la afluencia de madereros que necesitan aserrar sus trozas para vender la madera aserrada en los puestos de ventas que mantienen. Existen dos plantas (C.M.O., y MOLDEX) que tienen asegurada la continuidad de sus operaciones, porque han acaparado casi todo el mercado del departamento y también exportan sus productos. En general los aserraderos de Managua carecen de equipos y técnicas para una labor eficiente. Los aserraderos trabajan con equipo relativamente nuevos, pero están muy deteriorados para los pocos años de funcionamiento, esto se explica por falta de planes de mantenimiento. El tipo de fuerza motriz mas utilizado es suministrada por motores Diésel (once motores de trece existentes). En la mayoría de los casos proporcionan energía insuficiente. La unidad de volumen utilizada es el flete para la materia prima y la pulgada cuadrada para madera aserrada en todo este departamento. El volumen anual aserrado alcanza 42,826 fletes, indicando que estos aserraderos no trabajan a capacidad completa. Los principales problemas comunes a estos aserraderos son: escasez de madera, aumento de los costos de producción, bajo precio pagado por sus servicios y productos, baja actual en la demanda de madera, dificultad de hallar repuestos para reparación de maquinaria y motores en forma oportuna.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] El proyecto estudia algoritmos de detección de bordes aplicados a imágenes fotográficas y procedentes de nubes de puntos, posteriormente combina los resultados y analiza las posibilidades de mejora de la solución conjunta.