728 resultados para Ordenadores
Resumo:
En la actualidad, muchos gobiernos están publicando (o tienen la intención de publicar en breve) miles de conjuntos de datos para que personas y organizaciones los puedan utilizar. Como consecuencia, la cantidad de aplicaciones basadas en Open Data está incrementándose. Sin embargo cada gobierno tiene sus propios procedimientos para publicar sus datos, y esto causa una variedad de formatos dado que no existe un estándar internacional para especificar los formatos de estos datos. El objetivo principal de este trabajo es un análisis comparativo de datos ambientales en bases de datos abiertas (Open Data) pertenecientes a distintos gobiernos. Debido a esta variedad de formatos, debemos construir un proceso de integración de datos que sea capaz de unir todos los tipos de formatos. El trabajo implica un pre-procesado, limpieza e integración de las diferentes fuentes de datos. Existen muchas aplicaciones desarrolladas para dar soporte en el proceso de integración por ejemplo Data Tamer, Data Wrangler como se explica en este documento. El problema con estas aplicaciones es que necesitan la interacción del usuario como parte fundamental del proceso de integración. En este trabajo tratamos de evitar la supervisión humana aprovechando las similitudes de los datasets procedentes de igual área que en nuestro caso se aplica al área de medioambiente. De esta forma los procesos pueden ser automatizados con una programación adecuada. Para conseguirlo, la idea principal de este trabajo es construir procesos ad hoc adaptados a las fuentes de cada gobierno para conseguir una integración automática. Concretamente este trabajo se enfoca en datos ambientales como lo son la temperatura, consumo de energía, calidad de aire, radiación solar, velocidad del viento, etc. Desde hace dos años el gobierno de Madrid está publicando sus datos relativos a indicadores ambientales en tiempo real. Del mismo modo, otros gobiernos han publicado conjuntos de datos Open Data relativos al medio ambiente (como Andalucía o Bilbao), pero todos estos datos tienen diferentes formatos. En este trabajo se presenta una solución capaz de integrar todas ellos que además permite al usuario visualizar y hacer análisis sobre los datos en tiempo real. Una vez que el proceso de integración está realizado, todos los datos de cada gobierno poseen el mismo formato y se pueden lanzar procesos de análisis de una manera más computacional. Este trabajo tiene tres partes fundamentales: 1. Estudio de los entornos Open Data y la literatura al respecto; 2. Desarrollo de un proceso de integración y 3. Desarrollo de una Interface Gráfica y Analítica. Aunque en una primera fase se implementaron los procesos de integración mediante Java y Oracle y la Interface Gráfica con Java (jsp), en una fase posterior se realizó toda la implementación con lenguaje R y la interface gráfica mediante sus librerías, principalmente con Shiny. El resultado es una aplicación que provee de un conjunto de Datos Ambientales Integrados en Tiempo Real respecto a dos gobiernos muy diferentes en España, disponible para cualquier desarrollador que desee construir sus propias aplicaciones.
Resumo:
Los jueces online de problemas no son nuevos y como todo, tienden a mejorarse y a renovarse. Es en este punto donde cobran sentido los ejercicios interactivos, ejercicios en los que la solución a un problema se obtiene mediante la comunicación con el propio juez. Este trabajo trata de implantar y adaptar a un juez, diseñado en sus inicios para ejercicios tradicionales, los ejercicios interactivos. Esta nueva funcionalidad no sólo está pensada para que los usuarios habituales tengan nuevos retos, sino que los alumnos que utilizan esta herramienta como apoyo en asignaturas de algoritmia tengan la posibilidad de reforzar sus conocimientos a través de este tipo de ejercicios, ya que con ellos se pueden plantear problemas que no tienen sentido con los ejercicios tradicionales.
Resumo:
Cada vez son más los usuarios que optan por usar un juez online de programación como entrenamiento para un concurso de programación o inclusive como herramienta de estudio en el ámbito docente. No obstante, es natural que con su uso se cometan errores que muchas veces no se alcanzan a entender. Por ello, en este proyecto, se trata de resolver esa carencia mediante el ofrecimiento de pistas a los usuarios. Es decir, dado un problema con un formato concreto y una solución en código fuente, se devuelve una ayuda sobre el error cometido en la solución, lo cual supone, no solo una ayuda para participantes en concursos, sino también para alumnos y profesores que pueden beneficiarse de esta ayuda. De hecho, el uso de herramientas de corrección automática está en aumento, y con la solución propuesta, se podría obtener pistas para los problemas que respeten el formato esperado.
Resumo:
Hoy en día vivimos en una sociedad en la que las tecnologías son accesibles para gran parte de la población y las cuales tienen como finalidad, entre otras cosas, facilitar la vida de las personas en la medida de lo posible. Este proyecto busca hacer uso de esas tecnologías para facilitar la accesibilidad a textos para cualquiera que pueda tener dificultades con ellos, en mayor o menor medida. La finalidad de nuestro proyecto no es crear la aplicación para el uso directo de las personas sino desarrollar los servicios, y el acceso a los mismos, que faciliten la implementación de estas aplicaciones. Aún así en este proyecto se crea una aplicación de ejemplo para Android, en la cual se hace uso de los servicios como muestra de un posible uso de los mismos. Para facilitar el acceso a estos servicios y la comprensión de los mismos, en este proyecto se crea también una API web en la cual quedan todos ellos explicados, como acceder a ellos, su descripción, ejemplos de llamadas y de resultados de las llamadas, en definitiva, todo lo que pueda ayudar a un desarrollador interesado en ellos a utilizarlos sin mayor problema. Las aplicaciones posibles de estos servicios son de lo mas extensas. Así, por ejemplo, en un dispositivo móvil, si un usuario está leyendo un libro y no entiende una palabra o le resulta bastante complicada, tan solo tendría que sacar el móvil, introducir la palabra en una aplicación que llamara a uno de nuestros servicios y obtener el resultado requerido de esa palabra, de forma rápida y cómoda. El proyecto queda dividido en tres partes: el desarrollo de los servicios de accesibilidad, la web de la API explicando cada uno de estos servicios y una aplicación Android de ejemplo de utilización.
Resumo:
Las Redes Definidas por Software (Software Defined Networking) permiten la monitorización y el control centralizado de la red, de forma que los administradores pueden tener una visión real y completa de la misma. El análisis y visualización de los diferentes parámetros obtenidos representan la forma más viable y práctica de programar la red en función de las necesidades del usuario. Por este motivo, en este proyecto se desarrolla una arquitectura modular cuyo objetivo es presentar en tiempo real la información que se monitoriza en una red SDN. En primera instancia, las diferentes métricas monitorizadas (error, retardo y tasa de datos) son almacenadas en una base de datos, para que en una etapa posterior se realice el análisis de dichas métricas. Finalmente, los resultados obtenidos, tanto de métricas en tiempo real como de los datos estadísticos, son presentados en una aplicación web. La información es obtenida a través de la interfaz REST que expone el controlador Floodlight y para el análisis de la información se plantea una comparación entre los valores medios y máximos del conjunto de datos. Los resultados obtenidos muestran gráficamente de forma clara y precisa las diferentes métricas de monitorización. Además, debido al carácter modular de la arquitectura, se ofrece un valor añadido a los sistemas actuales de monitorización SDN.
Resumo:
El flujo óptico y la estimación de movimiento es área de conocimiento muy importante usado en otros campos del conocimiento como el de la seguridad o el de la bioinformática. En estos sectores, se demandan aplicaciones de flujo óptico que realicen actividades muy importantes con tiempos de ejecución lo más bajos posibles, llegando a tiempo real si es posible. Debido a la gran complejidad de cálculos que siguen a este tipo de algoritmos como se observará en la sección de resultados, la aceleración de estos es una parte vital para dar soporte y conseguir ese tiempo real tan buscado. Por lo que planteamos como objetivo para este TFG la aceleración de este tipo de algoritmos mediante diversos tipos de aceleradores usando OpenCL y de paso demostrar que OpenCL es una buena herramienta que permite códigos paralelizados con un gran Speedup a la par que funcionar en toda una diversa gama de dispositivos tan distintos como un GPU y una FPGA. Para lo anteriormente mencionado trataremos de desarrollar un código para cada algoritmo y optimizarlo de forma no especifica a una plataforma para posteriormente ejecutarlo sobre las diversas plataformas y medir tiempos y error para cada algoritmo. Para el desarrollo de este proyecto partimos de la teoría de dos algoritmos ya existentes: Lucas&Kanade monoescala y el Horn&Schunck. Además, usaremos estímulos para estos algoritmos muy aceptados por la comunidad como pueden ser el RubberWhale o los Grove, los cuales nos ayudarán a establecer la corrección de estos algoritmos y analizar su precisión, dando así un estudio referencia para saber cual escoger.
Resumo:
El presente trabajo estudia la viabilidad a la hora de aplicar un modelo de programación basado en la extracción de paralelismo a nivel de tareas sobre distintas arquitecturas heterogéneas basadas en un procesador multinúcleo de propósito general acelerado con uno o más aceleradores hardware. Se ha implementado una aplicación completa cuyo objetivo es la detección de bordes en una imagen (implementando el Algoritmo de Canny), y se ha evaluado en detalle su rendimiento sobre distintos tipos de arquitecturas, incluyendo CPUs multinúcleo de última generación, sistemas multi-GPU y una arquitectura objetivo basada en procesadores ARM Cortex-A15 acelerados mediante un DSP C66x de la compañía Texas Instruments. Los resultados experimentales demuestran la viabilidad de este tipo de implementación también para arquitecturas heterogéneas novedosas como esta última, e ilustran la facilidad de programación que introduce este tipo de modelos de programación sobre arquitecturas de propósito específico.
Resumo:
El objetivo de este trabajo es proporcionar un marco general y teórico para la personalización de rutas en sistemas de turismo y ocio. Además, se verán técnicas que utilizan Realidad Aumentada para mejorar la experiencia del usuario que recorra esas rutas. Para ello, se introducirán los conceptos necesarios de teoría de grafos, así como los algoritmos para recorrerlos. Posteriormente, describiremos el problema de personalización de rutas para individuos y grupos, proponiendo tres enfoques distintos para su resolución: utilizando el algoritmo A*, el algoritmo voraz, y el razonamiento basado en casos respectivamente. Además, se realizará un análisis sobre Realidad Aumentada, explicando los distintos dispositivos y técnicas que se utilizan en ella. Con el objetivo de ver un ejemplo del marco general definido en este trabajo, estudiaremos dos casos en los que aplicaremos los algoritmos de personalización y técnicas de Realidad Aumentada explicadas anteriormente. Dichos casos de uso estarán centrados en el Museo de Informática García Santesmases y en el ámbito del turismo en Madrid.
Resumo:
Durante el desarrollo del proyecto he aprendido sobre Big Data, Android y MongoDB mientras que ayudaba a desarrollar un sistema para la predicción de las crisis del trastorno bipolar mediante el análisis masivo de información de diversas fuentes. En concreto hice una parte teórica sobre bases de datos NoSQL, Streaming Spark y Redes Neuronales y después diseñé y configuré una base de datos MongoDB para el proyecto del trastorno bipolar. También aprendí sobre Android y diseñé y desarrollé una aplicación de móvil en Android para recoger datos para usarlos como entrada en el sistema de predicción de crisis. Una vez terminado el desarrollo de la aplicación también llevé a cabo una evaluación con usuarios.
Resumo:
Los procesadores multicore asimétricos con repertorio común de instrucciones (AMPsAsymmetric Multicore Processors) han sido propuestos recientemente como alternativa de bajo consumo a los procesadores multicore simétricos convencionales. Los AMPs combinan, en un mismo chip, cores rápidos de alto rendimiento, con cores más lentos y sencillos de consumo reducido. Uno de los ejemplos más destacados de procesador multicore asimétrico es el procesador big.LITTLE de ARM, que incorporan algunos modelos de teléfonos móviles y tablets disponibles en la actualidad. Trabajos previos han demostrado que para explotar los beneficios potenciales de los procesadores multicore asimétricos, el sistema operativo debe tener en cuenta el beneficio relativo (speedup) que cada aplicación experimenta al ejecutar en un core rápido frente a un core lento. Actualmente, los planificadores por defecto de los sistemas operativos de propósito general no tienen en cuenta la diversidad de speedups entre aplicaciones que puede estar presente en una carga de trabajo multiprogramada. En consecuencia, la asignación de aplicaciones a cores que hacen estos planificadores no extrae el máximo rendimiento por vatio de la plataforma. Recientemente se han realizado extensiones en el kernel Linux para ofrecer un mejor soporte de planificación en multicore asimétricos. Sin embargo, estas extensiones del planificador, utilizadas fundamentalmente en dispositivos móviles con el sistema operativo Android, tampoco tienen en cuenta la diversidad de speedups en las aplicaciones de la carga de trabajo. Por lo tanto estas extensiones no constituyen una aproximación robusta desde el punto de vista de la eficiencia energética. En este proyecto se lleva a cabo la evaluación exhaustiva de distintos algoritmos de planificación para multicore asimétricos sobre una plataforma provista de un procesador ARM big.LITTLE. El principal objetivo del estudio es cuantificar el grado de eficiencia energética y el rendimiento global proporcionado por implementaciones de estos algoritmos en el kernel Linux sobre hardware multicore asimétrico real.
Resumo:
En esta investigación analizaremos las capacidades de la nube, centrándonos en la computación (entendiendo esta como la capacidad de procesamiento) y el almacenamiento de datos geolocalizados (redes de entrega de contenidos). Estas capacidades, unidas al modelo de negocio que implica un coste cero por aprovisionamiento y el pago por uso, además de la reducción de costes mediante sinergias y optimización de los centros de datos, suponen un escenario interesante para las PYMES dedicadas a la producción audiovisual. Utilizando los servicios en la nube, una empresa pequeña puede, en cuestión de minutos, alcanzar la potencia de procesamiento y distribución de gigantes de la producción audiovisual, sin necesidad de ocupar sus instalaciones ni pagar por adelantado el alquiler de los equipos. Describiremos los servicios de AWS (Amazon Web Services) que serían útiles a una empresa, el uso que darían de dichos servicios y su coste, y lo compararemos con el presupuesto por realizar una misma instalación físicamente en dicha empresa, teniendo que comprar e instalar los equipos.
Resumo:
Con el cambio de milenio se han producido dos hitos significativos que determinan un giro sin precedentes en la práctica fotográfica. Uno de ellos es la implantación definitiva de los procesos digitales. Estos procesos implican dos cuestiones fundamentales, por un lado en lo cuantitativo la popularización de los sistemas de captura, donde la cámara ligera del siglo XX queda transfigurada en teléfonos, tabletas, ordenadores, cámaras ultraligeras y todo tipo de dispositivos y, por otro lado, en lo cualitativo, la toma de conciencia e irrupción del ciudadano en la práctica de los procesos de postcaptura o interpretación de la imagen registrada en los ámbitos no profesionales. Tales cambios tecnológicos afectan de forma notoria a los operadores del nuevo sistema produciéndose una crisis excepcional en la historia de la fotografía que diluye las fronteras entre operadores profesionales y amateurs. Se configura y determina así la aparición de un nuevo amateur sui géneris. También se producen giros excepcionales en lo tecnológico que afectan a los nuevos operadores de la fotografía y a su propia función y naturaleza: el desarrollo de las comunicaciones en Internet y en particular con la normalización del uso de las redes sociales. Este nuevo contexto mediático convierte al usuario de las redes ya no sólo en un mero consumidor sino también en un productor de contenidos. Esta mutación del ciudadano en prosumidor (productor y consumidor) despierta su necesidad de aprendizaje práctico y operativo y de la alfabetización en los códigos icónicos...
Resumo:
Poco a poco los ordenadores se han convertido en una parte fundamental de nuestra vida. Diariamente utilizamos portátiles, teléfonos móviles y estamos rodeados de gente que también los usa. Los ordenadores están siempre presentes, son una parte esencial de nuestra rutina. Estos se volvieron muy versátiles en la década de los noventa, abriendo así la era multimedia. El término “multimedia” hace referencia a la capacidad de los ordenadores para combinar texto, gráficos, mapas, animaciones y vídeos, lo cual propició la confluencia entre ocio y trabajo. El ordenador es esa “cosa” frente a la que pasamos la mayor parte de nuestro tiempo y, sin embargo, todavía continuamos sin ser plenamente conscientes de su presencia. No nos paramos a mirar el ordenador ni pensamos en él en nuestro día a día y, en general, este raramente se considera un tema de discusión relevante en nuestras conversaciones. Esta indiferencia hacia un objeto tan cotidiano como el ordenador surge de la difícil relación entre tecnología y vida, entendida en esta investigación como la una tensión entre ordenadores y poética. Actualmente, los estudios sociales sobre tecnología están en continua expansión y transformación, aunque todavía parece necesario incorporar otras perspectivas a estos campos. Los estudios sobre Ciencia, Tecnología y Sociedad (CTS) ofrecen un enfoque interdisciplinar de la innovación tecnológica y la investigación científica, a través de la sociología, la antropología y la filosofía. Sin embargo, estos estudios todavía encuentran dificultades a la hora de acercar tecnología y materialidad. El arte se propone aquí como una alternativa, dado que es una disciplina desde la que se puede estudiar lo tecnológico y hacer visible lo invisible...
Resumo:
[EN]Vision-based applications designed for humanmachine interaction require fast and accurate hand detection. However, previous works on this field assume different constraints, like a limitation in the number of detected gestures, because hands are highly complex objects to locate. This paper presents an approach which changes the detection target without limiting the number of detected gestures. Using a cascade classifier we detect hands based on their wrists. With this approach, we introduce two main contributions: (1) a reliable segmentation, independently of the gesture being made and (2) a training phase faster than previous cascade classifier based methods. The paper includes experimental evaluations with different video streams that illustrate the efficiency and suitability for perceptual interfaces.
Resumo:
Programa de doctorado: Percepción artificial y aplicaciones