9 resultados para Aplicación web
em Universidade Complutense de Madrid
Resumo:
Las tecnologías relacionadas con el análisis de datos masivos están empezando a revolucionar nuestra forma de vivir, nos demos cuenta de ello o no. Desde las grandes compañías, que utilizan big data para la mejora de sus resultados, hasta nuestros teléfonos, que lo usan para medir nuestra actividad física. La medicina no es ajena a esta tecnología, que puede utilizarla para mejorar los diagnósticos y establecer planes de seguimiento personalizados a los pacientes. En particular, el trastorno bipolar requiere de atención constante por parte de los profesionales médicos. Con el objetivo de contribuir a esta labor, se presenta una plataforma, denominada bip4cast, que pretende predecir con antelación las crisis de estos enfermos. Uno de sus componentes es una aplicación web creada para realizar el seguimiento a los pacientes y representar gráficamente los datos de que se dispone con el objetivo de que el médico sea capaz de evaluar el estado del paciente, analizando el riesgo de recaída. Además, se estudian las diferentes visualizaciones implementadas en la aplicación con el objetivo de comprobar si se adaptan correctamente a los objetivos que se pretenden alcanzar con ellas. Para ello, generaremos datos aleatorios y representaremos estos gráficamente, examinando las posibles conclusiones que de ellos pudieran extraerse.
Resumo:
El viaje mental en el tiempo (VMT) es la capacidad de proyectarse mentalmente hacia atrás o hacia adelante en el tiempo, con el fin de recordar eventos del pasado personal o imaginar eventos del futuro personal. Esta investigación se centra en el aspecto orientado hacia el futuro del VMT conocido como pensamiento episódico futuro (PEF). El PEF implica un proceso complejo y exigente ejecutivamente, que es necesario para la recombinación de detalles extraídos de la memoria en un evento nuevo y coherente. Consecuentemente y basándonos en una revisión analítica de la literatura, en este estudio conceptualizamos el PEF como un proceso de construcción asociativa autobiográfica, para el que serían necesarias operaciones autorreferenciales, de asociación o integración (binding), de recombinación y control atencional de la información. De esta forma, el PEF dependería de la recuperación de elementos discretos de la memoria de ítem, que serían integrados entre sí del modo binding inter-ítem y su asociación con información contextual espacio-temporal, extraída de la memoria fuente para formar bindings ítem-contexto. A lo que habría que añadir un tipo de binding semántico subyacente, que enlace esta información episódica con conocimiento semántico-conceptual para guiar la recombinación, el binding ítem-contexto episódico, y explique la novedad y la coherencia de los eventos futuros resultantes. Así, la hipótesis investigada en este estudio fue que el PEF dependería especialmente de un sistema de memoria autobiográfica jerárquicamente organizada, y unos procesos de control relacionados con la memora de trabajo, lo que posibilitaría un binding relacional jerárquico tanto de información semántica como episódica a través de distintas estructuras de información, que resumirían el conocimiento autobiográfico de forma poblacional en los niveles más altos de la jerarquía. Con el fin de estudiar el PEF, se desarrolló un nuevo marco metodológico, el paradigma experimental de integración prospectiva autobiográfica. Dicho marco consistió en un estudio piloto de dos fases, seguido de una secuencia experimental. Para el primer estudio piloto se desarrolló un cuestionario online, el cual se aplicó a una muestra de 112 adultos jóvenes sanos, a los que se pidió valorar Eventos autobiográficos pasados significativos en función de su frecuencia y vividez. Algunos de esos Eventos se utilizaron a continuación para realizar un segundo estudio piloto, para el que se desarrolló un nuevo cuestionario online, el cual se aplicó a una muestra nueva de 51 adultos jóvenes sanos, a los que se pidió que proporcionaran Detalles (Contexto Espacial, Contexto Temporal y Elementos) de los Eventos previamente identificados y que valorasen los Elementos según las mismas propiedades descritas anteriormente. Esta base de datos, que contiene la experiencia autobiográfica colectiva, se utilizó para desarrollar una nueva tarea de aplicación web que se utilizó en la secuencia experimental...
Resumo:
En este proyecto se ha desarrollado una aplicación Web cuya finalidad es ofrecer al usuario datos provenientes del análisis de texto de las noticias que se encuentran en periódicos online. La aplicación permite al usuario realizar búsquedas personalizadas sobre temáticas específicas y configurar algunos tipos de análisis sobre la información recuperada. Entre los análisis que son llevados a cabo destaca el análisis del sentimiento. Para ello se ofrece la posibilidad de que el usuario utilice sus propios diccionarios de pares palabra-valor, utilizados para realizar este tipo de análisis. Para la codificación de la herramienta, se ha utilizado el lenguaje de programación Python y la framework web Django. El almacenamiento de la información de la aplicación se ha realizado sobre una base de datos NoSQL de tipo MongoDB.
Resumo:
Nuestro trabajo se ha centrado principalmente en la mejora y extensión de una aplicación web llamada VizHaskell, la cual fue creada en otro proyecto anterior. La finalidad de esta herramienta es ser utilizada en el ámbito educativo para el aprendizaje del lenguaje Haskell y, por ello, incluye diferentes mecanismos para facilitar la programación de este lenguaje, a diferencia de otras que están destinados a un uso más serio o profesional. Entre sus características están la de incluir un mecanismo de gestión de usuarios en el que cada usuario dispondrá de su propio espacio de trabajo, permitir la creación de proyectos con la que los usuarios pueden tener de una manera organizada los módulos que vayan realizando, incluso proporcionar una visión original a la hora de obtener los resultados de su trabajo y poder entenderlos mejor, mediante el uso de representaciones gráficas como tablas o escenas 3D totalmente manejables y manipulables. Todo esto es posible sin la necesidad de instalar nada más allá de un navegador compatible con HTML5. Entre las mejoras añadidas están la inclusión de dos nuevas representaciones (tablas asociativas y escenas tridimensionales), la capacidad de anidar complejas estructuras de datos y la capacidad de poder manipular las estructuras de una forma sencilla mediante el uso de conocidos elementos como son los menús contextuales, además de otras mejoras que quizás no son tan llamativas, pero no por ello menos importantes, como la incorporación de funcionalidades relacionadas con los backreferences. Todo esto podemos verlo en detalle en la memoria del proyecto.
Resumo:
Las comunidades colaborativas, donde grandes cantidades de personas colaboran para la producción de recursos compartidos (e.g. Github, Wikipedia, OpenStreetMap, Arduino, StackOverflow) están extendiéndose progresivamente a multitud de campos. No obstante, es complicado comprender cómo funcionan y evolucionan. ¿Qué tipos de usuarios son más activos en Wikia? ¿Cómo ha evolucionado el número de wikis activas en los últimos años? ¿Qué perfil de actividad presentan la mayor parte de colaboradores de Wikia? ¿Son más activos los hombres o las mujeres en la Wikipedia? En los proyectos de Github, ¿el esfuerzo de programación (y frecuencia de commits) se distribuye de forma homogénea a lo largo del tiempo o suele estar concentrado? Estas comunidades, típicamente online, dejan registrada su actividad en grandes bases de datos, muchas de ellas disponibles públicamente. Sin embargo, el ciudadano de a pie no tiene ni las herramientas ni el conocimiento necesario para sacar conclusiones de esos datos. En este TFG desarrollamos una herramienta de análisis exploratorio y visualización de datos de la plataforma Wikia, sitio web colaborativo que permite la creación, edición y modificación del contenido y estructura de miles de páginas web de tipo enciclopedia basadas en la tecnología wiki. Nuestro objetivo es que esta aplicación web sea usable por cualquiera y que no requiera que el usuario sea un experto en Big Data para poder visualizar las gráficas de evolución o distribuciones del comportamiento interno de la comunidad, pudiendo modificar algunos de sus parámetros y visualizando cómo cambian. Como resultado de este trabajo se ha desarrollado una primera versión de la aplicación disponible en GitHub1 y en http://chartsup.esy.es/
Resumo:
En este proyecto se ha creado una aplicación web destinada a la valoración de la calidad de la docencia de asignaturas virtuales. Para ello se utiliza un modelo de evaluación que mide diferentes aspectos o factores que intervienen en la calidad. Este modelo se ha implementado en forma de un conjunto de cuestionarios que pueden ser utilizados tanto por profesores como por evaluadores. El profesor puede utilizarlo para obtener una autoevaluación de la calidad de la asignatura que ha impartido, y el evaluador lo usará en el contexto de comisiones de evaluación de la calidad de la docencia que se crean en las universidades y otras instituciones. La evaluación se realiza de forma manual por el usuario, profesor o evaluador. Sin embargo existe un conjunto de factores de evaluación que son calculados de forma automática por el sistema tomando como entrada datos acerca de la asignatura virtual. El objetivo de esta aplicación no es sólo facilitar al usuario el formulario y obtener la puntación, sino que también se obtenga de forma automática la puntuación de algunas preguntas y así poder completarlo de forma más cómoda y rápida. Los resultados que muestra la aplicación son generados de forma dinámica, así el usuario podrá tener una mejor visión sobre la evaluación.
Resumo:
Las Redes Definidas por Software (Software Defined Networking) permiten la monitorización y el control centralizado de la red, de forma que los administradores pueden tener una visión real y completa de la misma. El análisis y visualización de los diferentes parámetros obtenidos representan la forma más viable y práctica de programar la red en función de las necesidades del usuario. Por este motivo, en este proyecto se desarrolla una arquitectura modular cuyo objetivo es presentar en tiempo real la información que se monitoriza en una red SDN. En primera instancia, las diferentes métricas monitorizadas (error, retardo y tasa de datos) son almacenadas en una base de datos, para que en una etapa posterior se realice el análisis de dichas métricas. Finalmente, los resultados obtenidos, tanto de métricas en tiempo real como de los datos estadísticos, son presentados en una aplicación web. La información es obtenida a través de la interfaz REST que expone el controlador Floodlight y para el análisis de la información se plantea una comparación entre los valores medios y máximos del conjunto de datos. Los resultados obtenidos muestran gráficamente de forma clara y precisa las diferentes métricas de monitorización. Además, debido al carácter modular de la arquitectura, se ofrece un valor añadido a los sistemas actuales de monitorización SDN.
Resumo:
Hoy en día vivimos en una sociedad en la que las tecnologías son accesibles para gran parte de la población y las cuales tienen como finalidad, entre otras cosas, facilitar la vida de las personas en la medida de lo posible. Este proyecto busca hacer uso de esas tecnologías para facilitar la accesibilidad a textos para cualquiera que pueda tener dificultades con ellos, en mayor o menor medida. La finalidad de nuestro proyecto no es crear la aplicación para el uso directo de las personas sino desarrollar los servicios, y el acceso a los mismos, que faciliten la implementación de estas aplicaciones. Aún así en este proyecto se crea una aplicación de ejemplo para Android, en la cual se hace uso de los servicios como muestra de un posible uso de los mismos. Para facilitar el acceso a estos servicios y la comprensión de los mismos, en este proyecto se crea también una API web en la cual quedan todos ellos explicados, como acceder a ellos, su descripción, ejemplos de llamadas y de resultados de las llamadas, en definitiva, todo lo que pueda ayudar a un desarrollador interesado en ellos a utilizarlos sin mayor problema. Las aplicaciones posibles de estos servicios son de lo mas extensas. Así, por ejemplo, en un dispositivo móvil, si un usuario está leyendo un libro y no entiende una palabra o le resulta bastante complicada, tan solo tendría que sacar el móvil, introducir la palabra en una aplicación que llamara a uno de nuestros servicios y obtener el resultado requerido de esa palabra, de forma rápida y cómoda. El proyecto queda dividido en tres partes: el desarrollo de los servicios de accesibilidad, la web de la API explicando cada uno de estos servicios y una aplicación Android de ejemplo de utilización.
Resumo:
Cuando nos enfrentamos a problemas reales haciendo uso de recursos computacionales, hemos de tener en cuenta que el número de posibles soluciones candidatas a tener en cuenta puede llegar a ser tan inmenso que abordarlas mediante técnicas algorítmicas clásicas, en la mayoría de los casos, pueden llegar a convertirse en un problema en sí mismo debido al gran coste en recursos que pueden llegar a generar. En este contexto, aspectos como el tiempo utilizado en la búsqueda de una solución mediante algoritmos de búsqueda exhaustiva tales como fuerza bruta, vuelta atrás, ramificación y poda, etc., puede llegar a ser prohibitivo en la práctica. Ante este problema que se nos plantea, podemos hacer un estudio sobre otros métodos, tales como los metaheurísticos, que, aunque no siempre aseguran la optimalidad de las soluciones producidas; tienen un tiempo de ejecución mucho menor que los métodos exhaustivos. En el presente trabajo hemos seleccionado dos problemas NP-completos de entre los más famosos de la literatura y hemos realizado un estudio de ambos. Concretamente, los problemas seleccionados han sido el TSP (Traveling Salesman Problem) y el problema de la Mochila 0-1. Por otro lado, hemos llevado a cabo un estudio sobre distintas metaheurísticas para poder resolver los problemas mencionados. Entre estas metaheurísticas, hemos seleccionado cuatro: metaheurísticas evolutivas, metaheurísticas inspiradas en colonias de hormigas, metaheurísticas simulated annealing (enfriamiento simulado) y metaheurísticas GRASP (Greedy Randomized Adaptive Search Procedure). Después de esto, cada problema ha sido resuelto aplicando tanto algoritmos de búsqueda exhaustiva como metaheurísticas. Una vez adaptados los algoritmos a la resolución de los problemas concretos, hemos realizado un estudio experimental, donde se realizaron comparativas de rendimiento. Finalmente, todo este trabajo ha sido plasmado en el desarrollo de una aplicación software, la cual consta de dos partes: una que contiene la implementación los algoritmos adaptados para la resolución de los problemas y que son ofrecidos a modo de servicios web y otra parte donde se ha implementado un cliente web que puede consumir estos servicios y realizar una presentación más vistosa de la ejecución de los algoritmos y los resultados obtenidos. Esta arquitectura podrá servir como base para futuras ampliaciones de este estudio.