1000 resultados para Integración de bases de datos
Resumo:
Incluye Bibliografía
Resumo:
Incluye Bibliografía
Resumo:
Conèixer les diferents opcions a l'hora d'emmagatzemar dades i documents amb format XML. Familiaritzar-se amb els SGBD nadius i l'accés i maneig de la informació. Conèixer diferents formes d'accés al SGBD, conèixer les APIs disponible Centre en el llenguatge Java. Integració de tots els coneixements adquirits, desenvolupant una aplicació que accedeixi i gestioni dades emmagatzemades al SGBD.
Resumo:
El trabajo se enmarca dentro de los proyecto INTEGRATE y EURECA, cuyo objetivo es el desarrollo de una capa de interoperabilidad semántica que permita la integración de datos e investigación clínica, proporcionando una plataforma común que pueda ser integrada en diferentes instituciones clínicas y que facilite el intercambio de información entre las mismas. De esta manera se promueve la mejora de la práctica clínica a través de la cooperación entre instituciones de investigación con objetivos comunes. En los proyectos se hace uso de estándares y vocabularios clínicos ya existentes, como pueden ser HL7 o SNOMED, adaptándolos a las necesidades particulares de los datos con los que se trabaja en INTEGRATE y EURECA. Los datos clínicos se representan de manera que cada concepto utilizado sea único, evitando ambigüedades y apoyando la idea de plataforma común. El alumno ha formado parte de un equipo de trabajo perteneciente al Grupo de Informática de la UPM, que a su vez trabaja como uno de los socios de los proyectos europeos nombrados anteriormente. La herramienta desarrollada, tiene como objetivo realizar tareas de homogenización de la información almacenada en las bases de datos de los proyectos haciendo uso de los mecanismos de normalización proporcionados por el vocabulario médico SNOMED-CT. Las bases de datos normalizadas serán las utilizadas para llevar a cabo consultas por medio de servicios proporcionados en la capa de interoperabilidad, ya que contendrán información más precisa y completa que las bases de datos sin normalizar. El trabajo ha sido realizado entre el día 12 de Septiembre del año 2014, donde comienza la etapa de formación y recopilación de información, y el día 5 de Enero del año 2015, en el cuál se termina la redacción de la memoria. El ciclo de vida utilizado ha sido el de desarrollo en cascada, en el que las tareas no comienzan hasta que la etapa inmediatamente anterior haya sido finalizada y validada. Sin embargo, no todas las tareas han seguido este modelo, ya que la realización de la memoria del trabajo se ha llevado a cabo de manera paralela con el resto de tareas. El número total de horas dedicadas al Trabajo de Fin de Grado es 324. Las tareas realizadas y el tiempo de dedicación de cada una de ellas se detallan a continuación: Formación. Etapa de recopilación de información necesaria para implementar la herramienta y estudio de la misma [30 horas. Especificación de requisitos. Se documentan los diferentes requisitos que ha de cumplir la herramienta [20 horas]. Diseño. En esta etapa se toman las decisiones de diseño de la herramienta [35 horas]. Implementación. Desarrollo del código de la herramienta [80 horas]. Pruebas. Etapa de validación de la herramienta, tanto de manera independiente como integrada en los proyectos INTEGRATE y EURECA [70 horas]. Depuración. Corrección de errores e introducción de mejoras de la herramienta [45 horas]. Realización de la memoria. Redacción de la memoria final del trabajo [44 horas].---ABSTRACT---This project belongs to the semantic interoperability layer developed in the European projects INTEGRATE and EURECA, which aims to provide a platform to promote interchange of medical information from clinical trials to clinical institutions. Thus, research institutions may cooperate to enhance clinical practice. Different health standards and clinical terminologies has been used in both INTEGRATE and EURECA projects, e.g. HL7 or SNOMED-CT. These tools have been adapted to the projects data requirements. Clinical data are represented by unique concepts, avoiding ambiguity problems. The student has been working in the Biomedical Informatics Group from UPM, partner of the INTEGRATE and EURECA projects. The tool developed aims to perform homogenization tasks over information stored in databases of the project, through normalized representation provided by the SNOMED-CT terminology. The data query is executed against the normalized version of the databases, since the information retrieved will be more informative than non-normalized databases. The project has been performed from September 12th of 2014, when initiation stage began, to January 5th of 2015, when the final report was finished. The waterfall model for software development was followed during the working process. Therefore, a phase may not start before the previous one finishes and has been validated, except from the final report redaction, which has been carried out in parallel with the others phases. The tasks that have been developed and time for each one are detailed as follows: Training. Gathering the necessary information to develop the tool [30 hours]. Software requirement specification. Requirements the tool must accomplish [20 hours]. Design. Decisions on the design of the tool [35 hours]. Implementation. Tool development [80 hours]. Testing. Tool evaluation within the framework of the INTEGRATE and EURECA projects [70 hours]. Debugging. Improve efficiency and correct errors [45 hours]. Documenting. Final report elaboration [44 hours].
Resumo:
En la actualidad, muchos gobiernos están publicando (o tienen la intención de publicar en breve) miles de conjuntos de datos para que personas y organizaciones los puedan utilizar. Como consecuencia, la cantidad de aplicaciones basadas en Open Data está incrementándose. Sin embargo cada gobierno tiene sus propios procedimientos para publicar sus datos, y esto causa una variedad de formatos dado que no existe un estándar internacional para especificar los formatos de estos datos. El objetivo principal de este trabajo es un análisis comparativo de datos ambientales en bases de datos abiertas (Open Data) pertenecientes a distintos gobiernos. Debido a esta variedad de formatos, debemos construir un proceso de integración de datos que sea capaz de unir todos los tipos de formatos. El trabajo implica un pre-procesado, limpieza e integración de las diferentes fuentes de datos. Existen muchas aplicaciones desarrolladas para dar soporte en el proceso de integración por ejemplo Data Tamer, Data Wrangler como se explica en este documento. El problema con estas aplicaciones es que necesitan la interacción del usuario como parte fundamental del proceso de integración. En este trabajo tratamos de evitar la supervisión humana aprovechando las similitudes de los datasets procedentes de igual área que en nuestro caso se aplica al área de medioambiente. De esta forma los procesos pueden ser automatizados con una programación adecuada. Para conseguirlo, la idea principal de este trabajo es construir procesos ad hoc adaptados a las fuentes de cada gobierno para conseguir una integración automática. Concretamente este trabajo se enfoca en datos ambientales como lo son la temperatura, consumo de energía, calidad de aire, radiación solar, velocidad del viento, etc. Desde hace dos años el gobierno de Madrid está publicando sus datos relativos a indicadores ambientales en tiempo real. Del mismo modo, otros gobiernos han publicado conjuntos de datos Open Data relativos al medio ambiente (como Andalucía o Bilbao), pero todos estos datos tienen diferentes formatos. En este trabajo se presenta una solución capaz de integrar todas ellos que además permite al usuario visualizar y hacer análisis sobre los datos en tiempo real. Una vez que el proceso de integración está realizado, todos los datos de cada gobierno poseen el mismo formato y se pueden lanzar procesos de análisis de una manera más computacional. Este trabajo tiene tres partes fundamentales: 1. Estudio de los entornos Open Data y la literatura al respecto; 2. Desarrollo de un proceso de integración y 3. Desarrollo de una Interface Gráfica y Analítica. Aunque en una primera fase se implementaron los procesos de integración mediante Java y Oracle y la Interface Gráfica con Java (jsp), en una fase posterior se realizó toda la implementación con lenguaje R y la interface gráfica mediante sus librerías, principalmente con Shiny. El resultado es una aplicación que provee de un conjunto de Datos Ambientales Integrados en Tiempo Real respecto a dos gobiernos muy diferentes en España, disponible para cualquier desarrollador que desee construir sus propias aplicaciones.
Resumo:
La Analítica Web supone hoy en día una tarea ineludible para las empresas de comercio electrónico, ya que les permite analizar el comportamiento de sus clientes. El proyecto Europeo SME-Ecompass tiene como objetivo desarrollar herramientas avanzadas de analítica web accesibles para las PYMES. Con esta motivación, proponemos un servicio de integración de datos basado en ontologías para recopilar, integrar y almacenar información de traza web procedente de distintas fuentes.Estas se consolidan en un repositorio RDF diseñado para proporcionar semántica común a los datos de análisis y dar servicio homogéneo a algoritmos de Minería de Datos. El servicio propuesto se ha validado mediante traza digital real (Google Analitics y Piwik) de 15 tiendas virtuales de diferentes sectores y países europeos (UK, España, Grecia y Alemania) durante varios meses de actividad.
Resumo:
La erosión es, de los procesos degradativos de suelo, el mayor impacto negativo que provoca, tanto por su extensión como por la magnitud. En Córdoba, cerca de 2 millones de ha están infectadas por erosión hídrica con grados moderados a graves. Este fenómeno está regido por una serie de factores: tipo de suelo, lluvias, tipo de cultivo, labores culturales, época de siembra, etc. Los Sistemas de Información Georreferenciada (SIG) son herramientas que permitan manipular gran cantidad de datos; el potencial de un SIG se amplía cuando se asocia un Sistema de Base de Datos Relacional (SBDR). Este último puede almacenar, transformar y analizar datos en formato de tablas y producir planos de atributos correspondiente a áreas delimitadas por polígonos en un plano base que se relacionan por medio de identificadores lógicos. Existen diversos modelos que describen el proceso de erosión hídrica, los parámetros de ellos tienen distribución geográfica y temporal lo que posibilita su aplicación dentro de un ambiente SIG asociado a un SBDR. Se propone el uso de SIG asociado a un SBDR en los estudios de Erosión Hídrica, para lo cual se deberán implementar una Base de Datos con formación extraída de Sensores Remotos, relevamiento de campo, encuesta a productores, análisis de laboratorio, etc. Se confeccionará un mapa base con polígonos identificados los que se asociarán a la base de datos y se crearán los planos de información por medio de ecuaciones de búsqueda. Se espera que el SIG y el SBDR sea una herramienta útil en este tipo de estudio y quedará a disposición de otros investigadores para su actualización, incorporándose nuevos datos y nuevos campos cuando se necesite. Se proyecta realizar en años posteriores estudios multitemporales al incorporar datos de diferentes épocas lo que posibilitará prevenir efectos de degradación.
Resumo:
En la presente memoria se detallan con exactitud los pasos y procesos realizados para construir una aplicación que posibilite el cruce de datos genéticos a partir de información contenida en bases de datos remotas. Desarrolla un estudio en profundidad del contenido y estructura de las bases de datos remotas del NCBI y del KEGG, documentando una minería de datos con el objetivo de extraer de ellas la información necesaria para desarrollar la aplicación de cruce de datos genéticos. Finalmente se establecen los programas, scripts y entornos gráficos que han sido implementados para la construcción y posterior puesta en marcha de la aplicación que proporciona la funcionalidad de cruce de la que es objeto este proyecto fin de carrera.
Resumo:
Aquest document complementa les subtasques 2.4.2, 2.4.3 i 2.4.4 relacionades amb els Informes dels estudis de viabilitat constructiva, els resultats de la intervenció i la validació de la intervenció, proporcionant el nexe lògic entre la caracterització de les tècniques no-destructives i semidestructives realitzat en els documents I2.17 i I.2.18 i les millores de processos que s'aborden d'una forma més sistemàtica en el *SP4, en relació amb el desenvolupament i aplicació de models d'optimització multicriteri. Per a arribar a aquest objectiu i resoldre els problemes de interoperabilitat lligats a diferents bases de dades, ha estat necessari estendre l'Ontologia orientada inicialment en el SP6 per a usuaris amb algun tipus de discapacitat, a usuaris corresponents als tècnics que vagin a desenvolupar les intervencions d'acord amb les tècniques disponibles. Aquesta extensió inclou el diagrama entitat-relació que estén al cas dels tècnics l'esquema conceptual inicialment restringit als usuaris finals (ciutadans eventualment discapacitats). La major dificultat procedeix del caràcter excepcional de moltes de les intervencions realitzades, la qual cosa fa realment difícil l'estandardització dels processos orientats a resoldre el problema de l'accessibilitat al Patrimoni
Resumo:
Aquest treball mira d'aproximar-se a la situació actual de les bases de dades multimèdia. Per a fer-ho, s'ha optat per un enfocament múltiple que té en compte diferents aspectes del producte multimèdia: els aspectes econòmics, és a dir, la situació del mercat (nombre de bases de dades, volum de negoci, creixement, etc.), els aspectes tècnics, és a dir, l'eina emprada, la seva evolució, les seves limitacions i problemes, i les seves aplicacions i serveis en diferents àrees (amb un interès especial en el camp de la documentació i la formació i la recerca).
Resumo:
Este documento refleja el trabajo realizado durante el diseño e implementación de una base de datos relacional y un almacén de datos para una empresa de gestión de personal.
Resumo:
Este trabajo define qué es una base de datos semántica, qué ventajas ofrece, cómo se utiliza y en qué tipo de proyectos o sistemas tiene sentido usarla. Además, en él se estudia en detalle una de ellas, OWLIM 1, de la empresa Ontotext, para evaluar la dificultad de usarla, su rendimiento y sus capacidades específicas.
Resumo:
Esta aplicación pretende ser en un cliente ligero de conexión a las distintas bases de datos, de tal forma que, de manera transparente y simplemente seleccionando un esquema de ejecución, se permitan consultas tanto de forma online como programada.