974 resultados para Integración de datos
Resumo:
[ES]Este proyecto tiene como objetivo el diseño e implementación de una herramienta para la integración de los datos de calidad de servicio (QoS) en Internet publicados por el regulador español. Se trata de una herramienta que pretende, por una parte, unificar los diferentes formatos en que se publican los datos de QoS y, por otra, facilitar la conservación de los datos favoreciendo la obtención de históricos, datos estadísticos e informes. En la página del regulador sólo se puede acceder a los datos de los 5 últimos trimestres y los datos anteriormente publicados no permanecen accesibles si no que son sustituidos por los más recientes por lo que, desde el punto de vista del usuario final, estos datos se pierden. La herramienta propuesta en este trabajo soluciona este problema además de unificar formatos y facilitar el acceso a los datos de interés. Para el diseño del sistema se han usado las últimas tecnologías en desarrollo de aplicaciones web con lo que la potencia y posibilidad de futuras ampliaciones son elevadas.
Resumo:
La herramienta pretende integrar datos de la UPV/EHU públicamente accesibles y establecer puentes entre distintos repositorios de información del ámbito académico. Para ello, aprovecharemos el Linked Data, "la forma que tiene la Web Semántica de vincular los distintos datos que están distribuidos en la Web", y los estándares que éste define. La herramienta pretende integrar datos de la UPV/EHU públicamente accesibles y establecer puentes entre distintos repositorios de información del ámbito académico. Para ello, aprovecharemos el Linked Data, "la forma que tiene la Web Semántica de vincular los distintos datos que están distribuidos en la Web", y los estándares que éste define. Los repositorios elegidos para este trabajo han sido el ADDI, Bilatu, las páginas de todos los centros de la UPV/EHU en el Campus de Gipuzkoa y la DBLP. La mayoría de las funcionalidades de esta aplicación son genéricas, por lo que podrían fácilmente aplicarse a repositorios de otras instituciones. El sistema es un prototipo que demuestra la factibilidad del objetivo de integración y que está abierto a la incorporación de más conjuntos de datos, siguiendo la misma metodología empleada en el desarrollo de este proyecto. La mayoría de las funcionalidades de esta aplicación son genéricas, por lo que podrían fácilmente aplicarse a repositorios de otras instituciones. El sistema es un prototipo que demuestra la factibilidad del objetivo de integración y que está abierto a la incorporación de más conjuntos de datos, siguiendo la misma metodología empleada en el desarrollo de este proyecto.
Resumo:
Este artículo realiza un análisis de la situación actual de la enfermedad del SIDA, destacando la necesaria incorporación de aspectos psicológicos y sociales en el tratamiento de las personas infectadas con el objetivo de aumentar su calidad de vida. Esta incorporación nos llevaría a un tratamiento integral de los pacientes mediante el uso de una Historia Clínica Electrónica que incluyese tanto los datos médicos como aquellos que hacen referencia al estado psicológico y social de los mismos. Este análisis ha dado lugar al diseño y desarrollo de un sistema de telemedicina, "Hospital VIHrtual", que entre otras funciones realiza esa integración de datos, fomentando la colaboración entre los profesionales implicados en el tratamiento de los pacientes con el objetivo de mejorar el control de las personas con VIH/SIDA en estado estable y aumentar su calidad de vida.
Resumo:
La República de El Salvador está localizada al norte de Centroamérica, limita al norte con Honduras, al este con Honduras y Nicaragua en el Golfo de Fonseca, al oeste con Guatemala y al sur con el Océano Pacífico. Con una población de casi 6.3 millones de habitantes (2012) y una extensión territorial de algo más de 21.000 km2, es el país más pequeño de toda Centroamérica, con la densidad de población más alta (292 habitantes por km2) y una tasa de pobreza que supera el 34%. Actualmente el 63.2% de la población del país se concentra en las ciudades, y más de la cuarta parte de la población se asienta en el Área Metropolitana de El Salvador (AMSS), lo que supone un área de alrededor del 2.6% del territorio salvadoreño. Según el Banco Mundial, el país tiene un PIB per cápita de 3790 dólares (2012). Asimismo, desde hace ya varios años el elemento clave en la economía salvadoreña ha sido las remesas del exterior, las cuales en el 2006 representaron el 15% del PIB, manteniéndose por varios años consecutivos como la más importante fuente de ingresos externos con que cuenta el país (Comisión Económica para América Latina‐CEPAL, 2007). La inestabilidad económica, la desigual distribución de la riqueza, así como la brecha entre los ámbitos urbano y rural, son las principales causas que limitan las capacidades de desarrollo social del país. El Salvador es uno de los países ecológicamente más devastado de América Latina. Más del 95% de sus bosques tropicales de hojas caducas han sido destruidos y más del 70% de la tierra sufre una severa erosión. Según la FAO el país se encuentra en un franco proceso de desertificación. Como consecuencia de ello, casi todas las especies de animales salvajes se han extinguido o están al borde de la extinción, sin que hasta ahora haya indicios de revertir tal proceso. Por otra parte, en el AMSS el 13% de la población habita sobre terrenos en riesgo por derrumbes o demasiado próximos a fuentes de contaminación (Mansilla, 2009). Por su ubicación geográfica, dinámica natural y territorial, El Salvador ha estado sometido históricamente a diferentes amenazas de origen natural, como terremotos, tormentas tropicales, sequías, actividad volcánica, inundaciones y deslizamientos, los que, sumados a los procesos sociales de transformación (la deforestación, los cambios de uso del suelo y la modificación de los cauces naturales), propician condiciones de riesgo y plantean altas posibilidades de que ocurran desastres. Es evidente que la suma del deterioro económico, social y ambiental, combinado con la multiplicidad de amenazas a las que puede verse sometido el territorio, hacen al país sumamente vulnerable a la ocurrencia de desastres de distintas magnitudes e impactos. En la historia reciente de El Salvador se han producido numerosos eventos de gran magnitud, tales como los terremotos de enero y febrero de 2001. El 13 de enero de 2001 El Salvador sufrió un terremoto de magnitud Mw 7.7 relacionado con la zona de subducción de la placa del Coco bajo la placa Caribe, dejando alrededor de 900 muertos y numerosos daños materiales. A este terremoto le siguió un mes después, el 13 de febrero de 2001, otro de magnitud Mw 6.6 de origen continental que sumó más de 300 víctimas mortales y terminó de derribar gran cantidad de casas ya dañadas por el terremoto anterior. Ambos eventos dispararon enormes deslizamientos de tierra, que fueron los responsables de la mayoría de las muertes. Como se observó durante el terremoto de 2001, este tipo de sismicidad implica un alto riesgo para la sociedad salvadoreña debido a la gran concentración de población en zonas con fuertes pendientes y muy deforestadas susceptibles de sufrir deslizamientos, y debido también a la escasez de planes urbanísticos. La complicada evolución sociopolítica del país durante los últimos 50 años, con una larga guerra civil, ha influido que hayan sido escasas las investigaciones científicas relacionadas con la sismotectónica y el riesgo sísmico asociada a la geología local. La ocurrencia de los terremotos citados disparó un interés a nivel internacional en la adquisición e interpretación de nuevos datos de tectónica activa que con los años han dado lugar a diferentes trabajos. Fue precisamente a partir del interés en estos eventos del 2001 cuando comenzó la colaboración de la Dra. Benito y el Dr. Martínez‐Díaz (directores de esta tesis) en El Salvador (Benito et al. 2004), lo que dio lugar a distintos proyectos de cooperación e investigación que han tenido lugar hasta la actualidad, y que se han centrado en el desarrollo de estudios geológicos, sismológicos para mejorar el cálculo de la amenaza sísmica en El Salvador. Según Martínez‐Díaz et al. (2004) la responsable del terremoto de febrero de 2001 fue la que se denomina como Zona de Falla de El Salvador (ZFES), una zona de falla que atraviesa el país de este a oeste que no había sido descrita con anterioridad. Con el fin de estudiar y caracterizar el comportamiento de este sistema de fallas para su introducción en la evaluación de la amenaza sísmica de la zona se plantean diferentes estudios sismotectónicos y paleosísmicos, y, entre ellos, esta tesis que surge de la necesidad de estudiar el comportamiento cinemático actual de la ZFES, mediante la aplicación de técnicas geodésicas (GNSS) y su integración con datos geológicos y sismológicos. Con el objetivo de reconocer la ZFES y estudiar la viabilidad de la aplicación de estas técnicas en la zona de estudio, realicé mi primer viaje a El Salvador en septiembre de 2006. A raíz de este viaje, en 2007, comienza el proyecto ZFESNet (Staller et al., 2008) estableciendo las primeras estaciones y realizando la primera campaña de observación en la ZFES. Han sido 6 años de mediciones e intenso trabajo de lo que hoy se obtienen los primeros resultados. El interés que despiertan los terremotos y sus efectos, así como la vulnerabilidad que tiene El Salvador a estos eventos, ha sido para la autora un aliciente añadido a su trabajo, animándola a perseverar en el desarrollo de su tesis, a pesar de la multitud de imprevistos y problemas que han surgido durante su transcurso. La aportación de esta tesis al conocimiento actual de la ZFES se espera que sea un germen para futuras investigaciones y en particular para mejorar la evaluación de la amenaza sísmica de la zona. No obstante, se hace hincapié en que tan importante como el conocimiento de las fuentes sísmicas es su uso en la planificación urbanística del terreno y en la elaboración de normas sismoresistentes y su aplicación por parte de los responsables, lo cual ayudaría a paliar los efectos de fenómenos naturales como el terremoto, el cual no podemos evitar. El proyecto ZFESNet ha sido financiado fundamentalmente por tres proyectos de las convocatorias anuales de Ayudas para la realización de actividades con Latinoamérica de la UPM, de los que la autora de esta tesis ha sido la responsable, estos son: “Establecimiento de una Red de Control GPS en la Zona de Falla de El Salvador”, “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador” y “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador II”, y parcialmente por el proyecto de la Agencia Española de Cooperación y Desarrollo (AECID); “Desarrollo de estudios geológicos y sismológicos en El Salvador dirigidos a la mitigación del riesgo sísmico”, y el Proyecto Nacional I+D+i SISMOCAES: “Estudios geológicos y sísmicos en Centroamérica y lecciones hacia la evaluación del riesgo sísmico en el sur de España”.
Resumo:
El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.
Resumo:
Los avances logrados en la última década en los métodos y técnicas para la obtención de información mediante secuenciación genética de muestras orgánicas han supuesto una revolución en el área de la investigación biomédica. La disponibilidad de nuevas fuentes de datos abre vías novedosas de trabajo para investigadores que ya están dando sus frutos con técnicas mejoradas de diagnóstico y nuevos tratamientos para enfermedades como el cáncer. El cambio ha sido tan drástico que, por contra, los métodos empleados para acceder a la información han quedado obsoletos. Para remediar esta situación se ha realizado un gran esfuerzo en el campo de la informática biomédica con el objetivo de desarrollar herramientas adecuadas para este reto tecnológico. Así, la “revolución” genética ha ido acompañada de un importante esfuerzo en el desarrollo de sistemas de integración de datos heterogéneos cada vez más sofisticados. Sin embargo, los sistemas construidos han utilizado a menudo soluciones “ad hoc” para cada problema. Aún cuando existen arquitecturas y estándares bien establecidos en esta área, cada sistema es diseñado y construido desde cero ante cada nueva situación. Asimismo, los sistemas desarrollados no son, en general, válidos para problemas diferentes o para un conjunto distinto de requisitos. Ha faltado por tanto un verdadero esfuerzo por estandarizar este tipo de sistemas. En esta tesis doctoral se propone un modelo genérico de sistemas de integración de datos heterogéneos que facilite el diseño de los mismos. Se aporta asimismo una metodología basada en dicho modelo y destinada a hacer más eficientes los procesos de implementación y despliegue de estos sistemas. El modelo presentado se basa en un análisis exhaustivo de las características inherentes de los sistemas de integración de datos. La metodología propuesta, por su parte, hace uso de los estándares y tecnologías más extendidos hoy en día en el ámbito de acceso, gestión y compartición de información de carácter biomédico. Asimismo, dicha metodologia se basa en el uso de modelos ontológicos como paradigma de caracterización de la información, dado su uso mayoritario en este campo. Se persigue de esta manera ofrecer un marco estándar de diseño y desarrollo de sistemas de integración que evite las implementaciones redundantes tan comunes en esta área. Se lograría así un avance importante en el área del desarrollo de herramientas de integración de datos heterogéneos al proporcionar un marco para el diseño e implementación de estos sistemas. El trabajo de esta tesis doctoral se ha llevado a cabo en el marco de un proyecto europeo de investigación, que ha servido a su vez de entorno de pruebas y validación del modelo y metodología propuestos.
Resumo:
En la actualidad, muchos gobiernos están publicando (o tienen la intención de publicar en breve) miles de conjuntos de datos para que personas y organizaciones los puedan utilizar. Como consecuencia, la cantidad de aplicaciones basadas en Open Data está incrementándose. Sin embargo cada gobierno tiene sus propios procedimientos para publicar sus datos, y esto causa una variedad de formatos dado que no existe un estándar internacional para especificar los formatos de estos datos. El objetivo principal de este trabajo es un análisis comparativo de datos ambientales en bases de datos abiertas (Open Data) pertenecientes a distintos gobiernos. Debido a esta variedad de formatos, debemos construir un proceso de integración de datos que sea capaz de unir todos los tipos de formatos. El trabajo implica un pre-procesado, limpieza e integración de las diferentes fuentes de datos. Existen muchas aplicaciones desarrolladas para dar soporte en el proceso de integración por ejemplo Data Tamer, Data Wrangler como se explica en este documento. El problema con estas aplicaciones es que necesitan la interacción del usuario como parte fundamental del proceso de integración. En este trabajo tratamos de evitar la supervisión humana aprovechando las similitudes de los datasets procedentes de igual área que en nuestro caso se aplica al área de medioambiente. De esta forma los procesos pueden ser automatizados con una programación adecuada. Para conseguirlo, la idea principal de este trabajo es construir procesos ad hoc adaptados a las fuentes de cada gobierno para conseguir una integración automática. Concretamente este trabajo se enfoca en datos ambientales como lo son la temperatura, consumo de energía, calidad de aire, radiación solar, velocidad del viento, etc. Desde hace dos años el gobierno de Madrid está publicando sus datos relativos a indicadores ambientales en tiempo real. Del mismo modo, otros gobiernos han publicado conjuntos de datos Open Data relativos al medio ambiente (como Andalucía o Bilbao), pero todos estos datos tienen diferentes formatos. En este trabajo se presenta una solución capaz de integrar todas ellos que además permite al usuario visualizar y hacer análisis sobre los datos en tiempo real. Una vez que el proceso de integración está realizado, todos los datos de cada gobierno poseen el mismo formato y se pueden lanzar procesos de análisis de una manera más computacional. Este trabajo tiene tres partes fundamentales: 1. Estudio de los entornos Open Data y la literatura al respecto; 2. Desarrollo de un proceso de integración y 3. Desarrollo de una Interface Gráfica y Analítica. Aunque en una primera fase se implementaron los procesos de integración mediante Java y Oracle y la Interface Gráfica con Java (jsp), en una fase posterior se realizó toda la implementación con lenguaje R y la interface gráfica mediante sus librerías, principalmente con Shiny. El resultado es una aplicación que provee de un conjunto de Datos Ambientales Integrados en Tiempo Real respecto a dos gobiernos muy diferentes en España, disponible para cualquier desarrollador que desee construir sus propias aplicaciones.
Resumo:
La Analítica Web supone hoy en día una tarea ineludible para las empresas de comercio electrónico, ya que les permite analizar el comportamiento de sus clientes. El proyecto Europeo SME-Ecompass tiene como objetivo desarrollar herramientas avanzadas de analítica web accesibles para las PYMES. Con esta motivación, proponemos un servicio de integración de datos basado en ontologías para recopilar, integrar y almacenar información de traza web procedente de distintas fuentes.Estas se consolidan en un repositorio RDF diseñado para proporcionar semántica común a los datos de análisis y dar servicio homogéneo a algoritmos de Minería de Datos. El servicio propuesto se ha validado mediante traza digital real (Google Analitics y Piwik) de 15 tiendas virtuales de diferentes sectores y países europeos (UK, España, Grecia y Alemania) durante varios meses de actividad.
Resumo:
1. Conocer los datos relativos al alumnado de integración y la forma en que ésta se lleva a cabo y con qué criterios. 2. Conocer las características de los centros de integración, el personal y los servicios de que dispone. 3. Conocer los servicios de apoyo externos a los centros de integración, el personal y los servicios de que dispone. 4. Descubrir los principales problemas que están surgiendo en el proceso de integración. 5. Comprobar si se verifican o refutan algunos de los resultados expuestos por el equipo evaluador en los sucesivos informes. 6. Averiguar la posible relación entre algunas de las variables del cuestionario y las respuestas obtenidas.. 32 encuestas pertenecientes a 8 centros, tres concertados y cinco públicos, todos ellos de la zona central de Asturias.. Se analizan los siguientes aspectos de la integración escolar en Asturias: criterios de escolarización de alumnos disminuidos, red de servicios de apoyo a la integración, pruebas de diagnóstico más utilizadas por los equipos, los CEP y los CAR y su apoyo a la integración y datos numéricos sobre la integración escolar en Asturias. Se analizan diversas variables del profesor, del centro, del alumnado, criterios sobre integración, novedades y cambios introducidos en el aula, distribución de funciones y coordinación entre profesores y opiniones sobre la integración escolar.. 1. Los cambios organizativos y curriculares que se han producido en los centros de integración son aún escasos. 2. La formación del profesorado de apoyo parece bastante satisfactoria, por lo menos la inicial, ya que prácticamente todos ellos son especialistas en Educación Especial. No sucede lo mismo con los profesores tutores, cuya necesidad de formación es reivindicada por ellos mismos, ya que carecen de preparación específica para atender a alumnos con necesidades educativas especiales. 3. Las actitudes del profesorado hacia la integración siguen siendo negativas en un gran porcentaje. 4. Se ponen de manifiesto diferencias de criterios en la evaluación de los alumnos integrados, asi como de la persona o personas que deben realizar la evaluación. 5. Dado el número, cada vez mayor, de alumnos y centros que precisarán de la asistencia técnica de los equipos psicopedagógicos, parece lo más conveniente dotar a cada centro de un departamento de orientación, con personal, material y disposición horaria adecuada y suficiente, tal y como se propone en el libro blanco de la reforma, ya que los equipos de sector existentes, se ven incluso ahora desbordados. 6. De análisis de la bibliografía sobre integración escolar, se desprenden algunos principios pedagógicos, psicológicos y didácticos..
Resumo:
El trabajo se enmarca dentro de los proyecto INTEGRATE y EURECA, cuyo objetivo es el desarrollo de una capa de interoperabilidad semántica que permita la integración de datos e investigación clínica, proporcionando una plataforma común que pueda ser integrada en diferentes instituciones clínicas y que facilite el intercambio de información entre las mismas. De esta manera se promueve la mejora de la práctica clínica a través de la cooperación entre instituciones de investigación con objetivos comunes. En los proyectos se hace uso de estándares y vocabularios clínicos ya existentes, como pueden ser HL7 o SNOMED, adaptándolos a las necesidades particulares de los datos con los que se trabaja en INTEGRATE y EURECA. Los datos clínicos se representan de manera que cada concepto utilizado sea único, evitando ambigüedades y apoyando la idea de plataforma común. El alumno ha formado parte de un equipo de trabajo perteneciente al Grupo de Informática de la UPM, que a su vez trabaja como uno de los socios de los proyectos europeos nombrados anteriormente. La herramienta desarrollada, tiene como objetivo realizar tareas de homogenización de la información almacenada en las bases de datos de los proyectos haciendo uso de los mecanismos de normalización proporcionados por el vocabulario médico SNOMED-CT. Las bases de datos normalizadas serán las utilizadas para llevar a cabo consultas por medio de servicios proporcionados en la capa de interoperabilidad, ya que contendrán información más precisa y completa que las bases de datos sin normalizar. El trabajo ha sido realizado entre el día 12 de Septiembre del año 2014, donde comienza la etapa de formación y recopilación de información, y el día 5 de Enero del año 2015, en el cuál se termina la redacción de la memoria. El ciclo de vida utilizado ha sido el de desarrollo en cascada, en el que las tareas no comienzan hasta que la etapa inmediatamente anterior haya sido finalizada y validada. Sin embargo, no todas las tareas han seguido este modelo, ya que la realización de la memoria del trabajo se ha llevado a cabo de manera paralela con el resto de tareas. El número total de horas dedicadas al Trabajo de Fin de Grado es 324. Las tareas realizadas y el tiempo de dedicación de cada una de ellas se detallan a continuación: Formación. Etapa de recopilación de información necesaria para implementar la herramienta y estudio de la misma [30 horas. Especificación de requisitos. Se documentan los diferentes requisitos que ha de cumplir la herramienta [20 horas]. Diseño. En esta etapa se toman las decisiones de diseño de la herramienta [35 horas]. Implementación. Desarrollo del código de la herramienta [80 horas]. Pruebas. Etapa de validación de la herramienta, tanto de manera independiente como integrada en los proyectos INTEGRATE y EURECA [70 horas]. Depuración. Corrección de errores e introducción de mejoras de la herramienta [45 horas]. Realización de la memoria. Redacción de la memoria final del trabajo [44 horas].---ABSTRACT---This project belongs to the semantic interoperability layer developed in the European projects INTEGRATE and EURECA, which aims to provide a platform to promote interchange of medical information from clinical trials to clinical institutions. Thus, research institutions may cooperate to enhance clinical practice. Different health standards and clinical terminologies has been used in both INTEGRATE and EURECA projects, e.g. HL7 or SNOMED-CT. These tools have been adapted to the projects data requirements. Clinical data are represented by unique concepts, avoiding ambiguity problems. The student has been working in the Biomedical Informatics Group from UPM, partner of the INTEGRATE and EURECA projects. The tool developed aims to perform homogenization tasks over information stored in databases of the project, through normalized representation provided by the SNOMED-CT terminology. The data query is executed against the normalized version of the databases, since the information retrieved will be more informative than non-normalized databases. The project has been performed from September 12th of 2014, when initiation stage began, to January 5th of 2015, when the final report was finished. The waterfall model for software development was followed during the working process. Therefore, a phase may not start before the previous one finishes and has been validated, except from the final report redaction, which has been carried out in parallel with the others phases. The tasks that have been developed and time for each one are detailed as follows: Training. Gathering the necessary information to develop the tool [30 hours]. Software requirement specification. Requirements the tool must accomplish [20 hours]. Design. Decisions on the design of the tool [35 hours]. Implementation. Tool development [80 hours]. Testing. Tool evaluation within the framework of the INTEGRATE and EURECA projects [70 hours]. Debugging. Improve efficiency and correct errors [45 hours]. Documenting. Final report elaboration [44 hours].
Resumo:
En los últimos años ha habido un gran aumento de fuentes de datos biomédicos. La aparición de nuevas técnicas de extracción de datos genómicos y generación de bases de datos que contienen esta información ha creado la necesidad de guardarla para poder acceder a ella y trabajar con los datos que esta contiene. La información contenida en las investigaciones del campo biomédico se guarda en bases de datos. Esto se debe a que las bases de datos permiten almacenar y manejar datos de una manera simple y rápida. Dentro de las bases de datos existen una gran variedad de formatos, como pueden ser bases de datos en Excel, CSV o RDF entre otros. Actualmente, estas investigaciones se basan en el análisis de datos, para a partir de ellos, buscar correlaciones que permitan inferir, por ejemplo, tratamientos nuevos o terapias más efectivas para una determinada enfermedad o dolencia. El volumen de datos que se maneja en ellas es muy grande y dispar, lo que hace que sea necesario el desarrollo de métodos automáticos de integración y homogeneización de los datos heterogéneos. El proyecto europeo p-medicine (FP7-ICT-2009-270089) tiene como objetivo asistir a los investigadores médicos, en este caso de investigaciones relacionadas con el cáncer, proveyéndoles con nuevas herramientas para el manejo de datos y generación de nuevo conocimiento a partir del análisis de los datos gestionados. La ingestión de datos en la plataforma de p-medicine, y el procesamiento de los mismos con los métodos proporcionados, buscan generar nuevos modelos para la toma de decisiones clínicas. Dentro de este proyecto existen diversas herramientas para integración de datos heterogéneos, diseño y gestión de ensayos clínicos, simulación y visualización de tumores y análisis estadístico de datos. Precisamente en el ámbito de la integración de datos heterogéneos surge la necesidad de añadir información externa al sistema proveniente de bases de datos públicas, así como relacionarla con la ya existente mediante técnicas de integración semántica. Para resolver esta necesidad se ha creado una herramienta, llamada Term Searcher, que permite hacer este proceso de una manera semiautomática. En el trabajo aquí expuesto se describe el desarrollo y los algoritmos creados para su correcto funcionamiento. Esta herramienta ofrece nuevas funcionalidades que no existían dentro del proyecto para la adición de nuevos datos provenientes de fuentes públicas y su integración semántica con datos privados.---ABSTRACT---Over the last few years, there has been a huge growth of biomedical data sources. The emergence of new techniques of genomic data generation and data base generation that contain this information, has created the need of storing it in order to access and work with its data. The information employed in the biomedical research field is stored in databases. This is due to the capability of databases to allow storing and managing data in a quick and simple way. Within databases there is a variety of formats, such as Excel, CSV or RDF. Currently, these biomedical investigations are based on data analysis, which lead to the discovery of correlations that allow inferring, for example, new treatments or more effective therapies for a specific disease or ailment. The volume of data handled in them is very large and dissimilar, which leads to the need of developing new methods for automatically integrating and homogenizing the heterogeneous data. The p-medicine (FP7-ICT-2009-270089) European project aims to assist medical researchers, in this case related to cancer research, providing them with new tools for managing and creating new knowledge from the analysis of the managed data. The ingestion of data into the platform and its subsequent processing with the provided tools aims to enable the generation of new models to assist in clinical decision support processes. Inside this project, there exist different tools related to areas such as the integration of heterogeneous data, the design and management of clinical trials, simulation and visualization of tumors and statistical data analysis. Particularly in the field of heterogeneous data integration, there is a need to add external information from public databases, and relate it to the existing ones through semantic integration methods. To solve this need a tool has been created: the term Searcher. This tool aims to make this process in a semiautomatic way. This work describes the development of this tool and the algorithms employed in its operation. This new tool provides new functionalities that did not exist inside the p-medicine project for adding new data from public databases and semantically integrate them with private data.
Resumo:
Nueva funcionalidad para aplicación en .NET de integración de datos entre programas CAD y sistemas ERP
Resumo:
Incluido en el número dedicado a inmigración e integración escolar
Resumo:
Resumen en inglés. Resumen basado en el de la publicación
Resumo:
Se realiza el tratamiento de los datos, que se ofrecen en los informes del Consejo Escolar de Navarra, en tres apartados: el del alumnado con NEE, el del alumnado integrado en centros ordinarios y el de la participación de la red privada-concertada en la escolarización de este alumnado. Sólo se han consignado en gráficos aquéllos datos que si podían ser comparables. Entre los resultados se observa un progresivo aumento del número de alumnos de NEE registrado desde el curso 2002-2003, se constata el aumento del porcentaje de alumnos con NEE integrados en Centros Ordinarios y el progresivo aumento de la escolarización del alumnado integrado en la red de centros concertada superando el porcentaje del que lo hace en la enseñanza pública desde el año 2005.