1000 resultados para proceso de datos
Resumo:
Incluye Bibliografía
Resumo:
Incluye Bibliografía
Resumo:
El trabajo se enmarca dentro de los proyecto INTEGRATE y EURECA, cuyo objetivo es el desarrollo de una capa de interoperabilidad semántica que permita la integración de datos e investigación clínica, proporcionando una plataforma común que pueda ser integrada en diferentes instituciones clínicas y que facilite el intercambio de información entre las mismas. De esta manera se promueve la mejora de la práctica clínica a través de la cooperación entre instituciones de investigación con objetivos comunes. En los proyectos se hace uso de estándares y vocabularios clínicos ya existentes, como pueden ser HL7 o SNOMED, adaptándolos a las necesidades particulares de los datos con los que se trabaja en INTEGRATE y EURECA. Los datos clínicos se representan de manera que cada concepto utilizado sea único, evitando ambigüedades y apoyando la idea de plataforma común. El alumno ha formado parte de un equipo de trabajo perteneciente al Grupo de Informática de la UPM, que a su vez trabaja como uno de los socios de los proyectos europeos nombrados anteriormente. La herramienta desarrollada, tiene como objetivo realizar tareas de homogenización de la información almacenada en las bases de datos de los proyectos haciendo uso de los mecanismos de normalización proporcionados por el vocabulario médico SNOMED-CT. Las bases de datos normalizadas serán las utilizadas para llevar a cabo consultas por medio de servicios proporcionados en la capa de interoperabilidad, ya que contendrán información más precisa y completa que las bases de datos sin normalizar. El trabajo ha sido realizado entre el día 12 de Septiembre del año 2014, donde comienza la etapa de formación y recopilación de información, y el día 5 de Enero del año 2015, en el cuál se termina la redacción de la memoria. El ciclo de vida utilizado ha sido el de desarrollo en cascada, en el que las tareas no comienzan hasta que la etapa inmediatamente anterior haya sido finalizada y validada. Sin embargo, no todas las tareas han seguido este modelo, ya que la realización de la memoria del trabajo se ha llevado a cabo de manera paralela con el resto de tareas. El número total de horas dedicadas al Trabajo de Fin de Grado es 324. Las tareas realizadas y el tiempo de dedicación de cada una de ellas se detallan a continuación: Formación. Etapa de recopilación de información necesaria para implementar la herramienta y estudio de la misma [30 horas. Especificación de requisitos. Se documentan los diferentes requisitos que ha de cumplir la herramienta [20 horas]. Diseño. En esta etapa se toman las decisiones de diseño de la herramienta [35 horas]. Implementación. Desarrollo del código de la herramienta [80 horas]. Pruebas. Etapa de validación de la herramienta, tanto de manera independiente como integrada en los proyectos INTEGRATE y EURECA [70 horas]. Depuración. Corrección de errores e introducción de mejoras de la herramienta [45 horas]. Realización de la memoria. Redacción de la memoria final del trabajo [44 horas].---ABSTRACT---This project belongs to the semantic interoperability layer developed in the European projects INTEGRATE and EURECA, which aims to provide a platform to promote interchange of medical information from clinical trials to clinical institutions. Thus, research institutions may cooperate to enhance clinical practice. Different health standards and clinical terminologies has been used in both INTEGRATE and EURECA projects, e.g. HL7 or SNOMED-CT. These tools have been adapted to the projects data requirements. Clinical data are represented by unique concepts, avoiding ambiguity problems. The student has been working in the Biomedical Informatics Group from UPM, partner of the INTEGRATE and EURECA projects. The tool developed aims to perform homogenization tasks over information stored in databases of the project, through normalized representation provided by the SNOMED-CT terminology. The data query is executed against the normalized version of the databases, since the information retrieved will be more informative than non-normalized databases. The project has been performed from September 12th of 2014, when initiation stage began, to January 5th of 2015, when the final report was finished. The waterfall model for software development was followed during the working process. Therefore, a phase may not start before the previous one finishes and has been validated, except from the final report redaction, which has been carried out in parallel with the others phases. The tasks that have been developed and time for each one are detailed as follows: Training. Gathering the necessary information to develop the tool [30 hours]. Software requirement specification. Requirements the tool must accomplish [20 hours]. Design. Decisions on the design of the tool [35 hours]. Implementation. Tool development [80 hours]. Testing. Tool evaluation within the framework of the INTEGRATE and EURECA projects [70 hours]. Debugging. Improve efficiency and correct errors [45 hours]. Documenting. Final report elaboration [44 hours].
Resumo:
El tema Las bases de datos documentales (BDd) y el Proceso de Búsqueda forma parte del programa de la asignatura 'Documentación e Información Científica en Salud' del Máster Universitario en Investigación en Ciencias de la Enfermería que se imparte en la Facultad de Ciencias de la Salud (Universidad de Alicante).
Resumo:
Reprinted from the Gaceta económica, May, 1902-December, 1910.
Resumo:
El campo de las Bio-Ciencias está en pleno desarrollo y expansión. La variedad de tecnologías disponibles y aplicaciones están generando una cantidad abrumadora de datos que necesitan de protocolos, conceptos y métodos que permitan un análisis uniforme y asequible. Otra característica distintiva de estos ámbitos es su condición multidisciplinaria, donde interactúan (y cada vez más) disciplinas como la biología, la matemática, la estadística, la informática, la inteligencia artificial, etc. por lo que cualquier esfuerzo tendiente a aumentar el nivel de comunicación y entendimiento entre las disciplinas redundará en beneficios. La Minería de Datos, concepto que aglutina una variedad de metodologías analíticas, proporciona un marco conceptual y metodológico para el abordaje del análisis de datos y señales de distintas disciplinas. Sin embargo, cada campo de aplicación presenta desafíos específicos que deben ser abordados particularmente desde la racionalización de conceptos específicos del ámbito. La multidisiplinaridad es particularmente importante en aplicaciones biomédicas y biotecnológicas, donde se modelan fenómenos biológicos y se desarrollan métodos analíticos para generar nuevas estrategias diagnósticas, predictivas a partir de los datos recogidos. En este proyecto se integrarán las experiencias y criterios de distintas disciplinas que están involucradas en el desarrollo experimental en bio-ciencias, desde la biología molecular y la bioingeniería hasta la bioinformática y la estadística. La finalidad es elaborar protocolos que permitan extraer conocimiento en problemas biotecnológicos (particularmente experimentos genómicos) que se basan en la investigación sólida de los procedimientos estadísticos / bioinformáticos relevante para el manejo de datos experimentales. EL objetivo general de este proyecto es contribuir a la instauración de un Proceso Unificado de Análisis en Biotecnología generando conocimiento que permita el desarrollo de nuevas metodologías de análisis, con especial énfasis en métodos lineales y no-lineales de clasificación / predicción. La comprensión y estandarización de los requerimientos y etapas de experimentos en bio-ciencias es imprescindible para el éxito de proyectos biotecnológicos / biomédicos.
Resumo:
En la actualidad la información es uno de los elementos de mayor valor agregado, más cuando es expresión novedosa y útil que permite acelerar el proceso de toma de decisiones o aumentar el conocimiento sobre determinados elementos. Los volúmenes de información que se generan en forma permanente (por ej. en el ámbito hospitalario, experimento genómicos, epidimeológicos, etc.) están creciendo considerablemente. El análisis y procesos diagnósticos exitosos implican la utilización de un número cada vez mayor de variables a asociar. Por otra parte, el formato digital está reemplazando cada vez más el papel en todos los ambientes, desde el empresarial hasta el de salud, pasando indudablemente por el de los experimentos científicos, particularmente los experimentos genéticos. Estos procesos de recolección o generación de información producen volúmenes tales que superan las capacidades humanas para analizarlas. Esta limitación se debe a varios factores, entre los que podemos mencionar, la disponibilidad en tiempo y la incapacidad de relacionar grandes volúmenes con eventos y una gran cantidad de variables. Entonces ¿Qué hacer con toda la información disponible? ¿Cómo extraer conocimiento de dicha información? El Descubrimiento de Información en Bases de Datos (DIBD) y las técnicas de Minería de Datos (MD) (entre las que podemos mencionar aquellas provenientes del campo de la Inteligencia Artificial, tales como los modelos Neuronales Artificiales) son metodologías asociadas, tendientes a resolver los problemas de la extracción de información novel y útil sobre un conjunto de datos y/o señales biomédicas. Este proyecto trata sobre el desarrollo y aplicación de metodologías de análisis de datos para el descubrimiento de información en bases de datos biológicas y biomédicas, tendientes a mejorar y/o desarrollar nuevas técnicas de diagnóstico, como también para el análisis de señales e información biomédica.
Resumo:
La erosión es, de los procesos degradativos de suelo, el mayor impacto negativo que provoca, tanto por su extensión como por la magnitud. En Córdoba, cerca de 2 millones de ha están infectadas por erosión hídrica con grados moderados a graves. Este fenómeno está regido por una serie de factores: tipo de suelo, lluvias, tipo de cultivo, labores culturales, época de siembra, etc. Los Sistemas de Información Georreferenciada (SIG) son herramientas que permitan manipular gran cantidad de datos; el potencial de un SIG se amplía cuando se asocia un Sistema de Base de Datos Relacional (SBDR). Este último puede almacenar, transformar y analizar datos en formato de tablas y producir planos de atributos correspondiente a áreas delimitadas por polígonos en un plano base que se relacionan por medio de identificadores lógicos. Existen diversos modelos que describen el proceso de erosión hídrica, los parámetros de ellos tienen distribución geográfica y temporal lo que posibilita su aplicación dentro de un ambiente SIG asociado a un SBDR. Se propone el uso de SIG asociado a un SBDR en los estudios de Erosión Hídrica, para lo cual se deberán implementar una Base de Datos con formación extraída de Sensores Remotos, relevamiento de campo, encuesta a productores, análisis de laboratorio, etc. Se confeccionará un mapa base con polígonos identificados los que se asociarán a la base de datos y se crearán los planos de información por medio de ecuaciones de búsqueda. Se espera que el SIG y el SBDR sea una herramienta útil en este tipo de estudio y quedará a disposición de otros investigadores para su actualización, incorporándose nuevos datos y nuevos campos cuando se necesite. Se proyecta realizar en años posteriores estudios multitemporales al incorporar datos de diferentes épocas lo que posibilitará prevenir efectos de degradación.
Resumo:
En este trabajo se propone un método para mejorar la predicción de la propagación de incendios forestales. En la actualidad existen diversos simuladores de comportamiento del fuego los cuales utilizan diversos parámetros de entrada. Estos parámetros de entrada suelen ser una fuente de imprecisión dada la dificultad que resulta disponer de sus valores reales. Este trabajo intenta mejorar las predicciones mediante la mejora de la precisión de los parámetros de entrada. Se utiliza un algoritmo genético guiado utilizando conocimiento disponible. Los resultados observados demuestran que utilizar conocimiento mejora la precisión de las predicciones y acelera dicho proceso.
Resumo:
Pensado en un ámbito de tecnología médica, el propósito principal es el de realizar un seguido de medidas en diferentes partes del cuerpo para establecer unos valores máximos que nos permitan detectar cuando un paciente empieza a padecer estrés. Para ello se necesita un proceso de medición y otro de transmisión de los datos. Es aquí donde aparece el trabajo realizado en el proyecto. “ZigBee aplicado a la transmisión de datos de sensores biomédicos” está pensado para realizar la tarea de transmisión de los datos desde que el sensor realiza la medida hasta que los datos son monitorizados y almacenados. En la memoria del proyecto podremos encontrar el estudio realizado al medio de transmisión inalámbrico utilizado (ZigBee), el análisis del kit eZ430-RF2500 compatible con el medio, y finalmente la implementación del proyecto. Todo este trabajo finalizará con la recepción satisfactoria de los datos medidos por nuestro sensor biomédico (oxímetro) en el aplicativo personal programado con Visual Basic.
Resumo:
En noviembre de 2001, sólo dos meses después de los atentados a las Torres Gemelas, se aprobó una ley que obligaba a cualquier compañía aérea que operase vuelos de pasajeros con destino u origen a EE UU a proporcionar a la Oficina de Aduanas y Protección Fronteriza (Bureau of Customs and Border Protection) el acceso electrónico a los datos contenidos en el registro de nombres de pasajeros, conocidos por sus sigla en inglés PNR (Passenger Name Record). Tras varios acuerdos entre la Unión Europea y EE UU, y otros suscritos con Canadá y Australia, se ha avanzado hacia ciertos mínimos que deben respetarse en el proceso de transferencia internacional de datos personales desde Europa a terceros Estados con fines de represión y prevención penal de ilícitos terroristas. No obstante, a día de hoy son muchas las dudas que surgen tras el análisis detallado de los mismos. Este trabajo repasa críticamente dichos acuerdos, así como el proyecto de creación de un PNR para Europa, poniendo el acento en los aspectos más sensibles desde el punto de vista de la protección de datos personales, y de la configuración de la libertad en el marco de unas medidas proporcionales de seguridad que puedan ser útiles de cara a su renovación con más garantías y la posible suscripción de más acuerdos con dicha finalidad.
Resumo:
En este trabajo final de carrera se ha desarrollado una aplicación Web para el seguimiento vía Internet del proceso académico de los alumnos, tanto por ellos mismos como por parte de sus padres. La aplicación se ha implementado usando la arquitectura .NET de Microsoft para el desarrollo y la tecnología ADO para el acceso a datos.
Resumo:
Este proyecto tiene como finalidad el diseño, el desarrollo y la puesta en marcha de un almacén de datos destinado, tanto al almacenamiento de la información que nuestro cliente la Academia de Cine Andorrana dispone de los diferentes premios de los Festivales cinematográficos más importantes, como al análisis y la explotación de los datos. El proyecto parte del conjunto de documentos en formato Microsoft Excel que la Academia de Cine Andorrana utiliza como repositorio de información cinematográfica, los cuales tras un proceso de análisis y diseño darán lugar a modelo conceptual, lógico y físico de un cubo multidimensional de procesamiento Analítico Relacional o ROLAP en esquema de copo de nieve. Así mismo, el proyecto incluye el diseño y desarrollo de los procesos necesarios de extracción, transformación y carga (ETL) de las fuentes operacionales de información, previamente exportadas a formato CSV, sobre la base de datos multidimensional. Por último, el proyecto contempla la construcción de un área de negocio que sirve como base y entorno de trabajo para el desarrollo de los informes de extracción y explotación de los datos requeridos por la Academia de Cine Andorrana.
Resumo:
El sistema inclou un servidor d'aplicacions, un servidor de dades espacials i un sistema gestor de bases de dades alfanumèriques; dóna servei de mapes sota l'especificació Web Map Tile Service, de l'OGC, i s'explica el procés de confecció dels tiles per a cada nivell de zoom amb el programari GeoWebCache integrat en Geoserver. Mostra l'estructura de matrius de tessel·les (TileMatrix) i piràmides (TileMatrixSets). Implementa un portal visualitzador de mapes (geoportal), capaç per a WMTS i WMS, amb les opcions d'exploració de capes i consulta a la base de dades del carrerer oficial de l'Ajuntament de Malgrat de Mar
Resumo:
El IBB ha desarrollado un servidor de aplicaciones: http://revolutionresearch.uab.es para el análisis de microarrays. Estas microarrays las obtienen y las suben a la base de datos local los usuarios de la aplicación. En la presente memoria se detalla el proceso realizado para automatizar la subida de microarrays públicas a la base de datos local. Estas microarrays se obtendrán del NCBI. El proceso de descarga de microarrays se realizará cada dos meses y estará sincronizado con un proceso de descarga de genes marcadores de microarrays del NCBI. En la memoria también se describen las fases realizadas para crear la interfaz web para gestionar estas microarrays públicas y las modificaciones realizadas sobre el aplicativo web para permitir realizar análisis con estas microarrays.