1000 resultados para DISEÑO DE BASES DE DATOS


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Debido a que en la segunda mitad del siglo XX se produjo un incremento importante en el numero de instituciones y personas que se dedican de manera profesional a la investigación en todos los campos de conocimiento, fue necesario un desarrollo de mejores herramientas para sistematizar la información de las investigaciones y hacerla más accesible. Es por eso que surgen las bases de datos o bancos de datos. El texto se centra en la definición, tipos, características, planeación, diseño y desarrollo de estas bases de datos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se trata de un análisis de la importancia de las bases de datos como nueva forma de almacenamiento y recuperación de la información. Se tratan temas como el concepto de base de datos, su proceso de creación y mantenimiento .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El mundo de la web admite actualmente los productos desarrollados tanto por desarrolladores profesionales como por usuarios finales con un conocimiento más limitado. A pesar de la diferencia que se puede suponer de calidad entre los productos de ambos, las dos soluciones pueden ser reconocidas y empleadas en una aplicación. En la Web 2.0, este comportamiento se observa en el desarrollo de componentes web. Lo que se persigue en el trabajo es desarrollar un modelo de persistencia que, apoyado por un lado servidor y por uno cliente, recoja las métricas de calidad de los componentes cuando los usuarios interaccionan con ellos. A partir de estas métricas, es posible mejorar la calidad de estos componentes. La forma en la que se van a recoger las métricas es a través de PicBit, la aplicación desarrollada para que los usuarios puedan interconectar diferentes componentes entre ellos sin restricciones, de forma que tras interactuar con ellos puedan expresar su grado de satisfacción, que se recoge para la evaluación de la calidad. Se definen también unas métricas intrínsecas al componente, no determinadas por el usuario y que sirven como referencia de la evaluación. Cuando se tienen tanto las métricas intrínsecas como procedentes del usuario, se realiza una correlación entre ellas que permite analizar las posibles desviaciones entre ellas y determinar la calidad propia del componente. Las conclusiones que se pueden obtener del trabajo es que cuando los usuarios pueden realizar pruebas de usabilidad de forma libre, sin restricciones, es mayor la posibilidad de obtener resultados favorables porque estos resultados muestran cómo usará un usuario final la aplicación. Este método de trabajo se ve favorecido por el número de herramientas que se pueden utilizar hoy para monitorizar el flujo de usuario en el servicio.---ABSTRACT---Nowadays, the web world deals with products developed both by professional developers and by end-users with some limited knowledge. Although the difference between both can be important in quality terms, both are accepted and included in web applications. In web 2.0, this behavior can be recognized in the web components development. The goal pursued in the work presented is to create a persistent model that, supported by an end and a back side, will pick the quality measures of the components when the users interact with them. These measures are the starting point for improving the components. The way in which the measures are going to be picked is through PicBit, the application we have developed in order to allow the users playing with the components without restrictions or rules, so after the interaction they can give their satisfaction mark with the application. This will be the value used to evaluate the quality. Some own measures are also defined, which does not depend on the user and which will be used as a reference point of the evaluation. When the measures from users and own ones are got, their correlation is analyzed to study the differences between them and to establish the quality of the component. The conclusion that can be gained from the project is the importance of giving freedom for users when doing usability tests because it increases the chance to get positive results, in the way the users execute the operations they want with the application. This method is fortunate for having such a number of tools to monitor the user flow when using the service.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este documento refleja el trabajo realizado durante el diseño e implementación de una base de datos relacional y un almacén de datos para una empresa de gestión de personal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta aplicación pretende ser en un cliente ligero de conexión a las distintas bases de datos, de tal forma que, de manera transparente y simplemente seleccionando un esquema de ejecución, se permitan consultas tanto de forma online como programada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La interfaz de consulta de una base de datos en web sirve para establecer la comunicación entre personas que buscan información y los sistemas de recuperación de la información, siendo una de las partes más importantes del diseño conceptual de una base de datos. La interfaz de consulta está formada por un conjunto de páginas de las cuales podríamos destacar las siguientes: página de consulta, resultados, visualización del documento completo, información general y ayudas. El objetivo del texto consiste en determinar cuáles son los elementos básicos que han de estar presentes en cada una de las páginas antes citadas para contribuir a facilitar el proceso de recuperación de la información por parte de los usuarios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Incluye Bibliografía

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El trabajo se enmarca dentro de los proyecto INTEGRATE y EURECA, cuyo objetivo es el desarrollo de una capa de interoperabilidad semántica que permita la integración de datos e investigación clínica, proporcionando una plataforma común que pueda ser integrada en diferentes instituciones clínicas y que facilite el intercambio de información entre las mismas. De esta manera se promueve la mejora de la práctica clínica a través de la cooperación entre instituciones de investigación con objetivos comunes. En los proyectos se hace uso de estándares y vocabularios clínicos ya existentes, como pueden ser HL7 o SNOMED, adaptándolos a las necesidades particulares de los datos con los que se trabaja en INTEGRATE y EURECA. Los datos clínicos se representan de manera que cada concepto utilizado sea único, evitando ambigüedades y apoyando la idea de plataforma común. El alumno ha formado parte de un equipo de trabajo perteneciente al Grupo de Informática de la UPM, que a su vez trabaja como uno de los socios de los proyectos europeos nombrados anteriormente. La herramienta desarrollada, tiene como objetivo realizar tareas de homogenización de la información almacenada en las bases de datos de los proyectos haciendo uso de los mecanismos de normalización proporcionados por el vocabulario médico SNOMED-CT. Las bases de datos normalizadas serán las utilizadas para llevar a cabo consultas por medio de servicios proporcionados en la capa de interoperabilidad, ya que contendrán información más precisa y completa que las bases de datos sin normalizar. El trabajo ha sido realizado entre el día 12 de Septiembre del año 2014, donde comienza la etapa de formación y recopilación de información, y el día 5 de Enero del año 2015, en el cuál se termina la redacción de la memoria. El ciclo de vida utilizado ha sido el de desarrollo en cascada, en el que las tareas no comienzan hasta que la etapa inmediatamente anterior haya sido finalizada y validada. Sin embargo, no todas las tareas han seguido este modelo, ya que la realización de la memoria del trabajo se ha llevado a cabo de manera paralela con el resto de tareas. El número total de horas dedicadas al Trabajo de Fin de Grado es 324. Las tareas realizadas y el tiempo de dedicación de cada una de ellas se detallan a continuación:  Formación. Etapa de recopilación de información necesaria para implementar la herramienta y estudio de la misma [30 horas.  Especificación de requisitos. Se documentan los diferentes requisitos que ha de cumplir la herramienta [20 horas].  Diseño. En esta etapa se toman las decisiones de diseño de la herramienta [35 horas].  Implementación. Desarrollo del código de la herramienta [80 horas].  Pruebas. Etapa de validación de la herramienta, tanto de manera independiente como integrada en los proyectos INTEGRATE y EURECA [70 horas].  Depuración. Corrección de errores e introducción de mejoras de la herramienta [45 horas].  Realización de la memoria. Redacción de la memoria final del trabajo [44 horas].---ABSTRACT---This project belongs to the semantic interoperability layer developed in the European projects INTEGRATE and EURECA, which aims to provide a platform to promote interchange of medical information from clinical trials to clinical institutions. Thus, research institutions may cooperate to enhance clinical practice. Different health standards and clinical terminologies has been used in both INTEGRATE and EURECA projects, e.g. HL7 or SNOMED-CT. These tools have been adapted to the projects data requirements. Clinical data are represented by unique concepts, avoiding ambiguity problems. The student has been working in the Biomedical Informatics Group from UPM, partner of the INTEGRATE and EURECA projects. The tool developed aims to perform homogenization tasks over information stored in databases of the project, through normalized representation provided by the SNOMED-CT terminology. The data query is executed against the normalized version of the databases, since the information retrieved will be more informative than non-normalized databases. The project has been performed from September 12th of 2014, when initiation stage began, to January 5th of 2015, when the final report was finished. The waterfall model for software development was followed during the working process. Therefore, a phase may not start before the previous one finishes and has been validated, except from the final report redaction, which has been carried out in parallel with the others phases. The tasks that have been developed and time for each one are detailed as follows:  Training. Gathering the necessary information to develop the tool [30 hours].  Software requirement specification. Requirements the tool must accomplish [20 hours].  Design. Decisions on the design of the tool [35 hours].  Implementation. Tool development [80 hours].  Testing. Tool evaluation within the framework of the INTEGRATE and EURECA projects [70 hours].  Debugging. Improve efficiency and correct errors [45 hours].  Documenting. Final report elaboration [44 hours].

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bogotá (Colombia) : Universidad de La Salle. Facultad de Ciencias Administrativas y Contables. Programa de Contaduría Pública

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La erosión es, de los procesos degradativos de suelo, el mayor impacto negativo que provoca, tanto por su extensión como por la magnitud. En Córdoba, cerca de 2 millones de ha están infectadas por erosión hídrica con grados moderados a graves. Este fenómeno está regido por una serie de factores: tipo de suelo, lluvias, tipo de cultivo, labores culturales, época de siembra, etc. Los Sistemas de Información Georreferenciada (SIG) son herramientas que permitan manipular gran cantidad de datos; el potencial de un SIG se amplía cuando se asocia un Sistema de Base de Datos Relacional (SBDR). Este último puede almacenar, transformar y analizar datos en formato de tablas y producir planos de atributos correspondiente a áreas delimitadas por polígonos en un plano base que se relacionan por medio de identificadores lógicos. Existen diversos modelos que describen el proceso de erosión hídrica, los parámetros de ellos tienen distribución geográfica y temporal lo que posibilita su aplicación dentro de un ambiente SIG asociado a un SBDR. Se propone el uso de SIG asociado a un SBDR en los estudios de Erosión Hídrica, para lo cual se deberán implementar una Base de Datos con formación extraída de Sensores Remotos, relevamiento de campo, encuesta a productores, análisis de laboratorio, etc. Se confeccionará un mapa base con polígonos identificados los que se asociarán a la base de datos y se crearán los planos de información por medio de ecuaciones de búsqueda. Se espera que el SIG y el SBDR sea una herramienta útil en este tipo de estudio y quedará a disposición de otros investigadores para su actualización, incorporándose nuevos datos y nuevos campos cuando se necesite. Se proyecta realizar en años posteriores estudios multitemporales al incorporar datos de diferentes épocas lo que posibilitará prevenir efectos de degradación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la presente memoria se detallan con exactitud los pasos y procesos realizados para construir una aplicación que posibilite el cruce de datos genéticos a partir de información contenida en bases de datos remotas. Desarrolla un estudio en profundidad del contenido y estructura de las bases de datos remotas del NCBI y del KEGG, documentando una minería de datos con el objetivo de extraer de ellas la información necesaria para desarrollar la aplicación de cruce de datos genéticos. Finalmente se establecen los programas, scripts y entornos gráficos que han sido implementados para la construcción y posterior puesta en marcha de la aplicación que proporciona la funcionalidad de cruce de la que es objeto este proyecto fin de carrera.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aquest document complementa les subtasques 2.4.2, 2.4.3 i 2.4.4 relacionades amb els Informes dels estudis de viabilitat constructiva, els resultats de la intervenció i la validació de la intervenció, proporcionant el nexe lògic entre la caracterització de les tècniques no-destructives i semidestructives realitzat en els documents I2.17 i I.2.18 i les millores de processos que s'aborden d'una forma més sistemàtica en el *SP4, en relació amb el desenvolupament i aplicació de models d'optimització multicriteri. Per a arribar a aquest objectiu i resoldre els problemes de interoperabilitat lligats a diferents bases de dades, ha estat necessari estendre l'Ontologia orientada inicialment en el SP6 per a usuaris amb algun tipus de discapacitat, a usuaris corresponents als tècnics que vagin a desenvolupar les intervencions d'acord amb les tècniques disponibles. Aquesta extensió inclou el diagrama entitat-relació que estén al cas dels tècnics l'esquema conceptual inicialment restringit als usuaris finals (ciutadans eventualment discapacitats). La major dificultat procedeix del caràcter excepcional de moltes de les intervencions realitzades, la qual cosa fa realment difícil l'estandardització dels processos orientats a resoldre el problema de l'accessibilitat al Patrimoni