971 resultados para Bases de datos relacionales
Resumo:
En el campo bibliotecológico para desarrollar instrumentos de trabajo que nos permitan comunicarnos con las demás unidades y clientes de información, debemos pensar en normalizar nuestros procesos.Normalizar, en el sentido más amplio, significa seguir reglas que hagan un registro uniforme en cualquier lugar del mundo. Esto se logra mediante la aplicación de códigos y normas que han sido aceptadas internacionalmente por los organismos creados para este fin.El valor de la normalización estriba en evitar la duplicación de los esfuerzos de la catalogación en las diferentes unidades de información documental y facilitar el intercambio de datos bibliográficos tan pronto como sea posible. También, cosiste en darle al cliente la posibilidad de localizar la información en un a forma homogénea que obvie las barreras idiomáticas.
Resumo:
Tesis (Optómetra). -- Universidad de La Salle, Facultad de Ciencias de La Salud. Programa de Optometría, 2015
Resumo:
La Analítica Web supone hoy en día una tarea ineludible para las empresas de comercio electrónico, ya que les permite analizar el comportamiento de sus clientes. El proyecto Europeo SME-Ecompass tiene como objetivo desarrollar herramientas avanzadas de analítica web accesibles para las PYMES. Con esta motivación, proponemos un servicio de integración de datos basado en ontologías para recopilar, integrar y almacenar información de traza web procedente de distintas fuentes.Estas se consolidan en un repositorio RDF diseñado para proporcionar semántica común a los datos de análisis y dar servicio homogéneo a algoritmos de Minería de Datos. El servicio propuesto se ha validado mediante traza digital real (Google Analitics y Piwik) de 15 tiendas virtuales de diferentes sectores y países europeos (UK, España, Grecia y Alemania) durante varios meses de actividad.
Resumo:
Exist a constant worry for Database Security, many times the security is affected for the security configuration connection, this paper will study how make security connection to a Database, explaining common mistakes and to give recommendations for keep low the associated risk to these process.
Resumo:
The importance of establishing controls that allow you to diminish the inherent risk that has the data contained in a database make necessary implement audit procedures. Two types of audits applicable to the database exist essentially, the audit of object and the audit of transactions, some system database manager provide mechanisms for the first type, whereas to make the audits of transaction, is necessary to create our own procedures or to go to solution of third.
Resumo:
Kosmo no es un producto; es un PROYECTO en continua evolución. En él tienen cabida iniciativas de software libre actuales y futuras, siempre tras un profundo análisis de las mismas e integrándolas en un esquema conceptual estable y compacto. Así, al día de hoy, ya se encuentran integradas, en fase de análisis o en fase de integración diversas componentes de los principales proyectos SIG libres (y no SIG) existentes: PostgreSQL/PostGIS, MySQL, Geoserver, Deegree, Geonetwork, Openlayers, GRASS, gvSIG, ImageJ, Openoffice, JTS, GDAL, Geotools,... Es un proyecto de software libre, aunque su entorno no está limitado a ese ámbito, estando diseñado para implantarse dentro de entornos corporativos en los que puede integrarse con alternativas comerciales: Oracle, ArcSDE,... Kosmo-Plataforma SIG Libre Corporativa cuenta con las siguientes funcionalidades SIG: ● Almacenamiento y Gestión de la información geográfica en Sistemas de Gestión de Bases de Datos Relacionales (SGBDR), integrada con el resto de información corporativa. ● Edición (multiusuario), consulta y explotación de la información geográfica desde el cliente de escritorio Kosmo, junto con funciones de geoprocesamiento, entre muchas otras. ● Publicación de la información geográfica a través de protocolos estándar del OGC (WMS, WFS), lo que permite compartir la información y construir/participar en IDEs. ● Publicación de información y funcionalidades específicas en Internet, y acceso mediante el uso de los clientes ligeros Kosmo. Kosmo está diseñado para satisfacer las necesidades de gestión territorial de todo tipo de corporaciones, pequeñas o grandes, con un usuario individual o centenares de ellos accediendo, editando y/o consultando simultáneamente la información
Resumo:
Resumen tomado de la publicaci??n
Resumo:
Guía de repaso para los alumnos de enseñanza secundaria que estén preparando el examen de tecnologías de la información y la comunicación (TIC) según la especificación del OCR (Oxford Cambridge and RSA Examinations) para el nivel AS. Es un resumen básico de los temas principales que se evalúan en la prueba oficial y cubre las siguientes áreas: datos, información, conocimiento y proceso, componentes de software y hardware de los sistemas de información, características de las aplicaciones de software estándar y áreas de utilización, conceptos de hojas de cálculo, conceptos de bases de datos relacionales, aplicaciones de software usadas para la presentación y la comunicación de datos, papel e impacto de las TIC.
Resumo:
Guía de repaso para alumnos de enseñanza secundaria en el área de tecnologías de la información y la comunicación (TIC), niveles AS y A. Adaptado a las principales especificaciones (OCR, WJEC, AQUA), es un resumen de los temas que se evalúan en las pruebas oficiales y debe ser usado como complemento al libro de texto. Cubre las siguientes áreas: datos, información, conocimiento y proceso, componentes de software y hardware, aplicaciones de software estándar y sistemas, hojas de cálculo, bases de datos relacionales, presentación y comunicación de datos, papel e impacto de las TIC, ciclo de los sistemas, diseño de sistemas de información, redes y comunicación, aplicaciones y limitaciones de las TIC, implementación de sistemas de información, implicaciones de las TIC.
Resumo:
Resumen basado en el de la publicación
Resumo:
JASPA (Java Spatial) es una extensión espacial para bases de datos relacionales que dispongan de procedimientos almacenados en java. Se trata de un proyecto joven, pero que ya posee una funcionalidad muy similar a PostGIS. Recientemente han surgido nuevas extensiones espaciales, pero ninguna de ellas ofrece la misma funcionalidad que PostGIS o JASPA. En este artículo se describe la arquitectura del producto, sus principales funcionalidades y las mejoras realizadas desde la última versión, entre las que destaca la inclusión de reglas topológicas
Resumo:
Los indicadores ambientales son una herramienta para efectuar el monitoreo de la biodiversidad a través de la recolección sistemática de datos obtenidos mediante mediciones u observaciones en series de tiempo y espacio. Se entiende por indicador ambiental a una variable o suma de variables que proporciona una información sintética sobre un fenómeno ambiental complejo que permite conocer y evaluar el estado y variación de la calidad ambiental. Para la caracterización y detección de indicadores ambientales del litoral de Río Negro se identifican y jerarquizan los conflictos o problemáticas del ambiente, a partir de lo cual se seleccionan las principales variables que componen el sistema de indicadores y por último, se recopilan los niveles de información existentes y los que requieren ser relevados e incorporados a bases de datos relacionales. Los requisitos que deben tener los indicadores seleccio nados son: ser medibles (cuali y cuantitativamente), compresibles, fáciles de usar e interrelacionar, tener dimensión espacial y temporal, ser objetivos sensibles a los cambios y permitir el diagnóstico y pronóstico en función de la detección de situaciones de alerta ambiental. Se realiza una aproximación a la selección de variables e indicadores con el fin de definir el modelo de datos y categorías de agrupamiento. El sistema de indicadores generados se agrupa en función de la disponibilidad de datos existentes y la posibilidad de recopilación para un correcto funcionamiento del prototipo del Observatorio. El modelo adoptado incorpora 3 subsistemas (ambiental, social y económico) interrelacionando con 3 nodos institucionales (que proveen y/o precisan estos datos para la toma de decisiones). Cada indicador se describe en una ficha metodológica, cuyo diseño es normalizado para un correcto funcionamiento del Observatorio. La implementación del modelo de indicadores exige contar con una infraestructura que permita la aplicación de mediciones, observaciones y registros y contar además, con personal idóneo para una correcta manipulación y análisis.
Resumo:
El trabajo ha sido realizado dentro del marco de los proyectos EURECA (Enabling information re-Use by linking clinical REsearch and Care) e INTEGRATE (Integrative Cancer Research Through Innovative Biomedical Infrastructures), en los que colabora el Grupo de Informática Biomédica de la UPM junto a otras universidades e instituciones sanitarias europeas. En ambos proyectos se desarrollan servicios e infraestructuras con el objetivo principal de almacenar información clínica, procedente de fuentes diversas (como por ejemplo de historiales clínicos electrónicos de hospitales, de ensayos clínicos o artículos de investigación biomédica), de una forma común y fácilmente accesible y consultable para facilitar al máximo la investigación de estos ámbitos, de manera colaborativa entre instituciones. Esta es la idea principal de la interoperabilidad semántica en la que se concentran ambos proyectos, siendo clave para el correcto funcionamiento del software del que se componen. El intercambio de datos con un modelo de representación compartido, común y sin ambigüedades, en el que cada concepto, término o dato clínico tendrá una única forma de representación. Lo cual permite la inferencia de conocimiento, y encaja perfectamente en el contexto de la investigación médica. En concreto, la herramienta a desarrollar en este trabajo también está orientada a la idea de maximizar la interoperabilidad semántica, pues se ocupa de la carga de información clínica con un formato estandarizado en un modelo común de almacenamiento de datos, implementado en bases de datos relacionales. El trabajo ha sido desarrollado en el periodo comprendido entre el 3 de Febrero y el 6 de Junio de 2014. Se ha seguido un ciclo de vida en cascada para la organización del trabajo realizado en las tareas de las que se compone el proyecto, de modo que una fase no puede iniciarse sin que se haya terminado, revisado y aceptado la fase anterior. Exceptuando la tarea de documentación del trabajo (para la elaboración de esta memoria), que se ha desarrollado paralelamente a todas las demás. ----ABSTRACT--- The project has been developed during the second semester of the 2013/2014 academic year. This Project has been done inside EURECA and INTEGRATE European biomedical research projects, where the GIB (Biomedical Informatics Group) of the UPM works as a partner. Both projects aim is to develop platforms and services with the main goal of storing clinical information (e.g. information from hospital electronic health records (EHRs), clinical trials or research articles) in a common way and easy to access and query, in order to support medical research. The whole software environment of these projects is based on the idea of semantic interoperability, which means the ability of computer systems to exchange data with unambiguous and shared meaning. This idea allows knowledge inference, which fits perfectly in medical research context. The tool to develop in this project is also "semantic operability-oriented". Its purpose is to store standardized clinical information in a common data model, implemented in relational databases. The project has been performed during the period between February 3rd and June 6th, of 2014. It has followed a "Waterfall model" of software development, in which progress is seen as flowing steadily downwards through its phases. Each phase starts when its previous phase has been completed and reviewed. The task of documenting the project‟s work is an exception; it has been performed in a parallel way to the rest of the tasks.
Resumo:
Desde el inicio de los tiempos el ser humano ha tenido la necesidad de comprender y analizar todo lo que nos rodea, para ello se ha valido de diferentes herramientas como las pinturas rupestres, la biblioteca de Alejandría, bastas colecciones de libros y actualmente una enorme cantidad de información informatizada. Todo esto siempre se ha almacenado, según la tecnología de la época lo permitía, con la esperanza de que fuera útil mediante su consulta y análisis. En la actualidad continúa ocurriendo lo mismo. Hasta hace unos años se ha realizado el análisis de información manualmente o mediante bases de datos relacionales. Ahora ha llegado el momento de una nueva tecnología, Big Data, con la cual se puede realizar el análisis de extensas cantidades de datos de todo tipo en tiempos relativamente pequeños. A lo largo de este libro, se estudiarán las características y ventajas de Big Data, además de realizar un estudio de la plataforma Hadoop. Esta es una plataforma basada en Java y puede realizar el análisis de grandes cantidades de datos de diferentes formatos y procedencias. Durante la lectura de estas páginas se irá dotando al lector de los conocimientos previos necesarios para su mejor comprensión, así como de ubicarle temporalmente en el desarrollo de este concepto, de su uso, las previsiones y la evolución y desarrollo que se prevé tenga en los próximos años. ABSTRACT. Since the beginning of time, human being was in need of understanding and analyzing everything around him. In order to do that, he used different media as cave paintings, Alexandria library, big amount of book collections and nowadays massive amount of computerized information. All this information was stored, depending on the age and technology capability, with the expectation of being useful though it consulting and analysis. Nowadays they keep doing the same. In the last years, they have been processing the information manually or using relational databases. Now it is time for a new technology, Big Data, which is able to analyze huge amount of data in a, relatively, small time. Along this book, characteristics and advantages of Big Data will be detailed, so as an introduction to Hadoop platform. This platform is based on Java and can perform the analysis of massive amount of data in different formats and coming from different sources. During this reading, the reader will be provided with the prior knowledge needed to it understanding, so as the temporal location, uses, forecast, evolution and growth in the next years.
Resumo:
RDB to RDF Mapping Language (R2RML) es una recomendación del W3C que permite especificar reglas para transformar bases de datos relacionales a RDF. Estos datos en RDF se pueden materializar y almacenar en un sistema gestor de tripletas RDF (normalmente conocidos con el nombre triple store), en el cual se pueden evaluar consultas SPARQL. Sin embargo, hay casos en los cuales la materialización no es adecuada o posible, por ejemplo, cuando la base de datos se actualiza frecuentemente. En estos casos, lo mejor es considerar los datos en RDF como datos virtuales, de tal manera que las consultas SPARQL anteriormente mencionadas se traduzcan a consultas SQL que se pueden evaluar sobre los sistemas gestores de bases de datos relacionales (SGBD) originales. Para esta traducción se tienen en cuenta los mapeos R2RML. La primera parte de esta tesis se centra en la traducción de consultas. Se propone una formalización de la traducción de SPARQL a SQL utilizando mapeos R2RML. Además se proponen varias técnicas de optimización para generar consultas SQL que son más eficientes cuando son evaluadas en sistemas gestores de bases de datos relacionales. Este enfoque se evalúa mediante un benchmark sintético y varios casos reales. Otra recomendación relacionada con R2RML es la conocida como Direct Mapping (DM), que establece reglas fijas para la transformación de datos relacionales a RDF. A pesar de que ambas recomendaciones se publicaron al mismo tiempo, en septiembre de 2012, todavía no se ha realizado un estudio formal sobre la relación entre ellas. Por tanto, la segunda parte de esta tesis se centra en el estudio de la relación entre R2RML y DM. Se divide este estudio en dos partes: de R2RML a DM, y de DM a R2RML. En el primer caso, se estudia un fragmento de R2RML que tiene la misma expresividad que DM. En el segundo caso, se representan las reglas de DM como mapeos R2RML, y también se añade la semántica implícita (relaciones de subclase, 1-N y M-N) que se puede encontrar codificada en la base de datos. Esta tesis muestra que es posible usar R2RML en casos reales, sin necesidad de realizar materializaciones de los datos, puesto que las consultas SQL generadas son suficientemente eficientes cuando son evaluadas en el sistema gestor de base de datos relacional. Asimismo, esta tesis profundiza en el entendimiento de la relación existente entre las dos recomendaciones del W3C, algo que no había sido estudiado con anterioridad. ABSTRACT. RDB to RDF Mapping Language (R2RML) is a W3C recommendation that allows specifying rules for transforming relational databases into RDF. This RDF data can be materialized and stored in a triple store, so that SPARQL queries can be evaluated by the triple store. However, there are several cases where materialization is not adequate or possible, for example, if the underlying relational database is updated frequently. In those cases, RDF data is better kept virtual, and hence SPARQL queries over it have to be translated into SQL queries to the underlying relational database system considering that the translation process has to take into account the specified R2RML mappings. The first part of this thesis focuses on query translation. We discuss the formalization of the translation from SPARQL to SQL queries that takes into account R2RML mappings. Furthermore, we propose several optimization techniques so that the translation procedure generates SQL queries that can be evaluated more efficiently over the underlying databases. We evaluate our approach using a synthetic benchmark and several real cases, and show positive results that we obtained. Direct Mapping (DM) is another W3C recommendation for the generation of RDF data from relational databases. While R2RML allows users to specify their own transformation rules, DM establishes fixed transformation rules. Although both recommendations were published at the same time, September 2012, there has not been any study regarding the relationship between them. The second part of this thesis focuses on the study of the relationship between R2RML and DM. We divide this study into two directions: from R2RML to DM, and from DM to R2RML. From R2RML to DM, we study a fragment of R2RML having the same expressive power than DM. From DM to R2RML, we represent DM transformation rules as R2RML mappings, and also add the implicit semantics encoded in databases, such as subclass, 1-N and N-N relationships. This thesis shows that by formalizing and optimizing R2RML-based SPARQL to SQL query translation, it is possible to use R2RML engines in real cases as the resulting SQL is efficient enough to be evaluated by the underlying relational databases. In addition to that, this thesis facilitates the understanding of bidirectional relationship between the two W3C recommendations, something that had not been studied before.