992 resultados para NoSQL, SQL, OrientDB, MongoDB, BaseX, prestazioni, interrogazioni


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En España, los datos catastrales de acceso público, obtenidos a través de la Sede Electrónica del Catastro (SEC), no incluyen información sobre la genealogía o las relaciones de linaje existente entre las parcelas, de forma que la gestión de la información histórica es muy limitada. Este artículo presenta un método para obtener las relaciones de linaje más frecuentes entre las parcelas (agregación y segregación) y propone un prototipo de estructura relacional para el almacenamiento y la gestión histórica de los datos catastrales de acceso público. El proceso de análisis para deducir el linaje se basa en superposiciones espacio-temporales junto con secuencias de sentencias SQL. El método proporciona un 70% de relaciones de agregación y segregación correctas; el resto presentan errores debidos, en general, a anomalías presentes en los propios datos catastrales. ABSTRACT Public cadastral data in Spain, available through the Electronic Office of Cadastre, do not include any information on the genealogy or lineage relationship among the parcels, so the management of historical information becomes very limit ed. This paper presents a method for obtaining the most common lineage relationships between plots (aggregation and segregation) and proposes a relational structure prototype for the storage and historic management of public cadastral data. The analysis process to deduce the lineage is based on spatio-temporal overlaps coupled with SQL statements sequences. This method provides a 70% of correct aggregation and segregation relationships; the wrong cases are mainly caused by errors existing in the cadastral data themselves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este proyecto es la creación de un modelo de gestión y control de la integridad de pozo, basado en el seguimiento de la operación y el análisis de su diseño y construcción. Para ello se diseña una herramienta tecnológica que permita disponer de la información necesaria y gestionarla según estándares internacionales. En la fase inicial del proyecto se realizó una revisión bibliográfica de los estudios más relevantes sobre integridad de pozos, tanto de la asociación SPE (Society of Petroleum Engineers), de Universidades de Noruega y México, o de empresas como ECOPETROL, con el fin entrar en el contexto y analizar antecedentes de modelos y herramientas similares. En segundo lugar se ha realizado un estudio de las bases de datos, comenzando por un análisis de los estándares de PPDM (The Professional Petroleum Data Management Association) sobre los que se realiza la herramienta y se ha seleccionado la base de datos que más se adecua a la herramienta, considerando Access como la mejor opción por ser de fácil acceso e incorporar el módulo de informes. Para la creación de la solución se diseñó un modelo de datos, condicionado por los requisitos de integridad de pozos de la normativa noruega NORSOK D-010 y de la guía de recomendaciones para la integridad de pozos de la asociación de petróleo y gas de Noruega. La materialización de este modelo se realizó mediante la creación de una base de datos en la plataforma Access, y empleando lenguaje propio de Access combinado con programación SQL. Una vez definido y construido el modelo de datos, es posible crear una capa de visualización de la información. Para ello se define un informe de estado de pozo. Este informe será visible por el usuario según sus roles y responsabilidades. ABSTRACT The objective of this project is to create a model for managing and controlling the well integrity. It is based on the monitoring of the operation and the analysis of its design and construction. Therefore a technological tool is designed; to allow having the necessary information and to manage it according to international standards. At the beginning of the project, a literature review of the most relevant studies on well integrity was performed. It was made to enter into context and to analyze the history of the models and available similar tools. It included texts from the association SPE (Society of Petroleum Engineers), universities from Norway and Mexico, and companies like ECOPETROL. Secondly there has been a study of the databases. It began with an analysis of PPDM (The Professional Petroleum Data Management Association) standards; about which, the tool is made. After the analysis, Access was considered the best option because it is easily accessible and incorporates the reporting module. In order to create the solution a data model was designed. It was conditioned by the requirements of integrity of wells, in the Norwegian standards and in the NORSOK D010 recommendations guide for well integrity of the Norwegian oil and gas Association. This model was performed by a database in the Access platform, and using Access language, combined with SQL programming. Once the data model is defined and built, it is possible to create a layer of data visualization. A report of this well is defined to create it. This report will be visible for the user according to their roles and responsibilities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo de fin de grado consiste en la realización de una aplicación web para la ONG Manos Unidas. Esta aplicación tiene el objetivo de acercar Manos Unidas a los donantes. Para ello, presenta un sistema de seguimiento de proyectos en los que se puede participar. Los usuarios se registran en el sistema y en cuanto donan al proyecto que ellos deseen podrán ver la evolución de este hasta su conclusión, la cual se les notificará. Gracias a esta aplicación se puede solucionar el problema de desconfianza de los donantes hacia las ONGs que es el planteamiento con el cual Manos Unidas propuso llevar a cabo este proyecto. El trabajo consta de una parte servidor realizada a través de Node.js y una parte cliente que presenta la información a los usuarios a través de una interfaz gráfica. La base de datos se ha realizado con MongoDB y el despliegue en la plataforma Heroku.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent years, there has been a great increase in the development of wireless technologies and location services. For this reason, numerous projects in the location field, have arisen. In addition, with the appearance of the open Android operating system, wireless technologies are being developed faster than ever. This Project approaches the design and development of a system that combines the technologies of wireless, location and Android with the implementation of an indoor positioning system. As a result, an Android application has been obtained, which detects the position of a phone in a simple and useful way. The application is based on the WIFI manager API of Android. It combines the data stored in a SQL database with the wifi data received at any given time. Afterwards the position of the user is determined with the algorithm that has been implemented. This application is able to obtain the position of any person who is inside a building with Wi-Fi coverage, and display it on the screen of any device with the Android operating system. Besides the estimation of the position, this system displays a map that helps you see in which quadrant of the room are positioned in real time. This system has been designed with a simple interface to allow people without technology knowledge. Finally, several tests and simulations of the system have been carried out to see its operation and accuracy. The performance of the system has been verified in two different places and changes have been made in the Java code to improve its precision and effectiveness. As a result of the several tests, it has been noticed that the placement of the access point (AP) and the configuration of the Wireless network is an important point that should be taken into account to avoid interferences and errors as much as possible, in the estimation of the position. RESUMEN. En los últimos años, se ha producido un incremento en el desarrollo de tecnologías inalámbricas y en servicios de localización y posicionamiento. Por esta razón, han surgido numerosos proyectos relacionados con estas tecnologías. Por otra parte, un punto importante en el desarrollo de estas tecnologías ha sido la aparición del lenguaje Android que ha hecho que estas nuevas tecnologías se implementaran con una mayor rapidez. Este proyecto, se acerca al diseño y desarrollo de un sistema que combina tecnologías inalámbricas, de ubicación y uso de lenguaje Android para el desarrollo de una aplicación de un sistema de posicionamiento en interiores. Como consecuencia de esto se ha obtenido una aplicación Android que detecta la posición de un dispositivo móvil de una manera sencilla e intuititva. La aplicación se basa en la API WIFI de Android, que combina los datos almacenados en una base de datos SQL con los datos recibidos vía Wi-Fi en cualquier momento. A continuación, la posición del usuario se determina con el algoritmo que se ha implementado a lo largo de todo el proyecto utilizando código Android. Esta aplicación es capaz de obtener la posición de cualquier persona que se encuentra dentro de un edificio con cobertura Wi-Fi, mostrando por pantalla la ubicación del usuario en cualquier dispositivo que disponga de sistema operativo Android. Además de la estimación de la posición, este sistema muestra un mapa que le ayuda a ver en qué cuadrante de la sala está situado el usuario. Este sistema ha sido diseñado con una interfaz sencilla para permitir que usuarios sin conocimiento tecnológico o no acostumbrados al uso de los nuevos dispositivos de hoy en día puedan usarlo de una manera sencilla y de forma intuitiva. Por último, se han llevado a cabo varias pruebas y simulaciones del sistema para verificar su funcionamiento y precisión. El rendimiento del sistema se ha comprobado en dos puntos diferentes de la sala (lugar donde se han hecho todas las pruebas y desarrollado la aplicación) realizando cambios en el código Java para mejorar aún más la precisión y eficacia del posicionamiento. Como resultado de todo esto, se ha comprobado que la ubicación del punto de acceso (AP) y la configuración de la red inalámbrica es importante, y por ello se debe de tener en cuenta para evitar interferencias y tantos errores como sea posible en la estimación de la posición.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

NoSQL data stores are becoming more and more popular. Graph databases are one of this kind of data stores. In this paper we present an overview of the implementation of snapshot isolation for Neo4j, a very popular graph database.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RDB to RDF Mapping Language (R2RML) es una recomendación del W3C que permite especificar reglas para transformar bases de datos relacionales a RDF. Estos datos en RDF se pueden materializar y almacenar en un sistema gestor de tripletas RDF (normalmente conocidos con el nombre triple store), en el cual se pueden evaluar consultas SPARQL. Sin embargo, hay casos en los cuales la materialización no es adecuada o posible, por ejemplo, cuando la base de datos se actualiza frecuentemente. En estos casos, lo mejor es considerar los datos en RDF como datos virtuales, de tal manera que las consultas SPARQL anteriormente mencionadas se traduzcan a consultas SQL que se pueden evaluar sobre los sistemas gestores de bases de datos relacionales (SGBD) originales. Para esta traducción se tienen en cuenta los mapeos R2RML. La primera parte de esta tesis se centra en la traducción de consultas. Se propone una formalización de la traducción de SPARQL a SQL utilizando mapeos R2RML. Además se proponen varias técnicas de optimización para generar consultas SQL que son más eficientes cuando son evaluadas en sistemas gestores de bases de datos relacionales. Este enfoque se evalúa mediante un benchmark sintético y varios casos reales. Otra recomendación relacionada con R2RML es la conocida como Direct Mapping (DM), que establece reglas fijas para la transformación de datos relacionales a RDF. A pesar de que ambas recomendaciones se publicaron al mismo tiempo, en septiembre de 2012, todavía no se ha realizado un estudio formal sobre la relación entre ellas. Por tanto, la segunda parte de esta tesis se centra en el estudio de la relación entre R2RML y DM. Se divide este estudio en dos partes: de R2RML a DM, y de DM a R2RML. En el primer caso, se estudia un fragmento de R2RML que tiene la misma expresividad que DM. En el segundo caso, se representan las reglas de DM como mapeos R2RML, y también se añade la semántica implícita (relaciones de subclase, 1-N y M-N) que se puede encontrar codificada en la base de datos. Esta tesis muestra que es posible usar R2RML en casos reales, sin necesidad de realizar materializaciones de los datos, puesto que las consultas SQL generadas son suficientemente eficientes cuando son evaluadas en el sistema gestor de base de datos relacional. Asimismo, esta tesis profundiza en el entendimiento de la relación existente entre las dos recomendaciones del W3C, algo que no había sido estudiado con anterioridad. ABSTRACT. RDB to RDF Mapping Language (R2RML) is a W3C recommendation that allows specifying rules for transforming relational databases into RDF. This RDF data can be materialized and stored in a triple store, so that SPARQL queries can be evaluated by the triple store. However, there are several cases where materialization is not adequate or possible, for example, if the underlying relational database is updated frequently. In those cases, RDF data is better kept virtual, and hence SPARQL queries over it have to be translated into SQL queries to the underlying relational database system considering that the translation process has to take into account the specified R2RML mappings. The first part of this thesis focuses on query translation. We discuss the formalization of the translation from SPARQL to SQL queries that takes into account R2RML mappings. Furthermore, we propose several optimization techniques so that the translation procedure generates SQL queries that can be evaluated more efficiently over the underlying databases. We evaluate our approach using a synthetic benchmark and several real cases, and show positive results that we obtained. Direct Mapping (DM) is another W3C recommendation for the generation of RDF data from relational databases. While R2RML allows users to specify their own transformation rules, DM establishes fixed transformation rules. Although both recommendations were published at the same time, September 2012, there has not been any study regarding the relationship between them. The second part of this thesis focuses on the study of the relationship between R2RML and DM. We divide this study into two directions: from R2RML to DM, and from DM to R2RML. From R2RML to DM, we study a fragment of R2RML having the same expressive power than DM. From DM to R2RML, we represent DM transformation rules as R2RML mappings, and also add the implicit semantics encoded in databases, such as subclass, 1-N and N-N relationships. This thesis shows that by formalizing and optimizing R2RML-based SPARQL to SQL query translation, it is possible to use R2RML engines in real cases as the resulting SQL is efficient enough to be evaluated by the underlying relational databases. In addition to that, this thesis facilitates the understanding of bidirectional relationship between the two W3C recommendations, something that had not been studied before.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal de este proyecto ha sido introducir aprendizaje automático en la aplicación FleSe. FleSe es una aplicación web que permite realizar consultas borrosas sobre bases de datos nítidos. Para llevar a cabo esta función la aplicación utiliza unos criterios para definir los conceptos borrosos usados para llevar a cabo las consultas. FleSe además permite que el usuario cambie estas personalizaciones. Es aquí donde introduciremos el aprendizaje automático, de tal manera que los criterios por defecto cambien y aprendan en función de las personalizaciones que van realizando los usuarios. Los objetivos secundarios han sido familiarizarse con el desarrollo y diseño web, al igual que recordar y ampliar el conocimiento sobre lógica borrosa y el lenguaje de programación lógica Ciao-Prolog. A lo largo de la realización del proyecto y sobre todo después del estudio de los resultados se demuestra que la agrupación de los usuarios marca la diferencia con la última versión de la aplicación. Esto se basa en la siguiente idea, podemos usar un algoritmo de aprendizaje automático sobre las personalizaciones de los criterios de todos los usuarios, pero la gran diversidad de opiniones de los usuarios puede llevar al algoritmo a concluir criterios erróneos o no representativos. Para solucionar este problema agrupamos a los usuarios intentando que cada grupo tengan la misma opinión o mismo criterio sobre el concepto. Y después de haber realizado las agrupaciones usar el algoritmo de aprendizaje automático para precisar el criterio por defecto de cada grupo de usuarios. Como posibles mejoras para futuras versiones de la aplicación FleSe sería un mejor control y manejo del ejecutable plserver. Este archivo se encarga de permitir a la aplicación web usar el lenguaje de programación lógica Ciao-Prolog para llevar a cabo la lógica borrosa relacionada con las consultas. Uno de los problemas más importantes que ofrece plserver es que bloquea el hilo de ejecución al intentar cargar un archivo con errores y en caso de ocurrir repetidas veces bloquea todas las peticiones siguientes bloqueando la aplicación. Pensando en los usuarios y posibles clientes, sería también importante permitir que FleSe trabajase con bases de datos de SQL en vez de almacenar la base de datos en los archivos de Prolog. Otra posible mejora basarse en distintas características a la hora de agrupar los usuarios dependiendo de los conceptos borrosos que se van ha utilizar en las consultas. Con esto se conseguiría que para cada concepto borroso, se generasen distintos grupos de usuarios, los cuales tendrían opiniones distintas sobre el concepto en cuestión. Así se generarían criterios por defecto más precisos para cada usuario y cada concepto borroso.---ABSTRACT---The main objective of this project has been to introduce machine learning in the application FleSe. FleSe is a web application that makes fuzzy queries over databases with precise information, using defined criteria to define the fuzzy concepts used by the queries. The application allows the users to change and custom these criteria. On this point is where the machine learning would be introduced, so FleSe learn from every new user customization of the criteria in order to generate a new default value of it. The secondary objectives of this project were get familiar with web development and web design in order to understand the how the application works, as well as refresh and improve the knowledge about fuzzy logic and logic programing. During the realization of the project and after the study of the results, I realized that clustering the users in different groups makes the difference between this new version of the application and the previous. This conclusion follows the next idea, we can use an algorithm to introduce machine learning over the criteria that people have, but the problem is the diversity of opinions and judgements that exists, making impossible to generate a unique correct criteria for all the users. In order to solve this problem, before using the machine learning methods, we cluster the users in order to make groups that have the same opinion, and afterwards, use the machine learning methods to precise the default criteria of each users group. The future improvements that could be important for the next versions of FleSe will be to control better the behaviour of the plserver file, that cost many troubles at the beginning of this project and it also generate important errors in the previous version. The file plserver allows the web application to use Ciao-Prolog, a logic programming language that control and manage all the fuzzy logic. One of the main problems with plserver is that when the user uploads a file with errors, it will block the thread and when this happens multiple times it will start blocking all the requests. Oriented to the customer, would be important as well to allow FleSe to manage and work with SQL databases instead of store the data in the Prolog files. Another possible improvement would that the cluster algorithm would be based on different criteria depending on the fuzzy concepts that the selected Prolog file have. This will generate more meaningful clusters, and therefore, the default criteria offered to the users will be more precise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Elemento centrale della presente tesi dottorale è il costrutto di perspective taking, definibile come l’abilità, emergente nei bambini intorno a 4-5 anni, di assumere la prospettiva altrui secondo tre differenti dimensioni: emotiva, cognitiva e percettiva (Bonino, Lo Coco, Tani, 1998; Moll e Meltzoff, 2011). Dalla letteratura emerge come il perspective taking, in quanto abilità di comprensione sociale, rivesta un ruolo adattivo e sia fondamentale per lo sviluppo, non solo intellettivo, ma anche per la formazione di adeguate capacità relazionali e sociali (Jenkins e Astington, 2000; Weil et al., 2011). Sulla base di tali considerazioni, alcuni ricercatori si sono interrogati sulla possibilità di insegnare questa abilità, elaborando specifiche e differenti procedure di intervento finalizzate ad incrementare l’abilità di perspective taking sia in bambini a sviluppo normativo (Cigala e Mori, 2015), sia in gruppi di bambini a sviluppo atipico (Fisher e Happé, 2005; Heagle e Rehfeldt, 2006; Paynter e Peterson, 2012). A partire da una prospettiva teorica socio-costruzionista, secondo cui l’acquisizione del perspective taking si configura come un’impresa di co-costruzione continua, all’interno di interazioni quotidiane con figure significative per il bambino, si è deciso di analizzare il perspective taking non solo in relazione a variabili individuali (genere, età del bambino, regolazione emotiva, abilità sociali) ma anche e soprattutto a variabili contestuali quali le caratteristiche del contesto familiare (caratteristiche disposizionali e stili genitoriali di socializzazione emotiva, presenza di fratelli). Sono stati in particolare indagati un contesto familiare normativo ed uno caratterizzato da maltrattamento psicologico, contrassegnato dalla reiterazione di comportamenti inadeguati (critiche svalutanti, denigrazione, umiliazione, minacce verbali, indifferenza) nei confronti del minore, che convogliano sul bambino l’idea di non essere amato e di avere poco valore. Con i termini “a sviluppo tipico” si intendono i bambini per i quali non sussista una diagnosi clinica e con quelli di “famiglie normative” ci si riferisce a nuclei per i quali non ci siano state segnalazioni da parte dei Servizi Educativi e Sociali di riferimento, indipendentemente dalle caratteristiche della composizione del nucleo familiare (nucleare, estesa, multipla, ricostituita o ricomposta). Tale studio rientra in un ampio progetto di ricerca e formazione che ha coinvolto più di 250 prescolari frequentanti 8 scuole dell’infanzia e 15 comunità terapeutiche e di accoglienza mamma-bambino, situate in differenti province del Nord Italia. Il gruppo dei partecipanti alla ricerca si è composto di 256 bambini in età prescolare, compresa quindi tra 3 e 5 anni (M=54,39; DS=5,705): 128 maschi (M=54,08; DS=5,551) e 128 femmine (M=54,70; DS=5,860). In particolare, 213 bambini appartenevano a famiglie normative e 43 a nuclei familiari caratterizzati dalla presenza di maltrattamento psicologico. Oltre ai bambini, la ricerca ha previsto il coinvolgimento di 155 coppie di genitori, 43 madri ospitate in comunità, 18 insegnanti e 30 operatori. Obiettivo centrale è stato l’indagine della possibilità di poter promuovere il perspective taking in bambini di età prescolare a sviluppo tipico appartenenti a due differenti tipologie di contesto familiare (normativo e psicologicamente maltrattante), attraverso l’applicazione di uno specifico percorso di training di natura “ecologica” all’interno della scuola dell’infanzia e della comunità, assimilabile a quelli di tipo evidence based. In particolare è stata prevista una procedura quasi sperimentale di tipo pre-test, training, post-test e follow-up. Dopo una preliminare valutazione dello sviluppo del perspective taking nelle sue tre componenti, in bambini appartenenti ad entrambi i contesti, si è voluto verificare l’esistenza di eventuali relazioni tra questa abilità ed alcune capacità socio-emotive dei bambini, con particolare riferimento alla disposizione prosociale, rilevate nel contesto scolastico attraverso differenti metodologie (osservazioni dirette non partecipanti, questionari self report compilati dalle insegnanti). Inoltre, data l’importanza del contesto familiare per lo sviluppo di tale abilità, la ricerca ha avuto lo scopo di verificare l’esistenza di eventuali relazioni tra le abilità di perspective taking mostrate dai bambini e gli stili di socializzazione emotiva delle figure familiari, caratteristiche di entrambi i contesti (maltrattante e non maltrattante). È stato inoltre previsto uno studio di confronto tra i due campioni rispetto alle dimensioni indagate. I risultati ottenuti sono stati particolarmente interessanti. Innanzitutto, le esperienze di training hanno determinato, in entrambi i contesti, miglioramenti nell’abilità dei prescolari di mettersi nei panni altrui. Tale training ha inoltre dimostrato effetti positivi sulla competenza sociale dei bambini, che, a seguito del percorso, hanno manifestato un incremento dei comportamenti prosociali ed una diminuzione di quelli aggressivi. Per lo studio in contesto normativo, è stato inoltre dimostrato un mantenimento delle abilità acquisite a seguito del training attraverso un follow-up a distanza di 4 mesi dal termine dell’intervento. Il positivo esito di tale percorso sembra quindi rappresentare un’importante risorsa per i prescolari, soprattutto in caso di situazioni in cui l’abilità di perspective taking risulti deficitaria. Il confronto dei due gruppi a seguito del training ha evidenziato come non siano emerse differenze significative, rispetto al perspective taking, ad eccezione della dimensione emotiva, in cui le prestazioni dei prescolari maltrattati sono risultate inferiori, come già evidenziato prima del training. Tali risultati non giungono però inaspettati, poiché, sebbene il percorso abbia agito significativamente sull’abilità di comprensione delle emozioni altrui di questi bambini, non si configura come sufficiente a ristrutturare così profondamente le problematiche presentate. Interessanti sono stati altresì i risultati ottenuti dall’analisi degli stili di socializzazione emotiva, dei genitori (madri e padri) dei prescolari non maltrattati e delle mamme dei bambini residenti in comunità. In particolare è emerso come, stili accettanti e di tipo coaching nei confronti delle emozioni negative dei bambini, siano positivamente correlati con il perspective taking dei figli, e come all’opposto, stili rifiutanti rispetto alle espressioni emotive negative dei propri bambini, mostrino correlazioni negative con le abilità di perspective taking dei figli. Oltre ad interessi di ordine teorico e metodologico, è possibile quindi affermare come, il presente lavoro di tesi, sia stato guidato da fini applicativi, affinché la ricerca scientifica possa tradursi in pratiche educative quotidiane da applicare ai contesti di vita significativi per i bambini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta memoria hacemos contribuciones dentro del campo de los lenguajes de bases de datos. Nos hemos propuesto tres objetivos fundamentales: 1. Mejorar la expresividad de los lenguajes de bases de datos actuales. 2. Desarrollar semánticas formales para nuestras propuestas de lenguajes de bases de datos extendidos. 3. Llevar a cabo la implementación de las semánticas anteriores en sistemas de bases de datos prácticos. Hemos conseguido estos tres objetivos en distintas áreas dentro de las bases de datos. Por un lado, en el campo de las bases de datos deductivas, proponemos HH:(C). Este lenguaje extiende las capacidades de los lenguajes de bases de datos deductivos con restricciones dado que permite consultas hipotéticas y cuanti cación universal. Por otro lado, utilizamos el estudio dentro de las bases de datos deductivas y lo aplicamos a las bases de datos relacionales. En concreto proponemos HR-SQL que incorpora consultas hipotéticas y de niciones recursivas no lineales y mutuamente recursivas. La idea tras esta propuesta es superar algunas limitaciones expresivas del lenguaje estándar de de nición de bases de datos SQL. A continuación introducimos ambas aproximaciones. Las fórmulas de Harrop hereditarias con restricciones, HH(C), se han usado como base para lenguajes de programación lógica con restricciones. Al igual que la programación lógica da soporte a lenguajes de bases de datos deductivas como Datalog (con restricciones), este marco se usa como base para un sistema de bases de datos deductivas que mejora la expresividad de los sistemas aparecidos hasta el momento. En el segundo capítulo de esta memoria se muestran los resultados teóricos que fundamentan el lenguaje HH:(C) y una implementación concreta de este esquema que demuestra la viabilidad y expresividad del esquema. Las principales aportaciones con respecto a Datalog son la incorporación de la implicación intuicionista, que permite formular hipótesis, y el uso de cuanti cadores incluso en el lenguaje de restricciones. El sistema está diseñado de forma que soporta diferentes sistemas de restricciones. La implementación incluye varios dominios concretos y también funciones de agregación y restricciones de integridad que son habituales en otros lenguajes de bases de datos relacionales. El signi cado del lenguaje se de ne mediante una semántica de pruebas y el mecanismo operacional se de ne mediante una sem ánica de punto jo que es correcta y completa con respecto a la primera. Para el cómputo de las consultas hipotéticas y de las funciones de agregación se hace uso de una noción de estrati cación más compleja que la que usa Datalog. La semántica de punto jo desarrollada constituye un marco apropiado que lleva a la implementación de un sistema concreto...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta memoria se presenta el diseño y desarrollo de una aplicación en la nube destinada a la compartición de objetos y servicios. El desarrollo de esta aplicación surge dentro del proyecto de I+D+i, SITAC: Social Internet of Things – Apps by and for the Crowd ITEA 2 11020, que trata de crear una arquitectura integradora y un “ecosistema” que incluya plataformas, herramientas y metodologías para facilitar la conexión y cooperación de entidades de distinto tipo conectadas a la red bien sean sistemas, máquinas, dispositivos o personas con dispositivos móviles personales como tabletas o teléfonos móviles. El proyecto innovará mediante la utilización de un modelo inspirado en las redes sociales para facilitar y unificar las interacciones tanto entre personas como entre personas y dispositivos. En este contexto surge la necesidad de desarrollar una aplicación destinada a la compartición de recursos en la nube que pueden ser tanto lógicos como físicos, y que esté orientada al big data. Ésta será la aplicación presentada en este trabajo, el “Resource Sharing Center”, que ofrece un servicio web para el intercambio y compartición de contenido, y un motor de recomendaciones basado en las preferencias de los usuarios. Con este objetivo, se han usado tecnologías de despliegue en la nube, como Elastic Beanstalk (el PaaS de Amazon Web Services), S3 (el sistema de almacenamiento de Amazon Web Services), SimpleDB (base de datos NoSQL) y HTML5 con JavaScript y Twitter Bootstrap para el desarrollo del front-end, siendo Python y Node.js las tecnologías usadas en el back end, y habiendo contribuido a la mejora de herramientas de clustering sobre big data. Por último, y de cara a realizar el estudio sobre las pruebas de carga de la aplicación se ha usado la herramienta ApacheJMeter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El examen consta de 3 partes: Test de teoría, problemas de teoría y SQL. Hay dos versiones, una para informática y otra para multimedia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Examen de segunda convocatoria del curso 2011-12. Consta de 3 partes: test y problemas de teoría, y SQL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El nuevo paradigma de computación en la nube posibilita la prestación de servicios por terceros. Entre ellos, se encuentra el de las bases de datos como servicio (DaaS) que permite externalizar la gestión y alojamiento del sistema de gestión de base de datos. Si bien esto puede resultar muy beneficioso (reducción de costes, gestión simplificada, etc.), plantea algunas dificultades respecto a la funcionalidad, el rendimiento y, en especial, la seguridad de dichos servicios. En este trabajo se describen algunas de las propuestas de seguridad en sistemas DaaS existentes y se realiza un análisis de sus características principales, introduciendo un nuevo enfoque basado en tecnologías no exclusivamente relacionales (NoSQL) que presenta ventajas respecto a la escalabilidad y el rendimiento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parametro indispensabile di valutazione di un qualsiasi prodotto o servizio, ai giorni nostri, è la web reputation. Sono sempre più numerose le aziende che monitorano la propria "reputazione online". Quest'ultima può esser definita come l'insieme dei messaggi, commenti e feedbacks, positivi, neutri o negativi che siano, di utenti che esprimono la loro opinione tramite il web su un determinato servizio o prodotto rivolto al pubblico. L’applicazione sviluppata, si pone l’obiettivo di analizzare in tempo reale tramite l’utilizzo di Apache Storm, dati provenienti da fonti eterogenee, classificarli tramite KNIME utilizzando tecniche di classificazione quali SVM, alberi decisionali e Naive Bayesian, renderli persistenti mediante l’utilizzo del database NoSQL HBASE e di visualizzarli in tempo reale attraverso dei grafici utilizzando delle servlet, al fine di costituire un valido strumento di supporto per i processi decisionali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività di studio affrontata in questa tesi di laurea nasce da una collaborazione di 11 mesi con l’ufficio tecnico della Aghito Zambonini S.p.A. di Fiorenzuola d’Arda, azienda specializzata nella progettazione e produzione delle facciate continue in vetro. Il primo capitolo analizza lo scenario energetico globale, in termini di consumi e fabbisogni mondiali, confrontandoli con quelli dell’UE e dello stato italiano. Nel capitolo seguente viene analizzato il sistema costruttivo delle facciate continue in vetro, dal punto di vista architettonico (classificazione, requisiti e prestazioni, materiali) e dal punto di vista fisico. Una sezione è stata dedicata all’approfondimento delle facciate a doppia pelle. Dopo una descrizione dei software di simulazione energetica, il caso studio viene analizzato attraverso una simulazione di tipo stazionario con il software WIS 3.0 e con una simulazione di tipo dinamico, tramite il software sperimentale ESP-r. Oltre al caso effettivamente realizzato (CASO A), sono state simulate in ESP-r altre quattro alternative, di cui una considerante una maggior superficie di ventilazione (CASO B), una con intercapedine completamente chiusa (CASO C), una con doppio vetro in facciata al posto del triplo (CASO D) e un’ultima alternativa considera un vetro maggiormente performante nella pelle esterna (CASO E). I risultati ottenuti, in termini di temperatura, velocità dell’aria nell’intercapedine, consumi e parametri soggettivi di comfort, possono essere assunti generalmente validi per un qualsiasi sistema a doppia pelle e mostrano che due casi tra quelli simulati sono peggiorativi (CASO C, CASO D) e due migliorativi (CASO B e CASO E) rispetto a quello effettivamente realizzato. Da questo studio si deduce l’importanza di parametri quali geometria, orientazione, ventilazione e proprietà dei materiali già nel corso della fase di progettazione di un involucro edilizio.