992 resultados para NoSQL, SQL, OrientDB, MongoDB, BaseX, prestazioni, interrogazioni
Resumo:
Työ käsittelee multimediatietopankin tietosisällön hallintaa ja kehittämistä. Multimediatietopankki verkossa –projektissa multimediatietopankilla tarkoitetaan vuorovaikutteista ja sisältörikasta liikkuvan ja staattisen kuvan (video, animaatio, valokuvat, 3D, grafiikka), äänten (musiikki ja muut äänet) ja tietokantojen yhdistelmää. Sisällön eri osa-alueet ja vuorovaikutteisuus tukevat kokonaisuutta, jolla on oma viestinnällinen tarkoituksensa. Tätä kokonaistoteutusta levitetään www:n, digitaalitelevision ja mobiililaitteiden välityksellä loppukäyttäjälle. Multimedia- ja matkaviestinteknologioiden nopea kehitys antaa mahdollisuuden kehittää uusia palveluja. Erilaisiin päätelaitteisiin ja vaihteleviin ympäristöihin tarkoitettujen helppokäyttöisten multimedia- ja mobiilipalvelujen kysyntä on jatkuvassa kasvussa. Multimediatietopankkiprojektissa esitetään kuinka multimediapalveluita voidaan toteuttaa integroidussa ympäristössä. Integroidulla ympäristöllä tässä työssä tarkoitetaan Internetin, mobiilien palvelujen, WAP:in, kämmentietokoneen, digitaalisen television sekä uusien multimediakännyköiden käyttöä multimediatietopankin tarjoamien palvelujen välittämisessä. Projekti on jaettu yksittäisiin lukuihin, joissa tarkoituksena on syventää multimediatietopankin yksityiskohtia sisällön tuottamisessa teknologian näkökannalta. Multimediatietokannan toteutuksessa mallinnetaan palvelun sisältö tietokantaan XHTML-muodossa mediaolioiden sisään sekä tallennetaan tietopankin metatietoa multimediarelaatiotietokantaan, josta on mahdollista hakea tietoa minkä tahansa päätelaitteen kyselyjen avulla.Tässä työssä keskitytään multimediatietokannan hallintajärjestelmän tehtäviin ja rakenteeseen, siihen miten multimediadata tallennetaan tietokantaan sekä siihen miten tietokannassa olevaa metatietoa haetaan käyttäen tietokannassa kehitettyjä hakumenetelmiä.
Resumo:
Nokia Push To Talk järjestelmä tarjoaa uuden kommunikointimetodin tavallisen puhelun oheen. Yksi tärkeimmistä uuden järjestelmän ominaisuuksista on puhelunmuodostuksen nopeus. Lisäksi järjestelmän tulee olla telekommunikaatiojärjestelmien yleisten periaatteiden mukainen, mahdollisimman stabiili ja skaalautuva, jotta järjestelmä olisi mahdollisimman vikasietoinen ja laajennettavissa. Diplomityön päätavoite on esitellä "C++"-tietokantakirjastojen suunnittelua ja testausta. Aluksi tutkitaan tietokantajärjestelmien problematiikkaa alkaen tietokantajärjestelmän valinnasta ja huomioiden erityisesti nopeuskriteerit. Sitten esitellään kaksi teknistä toteutusta kahta "C++"-tietokantakirjastoa varten ja pohditaan joitakin vaihtoehtoisia toteutustapoja.
Resumo:
L'objectiu perseguit en aquest TFC és la construcció d'una base de dades en un data warehouse (DW) i la utilització profitosa de les eines disponibles actualment per poder dur-la a terme. La implementació d'aquesta base de dades s'orienta cap a un magatzem de dades físic ROLAP.
Resumo:
Este proyecto consiste en diseñar e implementar un sistema de información alojado en una base de datos Oracle, con el fin de dar respuesta al proyecto Big Data, cuyo objetivo es cruzar los datos de salud y los datos de actividad física de los ciudadanos europeos.
Resumo:
Este proyecto tiene como finalidad el análisis, diseño y desarrollo de una aplicación web en base a una revista científica. La mecánica de la revista consiste en la propia revisión y edición de los artículos por parte de los usuarios dados de alta en el aplicativo. Los usuarios que componen la web, puede tener diferentes perfiles: autor, editor, revisor, técnico editor y administrador. Cada usuario tiene unas tareas específicas en el flujo de revisión y edición. El proyecto se ha desarrollado sobre la plataforma ASP.NET y SQL para el diseño de la base de datos.
Resumo:
El presente documento describe en detalle el proyecto de desarrollo de una aplicación web de gestión, llamada 'FacturaBien'. Esta aplicación permite realizar todas las tareas asociadas a la gestión administrativa de la actividad empresarial de una manera eficiente y cómoda, automatizando un gran número de tareas.
Resumo:
Tässä työssä on pyritty kartoittamaan mahdollisuudet omatoimiseen Voyager-kirjastojärjestelmän aineistotietokantojen ja asiakasrekisterien yhdistelyyn. Lähtökohtana on ollut oletus, että kohdejärjestelmän tietokantaan ei ole oikeuksia eikä sopimusteknistä mahdollisuuttakaan kirjoittaa tietoja suoraan kyselykielellä. Järjestelmän dokumentaatiota sekä verkostoa hyödyntämällä olen pyrkinyt kartoittamaan mahdollisuudet kaiken toiminnallisuuden vaatiman datan siirtoon. Hyödyntämällä järjestelmän rajapintoja, voidaan saavuttaa kustannussäästöjä sekä joustavuutta työn suorittamisen aikataulutukseen. Bibliografisen datan siirtoon Voyager-kirjastojärjestelmässä on mahdollisuus hyödyntää palvelimella eräajona suoritettavaa ohjelmaa. Tässä eräajossa voidaan siirtää sekä bibliografiset tietueet että varastotietueet. Nidetietojen kirjoittamiseksi kohteena olevaan tietokantaan käytetään Visual Studio -sovellusta, joka hyödyntää luettelointirajapintaa. Asiakastietojen siirtoon on mahdollista hyödyntää palvelimella suoritettavaa eräajoa, jonka syötteeksi kirjoitetaan määrämittainen syötetiedosto. Asiakastietueisiin sidotut lainatiedot voidaan siirtää kohdetietokantaan asiakasohjelman offline-lainaustoiminnolla.
Resumo:
This bachelor’s thesis, written for Lappeenranta University of Technology and implemented in a medium-sized enterprise (SME), examines a distributed document migration system. The system was created to migrate a large number of electronic documents, along with their metadata, from one document management system to another, so as to enable a rapid switchover of an enterprise resource planning systems inside the company. The paper examines, through theoretical analysis, messaging as a possible enabler of distributing applications and how it naturally fits an event based model, whereby system transitions and states are expressed through recorded behaviours. This is put into practice by analysing the implemented migration systems and how the core components, MassTransit, RabbitMQ and MongoDB, were orchestrated together to realize such a system. As a result, the paper presents an architecture for a scalable and distributed system that could migrate hundreds of thousands of documents over weekend, serving its goals in enabling a rapid system switchover.
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Classical relational databases lack proper ways to manage certain real-world situations including imprecise or uncertain data. Fuzzy databases overcome this limitation by allowing each entry in the table to be a fuzzy set where each element of the corresponding domain is assigned a membership degree from the real interval [0…1]. But this fuzzy mechanism becomes inappropriate in modelling scenarios where data might be incomparable. Therefore, we become interested in further generalization of fuzzy database into L-fuzzy database. In such a database, the characteristic function for a fuzzy set maps to an arbitrary complete Brouwerian lattice L. From the query language perspectives, the language of fuzzy database, FSQL extends the regular Structured Query Language (SQL) by adding fuzzy specific constructions. In addition to that, L-fuzzy query language LFSQL introduces appropriate linguistic operations to define and manipulate inexact data in an L-fuzzy database. This research mainly focuses on defining the semantics of LFSQL. However, it requires an abstract algebraic theory which can be used to prove all the properties of, and operations on, L-fuzzy relations. In our study, we show that the theory of arrow categories forms a suitable framework for that. Therefore, we define the semantics of LFSQL in the abstract notion of an arrow category. In addition, we implement the operations of L-fuzzy relations in Haskell and develop a parser that translates algebraic expressions into our implementation.
Resumo:
Lattice valued fuzziness is more general than crispness or fuzziness based on the unit interval. In this work, we present a query language for a lattice based fuzzy database. We define a Lattice Fuzzy Structured Query Language (LFSQL) taking its membership values from an arbitrary lattice L. LFSQL can handle, manage and represent crisp values, linear ordered membership degrees and also allows membership degrees from lattices with non-comparable values. This gives richer membership degrees, and hence makes LFSQL more flexible than FSQL or SQL. In order to handle vagueness or imprecise information, every entry into an L-fuzzy database is an L-fuzzy set instead of crisp values. All of this makes LFSQL an ideal query language to handle imprecise data where some factors are non-comparable. After defining the syntax of the language formally, we provide its semantics using L-fuzzy sets and relations. The semantics can be used in future work to investigate concepts such as functional dependencies. Last but not least, we present a parser for LFSQL implemented in Haskell.
Resumo:
La formation est une stratégie clé pour le développement des compétences. Les entreprises continuent à investir dans la formation et le développement, mais elles possèdent rarement des données pour évaluer les résultats de cet investissement. La plupart des entreprises utilisent le modèle Kirkpatrick/Phillips pour évaluer la formation en entreprise. Cependant, il ressort de la littérature que les entreprises ont des difficultés à utiliser ce modèle. Les principales barrières sont la difficulté d’isoler l’apprentissage comme un facteur qui a une incidence sur les résultats, l’absence d’un système d’évaluation utile avec le système de gestion de l’apprentissage (Learning Management System - LMS) et le manque de données standardisées pour pouvoir comparer différentes fonctions d’apprentissage. Dans cette thèse, nous proposons un modèle (Analyse, Modélisation, Monitoring et Optimisation - AM2O) de gestion de projets de formation en entreprise, basée sur la gestion des processus d’affaires (Business Process Management - BPM). Un tel scénario suppose que les activités de formation en entreprise doivent être considérées comme des processus d’affaires. Notre modèle est inspiré de cette méthode (BPM), à travers la définition et le suivi des indicateurs de performance pour gérer les projets de formation dans les organisations. Elle est basée sur l’analyse et la modélisation des besoins de formation pour assurer l’alignement entre les activités de formation et les objectifs d’affaires de l’entreprise. Elle permet le suivi des projets de formation ainsi que le calcul des avantages tangibles et intangibles de la formation (sans coût supplémentaire). En outre, elle permet la production d’une classification des projets de formation en fonction de critères relatifs à l’entreprise. Ainsi, avec assez de données, notre approche peut être utilisée pour optimiser le rendement de la formation par une série de simulations utilisant des algorithmes d’apprentissage machine : régression logistique, réseau de neurones, co-apprentissage. Enfin, nous avons conçu un système informatique, Enterprise TRaining programs Evaluation and Optimization System - ETREOSys, pour la gestion des programmes de formation en entreprise et l’aide à la décision. ETREOSys est une plateforme Web utilisant des services en nuage (cloud services) et les bases de données NoSQL. A travers AM2O et ETREOSys nous résolvons les principaux problèmes liés à la gestion et l’évaluation de la formation en entreprise à savoir : la difficulté d’isoler les effets de la formation dans les résultats de l’entreprise et le manque de systèmes informatiques.
Resumo:
Introduction : Bien que la pratique de l’usage de la warfarine se soit améliorée au cours de la dernière décennie, aucune recommandation claire basée sur le dosage de l’amiodarone n’a été jusqu’à maintenant standardisée, ce qui représente un grand obstacle pour les cliniciens. La warfarine a un index thérapeutique étroit nécessitant un suivi régulier et un ajustement individuel de la posologie, ceci afin de déterminer la dose thérapeutique, tout en prévenant les effets secondaires qui pourraient être fatals dans certains cas. La variabilité interindividuelle de la réponse à la warfarine dépend de plusieurs facteurs, dont l’âge, le sexe, le poids, l’alimentation et l’interaction médicamenteuse, mais ceux-ci n’expliquent que partiellement les différences de sensibilité à la warfarine. Les polymorphismes des gènes CYP2C9 et VKORC1 jouent un rôle important dans la réponse à la warfarine et expliquent jusqu’à 50% de la variabilité des doses. L’utilisation d’antiarythmiques telle l’amiodarone peut accentuer considérablement l’effet de la warfarine et nécessite généralement une diminution de 30 à 50% de la dose de la warfarine. Aucune étude à ce jour n’a tenté de déterminer l’utilité du génotypage des polymorphismes des gènes CYP2C9 et VKORC1 chez les patients sous traitement combiné de warfarine et amiodarone. Objectif : Notre étude a pour objectif tout d’abord de déterminer si des facteurs génétiques influencent la première dose de stabilisation de la warfarine chez les patients en FA après l’introduction de l’amiodarone. Nous allons également tenter de confirmer l’association préalablement rapportée entre les facteurs génétiques et la première dose de stabilisation de warfarine dans notre population à l’étude. Méthodes : Un devis de cohorte rétrospective de patients qui fréquentaient la clinique d'anticoagulothérapie de l’Institut de cardiologie de Montréal entre le 1er janvier 2007 et le 29 février 2008 pour l’ajustement de leur dose selon les mesures d'INR. Au total, 1615 patients ont été recrutés pour participer à cette étude de recherche. Les critères de sélection des patients étaient les patients avec fibrillation auriculaire ou flutter, ayant un ECG documenté avec l'un de ces deux diagnostics et âgé de moins de 67 ans, en raison d’une moindre comorbidité. Les patients souffrant d’insuffisance hépatique chronique ont été écartés de l’étude. Tous les patients devaient signer un consentement éclairé pour leur participation au projet et échantillon de sang a été pri pour les tests génétiques. La collecte des données a été effectuée à partir du dossier médical du patient de l’Institut de cardiologie de Montréal. Un formulaire de collecte de données a été conçu à cet effet et les données ont ensuite été saisies dans une base de données SQL programmée par un informaticien expert dans ce domaine. La validation des données a été effectuée en plusieurs étapes pour minimiser les erreurs. Les analyses statistiques utilisant des tests de régression ont été effectuées pour déterminer l’association des variants génétiques avec la première dose de warfarine. Résultats : Nous avons identifié une association entre les polymorphismes des gènes CYP2C9 et VKORC1 et la dose de la warfarine. Les polymorphismes génétiques expliquent jusqu’à 42% de la variabilité de dose de la warfarine. Nous avons également démontré que certains polymorphismes génétiques expliquent la réduction de la dose de warfarine lorsque l’amiodarone est ajoutée à la warfarine. Conclusion : Les travaux effectués dans le cadre de ce mémoire ont permis de démontrer l’implication des gènes CYP2C9 et VKORC1 dans la réponse au traitement avec la warfarine et l’amiodarone. Les résultats obtenus permettent d’établir un profil personnalisé pour réduire les risques de toxicité, en permettant un dosage plus précis de la warfarine pour assurer un meilleur suivi des patients. Dans le futur, d’autres polymorphismes génétiques dans ces gènes pourraient être évalués pour optimiser davantage la personnalisation du traitement.
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.
Resumo:
With this document, we provide a compilation of in-depth discussions on some of the most current security issues in distributed systems. The six contributions have been collected and presented at the 1st Kassel Student Workshop on Security in Distributed Systems (KaSWoSDS’08). We are pleased to present a collection of papers not only shedding light on the theoretical aspects of their topics, but also being accompanied with elaborate practical examples. In Chapter 1, Stephan Opfer discusses Viruses, one of the oldest threats to system security. For years there has been an arms race between virus producers and anti-virus software providers, with no end in sight. Stefan Triller demonstrates how malicious code can be injected in a target process using a buffer overflow in Chapter 2. Websites usually store their data and user information in data bases. Like buffer overflows, the possibilities of performing SQL injection attacks targeting such data bases are left open by unwary programmers. Stephan Scheuermann gives us a deeper insight into the mechanisms behind such attacks in Chapter 3. Cross-site scripting (XSS) is a method to insert malicious code into websites viewed by other users. Michael Blumenstein explains this issue in Chapter 4. Code can be injected in other websites via XSS attacks in order to spy out data of internet users, spoofing subsumes all methods that directly involve taking on a false identity. In Chapter 5, Till Amma shows us different ways how this can be done and how it is prevented. Last but not least, cryptographic methods are used to encode confidential data in a way that even if it got in the wrong hands, the culprits cannot decode it. Over the centuries, many different ciphers have been developed, applied, and finally broken. Ilhan Glogic sketches this history in Chapter 6.