860 resultados para Distributed database systems
Resumo:
En este proyecto se han visto dos sistemas de computación distribuida diferentes entre ellos: Condor y BOINC. Se exploran las posibilidades para poder conseguir que ambos sistemas logren trabajar conjuntamente, escogiendo la parte más efectiva de cada uno de los sistemas con el fin de complementarse.
Resumo:
Con la mayor capacidad de los nodos de procesamiento en relación a la potencia de cómputo, cada vez más aplicaciones intensivas de datos como las aplicaciones de la bioinformática, se llevarán a ejecutar en clusters no dedicados. Los clusters no dedicados se caracterizan por su capacidad de combinar la ejecución de aplicaciones de usuarios locales con aplicaciones, científicas o comerciales, ejecutadas en paralelo. Saber qué efecto las aplicaciones con acceso intensivo a dados producen respecto a la mezcla de otro tipo (batch, interativa, SRT, etc) en los entornos no-dedicados permite el desarrollo de políticas de planificación más eficientes. Algunas de las aplicaciones intensivas de E/S se basan en el paradigma MapReduce donde los entornos que las utilizan, como Hadoop, se ocupan de la localidad de los datos, balanceo de carga de forma automática y trabajan con sistemas de archivos distribuidos. El rendimiento de Hadoop se puede mejorar sin aumentar los costos de hardware, al sintonizar varios parámetros de configuración claves para las especificaciones del cluster, para el tamaño de los datos de entrada y para el procesamiento complejo. La sincronización de estos parámetros de sincronización puede ser demasiado compleja para el usuario y/o administrador pero procura garantizar prestaciones más adecuadas. Este trabajo propone la evaluación del impacto de las aplicaciones intensivas de E/S en la planificación de trabajos en clusters no-dedicados bajo los paradigmas MPI y Mapreduce.
Resumo:
Avui en dia es genera un volum increïble de dades de diferents tipus i que provenen de multitud d'orígens. Els sistemes d'emmagatzematge i processament distribuït són els elements tecnològics que fan possible capturar aquest allau de dades i permeten donar-ne un valor a través d'anàlisis diversos. Hadoop, que integra un sistema d'emmagatzematge i processament distribuïts, s'ha convertit en l'estàndard de-facto per a aplicacions que necessiten una gran capacitat d'emmagatzematge, inclús de l'ordre de desenes de PBs. En aquest treball farem un estudi de Hadoop, analitzarem l'eficiència del seu sistema de durabilitat i en proposarem una alternativa.
Resumo:
Tutkimuksen tavoitteena oli selvittää miten hajautettu energiantuotanto ja siihen liittyvä liiketoiminta tulee muuttumaan tulevaisuudessaja mitä mahdollisuuksia se voisi tarjota suomalaiselle osaamiselle. Työssä käydään läpi lyhyesti hajautetun energiantuotannon teknologian nykytilaa ja tehdään teknis-taloudellista vertailua eri tuotantoteknologioiden välillä. Tämän jälkeenon muodostettu asiantuntijoiden ja aktoreiden kanssa liiketoimin-taympäristöskenaarioita, jotka kuvaavat tulevaisuuden muutossuuntia hajautetun energian-tuotannon liiketoiminnassa. Skenaarioistunnoissa löydettiin muutosta ajavat voimat ja pohdittiin niiden vaikutusta alan kehitykseen. Työn tuloksena määriteltiin skenaarioiden kehitystä vahvimmin ohjaaviksi tekijöiksi infrastruktuurin kehittyneisyys ja toisaalta myös yhteiskunnan ohjaustoimet. Niiden pohjalta luotiin lopulliset neljä skenaariota ja niille kaikille liiketoimintakuvaukset. Skenaarioiden avulla suomalaisen toimijan näkökulmasta arvioitiin houkuttelevimmiksi markkina-alueiksi EU-15, Venäjä, Intia ja Kiina. Moninaisista liiketoimintaa estävistä te-kijöistä huolimatta markkinoilta löytyi suuri potentiaali hajautetun energiantuotannon jär-jestelmille. Potentiaalisimmiksi teknologioiksi suomalaisten yritysten kannalta nähtiin puolestaan diesel- ja kaasumoottorit, tuulivoima, pienvesivoima sekä bioenergia. Yhdessä markkina- ja teknologiatutkimuksien sekä skenaariotyön avulla luotiin uusia liiketoimin-takonseptikuvauksia tulevaisuuden hajautetun energiantuotannon markkinoille suomalai-sen toimijan näkökulmasta.
Resumo:
Tietokantoja käyttävien tietojärjestelmien kriittisyys tietoyhteiskunnan eri osille ja toiminnalle on merkittävä. Tietojenkäsittelyn jatkuvuus ja tietojärjestelmien korkea käytettävyys on pyrittävä turvaamaan mahdollisimman kattavasti joka hetkellä ja vikatilanteista on kyettävä toipumaan työskentelyn ja liiketoiminnan jatkamiseksi. Työn tarkoituksena oli selvittää erilaisia menetelmiä näiden tietokantojen jatkuvaan tiedonvarmistukseen sekä paikallisilla palvelinjärjestelmillä että tietoverkon välityksellä ylläpidettävillä varajärjestelmillä. Paikallisella hyvin suunnitellulla tiedonvarmistuksella vikaantunut tietokanta ja sen tietosisältö kyetään palauttamaan mihinkä tahansa ajanhetkeen ennen vikaantumista. Varajärjestelmät puolestaan voidaan ottaa välittömästi käyttöön kokonaisen konesalin käytön estyessä tai vikaantuessa. Lisäksi useammat konesalit ratkaisusta riippuen voivat palvella käyttäjiään samanaikaisesti tasaten tietojärjestelmän kuormaa, tarjoten lisämahdollisuuksia tietojenkäsittelyyn ja niiden avulla sama tieto voidaan tuoda lähemmäksi palvelemaan käyttäjiään. Työn mielenkiinto kohdistuu lähinnä Oracle-tietokantoja käyttävien tieto-järjestelmien tarjoamiin varmistusvaihtoehtoihin. Kyseiset tietokantajärjestelmät ovat laajassa käytössä niin yritysmaailmassa kuin julkisellakin sektorilla.
Resumo:
A parallel pseudo-spectral method for the simulation in distributed memory computers of the shallow-water equations in primitive form was developed and used on the study of turbulent shallow-waters LES models for orographic subgrid-scale perturbations. The main characteristics of the code are: momentum equations integrated in time using an accurate pseudo-spectral technique; Eulerian treatment of advective terms; and parallelization of the code based on a domain decomposition technique. The parallel pseudo-spectral code is efficient on various architectures. It gives high performance onvector computers and good speedup on distributed memory systems. The code is being used for the study of the interaction mechanisms in shallow-water ows with regular as well as random orography with a prescribed spectrum of elevations. Simulations show the evolution of small scale vortical motions from the interaction of the large scale flow and the small-scale orographic perturbations. These interactions transfer energy from the large-scale motions to the small (usually unresolved) scales. The possibility of including the parametrization of this effects in turbulent LES subgrid-stress models for the shallow-water equations is addressed.
Resumo:
The objective of this project was to introduce a new software product to pulp industry, a new market for case company. An optimization based scheduling tool has been developed to allow pulp operations to better control their production processes and improve both production efficiency and stability. Both the work here and earlier research indicates that there is a potential for savings around 1-5%. All the supporting data is available today coming from distributed control systems, data historians and other existing sources. The pulp mill model together with the scheduler, allows what-if analyses of the impacts and timely feasibility of various external actions such as planned maintenance of any particular mill operation. The visibility gained from the model proves also to be a real benefit. The aim is to satisfy demand and gain extra profit, while achieving the required customer service level. Research effort has been put both in understanding the minimum features needed to satisfy the scheduling requirements in the industry and the overall existence of the market. A qualitative study was constructed to both identify competitive situation and the requirements vs. gaps on the market. It becomes clear that there is no such system on the marketplace today and also that there is room to improve target market overall process efficiency through such planning tool. This thesis also provides better overall understanding of the different processes in this particular industry for the case company.
On Implementing Joins, Aggregates and Universal Quantifier in Temporal Databases using SQL Standards
Resumo:
A feasible way of implementing a temporal database is by mapping temporal data model onto a conventional data model followed by a commercial database management system. Even though extensions were proposed to standard SQL for supporting temporal databases, such proposals have not yet come across standardization processes. This paper attempts to implement database operators such as aggregates and universal quantifier for temporal databases, implemented on top of relational database systems, using currently available SQL standards.
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
Fujaba is an Open Source UML CASE tool project started at the software engineering group of Paderborn University in 1997. In 2002 Fujaba has been redesigned and became the Fujaba Tool Suite with a plug-in architecture allowing developers to add functionality easily while retaining full control over their contributions. Multiple Application Domains Fujaba followed the model-driven development philosophy right from its beginning in 1997. At the early days, Fujaba had a special focus on code generation from UML diagrams resulting in a visual programming language with a special emphasis on object structure manipulating rules. Today, at least six rather independent tool versions are under development in Paderborn, Kassel, and Darmstadt for supporting (1) reengineering, (2) embedded real-time systems, (3) education, (4) specification of distributed control systems, (5) integration with the ECLIPSE platform, and (6) MOF-based integration of system (re-) engineering tools. International Community According to our knowledge, quite a number of research groups have also chosen Fujaba as a platform for UML and MDA related research activities. In addition, quite a number of Fujaba users send requests for more functionality and extensions. Therefore, the 8th International Fujaba Days aimed at bringing together Fujaba develop- ers and Fujaba users from all over the world to present their ideas and projects and to discuss them with each other and with the Fujaba core development team.
Resumo:
Building software for Web 2.0 and the Social Media world is non-trivial. It requires understanding how to create infrastructure that will survive at Web scale, meaning that it may have to deal with tens of millions of individual items of data, and cope with hits from hundreds of thousands of users every minute. It also requires you to build tools that will be part of a much larger ecosystem of software and application families. In this lecture we will look at how traditional relational database systems have tried to cope with the scale of Web 2.0, and explore the NoSQL movement that seeks to simplify data-storage and create ultra-swift data systems at the expense of immediate consistency. We will also look at the range of APIs, libraries and interoperability standards that are trying to make sense of the Social Media world, and ask what trends we might be seeing emerge.
Resumo:
Some examples from the book. Connolly, T. M. and C. E. Begg (2005). Database systems : a practical approach to design, implementation, and management. Harlow, Essex, England ; New York, Addison-Wesley.
Resumo:
Background: Sexual risk behaviors associated with poor information on sexuality have contributed to major public health problems in the area of sexual and reproductive health in teenagers and young adults in Colombia. Objective: To measure the perception of changes in sexual and reproductive risk behavior after the use of a teleconsultation service via mobile devices in a sample of young adults. Methods: A before and after observational study was designed, where a mobile application to inquire about sexual and reproductive health was developed. The perception of changes in sexual and reproductive health risk behaviors in a sample of young adults after the use of the application was measured using the validated survey “Family Health International (FHI) – Behavioral Surveillance Survey (BSS) – Survey for Adults between 15 to 40 Years”. Non-probabilistic convenience recruitment was undertaken through the study´s web page. Participants answered the survey online before and after the use of the mobile application for a six month period (intervention). For the inferential analysis, data was divided into three groups (dichotomous data, discrete quantitative data, and ordinal data), to compare the results of the questions between the first and the second survey. For all tests, a confidence interval of 95% was established. For dichotomous data, the Chi-squared test was used. For quantitative data, we used the Student’s t-test, and for ordinal data, the Mann-Whitney-Wilcoxon test. Results: A total of 257 subjects were registered in the study and met the selection criteria. The pre-intervention survey was answered by 232 subjects, and 127 completely answered the post-intervention survey, of which 54.3% did not use the application, leaving an effective population of 58 subjects for analysis. 53% (n=31) were female, and 47% (n=27) were male. The mean age was 21 years, ranging between 18 and 40 years. The differences between the answers on the first and the second survey were not statistically significant. The main risk behaviors identified in the population were homosexual relations, non-use of condoms, sexual relations with non-regular and commercial partners, the use of psychoactive substances, and ignorance about the symptoms of sexually transmitted diseases and HIV transmission. Conclusions: Although there were no differences between the pre- and post-intervention results, the study revealed different risk behaviors among the participating subjects. These findings highlight the importance of promoting educational strategies on this matter and the importance of providing patients with easily accessible tools with reliable health information.
Resumo:
One among the most influential and popular data mining methods is the k-Means algorithm for cluster analysis. Techniques for improving the efficiency of k-Means have been largely explored in two main directions. The amount of computation can be significantly reduced by adopting geometrical constraints and an efficient data structure, notably a multidimensional binary search tree (KD-Tree). These techniques allow to reduce the number of distance computations the algorithm performs at each iteration. A second direction is parallel processing, where data and computation loads are distributed over many processing nodes. However, little work has been done to provide a parallel formulation of the efficient sequential techniques based on KD-Trees. Such approaches are expected to have an irregular distribution of computation load and can suffer from load imbalance. This issue has so far limited the adoption of these efficient k-Means variants in parallel computing environments. In this work, we provide a parallel formulation of the KD-Tree based k-Means algorithm for distributed memory systems and address its load balancing issue. Three solutions have been developed and tested. Two approaches are based on a static partitioning of the data set and a third solution incorporates a dynamic load balancing policy.
Resumo:
This article reviews current technological developments, particularly Peer-to-Peer technologies and Distributed Data Systems, and their value to community memory projects, particularly those concerned with the preservation of the cultural, literary and administrative data of cultures which have suffered genocide or are at risk of genocide. It draws attention to the comparatively good representation online of genocide denial groups and changes in the technological strategies of holocaust denial and other far-right groups. It draws on the author's work in providing IT support for a UK-based Non-Governmental Organization providing support for survivors of genocide in Rwanda.