820 resultados para sistema distribuito data-grid cloud computing CERN LHC Hazelcast Elasticsearch


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Supermatrix on Finnet-liitto ry:n jäsenyritysten hanke, joka tuo nopeiden valokuituyhteyksien avulla erilaisia sähköisiä palveluita kuluttajien koteihin ja yritysten toimipisteisiin. Näitä palveluita ovat mm. virtualisoidut henkilö-kohtaiset tietokoneet, tiedon tallennuspalvelut ja multimediasisältö, kuten teräväpiirtotelevisio. Tässä diplomityössä arvioidaan Supermatrixin palveluiden toteutumis-mahdollisuuksia sekä teknologian, että markkinoiden kannalta. Työn tarkoituksena oli myös laskea virtualisoitujen tietokoneiden avulla tuotetun työpöytäpalvelun tuotantokustannus. Kustannuslaskentaa varten testattiin useiden valmistajien teknologioita, ja parhaimmista vaihtoehdoista laskettiin tuotantokustannukset. Tulevia Supermatrix-operaattoreita varten kehitettiin työkalu, jolla työpöytäpalvelun vaatimien investointien kannattavuus saadaan nopeasti selville. Tuotantohintojen laskelmat osoittavat, että työpöytäpalvelua on taloudelli-sesti mahdollista tuottaa luomaan lisäarvoa nopeille laajakaistayhteyksille. Yrityksissä työpöytien virtualisointi on jo tämän päivän teknologiaa, mutta kuluttaja-asiakkaiden innostuminen palvelusta vaatii uuden markkinan luomisen. Uhkana on, että kuluttajien ostokäyttäytymisen muuttaminen ei onnistu, koska Supermatrix ei tuota fyysisen tuotteen ostamisen tarjoamaa mielihyvää.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tämä Diplomityö keskittyy tutkimaan pilvisovelluskehitystä Google App Engine – pilvisovellusalustalle perustuen kuusi –vaiheiseen vesiputousmalliin sekä tutkimaan Google App Engine -pilvisovellusalustan tarjoamia mahdollisuuksia ja rajoituksia sovelluskehityksen muodossa. Tutkimuksen perusteella kuusi –vaiheinen vesiputousmalli soveltuu pilvisovelluskehitykseen,mikäli vaatimusmäärittely on tarkka jo sovelluskehityksen alkuvaiheessa. Tutkimuksen tuloksena syntyi vaatimusmäärittely MikkoMail –pilvisovellukselle. Vaatimusmäärittelyn pohjalta luotiin MikkoMail –pilvisovellus Google App Engine –pilvisovellusalustalle. Google App Engine –pilvisovellusalusta tukee vain Python- ja Java –ohjelmointikieliä eikä sisällä lainkaan ulkoista tietokantapalveluiden tukea. Tästä syystä Google App Engine -pilvisovellusalusta soveltuu pieniin, keskisuuriin ja pilottiprojektinomaisiin sovelluskehitysprojekteihin.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The goal of this study is to develop managerial recommendations for international vendors and system integrators, which offer Software as a Service for enterprise information systems on the Russian market. Those recommendations can be used to develop marketing, sales, new product and service level agreement strategies. For those reasons factors affecting SaaS adoption were determined and their influence on intention to adoption was examined.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tässä kandidaatintyössä tarkastellaan tietojärjestelmän käyttöönottoa ja ylläpitoa yleisesti sekä käyttöönottoa pilvipalveluna. Tietojärjestelmien käyttöönotto ja ylläpito ovat perinteisten elinkaarimallien viimeisiä vaiheita. Erityisesti järjestelmän käyttöönotto on hyvin kriittinen vaihe koko tietojärjestelmäprojektin onnistumisen kannalta. Käyttöönottoprosessi on monivaiheinen ja sisältää monia haasteita. Käyttöönottoon osallistuvien tahojen tulee sopia roolit etukäteen, jotta prosessi voi onnistua. Tietojärjestelmien ylläpidolla ajatellaan perinteisesti esille tulleiden virheiden korjaamista. Siihen kuuluu kuitenkin muitakin toimia, kuten järjestelmän kehittämistä, sopeuttamista ja ennalta ehkäiseviä toimenpiteitä. Ylläpito vie usein suuren osan koko järjestelmän budjetista, joten se tulee hoitaa järkevästi ja suunnitellusti. Työssä tutkitaan tietojärjestelmän käyttöönottoa pilvipalveluna käymällä lävitse pilvipalvelun käyttöönoton elinkaari sekä myös ERP -järjestelmän käyttöönottoprosessin eri vaiheet pilvipalveluna. Käyttöönoton elinkaaren ja käyttöönottoprosessin pohjalta havaitaan, että tietojärjestelmän käyttöönotto helpottuu ja nopeutuu pilvipalveluna, mutta käyttöönottoprosessi vaatii kuitenkin huolellista suunnittelua. Työssä perehdytään käyttöönoton yhteydessä tehtävään palvelutasosopimukseen ja siinä käsiteltäviin asioihin. Lisäksi sivutaan pilvipalveluiden käyttöönotossa huomioitavina asioina myös tietoturvallisuutta, tietosuojan lainsäädäntöä sekä vanhojen sovellusten toimivuutta pilviympäristössä.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tässä kandidaatintyössä tutkitaan pilvipalveluita sekä niiden käyttöä yrityksissä. Työn tavoitteena on antaa lukijalle käsitys siitä, mitä käsite pilvipalvelut pitää sisällään. Lisäksi työssä pyritään kuvaamaan siitä, milloin yrityksen olisi kannattavaa siirtyä nykyisestä toimintamallistaan käyttämään pilvipalveluita. Pilvipalveluista tarkastellaan niiden rakennetta, kehityshistoriaa, ominaisuuksia sekä keskeisimpiä palveluita ja palveluntarjoajia. Pilvipalveluiden käyttämisestä yrityksissä pohditaan yritysten soveltuvuutta pilvipalveluiden käyttäjiksi sekä käytöstä johtuvia muutoksia kustannuksiin ja toimintaan. Pilvipalveluiden suosio tulee todennäköisesti kasvamaan ja uudenlaisten palvelujen määrä lisääntyy. Yritykset tulevat käyttämään enemmän pilvipalveluita niiden tuomien hyötyjen vuoksi. Kuitenkin monia ongelmia, esimerkiksi tietoturvan saralla, tulee ratkaista ennen kuin pilvipalvelut saavuttavat suuremman suosion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Työssä tutkitaan ERP-järjestelmää pilvipalveluna. Tutkimusmenetelmänä on käytetty kirjallisuuskatsausta. Työn tavoitteena on antaa lukijalle kuva siitä, mitä käsitteellä ERP-pilvipalveluna tarkoitetaan, miten se eroaa perinteisestä ERP–järjestelmästä sekä analysoida hyötyjä ja haittoja molemmissa ratkaisuissa. ERP-pilvipalvelulla tarkoitetaan ostettua palvelua, jota hallinnoi ja ylläpitää ulkopuolinen yritys. Järjestelmän käytöstä maksetaan kiinteä kuukausittainen maksu ja käyttäjämääriin perustuva maksu. Yrityksen käyttäessä ERP-pilvipalvelua sen ei tarvitse investoida laitteisiin. ERP-pilvipalvelu voi olla toteutettuna yritykselle varatussa yksityisessä pilvessä tai julkisessa pilvessä. Pilvipalveluna toteutettu ERP tekee kustannusten arvioinnin helpommaksi lyhyellä aikavälillä sen maksurakenteen takia. Pieni alkuinvestointi kannustaa ERP-pilvipalvelun käyttöön varsinkin pienissä yrityksissä. Isot yritykset kuitenkin suosivat perinteisiä ERP–ratkaisuja niiden paremman muokattavuuden takia. Suurin osa ERP–järjestelmistä on perinteisiä ratkaisuja. Yritykset pitävät pilvipalveluna toteutetun ERP:n suurimpana haasteena tietoturvariskejä. ERP-pilvipalvelu tekee yrityksen enemmän riippuvaiseksi palveluntarjoajasta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

One of the main challenges in Software Engineering is to cope with the transition from an industry based on software as a product to software as a service. The field of Software Engineering should provide the necessary methods and tools to develop and deploy new cost-efficient and scalable digital services. In this thesis, we focus on deployment platforms to ensure cost-efficient scalability of multi-tier web applications and on-demand video transcoding service for different types of load conditions. Infrastructure as a Service (IaaS) clouds provide Virtual Machines (VMs) under the pay-per-use business model. Dynamically provisioning VMs on demand allows service providers to cope with fluctuations on the number of service users. However, VM provisioning must be done carefully, because over-provisioning results in an increased operational cost, while underprovisioning leads to a subpar service. Therefore, our main focus in this thesis is on cost-efficient VM provisioning for multi-tier web applications and on-demand video transcoding. Moreover, to prevent provisioned VMs from becoming overloaded, we augment VM provisioning with an admission control mechanism. Similarly, to ensure efficient use of provisioned VMs, web applications on the under-utilized VMs are consolidated periodically. Thus, the main problem that we address is cost-efficient VM provisioning augmented with server consolidation and admission control on the provisioned VMs. We seek solutions for two types of applications: multi-tier web applications that follow the request-response paradigm and on-demand video transcoding that is based on video streams with soft realtime constraints. Our first contribution is a cost-efficient VM provisioning approach for multi-tier web applications. The proposed approach comprises two subapproaches: a reactive VM provisioning approach called ARVUE and a hybrid reactive-proactive VM provisioning approach called Cost-efficient Resource Allocation for Multiple web applications with Proactive scaling. Our second contribution is a prediction-based VM provisioning approach for on-demand video transcoding in the cloud. Moreover, to prevent virtualized servers from becoming overloaded, the proposed VM provisioning approaches are augmented with admission control approaches. Therefore, our third contribution is a session-based admission control approach for multi-tier web applications called adaptive Admission Control for Virtualized Application Servers. Similarly, the fourth contribution in this thesis is a stream-based admission control and scheduling approach for on-demand video transcoding called Stream-Based Admission Control and Scheduling. Our fifth contribution is a computation and storage trade-o strategy for cost-efficient video transcoding in cloud computing. Finally, the sixth and the last contribution is a web application consolidation approach, which uses Ant Colony System to minimize the under-utilization of the virtualized application servers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Context: Web services have been gaining popularity due to the success of service oriented architecture and cloud computing. Web services offer tremendous opportunity for service developers to publish their services and applications over the boundaries of the organization or company. However, to fully exploit these opportunities it is necessary to find efficient discovery mechanism thus, Web services discovering mechanism has attracted a considerable attention in Semantic Web research, however, there have been no literature surveys that systematically map the present research result thus overall impact of these research efforts and level of maturity of their results are still unclear. This thesis aims at providing an overview of the current state of research into Web services discovering mechanism using systematic mapping. The work is based on the papers published 2004 to 2013, and attempts to elaborate various aspects of the analyzed literature including classifying them in terms of the architecture, frameworks and methods used for web services discovery mechanism. Objective: The objective if this work is to summarize the current knowledge that is available as regards to Web service discovery mechanisms as well as to systematically identify and analyze the current published research works in order to identify different approaches presented. Method: A systematic mapping study has been employed to assess the various Web Services discovery approaches presented in the literature. Systematic mapping studies are useful for categorizing and summarizing the level of maturity research area. Results: The result indicates that there are numerous approaches that are consistently being researched and published in this field. In terms of where these researches are published, conferences are major contributing publishing arena as 48% of the selected papers were conference published papers illustrating the level of maturity of the research topic. Additionally selected 52 papers are categorized into two broad segments namely functional and non-functional based approaches taking into consideration architectural aspects and information retrieval approaches, semantic matching, syntactic matching, behavior based matching as well as QOS and other constraints.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The purpose of this study was to find out how a software company can successfully expand business to the Danish software market through distribution channel. The study was commissioned by a Finnish software company and it was conducted using a qualitative research method by analyzing external and internal business environment, and interviewing Danish ICT organizations and M-Files personnel. Interviews were semi-structured interviews, which were designed to collect comprehensive information on the existing ICT and software market in Denmark. The research used three external and internal analyzing frameworks; PEST analysis (market level), Porter´s Five Force analysis (industry level competition) and SWOT analysis (company level). Distribution channels theory was a base to understand why and what kind of distribution channels the case company uses, and what kind of channels target markets companies’ uses. Channel strategy and design were integrated to the industry level analysis. The empirical findings revealed that Denmark has very business friendly ICT environment. Several organizations have ranked Denmark´s information and communication technology as the best in the world. Denmark’s ICT and software market are relatively small, compared to many other countries in Europe. Danish software market is centralized. Largest software clusters are in the largest cities; Copenhagen, Aarhus, Odense and Aalborg. From these clusters, software companies can most likely find suitable resellers. The following growing trends are clearly seen in the software market: mobile and wireless applications, outsourcing, security solutions, cloud computing, social business solutions and e-business solutions. When expanding software business to the Danish market, it is important to take into account these trends. In Denmark distribution channels varies depending on the product or service. For many, a natural distribution channel is a local partner or internet. In the public sector solutions are purchased through a public procurement process. In the private sector the buying process is more straight forwarded. Danish companies are buying software from reliable suppliers. This means that they usually buy software direct from big software vendors or local partners. Some customers prefer to use professional consulting companies. These consulting companies can strongly influence on the selection of the supplier and products, and in this light, consulting companies can be important partners for software companies. Even though the competition is fierce in ECM and DMS solutions, Danish market offers opportunities for foreign companies. Penetration to the Danish market through reseller channel requires advanced solutions and objective selection criteria for channel partners. Based on the findings, Danish companies are interested in advanced and efficient software solutions. Interest towards M-Files solutions was clearly seen and the company has excellent opportunity to expand business to the Danish market through reseller channel. Since the research explored the Danish ICT and software market, the results of the study may offer valuable information also to the other software companies which are expanding their business to the Danish market.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cloud Computing paradigm is continually evolving, and with it, the size and the complexity of its infrastructure. Assessing the performance of a Cloud environment is an essential but strenuous task. Modeling and simulation tools have proved their usefulness and powerfulness to deal with this issue. This master thesis work contributes to the development of the widely used cloud simulator CloudSim and proposes CloudSimDisk, a module for modeling and simulation of energy-aware storage in CloudSim. As a starting point, a review of Cloud simulators has been conducted and hard disk drive technology has been studied in detail. Furthermore, CloudSim has been identified as the most popular and sophisticated discrete event Cloud simulator. Thus, CloudSimDisk module has been developed as an extension of CloudSim v3.0.3. The source code has been published for the research community. The simulation results proved to be in accordance with the analytic models, and the scalability of the module has been presented for further development.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Thesis title” Healthcare services in cloud computing” discusses the healthcare services available in the new converging technology called cloud computing. This computing technology had craved its path in the desirable market field healthcare. Healthcare is an extensive and a massive mission of maintenance and providing a complete treatment to the person suffering from ailments. In the olden days well equipped healthcare surveillance is not accessible to all communities of people due to several reasons like, geographical locations, equipment cost, and infrastructure, and skilled medical practitioners, now due to the advancement of the medicine in cloud technology has reached some of its barriers making it more viable to all the people (communities) with all the robust technologies and techniques. This study will give an overview of the healthcare transformation of different approaches of cloud computing over information technology and its strategic usage. Further enhancing better healthcare to ensure scalable, compatible functions supporting the well-being, this study also considers the techniques of cloud computing and its application, advancement in healthcare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les détecteurs ATLAS-MPX sont des détecteurs Medipix2-USB recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons lents et des neutrons rapides respectivement. Un réseau de quinze détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Deux détecteurs ATLAS-MPX de référence ont été exposés à des sources de neutrons rapides 252 Cf et 241 AmBe ainsi qu’aux neutrons rapides produits par la réaction 7Li(p, xn) pour l’étude de la réponse du détecteur à ces neutrons. Les neutrons rapides sont principalement détectés à partir des protons de recul des collisions élastiques entre les neutrons et l’hydrogène dans le polyéthylène. Des réactions nucléaires entre les neutrons et le silicium produisent des particules-α. Une étude de l’efficacité de reconnaissance des traces des protons et des particules-α dans le détecteur Medipix2-USB a été faite en fonction de l’énergie cinétique incidente et de l’angle d’incidence. L’efficacité de détection des neutrons rapides a été évaluée à deux seuils d’énergie (8 keV et 230 keV) dans les détecteurs ATLAS-MPX. L’efficacité de détection des neutrons rapides dans la région du détecteur couverte avec le polyéthylène augmente en fonction de l’énergie des neutrons : (0.0346 ± 0.0004) %, (0.0862 ± 0.0018) % et (0.1044 ± 0.0026) % pour des neutrons rapides de 2.13 MeV, 4.08 MeV et 27 MeV respectivement. L’étude pour déterminer l’énergie des neutrons permet donc d’estimer le flux des neutrons quand le détecteur ATLAS-MPX est dans un champ de radiation inconnu comme c’est le cas dans le détecteur ATLAS au LHC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un réseau de seize détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Les détecteurs ATLAS-MPX sont sensibles au champ mixte de radiation de photons et d’électrons dans la caverne d’ATLAS et sont recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons thermiques et des neutrons rapides respectivement. Les collisions à haute énergie sont dominées par des interactions partoniques avec petit moment transverse pT , associés à des événements de “minimum bias”. Dans notre cas la collision proton-proton se produit avec une énergie de 7 TeV dans le centre de masse avec une luminosité de 10³⁴cm⁻²s⁻¹ telle que fixée dans les simulations. On utilise la simulation des événements de "minimum bias" générés par PYTHIA en utilisant le cadre Athena qui fait une simulation GEANT4 complète du détecteur ATLAS pour mesurer le nombre de photons, d’électrons, des muons qui peuvent atteindre les détecteurs ATLASMPX dont les positions de chaque détecteur sont incluses dans les algorithmes d’Athena. Nous mesurons les flux de neutrons thermiques et rapides, générés par GCALOR, dans les régions de fluorure de lithium et de polyéthylène respectivement. Les résultats des événements de “minimum bias” et les flux de neutrons thermiques et rapides obtenus des simulations sont comparés aux mesures réelles des détecteurs ATLAS-MPX.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Learning Disability (LD) is a general term that describes specific kinds of learning problems. It is a neurological condition that affects a child's brain and impairs his ability to carry out one or many specific tasks. The learning disabled children are neither slow nor mentally retarded. This disorder can make it problematic for a child to learn as quickly or in the same way as some child who isn't affected by a learning disability. An affected child can have normal or above average intelligence. They may have difficulty paying attention, with reading or letter recognition, or with mathematics. It does not mean that children who have learning disabilities are less intelligent. In fact, many children who have learning disabilities are more intelligent than an average child. Learning disabilities vary from child to child. One child with LD may not have the same kind of learning problems as another child with LD. There is no cure for learning disabilities and they are life-long. However, children with LD can be high achievers and can be taught ways to get around the learning disability. In this research work, data mining using machine learning techniques are used to analyze the symptoms of LD, establish interrelationships between them and evaluate the relative importance of these symptoms. To increase the diagnostic accuracy of learning disability prediction, a knowledge based tool based on statistical machine learning or data mining techniques, with high accuracy,according to the knowledge obtained from the clinical information, is proposed. The basic idea of the developed knowledge based tool is to increase the accuracy of the learning disability assessment and reduce the time used for the same. Different statistical machine learning techniques in data mining are used in the study. Identifying the important parameters of LD prediction using the data mining techniques, identifying the hidden relationship between the symptoms of LD and estimating the relative significance of each symptoms of LD are also the parts of the objectives of this research work. The developed tool has many advantages compared to the traditional methods of using check lists in determination of learning disabilities. For improving the performance of various classifiers, we developed some preprocessing methods for the LD prediction system. A new system based on fuzzy and rough set models are also developed for LD prediction. Here also the importance of pre-processing is studied. A Graphical User Interface (GUI) is designed for developing an integrated knowledge based tool for prediction of LD as well as its degree. The designed tool stores the details of the children in the student database and retrieves their LD report as and when required. The present study undoubtedly proves the effectiveness of the tool developed based on various machine learning techniques. It also identifies the important parameters of LD and accurately predicts the learning disability in school age children. This thesis makes several major contributions in technical, general and social areas. The results are found very beneficial to the parents, teachers and the institutions. They are able to diagnose the child’s problem at an early stage and can go for the proper treatments/counseling at the correct time so as to avoid the academic and social losses.