836 resultados para load-balancing scheduling
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
The MAP-i doctoral program of the Universities of Minho, Aveiro and Porto
Resumo:
Con la mayor capacidad de los nodos de procesamiento en relación a la potencia de cómputo, cada vez más aplicaciones intensivas de datos como las aplicaciones de la bioinformática, se llevarán a ejecutar en clusters no dedicados. Los clusters no dedicados se caracterizan por su capacidad de combinar la ejecución de aplicaciones de usuarios locales con aplicaciones, científicas o comerciales, ejecutadas en paralelo. Saber qué efecto las aplicaciones con acceso intensivo a dados producen respecto a la mezcla de otro tipo (batch, interativa, SRT, etc) en los entornos no-dedicados permite el desarrollo de políticas de planificación más eficientes. Algunas de las aplicaciones intensivas de E/S se basan en el paradigma MapReduce donde los entornos que las utilizan, como Hadoop, se ocupan de la localidad de los datos, balanceo de carga de forma automática y trabajan con sistemas de archivos distribuidos. El rendimiento de Hadoop se puede mejorar sin aumentar los costos de hardware, al sintonizar varios parámetros de configuración claves para las especificaciones del cluster, para el tamaño de los datos de entrada y para el procesamiento complejo. La sincronización de estos parámetros de sincronización puede ser demasiado compleja para el usuario y/o administrador pero procura garantizar prestaciones más adecuadas. Este trabajo propone la evaluación del impacto de las aplicaciones intensivas de E/S en la planificación de trabajos en clusters no-dedicados bajo los paradigmas MPI y Mapreduce.
Resumo:
En la actualidad, la computación de altas prestaciones está siendo utilizada en multitud de campos científicos donde los distintos problemas estudiados se resuelven mediante aplicaciones paralelas/distribuidas. Estas aplicaciones requieren gran capacidad de cómputo, bien sea por la complejidad de los problemas o por la necesidad de solventar situaciones en tiempo real. Por lo tanto se debe aprovechar los recursos y altas capacidades computacionales de los sistemas paralelos en los que se ejecutan estas aplicaciones con el fin de obtener un buen rendimiento. Sin embargo, lograr este rendimiento en una aplicación ejecutándose en un sistema es una dura tarea que requiere un alto grado de experiencia, especialmente cuando se trata de aplicaciones que presentan un comportamiento dinámico o cuando se usan sistemas heterogéneos. En estos casos actualmente se plantea realizar una mejora de rendimiento automática y dinámica de las aplicaciones como mejor enfoque para el análisis del rendimiento. El presente trabajo de investigación se sitúa dentro de este ámbito de estudio y su objetivo principal es sintonizar dinámicamente mediante MATE (Monitoring, Analysis and Tuning Environment) una aplicación MPI empleada en computación de altas prestaciones que siga un paradigma Master/Worker. Las técnicas de sintonización integradas en MATE han sido desarrolladas a partir del estudio de un modelo de rendimiento que refleja los cuellos de botella propios de aplicaciones situadas bajo un paradigma Master/Worker: balanceo de carga y número de workers. La ejecución de la aplicación elegida bajo el control dinámico de MATE y de la estrategia de sintonización implementada ha permitido observar la adaptación del comportamiento de dicha aplicación a las condiciones actuales del sistema donde se ejecuta, obteniendo así una mejora de su rendimiento.
Resumo:
Actualmente existen muchas aplicaciones paralelas/distribuidas en las cuales SPMD es el paradigma más usado. Obtener un buen rendimiento en una aplicación paralela de este tipo es uno de los principales desafíos dada la gran cantidad de aplicaciones existentes. Este objetivo no es fácil de resolver ya que existe una gran variedad de configuraciones de hardware, y también la naturaleza de los problemas pueden ser variados así como la forma de implementarlos. En consecuencia, si no se considera adecuadamente la combinación "software/hardware" pueden aparecer problemas inherentes a una aplicación iterativa sin una jerarquía de control definida de acuerdo a este paradigma. En SPMD todos los procesos ejecutan el mismo código pero computan una sección diferente de los datos de entrada. Una solución a un posible problema del rendimiento es proponer una estrategia de balance de carga para homogeneizar el cómputo entre los diferentes procesos. En este trabajo analizamos el benchmark CG con cargas heterogéneas con la finalidad de detectar los posibles problemas de rendimiento en una aplicación real. Un factor que determina el rendimiento en esta aplicación es la cantidad de elementos nonzero contenida en la sección de matriz asignada a cada proceso. Determinamos que es posible definir una estrategia de balance de carga que puede ser implementada de forma dinámica y demostramos experimentalmente que el rendimiento de la aplicación puede mejorarse de forma significativa con dicha estrategia.
Resumo:
In this paper, a method for enhancing current QoS routing methods by means of QoS protection is presented. In an MPLS network, the segments (links) to be protected are predefined and an LSP request involves, apart from establishing a working path, creating a specific type of backup path (local, reverse or global). Different QoS parameters, such as network load balancing, resource optimization and minimization of LSP request rejection should be considered. QoS protection is defined as a function of QoS parameters, such as packet loss, restoration time, and resource optimization. A framework to add QoS protection to many of the current QoS routing algorithms is introduced. A backup decision module to select the most suitable protection method is formulated and different case studies are analyzed
Resumo:
The achievable region approach seeks solutions to stochastic optimisation problems by: (i) characterising the space of all possible performances(the achievable region) of the system of interest, and (ii) optimisingthe overall system-wide performance objective over this space. This isradically different from conventional formulations based on dynamicprogramming. The approach is explained with reference to a simpletwo-class queueing system. Powerful new methodologies due to the authorsand co-workers are deployed to analyse a general multiclass queueingsystem with parallel servers and then to develop an approach to optimalload distribution across a network of interconnected stations. Finally,the approach is used for the first time to analyse a class of intensitycontrol problems.
Resumo:
In a previous paper a novel Generalized Multiobjective Multitree model (GMM-model) was proposed. This model considers for the first time multitree-multicast load balancing with splitting in a multiobjective context, whose mathematical solution is a whole Pareto optimal set that can include several results than it has been possible to find in the publications surveyed. To solve the GMM-model, in this paper a multi-objective evolutionary algorithm (MOEA) inspired by the Strength Pareto Evolutionary Algorithm (SPEA) is proposed. Experimental results considering up to 11 different objectives are presented for the well-known NSF network, with two simultaneous data flows
Resumo:
Korkeasaatavuus on olennainen osa nykyaikaisissa, integroiduissa yritysjärjestelmissä. Yritysten kansainvälistyessä tiedon on oltava saatavissa ympärivuorokautisesti, mikä asettaa yhä kovempia vaatimuksia järjestelmän yksittäisten osien saatavuudelle. Kasvava tietojärjestelmäintegraatio puolestaan tekee järjestelmän solmukohdista kriittisiä liiketoiminnan kannalta. Tässä työssä perehdytään hajautettujen järjestelmien ominaisuuksiin ja niiden asettamiin haasteisiin. Esiteltyjä teknologioita ovat muun muassa väliohjelmistot, klusterit ja kuormantasaus. Yrityssovellusten pohjana käytetty Java 2 Enterprise Edition (J2EE) -teknologia käsitellään olennaisilta osiltaan. Työssä käytetään sovelluspalvelinalustana BEA WebLogic Server -ohjelmistoa, jonka ominaisuudet käydään läpi hajautuksen kannalta. Työn käytännön osuudessa toteutetaan kahdelle erilaiselle olemassa olevalle yrityssovellukselle korkean saatavuuden sovelluspalvelinympäristö, joissa sovellusten asettamat rajoitukset on otettu huomioon.
Resumo:
Technological development brings more and more complex systems to the consumer markets. The time required for bringing a new product to market is crucial for the competitive edge of a company. Simulation is used as a tool to model these products and their operation before actual live systems are built. The complexity of these systems can easily require large amounts of memory and computing power. Distributed simulation can be used to meet these demands. Distributed simulation has its problems. Diworse, a distributed simulation environment, was used in this study to analyze the different factors that affect the time required for the simulation of a system. Examples of these factors are the simulation algorithm, communication protocols, partitioning of the problem, distributionof the problem, capabilities of the computing and communications equipment and the external load. Offices offer vast amounts of unused capabilities in the formof idle workstations. The use of this computing power for distributed simulation requires the simulation to adapt to a changing load situation. This requires all or part of the simulation work to be removed from a workstation when the owner wishes to use the workstation again. If load balancing is not performed, the simulation suffers from the workstation's reduced performance, which also hampers the owner's work. Operation of load balancing in Diworse is studied and it is shown to perform better than no load balancing, as well as which different approaches for load balancing are discussed.
Resumo:
Työn aluksi on käsitelty sähkövoimajärjestelmien stabiilisuutta yleisesti. Myös teollisuuden sähköverkkojen erityispiirteitä on tarkasteltu. Teollisuusverkkojen komponentteja koskevassa selvityksessä eri laitteet on käsitelty siten, että niiden tärkeimmät ominaisuudet verkon erilaisissa muutostilanteissa tulevat esille. Tahtigeneraattorit ja epätahtikoneet on käsitelty yksityiskohtaisesti. Tutkimuksessa on esitelty teollisuusverkon saarekekäyttöön johtavia syitä, saarekkeeseen siirtymisen kriteereitä ja saarekekäytön toteutustapoja. Tehonvajaussuojaukseen liittyen on tutustuttu kuormanpudotusjärjestelyihin. Myös höyryverkon kuormien tasausten mahdollisuuksiin on luotu katsaus. Verkostolaskentaa käsittelevässä luvussa on keskitytty sopivan laskentamallin luomiseen liittyviin menetelmiin ja rajoituksiin. Lisäksi on kerrottu työn käytännön osan laskentamallin luomisen keskeiset periaatteet. Työn lopuksi on suoritettu simulointeja, joissa on tutkittu erään teollisuusverkon stabiilisuutta saarekekäyttöön siirryttäessä Calpos-verkostolaskentaohjelmistolla.
Resumo:
Peer-reviewed
Resumo:
Web-palvelussa sivuston suorituskyky muodostaa suuren osan käyttökokemuksen mielekkyydestä. Sivuston ollessa kuormitetumpi kuin normaalisti, saattaa se toimia tavallista hitaammin. Tasaamalla yhden web-palvelimen kuormaa muille palvelimille, joko laitteisto tai ohjelmistopohjaisella kuormantasauksella, voidaan saavuttaa merkittäviä suorituskykyparannuksia koko palvelulle. Teoriaosassa selvitettiin kuormantasaukseen soveltuvien algoritmien toimintaa sekä tietokantapohjaista replikaatiota, joka välittää saamansa tiedon lähes välittömästi toiselle palvelimelle. Apachen kuormantasausmoduuliin sekä sen sisältämiin algoritmeihin luotiin myös katsaus teoriaosassa. Varsinaisessa työssä luotiin Apachen kuormantasauspalvelimen ja kahden suorituspalvelimen avulla toimiva palvelinjärjestelmä. Kuormantasaimeen asennettiin käyttöön tahmeat sessiot, joiden toimintaa selvitettiin Drupal-ohjelman avulla. Apachessa on ollut ongelmia tahmeiden sessioiden kanssa, mutta työssä huomattiin kaiken toimivan mainiosti. Kuormantasaus ja tietokantojen replikaatio toimi, kuten odotettiin.
Resumo:
Diplomityön tavoitteena oli selvittää etäluentamittareiden mahdollistamia tuotteita ja palveluita sekä niiden toteutettavuutta Mäntsälän Sähkö Oy:ssä. Työssä perehdytään yksityisasiakkaille suunnattuihin palveluihin, joita mittaritekniikka mahdollistaa. Mittarit tulee olla asennettuna 80%:lle verkkoyhtiön sähkönkäyttöpaikoista vuoteen 2014 mennessä. Mäntsälän Sähköllä mittareiden vaihtoprojektin alkamisen vuoksi haluttiin selvittää mahdollisten uusien tuotteiden toteutettavuutta. Työssä esitellään Mäntsälän Sähkö Oy:lle tulevan mittarijärjestelmän. Mittarijärjestelmä käyttää eri tietoliikennetapoja, jotka ovat GPRS, RS485 ja radio. Työ sisältää internet-paneelina suoritetun asiakaskyselyn, jossa selvitettiin asiakkaiden tarpeita ja mielipiteitä mahdollisten uusien tuotteiden osalta. Työssä käsiteltäviä tuotteita ovat kuormanohjaus, kysynnän hintajousto, spot-hinnoittelu, laskutus sekä raportointipalvelu. Kulutuksen hintajousto, kuormanohjaus ja spot-hinnoittelu toimivat toisiaan tukevina tuotteina. Tasasuuruista laskutusta voisi tarjota toteutuneen kulutuksen mukaisen laskutuksen ohessa lisäpalveluna. Raportointipalvelu internetissä on hyvä tapa toimittaa asiakkaalle lain velvoittamat tiedot.
Resumo:
Cloud computing, despite its success and promises, presents issues for businesses migrating their legacy applications to cloud. In this research legacy-to-cloud migration issues are reviewed based on literature findings and an experience report. Solutions are applied to Tieto Open Application Suite (TOAS) software development platform running on cloud infrastructure. It is observed that the migration strategy heavily affects the migration approach. For TOAS a strategy of redesigning the applications for cloud is suggested. Common migration-driven application level modifications include adaptation to service-oriented architecture, load balancing, and runtime and technology changes. A cloud platform such as TOAS might introduce additional needs. Decision making on migration strategy is found to be an issue to be solved case by case. Use of assistive decision making tools is suggested.