862 resultados para Deadlock Analysis, Distributed Systems, Concurrent Systems, Formal Languages


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main objective of this study is to analyze the role and potential of transfer pricing as a means of management control in large organizations. The special emphasis is on analyzing the potential of transfer pricing when we are motivating the profit center managers. The research approach is theoretical and literature reviews include studies about profit center organizations, performance measurement and analysis, incentive systems, transfer pricing techniques and agency theory. Based on the analysis, it seems that transfer pricing is a suitable tool for controlling, motivating and managing profit center managers. This requires that the performance measurement can be done fairly and transfer prices are set using fair assumptions. The motivating effects of transfer pricing can be enhanced if the reward system is connected to performance measurement system. In synthesis there is presented effects of transfer pricing to profit center managers behavior. There is also presented opinion about fair transfer pricing policy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Kiristyvät markkinat ajavat yritykset tehostamaan toimintaansa. Suorituskyvyn mittaaminen on jo olennainen osa suomalaista yrityskulttuuria. Mittaamisen päätehtävä on tuottaa yritysjohdolle relevanttia informaatiota yrityksen tilasta ja auttaa valvomaan ja kehittämään toimintaa. Tämän tutkimuksen kohteena on palvelukonsernin Iiiketoimintayksikön suorituskyvyn mittaaminen. Tutkimuksen päätavoitteina on 1. valita palvelukonsernin liiketoimintayksikölle sopiva suorituskyvyn mittausjärjestelmä, 2. valita käytännöllinen implementointimalli sekä 3. laatia suorituskykymittaristo palvelukonsernin liiketoimintayksikölle. Tämä tutkimus jakautuu kahteen vaiheeseen. Ensimmäisessä vaiheessa tutkimuksen kohteena on suorituskyvyn teoria ja neljä erilaista mittausmenetelmää, joista valitaan yksi Iiiketoimintayksikön suorituskyvyn mittausjärjestelmäksi sekä syvempää tarkastelua varten. Tutkimuksen toisessa vaiheessa tutkitaan valitun mittausjärjestelmän ominaisuuksia strategisena johtamisjärjestelmänä sekä sen implementointimalleja. Toisen vaiheen keskeisin tutkimusosuus on suorituskykymittausjärjestelmän laadinta. Työn lopputuloksena syntyy palvelukonsernin Iiiketoimintayksikön suorituskyvyn mittausjärjestelmä sekä jatkotoimenpide-ehdotus Balanced Scorecardin laajentamiseksi Iiiketoimialan ohjausjärjestelmäksi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

An important component for the automation of flow injection analysis (FIA) systems is the sample injection valve. A simple and inexpensive commutator with 16 pinch valves (8 normally open and 8 closed) was developed and configured as a multichannel injection valve. It is activated by a single solenoid of 3 Kgf, powered by a pulsed driver circuit, controlled by a microcomputer or a switch. FIA with spectrophometric detection of potassium dichromate solution was used for the evaluation of the new injection valve and its comparison with other valves, for sample loops of 50, 100, 200, 300 and 500 muL. The repeatability was favorable (RSD 1.0% for 15 injections at each loop volume) compared to a manual injector, an electropneumatic injector and an injector configured with three mini solenoid valves (RSD 1.1, 1.3 and 1.0%, respectively, for15 injections at each loop volume).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Työn tavoitteena oli toteuttaa tietojärjestelmä maito- ja maitotuotetilastoinnin tarpeisiin. Tietojärjestelmän tulee tukea lähes koko tilastotuotantoprosessia tallentamisesta raportointiin. Tietojärjestelmän tarpeet tulivat vaatimusmäärittelystä ja ne piti yhdistää tietohallinnon linjauksiin. Tietojärjestelmä tehdä kustannustehokkaasti tietyssä aikataulussa. Lisäksi tuli luoda käytäntöjä tuleville tilastotietojärjestelmille. Työn teoriaosan aluksi käsitellään tilastotutkimuksen perusteita ja tilastoviranomaisvaatimuksia. Tästä edetään käytännön tilastotuotantoprosessiin ja sen järjestelmävaatimuksiin. Teoriaosan loppupuoliskossa käydään läpi ohjelmistotuotantoprosessi ja tietojärjestelmän suunnittelun peruskäsitteitä. Käytännön osassa puretaan vaatimukset ja ongelma-alue. Sitten analysoidaan eri ratkaisuvaihtoehtoja. Niistä päädytään toteutusratkaisuun, jonka tuloksia tarkastellaan projektin lopputulosten ja kahden vuoden käyttökokemusten perusteella. Tietojärjestelmä toteutettiin onnistuneesti ja se mahdollistaa taloudellisen sekä laadukkaan maito- ja maitotuotetilastoinnin Suomessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tässä diplomityössä tutkitaan kuinka verkonvalvonta voidaan toteuttaa hajautetussa järjestelmässä. Työssä perehdytään tavallisten tietojärjestelmien ja hajautettujen järjestelmien eroihin, kyseisten järjestelmien ominaispiirteisiin sekä käsitellään mitä verkonvalvonta on yleisellä tasolla ja miten se on yleensä toteutettu tavallisissa tietojärjestelmissä. Tutkitaan tarkemmin kuinka verkonvalvonta voidaan toteuttaa tehokkaasti hajautetussa järjestelmässä sekä mitä vaatimuksia ja haasteita verkonvalvonnassa esiintyy. Tutkimukseen valittiin myös kaksi hajautetun järjestelmän verkonvalvontaan kehitettyä valvontaohjelmistoa sekä yksi laitteistopohjainen ratkaisu joita tutkitaan ja vertaillaan tarkemmin.Selvitetään onko yrityksen kannattavaa ja valvonnan kannalta tehokasta ottaa tämänkaltaista järjestelmää käyttöön. Lopputuloksena työssä on esiteltyinä kuinka verkonvalvonta voidaan toteuttaa hajautetussa järjestelmässä ja miten olemassa olevat haasteet voidaan ratkaista. Toteutusvaihtoehdot tutkittiin ja niistä valittiin paras vaihtoehto (perfSONAR) toteutustavaksi kohdeorganisaation asiakasverkkoyhteyksien valvontaan. Lopuksi esitellään toteutussuunnitelma yrityksen asiakasyhteyksien valvomiseen tarkoitetulle verkonvalvonnalle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Viilunkuivaus vaneriteollisuudessa on energiaintensiivinen prosessi, josta syntyvä hukkalämpö kannattaa ottaa talteen ja hyödyntää. Työ käsittelee erilaisten lämmöntalteenottovariaatioiden tuotteistusta ja kannattavuutta, sekä sisältää laitteiston riskianalyysin. Aiemman asiakaskohtaisen räätälöinnin sijaan, laitteiston modulaarinen tuoterakenne on otettava tuotteistuksen lähtökohdaksi. Modulaarisen tuoterakenteen ansiosta erilaisiin asiakastarpeisiin pystytään vastaamaan aiempaa tehokkaammin, kiitos erilaisten variaatioiden. Standardien ja yhtenäisten rajapintojen myötä muun muassa suunnittelua, projektinhoito ja myyntiä saadaan tehostettua. Lämmöntalteenottoratkaisuille luodaan kolme eri varustelutasoa: perus, korkea ja luksus. Näillä eri varianteilla pystytään vastamaan entistä kattavammin eri markkina-alueiden asiakastarpeisiin. Kannattavuuslaskelmat todistavat, että lämmöntalteenoton avulla saadaan merkittäviä energiasäästöjä ja eri laitteistovariaatiot maksavat itsensä erittäin nopeasti takaisin, vaikka esimerkiksi sähköenergian hinta nousisi radikaalisti. Lämmöntalteenoton voidaankin katsoa olevan aina erittäin kannattavaa. Laitteistosta on tunnistettu myös tekniset riskit, joihin on puututtava välittömästi sekä lukuisia toimenpide-ehdotuksia, joiden avulla laitteiston tuomintaa voidaan tehostaa ja muuttaa turvallisemmaksi. Riskianalyysi antaa myös suuntaviivoja tuotteistukselle sekä laitteiston huolto- ja käyttöohjeistolle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we discuss the consensus problem for synchronous distributed systems with orderly crash failures. For a synchronous distributed system of n processes with up to t crash failures and f failures actually occur, first, we present a bivalency argument proof to solve the open problem of proving the lower bound, min (t + 1, f + 2) rounds, for early-stopping synchronous consensus with orderly crash failures, where t < n - 1. Then, we extend the system model with orderly crash failures to a new model in which a process is allowed to send multiple messages to the same destination process in a round and the failing processes still respect the order specified by the protocol in sending messages. For this new model, we present a uniform consensus protocol, in which all non-faulty processes always decide and stop immediately by the end of f + 1 rounds. We prove that the lower bound of early stopping protocols for both consensus and uniform consensus are f + 1 rounds under the new model, and our proposed protocol is optimal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This is a presentation that introduces the envisioning (set up) stage of a project or case study. it sets envisioning in a framework of software engineering and agile methodologies. The presentation also covers techniques for engaging with stakeholders in the domain of the project: building a co-designing team; information gathering; and the ethics of engagement. There is a short section on sprint planning and managing the project backlog (agile using a burndown chart.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los resultados financieros de las organizaciones son objeto de estudio y análisis permanente, predecir sus comportamientos es una tarea permanente de empresarios, inversionistas, analistas y académicos. En el presente trabajo se explora el impacto del tamaño de los activos (valor total de los activos) en la cuenta de resultados operativos y netos, analizando inicialmente la relación entre dichas variables con indicadores tradicionales del análisis financiero como es el caso de la rentabilidad operativa y neta y con elementos de estadística descriptiva que permiten calificar los datos utilizados como lineales o no lineales. Descubriendo posteriormente que los resultados financieros de las empresas vigiladas por la Superintendencia de Sociedades para el año 2012, tienen un comportamiento no lineal, de esta manera se procede a analizar la relación de los activos y los resultados con la utilización de espacios de fase y análisis de recurrencia, herramientas útiles para sistemas caóticos y complejos. Para el desarrollo de la investigación y la revisión de la relación entre las variables de activos y resultados financieros se tomó como fuente de información los reportes financieros del cierre del año 2012 de la Superintendencia de Sociedades (Superintendencia de Sociedades, 2012).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La evolución del concepto de sistema promovió la consolidación de un enfoque que se comenzó a introducir en la revisión de diferentes objetos de estudio especialmente complejos, como los fenómenos sociales, gracias a sus características inter y trans disciplinarias. Este enfoque “sistémico” se promueve desde el campo de la biología y su metodología se incorporó al estudio de asuntos tan diversos como los temas ambientales, la ecología, la investigación en comunicaciones y muchos fenómenos sociales entre los que se encuentra el crecimiento de las ciudades. En el caso de los problemas urbanos, el enfoque sistémico surge como alternativa frente a la propuesta de la escuela funcionalista moderna. A partir de los años 60, las investigaciones urbanas comienzan a utilizar la visión sistémica como forma de aproximarse conceptualmente a lo físico urbano y avanzar en la comprensión de la complejidad de relaciones entre los componentes físicos de la estructura urbana, las racionalidades y acuerdos para el aprovechamiento del territorio natural de soporte, los bienes ambientales, los servicios públicos y los patrones de consumo, entre otros, una forma de metabolismo que permite asumir la ciudad como un ecosistema, soporte conceptual para la puesta en marcha de acciones que contribuyan a la sostenibilidad urbana. El seguimiento a esta visión sistémica y su incorporación como una herramienta de análisis e intervención urbana, sirve en primera instancia para llevar a cabo una reflexión crítica sobre la evolución del pensamiento urbano del siglo XX especialmente a partir de la segunda posguerra.