7 resultados para Retrial queue
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Tämän tutkimustyön kohteena on TietoEnator Oy:n kehittämän Fenix-tietojärjestelmän kapasiteettitarpeen ennustaminen. Työn tavoitteena on tutustua Fenix-järjestelmän eri osa-alueisiin, löytää tapa eritellä ja mallintaa eri osa-alueiden vaikutus järjestelmän kuormitukseen ja selvittää alustavasti mitkä parametrit vaikuttavat kyseisten osa-alueiden luomaan kuormitukseen. Osa tätä työtä on tutkia eri vaihtoehtoja simuloinnille ja selvittää eri vaihtoehtojen soveltuvuus monimutkaisten järjestelmien mallintamiseen. Kerätyn tiedon pohjaltaluodaan järjestelmäntietovaraston kuormitusta kuvaava simulaatiomalli. Hyödyntämällä mallista saatua tietoa ja tuotantojärjestelmästä mitattua tietoa mallia kehitetään vastaamaan yhä lähemmin todellisen järjestelmän toimintaa. Mallista tarkastellaan esimerkiksi simuloitua järjestelmäkuormaa ja jonojen käyttäytymistä. Tuotantojärjestelmästä mitataan eri kuormalähteiden käytösmuutoksia esimerkiksi käyttäjämäärän ja kellonajan suhteessa. Tämän työn tulosten on tarkoitus toimia pohjana myöhemmin tehtävälle jatkotutkimukselle, jossa osa-alueiden parametrisointia tarkennetaan lisää, mallin kykyä kuvata todellista järjestelmää tehostetaanja mallin laajuutta kasvatetaan.
Resumo:
Työssä tutkittiin voidaanko helpdesk-asiantuntijoille kehitetyn asiantuntijan ja tietojärjestelmän väliseen dialogiin ja puumaiseen ongelmanratkaisulogiikkaan perustuvan tukijärjestelmän käytöllä tehostaa laajakaistaliittymäviankorjausta. Työ selvitti dialogi-työkalun käyttöönoton jälkeisen vuoden seurantajakson aikana helpdeskin ongelmanratkaisuasteen ja liittymäviankorjausprosessin kehitystä sekä arvioi prosessin tehostumisen vaikutusta palvelun laatuun. Seurantajakson aikana helpdeskissä päätettyjen asiakaskontaktien määrä kasvoi merkittävästi, viankorjausprosessin keskimääräinenläpimenoaika lyhentyi ja vikailmoituksen kohdentamistarkkuus oikeaan työjonoon parani. Prosessin tehostumista kuvaavien mittareiden muutos on tilastollisesti erittäin merkitsevä. Dialogi-työkalulla voidaan tehostaa laajakaistaliittymien viankorjausprosessia merkittävästi ja vaikuttaa joiltain osin myös palvelun laatuun.
Resumo:
This thesis studies gray-level distance transforms, particularly the Distance Transform on Curved Space (DTOCS). The transform is produced by calculating distances on a gray-level surface. The DTOCS is improved by definingmore accurate local distances, and developing a faster transformation algorithm. The Optimal DTOCS enhances the locally Euclidean Weighted DTOCS (WDTOCS) with local distance coefficients, which minimize the maximum error from the Euclideandistance in the image plane, and produce more accurate global distance values.Convergence properties of the traditional mask operation, or sequential localtransformation, and the ordered propagation approach are analyzed, and compared to the new efficient priority pixel queue algorithm. The Route DTOCS algorithmdeveloped in this work can be used to find and visualize shortest routes between two points, or two point sets, along a varying height surface. In a digital image, there can be several paths sharing the same minimal length, and the Route DTOCS visualizes them all. A single optimal path can be extracted from the route set using a simple backtracking algorithm. A new extension of the priority pixel queue algorithm produces the nearest neighbor transform, or Voronoi or Dirichlet tessellation, simultaneously with the distance map. The transformation divides the image into regions so that each pixel belongs to the region surrounding the reference point, which is nearest according to the distance definition used. Applications and application ideas for the DTOCS and its extensions are presented, including obstacle avoidance, image compression and surface roughness evaluation.
Resumo:
During the past decades testing has matured from ad-hoc activity into being an integral part of the development process. The benefits of testing are obvious for modern communication systems, which operate in heterogeneous environments amongst devices from various manufacturers. The increased demand for testing also creates demand for tools and technologies that support and automate testing activities. This thesis discusses applicability of visualization techniques in the result analysis part of the testing process. Particularly, the primary focus of this work is visualization of test execution logs produced by a TTCN-3 test system. TTCN-3 is an internationally standardized test specification and implementation language. The TTCN-3 standard suite includes specification of a test logging interface and a graphical presentation format, but no immediate relationship between them. This thesis presents a technique for mapping the log events to the graphical presentation format along with a concrete implementation, which is integrated with the Eclipse Platform and the OpenTTCN Tester toolchain. Results of this work indicate that for majority of the log events, a visual representation may be derived from the TTCN-3 standard suite. The remaining events were analysed and three categories relevant in either log analysis or implementation of the visualization tool were identified: events indicating insertion of something into the incoming queue of a port, events indicating a mismatch and events describing the control flow during the execution. Applicability of the results is limited into the domain of TTCN-3, but the developed mapping and the implementation may be utilized with any TTCN-3 tool that is able to produce the execution log in the standardized XML format.
Resumo:
Tutkimuksessa luodaan Tuko Logistics Oy:n työntömastotrukkien toimintaa opti-moivia toimintaehdotuksia varastonohjausjärjestelmästä saatavan työntömastotruk-kidatan pohjalta. Tutkimus on toteutettu haastattelututkimuksena ja käyttäen apuna tieteellisiä julkaisuja. Tehtävien lomittamistutkimuksen ja loogiseen päättelyn tulok-sena on luotu kaksi toimintaehdotusta: A ja B. Toimintaehdotusten vaikutuksia van-haan järjestelmään verrataan mittareilla, joista osa on tehty jonoteorian jonomallien laskukaavojen pohjalta. Mittareita ovat: tehdyt tehtävät tunnissa, tuottamattoman ajon suhde tuottavaan, normaalitehtäväjonon pituus ja normaalitehtäväjonon koko-naisodotusaika. Toimintaehdotus B osoittautuu tehokkaammaksi ehdotukseksi, mutta Toimintaehdotus A:lla voi varmistaa tehtävien riittämisen työntömastotrukeille. Tut-kimuksessa ehdotetaan myös muita työntömastotrukkien toimintaa optimoivia muu-toksia, jotka voidaan ottaa käyttöön jokaisessa toimintamallissa.
Resumo:
Tämä diplomityö käsittelee Lappeenrannan teknillisen yliopiston ja Etelä- Karjalan poliisilaitoksen yhteistä kehitysprojektia, jonka tavoitteena oli tuottaa käytäntöön vietävissä oleva kehittämissuunnitelma ulkomaalaislupa-asioiden läpäisyaikojen hallintaan. Kehitysalueita on pyritty löytämään poliisilaitoksen henkilöstön haastatteluilla ja prosessianalyyseilla. Työ sisältää teoriaosion määräaikahallinnasta, yleiskatsauksen ulkomaalaislupa-asioista Suomessa sekä selvityksen ulkomaalaislupa-asioiden tilanteesta Etelä-Karjalan poliisilaitoksella. Työssä muodostettiin kolme kehittämisteemaa: seurannan kehittäminen, prosessien ja työtapojen kehittäminen ja yhteistyön kehittäminen. Tärkein kehittämistoimi oli Excel-pohjaisen seurantajärjestelmän suunnittelu, rakentaminen ja käyttöönottaminen. Seurantajärjestelmää voidaan hyödyntää tehtävien päivittäisessä ohjauksessa, määräaikatavoitteiden toteutumisen seurannassa sekä tilannekuvan ylläpitämisessä. Tavoitetilanteessa seurantajärjestelmän avulla hallitaan tilannetta siten, että hallitsemattomia hakemusruuhkia ei synny. Hankkeesta saatuja kokemuksia tehtäväjonojen hallinnasta ja suorituskyvyn mittaamisesta voidaan ajatella hyödynnettävän myös muissa prosesseissa.
Resumo:
With the shift towards many-core computer architectures, dataflow programming has been proposed as one potential solution for producing software that scales to a varying number of processor cores. Programming for parallel architectures is considered difficult as the current popular programming languages are inherently sequential and introducing parallelism is typically up to the programmer. Dataflow, however, is inherently parallel, describing an application as a directed graph, where nodes represent calculations and edges represent a data dependency in form of a queue. These queues are the only allowed communication between the nodes, making the dependencies between the nodes explicit and thereby also the parallelism. Once a node have the su cient inputs available, the node can, independently of any other node, perform calculations, consume inputs, and produce outputs. Data ow models have existed for several decades and have become popular for describing signal processing applications as the graph representation is a very natural representation within this eld. Digital lters are typically described with boxes and arrows also in textbooks. Data ow is also becoming more interesting in other domains, and in principle, any application working on an information stream ts the dataflow paradigm. Such applications are, among others, network protocols, cryptography, and multimedia applications. As an example, the MPEG group standardized a dataflow language called RVC-CAL to be use within reconfigurable video coding. Describing a video coder as a data ow network instead of with conventional programming languages, makes the coder more readable as it describes how the video dataflows through the different coding tools. While dataflow provides an intuitive representation for many applications, it also introduces some new problems that need to be solved in order for data ow to be more widely used. The explicit parallelism of a dataflow program is descriptive and enables an improved utilization of available processing units, however, the independent nodes also implies that some kind of scheduling is required. The need for efficient scheduling becomes even more evident when the number of nodes is larger than the number of processing units and several nodes are running concurrently on one processor core. There exist several data ow models of computation, with different trade-offs between expressiveness and analyzability. These vary from rather restricted but statically schedulable, with minimal scheduling overhead, to dynamic where each ring requires a ring rule to evaluated. The model used in this work, namely RVC-CAL, is a very expressive language, and in the general case it requires dynamic scheduling, however, the strong encapsulation of dataflow nodes enables analysis and the scheduling overhead can be reduced by using quasi-static, or piecewise static, scheduling techniques. The scheduling problem is concerned with nding the few scheduling decisions that must be run-time, while most decisions are pre-calculated. The result is then an, as small as possible, set of static schedules that are dynamically scheduled. To identify these dynamic decisions and to find the concrete schedules, this thesis shows how quasi-static scheduling can be represented as a model checking problem. This involves identifying the relevant information to generate a minimal but complete model to be used for model checking. The model must describe everything that may affect scheduling of the application while omitting everything else in order to avoid state space explosion. This kind of simplification is necessary to make the state space analysis feasible. For the model checker to nd the actual schedules, a set of scheduling strategies are de ned which are able to produce quasi-static schedulers for a wide range of applications. The results of this work show that actor composition with quasi-static scheduling can be used to transform data ow programs to t many different computer architecture with different type and number of cores. This in turn, enables dataflow to provide a more platform independent representation as one application can be fitted to a specific processor architecture without changing the actual program representation. Instead, the program representation is in the context of design space exploration optimized by the development tools to fit the target platform. This work focuses on representing the dataflow scheduling problem as a model checking problem and is implemented as part of a compiler infrastructure. The thesis also presents experimental results as evidence of the usefulness of the approach.