965 resultados para Network Data management,


Relevância:

90.00% 90.00%

Publicador:

Resumo:

A gestão das redes informáticas converteu-se num fator vital para as redes operarem de forma eficiente, produtiva e lucrativa. A gestão envolve a monitorização e o controlo dos sistemas para que estes funcionem como o pretendido. Ações de configuração, monitorização e reconfiguração dos componentes, são essenciais para melhorar o desempenho, diminuir o tempo de inatividade, melhor a segurança e efetuar contabilização. A maioria das aplicações de gestão de Redes assenta no paradigma centralizado cliente-servidor, onde um servidor central coleta e analisa dados provenientes dos diferentes elementos dispersos pela rede. Esses dados de gestão estão armazenados em bases de dados de gestão localizadas nos diversos elementos da rede. No entanto, este paradigma não tem conseguido dar resposta às exigências das redes atuais. Surge assim a necessidade de utilizar novos paradigmas para a gestão das redes. Uma alternativa baseada no paradigma dos agentes móveis já foi estudada, proposta e desenvolvida para a gestão da rede do GECAD-ISEP. Neste trabalho pretende-se propor e adicionar novas capacidades aos agentes móveis existentes, assim como novos agentes. Com vista à validação da solução proposta recorre-se à utilização de um simulador de redes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The research described in this thesis has been developed as a part of the Reliability and Field Data Management for Multi-component Products (REFIDAM) Project. This project was founded under the Applied Research Grants Scheme administered by Enterprise Ireland. The project was a partnership between Galway-Mayo Institute of Technology and Thermo King Europe. The project aimed to develop a system in order to manage the information required for reliability assessment and improvement of multi-component products, by establishing information flows within the company and information exchange with fleet users.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

BACKGROUND: DNA sequence integrity, mRNA concentrations and protein-DNA interactions have been subject to genome-wide analyses based on microarrays with ever increasing efficiency and reliability over the past fifteen years. However, very recently novel technologies for Ultra High-Throughput DNA Sequencing (UHTS) have been harnessed to study these phenomena with unprecedented precision. As a consequence, the extensive bioinformatics environment available for array data management, analysis, interpretation and publication must be extended to include these novel sequencing data types. DESCRIPTION: MIMAS was originally conceived as a simple, convenient and local Microarray Information Management and Annotation System focused on GeneChips for expression profiling studies. MIMAS 3.0 enables users to manage data from high-density oligonucleotide SNP Chips, expression arrays (both 3'UTR and tiling) and promoter arrays, BeadArrays as well as UHTS data using MIAME-compliant standardized vocabulary. Importantly, researchers can export data in MAGE-TAB format and upload them to the EBI's ArrayExpress certified data repository using a one-step procedure. CONCLUSION: We have vastly extended the capability of the system such that it processes the data output of six types of GeneChips (Affymetrix), two different BeadArrays for mRNA and miRNA (Illumina) and the Genome Analyzer (a popular Ultra-High Throughput DNA Sequencer, Illumina), without compromising on its flexibility and user-friendliness. MIMAS, appropriately renamed into Multiomics Information Management and Annotation System, is currently used by scientists working in approximately 50 academic laboratories and genomics platforms in Switzerland and France. MIMAS 3.0 is freely available via http://multiomics.sourceforge.net/.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Abstract OBJECTIVE To identify opportunistic screening actions for breast cancer performed by nurses working in primary health care units in Ribeirão Preto, São Paulo. METHOD Cross-sectional study with 60 nurses from 28 units, who had been working for at least one year in the public municipal health care network. Data were collected between December 2013 and March 2014, by means of a questionnaire, using descriptive analysis and the software IBM SPSS version 20 and Microsoft Excel 2010. RESULTS The results showed that 71.7% of the participants questioned their female patients as for risk factors for breast cancer, mainly during nursing consultation; 70.0% oriented users about the age to perform clinical breast exam, whereas 30.0% did not due to lack of knowledge and time; 60.0% explained about the age to perform mammogram; 73.3% did not refer patients with suspicious breast exam results to the referral department, citing scheduling as the main obstacle to referral. Educational activities were not performed by 78.3% of participants. CONCLUSION Investment is needed in professional training and management of breast cancer screening.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The emergence of powerful new technologies, the existence of large quantities of data, and increasing demands for the extraction of added value from these technologies and data have created a number of significant challenges for those charged with both corporate and information technology management. The possibilities are great, the expectations high, and the risks significant. Organisations seeking to employ cloud technologies and exploit the value of the data to which they have access, be this in the form of "Big Data" available from different external sources or data held within the organisation, in structured or unstructured formats, need to understand the risks involved in such activities. Data owners have responsibilities towards the subjects of the data and must also, frequently, demonstrate that they are in compliance with current standards, laws and regulations. This thesis sets out to explore the nature of the technologies that organisations might utilise, identify the most pertinent constraints and risks, and propose a framework for the management of data from discovery to external hosting that will allow the most significant risks to be managed through the definition, implementation, and performance of appropriate internal control activities.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The constant scientific production in the universities and in the research centers makes these organizations produce and acquire a great amount of data in a short period of time. Due to the big quantity of data, the research organizations become potentially vulnerable to the impacts on information booms that may cause a chaos as far as information management is concerned. In this context, the development of data catalogues comes up as one possible solution to the problems such as (I) the organization and (II) the data management. In the scientific scope, the data catalogues are implemented with the standard for digital and geospatial metadata and are broadly utilized in the process of producing a catalogue of scientific information. The aim of this work is to present the characteristics of access and storage of metadata in databank systems in order to improve the description and dissemination of scientific data. Relevant aspects will be considered and they should be analyzed during the stage of planning, once they can determine the success of implementation. The use of data catalogues by research organizations may be a way to promote and facilitate the dissemination of scientific data, avoid the repetition of efforts while being executed, as well as incentivate the use of collected, processed an also stored.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Diplomityöntavoitteena on tutkia, kuinka nimiketiedon hallinnalla voidaan parantaa kustannustehokkuutta projektiohjautuvassa toimitusketjussa. Työn kohdeyritys on Konecranes Oyj:n tytäryhtiö Konecranes Heavy Lifting Oy. Nimiketiedon hallinta liittyy läheisesti tuotetiedon hallintaan. Teoriaosassa käsitellään toimitusketjuympäristön tekijöitä, modulaarisuuden ja asiakaskohtaisuuden ongelmallisuutta sekä informaatiovirran vaikutuksia eri toiminnoissa. Yritysosassa vertaillaan konsernitason kahta liiketoiminta-aluetta strategiavalintojen, tuotteiden modulaarisuuden sekä tilaus-toimitusprosessissa liikkuvan nimikeinformaation perusteella. Diplomityön tuloksena annetaan suuntaviivat; nimikemassan eheytykseen, strategisten nimikkeiden tunnistamiseen ja määrittämiseen, nimikkeiden hallintaan sekä master-datan sijoittamiseen tietojärjestelmäympäristöön.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nowadays the used fuel variety in power boilers is widening and new boiler constructions and running models have to be developed. This research and development is done in small pilot plants where more faster analyse about the boiler mass and heat balance is needed to be able to find and do the right decisions already during the test run. The barrier on determining boiler balance during test runs is the long process of chemical analyses of collected input and outputmatter samples. The present work is concentrating on finding a way to determinethe boiler balance without chemical analyses and optimise the test rig to get the best possible accuracy for heat and mass balance of the boiler. The purpose of this work was to create an automatic boiler balance calculation method for 4 MW CFB/BFB pilot boiler of Kvaerner Pulping Oy located in Messukylä in Tampere. The calculation was created in the data management computer of pilot plants automation system. The calculation is made in Microsoft Excel environment, which gives a good base and functions for handling large databases and calculations without any delicate programming. The automation system in pilot plant was reconstructed und updated by Metso Automation Oy during year 2001 and the new system MetsoDNA has good data management properties, which is necessary for big calculations as boiler balance calculation. Two possible methods for calculating boiler balance during test run were found. Either the fuel flow is determined, which is usedto calculate the boiler's mass balance, or the unburned carbon loss is estimated and the mass balance of the boiler is calculated on the basis of boiler's heat balance. Both of the methods have their own weaknesses, so they were constructed parallel in the calculation and the decision of the used method was left to user. User also needs to define the used fuels and some solid mass flowsthat aren't measured automatically by the automation system. With sensitivity analysis was found that the most essential values for accurate boiler balance determination are flue gas oxygen content, the boiler's measured heat output and lower heating value of the fuel. The theoretical part of this work concentrates in the error management of these measurements and analyses and on measurement accuracy and boiler balance calculation in theory. The empirical part of this work concentrates on the creation of the balance calculation for the boiler in issue and on describing the work environment.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Kiihtyvä kilpailu yritysten välillä on tuonut yritykset vaikeidenhaasteiden eteen. Tuotteet pitäisi saada markkinoille nopeammin, uusien tuotteiden pitäisi olla parempia kuin vanhojen ja etenkin parempia kuin kilpailijoiden vastaavat tuotteet. Lisäksi tuotteiden suunnittelu-, valmistus- ja muut kustannukset eivät saisi olla suuria. Näiden haasteiden toteuttamisessa yritetään usein käyttää apuna tuotetietoja, niiden hallintaa ja vaihtamista. Andritzin, kuten muidenkin yritysten, on otettava nämä asiat huomioon pärjätäkseen kilpailussa. Tämä työ on tehty Andritzille, joka on maailman johtavia paperin ja sellun valmistukseen tarkoitettujen laitteiden valmistajia ja huoltopalveluiden tarjoajia. Andritz on ottamassa käyttöön ERP-järjestelmän kaikissa toimipisteissään. Sitä halutaan hyödyntää mahdollisimman tehokkaasti, joten myös tuotetiedot halutaan järjestelmään koko elinkaaren ajalta. Osan tuotetiedoista luo Andritzin kumppanit ja alihankkijat, joten myös tietojen vaihto partnereiden välillä halutaan hoitaasiten, että tiedot saadaan suoraan ERP-järjestelmään. Tämän työn tavoitteena onkin löytää ratkaisu, jonka avulla Andritzin ja sen kumppaneiden välinen tietojenvaihto voidaan hoitaa. Tämä diplomityö esittelee tuotetietojen, niiden hallinnan ja vaihtamisen tarkoituksen ja tärkeyden. Työssä esitellään erilaisia ratkaisuvaihtoehtoja tiedonvaihtojärjestelmän toteuttamiseksi. Osa niistä perustuu yleisiin ja toimialakohtaisiin standardeihin. Myös kaksi kaupallista tuotetta esitellään. Tarkasteltavana onseuraavat standardit: PaperIXI, papiNet, X-OSCO, PSK-standardit sekä RosettaNet. Lisäksi työssä tarkastellaan ERP-järjestelmän toimittajan, SAP:in ratkaisuja tietojenvaihtoon. Näistä vaihtoehdoista parhaimpia tarkastellaan vielä yksityiskohtaisemmin ja lopuksi eri ratkaisuja vertaillaan keskenään, jotta löydettäisiin Andritzin tarpeisiin paras vaihtoehto.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Diplomityön tavoitteena on tutkia mitä uusia tiedonhallinnallisia ongelmia ilmenee, kun massaräätälöidyn tuotteen tuotetieto hallitaan läpi tuotteen elinkaaren, sekä miten nämä ongelmat voitaisiin ratkaista. Ongelmat ja haasteet kerätään kirjallisuuslähteistä ja massaräätälöintiprosessi yhdistetään PLM-vaiheisiin. Ratkaisua tutkitaan testaamalla kuinka standardit STEP ja PLCS sekä standardeja tukeva PLM järjestelmä voisivat tukea massaräätälöidyn tuotteen elinkaaren tiedonhallintaa. MC tuotteiden ongelmia ovat tuoterakenteen monimutkaisuus, jäljitettävyys ja muutosten hallinta läpi elinkaaren. STEP ja PLCS pystyvät kummatkin tahollaan tukemaan tiedonhallintaa. MC-tuotteen geneerinen tuoterakenne on kuitenkin manuaalisesti liittettävä elinkaaritiedon tukemiseen. PLM-järjestelmä pystyy tukemaan MC-tuotteiden elinkaarta, mutta koska toiminto ei ole järjestelmään sisäänrakennettuna, MC-tuotteiden tukemisen parantamisessa on edelleen haasteita.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

PeerHood -verkon mobiililaitteiden akkutehon säästämiseksi siirretään mobiililaitteen verkkonaapuruston valvontatehtävät kiinteälle laitteelle. Valvontatehtävien siirto on tarkoitus tehdä silloin, kun laite pysyy paikallaan, esimerkiksi toimisto tiloissa. Laitteen pysyessä paikallaan voidaan verkkonaapurustoa seurata kiinteän laitteen resursseilla ja päivittää verkkomuutokset mobiililaitteelle tarvittaessa. Mobiililaitteen ollessa vain kuuntelutilassa laite säästää akkutehoa, koska sen ei tarvitse aktiivisesti lähettää dataa verkkolaitteillaan. Verkkolaitteet pysyvät lepotilassa ja odottavat vain tulevaa dataa. Verkkonaapuruston valvontatehtävien siirto ei kuitenkaan vaikuta käyttäjän palveluiden hyödyntämiseen, joten verkkolaitteen akkutehon säästö riippuu suuresti käyttäjän toimista, käyttäjä voi edelleen käyttää muiden PeerHood laitteiden palveluita tai tarjota omiaan.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Tutkimus tarkastelee johdon laskentatoimea yritysverkostoissa. Tutkimuksen tavoitteena on lisätä ymmärrystä koskien sitä, millaisia tarpeita verkostoituneilla yrityksillä on johdon laskentatoimen suhteen ja millaiset ovat verkostotasoisten laskentajärjestelmien soveltamismahdollisuudet. Johdon laskentatoimea ja yritysverkostoja on tutkittu erillisinä alueina jo varsin pitkään, mutta verkostoituneen toimintamuodon yleistymisestä huolimatta johdon laskentatoimen tutkimus nimenomaan verkostoympäristössä onvasta alkuvaiheessa. Tämä tutkimus on toteutettu suomalaisissa verkostoituneissa metalliteollisuusyrityksissä. Tutkitut verkostot muodostuvatverkoston ydinyrityksestä ¿ kärkiyrityksestä - ja sen ympärille ryhmittyneistä pienistä toimittajayrityksistä. Tutkimus on toteutettu käyttäen teemahaastatteluja, joita suoritettiin neljässä eri yritysverkostossa. Tutkimusote on luonteeltaan laadullinen ja pääosin kuvaileva. Verkostojen laskentatoimen tutkimuksessa pienten toimittajayritysten näkemykset ja asenteet laskennan kehittämistä kohtaan ovat jääneet taka-alalle. Tämän tutkimuksen keskeisenä näkökulmana on juuri verkostoituneiden pk-yritystentarpeet, asenteet ja mahdollisuudet osallistua laskentatoimen kehitystyöhön. Tutkimuksessa tarkastellaan johdon laskentatoimea yleisellä tasolla, eikä rajauduta yksittäisiin menetelmiin. Tutkimus toi esille joitakin informaatiotarpeita verkostotasolla. Useita jalostusvaiheita eri yrityksissä käsittävässä tuotannossa vaikeutena on tietää tarkalleen missä tilaus etenee ja milloin tilaus saapuu yritykseen jalostettavaksi. Toimittajayritykset kaipaavat myös tarkempaa ja pidemmän ajanjakson kattavaa tietoa verkoston kärkiyrityksen tilauskannasta. Informaatiopuutteet aiheuttavat turhaa työtä ja vaikeuttavat resurssien ohjausta. Tutkituissa verkostoissa suunnittelua avustavalle budjetoinnille olisi tarpeita, mutta yhteistä budjetointia ei ole käytännössä toteutettu. Verkostojen laskentatoimessa kustannusten avoin esittäminen kumppaneille tai yleisemmin avoimuus koskien muitakin toiminnan mittareita on keskeisin tekijä, johon verkoston laskentatoimen toteuttaminen tiivistyy. Tutkituista verkostoista kahdessa avoimuus toteutui koskien kustannuksia, kahdessa muussa verkostossa kärkiyritykset eivät nähneet toimittajien kustannustietoja verkoston kilpailukyvyn kannalta merkittäväksi. Kustannusten avoimen esittämisen taustatekijöinä korostuivat kärkiyrityksen tuki, monimutkaisten konstruktioiden aiheuttamat hinnoitteluongelmat ja kannattavan asiakassuhteen varmistaminen. Verkostolaskennan kehittämisessä kärkiyrityksen rooli korostuu. Jos toimittajayritykset eivät tunnista verkostolaskennan tarjoamia mahdollisuuksia toiminnan yhteisessä kehittämisessä ja ohjaamisessa, on kärkiyrityksen pystyttävä perustelemaan toimittajille uskottavasti mitä hyötyä laskentajärjestelmistä on koko verkostolle ja erityisesti toimittajayrityksille. Tutkittujen yritysten on pystyttävä rutinoimaan nyt yleisellä tasolla toimiva keskustelu järjestelmälliseksi suunnittelu- ja ohjaustyöksi. Hyvät kokemuksetyksinkertaisistakin laskenta- ja seurantajärjestelmistä parantavat mahdollisuuksia soveltaa myös kattavampia ja luottamuksellisempaa tietoa sisältäviä laskentajärjestelmiä.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Tiivistelmä Asiakas kokee tuotteen laadun omien odotusten ja oman tietämyksen kautta. Teknisessä verkkoratkaisuissa asiakas ei aina näe laatuun vaikuttavia eri komponentteja. Tällöin asiakas kokee kaikkien esille tulevien ongelmien johtuvan yrityksen tarjoamasta palvelusta. Yritys itse aiheuttaa myös ongelmia heikolla tiedonkululla yksiköiden välillä. Työssä kuvataan verkkoratkaisun käyttöönotossa esille tulevia ongelmia. Asioita tarkastellaan sekä asiakkaan että yrityksen näkökulmasta. Lisäksi tarkastellaan tuotetiedonhallinnan eri työkalujen mahdollisuuksia ongelman ratkaisemisessa. Lopputulokseksi saatiin malli, jonka avulla sisäistä tiedonkulkua parantamalla edistetään tiedon saatavuutta yrityksessä. Parantuneen tiedonkulun seurauksena voidaan tuottaa parempaa laatua sekä nopeuttaa ongelmien ratkaisua.