932 resultados para GIS BASED PLANNING TOOLS
Resumo:
Tämän hetken trendit kuten globalisoituminen, ympäristömme turbulenttisuus, elintason nousu, turvallisuuden tarpeen kasvu ja teknologian kehitysnopeus korostavatmuutosten ennakoinnin tarpeellisuutta. Pysyäkseen kilpailukykyisenä yritysten tulee kerätä, analysoida ja hyödyntää liiketoimintatietoa, jokatukee niiden toimintaa viranomaisten, kilpailijoiden ja asiakkaiden toimenpiteiden ennakoinnissa. Innovoinnin ja uusien konseptien kehittäminen, kilpailijoiden toiminnan arviointi, asiakkaiden tarpeet muun muassa vaativatennakoivaa arviointia. Heikot signaalit ovat keskeisessä osassa organisaatioiden valmistautumisessa tulevaisuuden tapahtumiin. Opinnäytetyön tarkoitus on luoda ja kehittää heikkojen signaalien ymmärrystä ja hallintaa sekäkehittää konseptuaalinen ja käytännöllinen lähestymistapa ennakoivan toiminnan edistämiselle. Heikkojen signaalien tyyppien luokittelu perustuu ominaisuuksiin ajan, voimakkuuden ja liiketoimintaan integroinnin suhteen. Erityyppiset heikot signaalit piirteineen luovat reunaehdot laatutekijöiden keräämiselle ja siitä edelleen laatujärjestelmän ja matemaattiseen malliin perustuvan työvälineen kehittämiselle. Heikkojen signaalien laatutekijät on kerätty yhteen kaikista heikkojen signaalien konseptin alueista. Analysoidut ja kohdistetut laatumuuttujat antavat mahdollisuuden kehittää esianalyysiä ja ICT - työvälineitä perustuen matemaattisen mallin käyttöön. Opinnäytetyön tavoitteiden saavuttamiseksi tehtiin ensin Business Intelligence -kirjallisuustutkimus. Hiekkojen signaalien prosessi ja systeemi perustuvat koottuun Business Intelligence - systeemiin. Keskeisinä kehitysalueina tarkasteltiin liiketoiminnan integraatiota ja systemaattisen menetelmän kehitysaluetta. Heikkojen signaalien menetelmien ja määritelmien kerääminen sekä integrointi määriteltyyn prosessiin luovat uuden konseptin perustan, johon tyypitys ja laatutekijät kytkeytyvät. Käytännöllisen toiminnan tarkastelun ja käyttöönoton mahdollistamiseksi toteutettiin Business Intelligence markkinatutkimus (n=156) sekä yhteenveto muihin saatavilla oleviin markkinatutkimuksiin. Syvähaastatteluilla (n=21) varmennettiin laadullisen tarkastelun oikeellisuus. Lisäksi analysoitiin neljä käytännön projektia, joiden yhteenvedot kytkettiin uuden konseptin kehittämiseen. Prosessi voidaan jakaa kahteen luokkaan: yritysten markkinasignaalit vuoden ennakoinnilla ja julkisen sektorin verkostoprojektit kehittäen ennakoinnin struktuurin luonnin 7-15 vuoden ennakoivalle toiminnalle. Tutkimus rajattiin koskemaan pääasiassa ulkoisen tiedon aluetta. IT työvälineet ja lopullisen laatusysteemin kehittäminen jätettiin tutkimuksen ulkopuolelle. Opinnäytetyön tavoitteena ollut heikkojen signaalien konseptin kehittäminen toteutti sille asetetut odotusarvot. Heikkojen signaalien systemaattista tarkastelua ja kehittämistyötä on mahdollista edistää Business Intelligence - systematiikan hyödyntämisellä. Business Intelligence - systematiikkaa käytetään isojen yritysten liiketoiminnan suunnittelun tukena.Organisaatioiden toiminnassa ei ole kuitenkaan yleisesti hyödynnetty laadulliseen analyysiin tukeutuvaa ennakoinnin weak signals - toimintaa. Ulkoisenja sisäisen tiedon integroinnin ja systematiikan hyödyt PK -yritysten tukena vaativat merkittävää panostusta julkishallinnon rahoituksen ja kehitystoiminnan tukimuotoina. Ennakointi onkin tuottanut lukuisia julkishallinnon raportteja, mutta ei käytännön toteutuksia. Toisaalta analysoitujen case-tapausten tuloksena voidaan nähdä, ettei organisaatioissa välttämättä tarvita omaa projektipäällikköä liiketoiminnan tuen kehittämiseksi. Business vastuun ottamiseksi ja asiaan sitoutumiseen on kuitenkin löydyttävä oikea henkilö
Resumo:
Tutkimus on tehty keskisuomalaiselle pk-yritykselle vuosien 2003-2005 aikana. Tutkimusjaksolla kohdeyrityksessä on toteutettu lukuisia mittavia muutoksia ja merkittävä investointiohjelma. Tutkimuksen kannalta oleellisin muutos on ollut yrityksen tietojärjestelmien kokonaisvaltainen uudistaminen. Vanha tuotannonohjausjärjestelmä on korvattu uudella toiminnanohjausjärjestelmällä ja myös taloudenohjausjärjestelmät on uudistettu. Tutkimuksen tavoitteena on ollut laatia kokonaisvaltainen suunnitelma johdon laskentajärjestelmien kehittämiseksi ja selvittää erityisesti toimintolaskentajärjestelmän sekä suorituskyvyn mittaus- ja analysointijärjestelmän implementoinnin edellytyksiä tutkimuksen kohdeyrityksessä ja laatia konkreettinen esitys järjestelmien rakentamiseksi. Johdon laskentajärjestelmän kokonaissuunnitelmassa tarkoituksena on laatia laskentajärjestelmän loogisten elementtien kuvauksen lisäksi esitys tarvittavista sovelluksista sekä tutkia sovellusten välisiä fyysisiä rajapintoja ja suunnitella järjestelmäintegraatio siten, että johdon laskentajärjestelmän koko naissuunnitelma on mahdollista taloudellisesti toteuttaa. Tutkimuksen tavoitteena on lisäksi ollut selvittääyrityksen toimintojen kustannukset ja tuoteryhmien kannattavuudet sekä rakentaasuorituskyvyn mittaus- ja analysointijärjestelmä SAKE prosessi-malliinperustuen. Lisäksi tutkimuksen puitteissa on rakennettu erilaisia liiketoimintaa tukevia raportteja erilaisilla kehitysvälineillä. Tutkimukselle asetetut sisällölliset tavoitteet saavutettiin pääpiirteissään. Jatkuvatoimisten ja integroitujen toimintolaskentajärjestelmän sekä suorituskyvyn mittaus- ja analysointijärjestelmän rakentaminen osoittautui tutkimuksen aikana haastavaksi, joskaan ei mahdottomaksi tehtäväksi. Järjestelmien rakennustyö jatkuu tutkimuksessa esitettyihin ajatuksiin perustuen yhteistyössä ohjelmistotoimittajan kanssa edelleen ja järjestelmät valmistunevat vuosien 2005-2006 aikana.
Resumo:
A change in paradigm is needed in the prevention of toxic effects on the nervous system, moving from its present reliance solely on data from animal testing to a prediction model mostly based on in vitro toxicity testing and in silico modeling. According to the report published by the National Research Council (NRC) of the US National Academies of Science, high-throughput in vitro tests will provide evidence for alterations in"toxicity pathways" as the best possible method of large scale toxicity prediction. The challenges to implement this proposal are enormous, and provide much room for debate. While many efforts address the technical aspects of implementing the vision, many questions around it need also to be addressed. Is the overall strategy the only one to be pursued? How can we move from current to future paradigms? Will we ever be able to reliably model for chronic and developmental neurotoxicity in vitro? This paper summarizes four presentations from a symposium held at the International Neurotoxicology Conference held in Xi"an, China, in June 2011. A. Li reviewed the current guidelines for neurotoxicity and developmental neurotoxicity testing, and discussed the major challenges existing to realize the NCR vision for toxicity testing. J. Llorens reviewed the biology of mammalian toxic avoidance in view of present knowledge on the physiology and molecular biology of the chemical senses, taste and smell. This background information supports the hypothesis that relating in vivo toxicity to chemical epitope descriptors that mimic the chemical encoding performed by the olfactory system may provide a way to the long term future of complete in silico toxicity prediction. S. Ceccatelli reviewed the implementation of rodent and human neural stem cells (NSCs) as models for in vitro toxicity testing that measures parameters such as cell proliferation, differentiation and migration. These appear to be sensitive endpoints that can identify substances with developmental neurotoxic potential. C. Sun ol reviewed the use of primary neuronal cultures in testing for neurotoxicity of environmental pollutants, including the study of the effects of persistent exposures and/or in differentiating cells, which allow recording of effects that can be extrapolated to human developmental neurotoxicity.
Resumo:
Printed electronics is an emerging concept in electronics manufacturing and it is in very early development stage. The technology is not stable, design kits are not developed, and flows and Computer Aided Design (CAD) tools are not fixed yet. The European project TDK4PE addresses all this issues and this PFC has been realized on this context. The goal is to develop an XML-based information system for the collection and management of information from the technology and cell libraries developed in TDK4PE. This system will ease the treatment of that information for a later generation of specific Design Kits (DK) and the corresponding documentation. This work proposes a web application to generate technology files and design kits in a formatted way; it also proposes a structure for them and a database implementation for storing the needed information. The application will allow its users to redefine the structure of those files, as well as export and import XML files, between other formats.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
Résumé: L'automatisation du séquençage et de l'annotation des génomes, ainsi que l'application à large échelle de méthodes de mesure de l'expression génique, génèrent une quantité phénoménale de données pour des organismes modèles tels que l'homme ou la souris. Dans ce déluge de données, il devient très difficile d'obtenir des informations spécifiques à un organisme ou à un gène, et une telle recherche aboutit fréquemment à des réponses fragmentées, voir incomplètes. La création d'une base de données capable de gérer et d'intégrer aussi bien les données génomiques que les données transcriptomiques peut grandement améliorer la vitesse de recherche ainsi que la qualité des résultats obtenus, en permettant une comparaison directe de mesures d'expression des gènes provenant d'expériences réalisées grâce à des techniques différentes. L'objectif principal de ce projet, appelé CleanEx, est de fournir un accès direct aux données d'expression publiques par le biais de noms de gènes officiels, et de représenter des données d'expression produites selon des protocoles différents de manière à faciliter une analyse générale et une comparaison entre plusieurs jeux de données. Une mise à jour cohérente et régulière de la nomenclature des gènes est assurée en associant chaque expérience d'expression de gène à un identificateur permanent de la séquence-cible, donnant une description physique de la population d'ARN visée par l'expérience. Ces identificateurs sont ensuite associés à intervalles réguliers aux catalogues, en constante évolution, des gènes d'organismes modèles. Cette procédure automatique de traçage se fonde en partie sur des ressources externes d'information génomique, telles que UniGene et RefSeq. La partie centrale de CleanEx consiste en un index de gènes établi de manière hebdomadaire et qui contient les liens à toutes les données publiques d'expression déjà incorporées au système. En outre, la base de données des séquences-cible fournit un lien sur le gène correspondant ainsi qu'un contrôle de qualité de ce lien pour différents types de ressources expérimentales, telles que des clones ou des sondes Affymetrix. Le système de recherche en ligne de CleanEx offre un accès aux entrées individuelles ainsi qu'à des outils d'analyse croisée de jeux de donnnées. Ces outils se sont avérés très efficaces dans le cadre de la comparaison de l'expression de gènes, ainsi que, dans une certaine mesure, dans la détection d'une variation de cette expression liée au phénomène d'épissage alternatif. Les fichiers et les outils de CleanEx sont accessibles en ligne (http://www.cleanex.isb-sib.ch/). Abstract: The automatic genome sequencing and annotation, as well as the large-scale gene expression measurements methods, generate a massive amount of data for model organisms. Searching for genespecific or organism-specific information througout all the different databases has become a very difficult task, and often results in fragmented and unrelated answers. The generation of a database which will federate and integrate genomic and transcriptomic data together will greatly improve the search speed as well as the quality of the results by allowing a direct comparison of expression results obtained by different techniques. The main goal of this project, called the CleanEx database, is thus to provide access to public gene expression data via unique gene names and to represent heterogeneous expression data produced by different technologies in a way that facilitates joint analysis and crossdataset comparisons. A consistent and uptodate gene nomenclature is achieved by associating each single gene expression experiment with a permanent target identifier consisting of a physical description of the targeted RNA population or the hybridization reagent used. These targets are then mapped at regular intervals to the growing and evolving catalogues of genes from model organisms, such as human and mouse. The completely automatic mapping procedure relies partly on external genome information resources such as UniGene and RefSeq. The central part of CleanEx is a weekly built gene index containing crossreferences to all public expression data already incorporated into the system. In addition, the expression target database of CleanEx provides gene mapping and quality control information for various types of experimental resources, such as cDNA clones or Affymetrix probe sets. The Affymetrix mapping files are accessible as text files, for further use in external applications, and as individual entries, via the webbased interfaces . The CleanEx webbased query interfaces offer access to individual entries via text string searches or quantitative expression criteria, as well as crossdataset analysis tools, and crosschip gene comparison. These tools have proven to be very efficient in expression data comparison and even, to a certain extent, in detection of differentially expressed splice variants. The CleanEx flat files and tools are available online at: http://www.cleanex.isbsib. ch/.
Resumo:
Abstract The research problem in the thesis deals with improving the responsiveness and efficiency of logistics service processes between a supplier and its customers. The improvement can be sought by customizing the services and increasing the coordination of activities between the different parties in the supply chain. It is argued that to achieve coordination the parties have to have connections on several levels. In the framework employed in this research, three contexts are conceptualized at which the linkages can be planned: 1) the service policy context, 2) the process coordination context, and 3) the relationship management context. The service policy context consists of the planning methods by which a supplier analyzes its customers' logistics requirements and matches them with its own operational environment and efficiency requirements. The main conclusion related to the service policy context is that it is important to have a balanced selection of both customer-related and supplier-related factors in the analysis. This way, while the operational efficiency is planned a sufficient level of service for the most important customers is assured. This kind of policy planning involves taking multiple variables into the analysis, and there is a need to develop better tools for this purpose. Some new approaches to deal with this are presented in the thesis.The process coordination context and the relationship management context deal with the issues of how the implementation of the planned service policies can be facilitated in an inter-organizational environment. Process coordination includes typically such mechanisms as control rules, standard procedures and programs, but inhighly demanding circumstances more integrative coordination mechanisms may be necessary. In the thesis the coordination problems in third-party logistics relationship are used as an example of such an environment. Relationship management deals with issues of how separate companies organize their relationships to improve the coordination of their common processes. The main implication related to logistics planning is that by integrating further at the relationship level, companies can facilitate the use of the most efficient coordination mechanisms and thereby improve the implementation of the selected logistics service policies. In the thesis, a case of a logistics outsourcing relationship is used to demonstrate the need to address the relationship issues between the service provider andthe service buyer before the outsourcing can be done.The dissertation consists of eight research articles and a summarizing report. The principal emphasis in the articles is on the service policy planning context, which is the main theme of six articles. Coordination and relationship issues are specifically addressed in two of the papers.
Resumo:
Lisääntynyt Balanced Scorecardin käyttö herätti kiinnostuksen tutkia, mistä BSC:ssä oli oikein kysymys. Epäonnistumiset BSC-projekteissa vaikuttivat siihen, että haluttiin tutkia, mikä nykyisissä projektimalleissa oli vikana. Kirjallisuudessa on esitetty useita BSC:n käyttöönoton projektimalleja, joista tunnetuin on Kaplanin ja Nortonin kehittämä malli. Alun perin kyseessä oli varsin operatiivinen suoritusmittaristo, jonka tavoitteena oli nostaa ei-taloudelliset mittarit taloudellisten mittareiden rinnalle. Sittemmin lähestymistapa onlaajentunut strategiapohjaiseksi johtamisen järjestelmäksi, mutta mallin rakentamisessa on vielä puutteita. Havaitut puutteet BSC-projektimalleissa loivat tarpeen uuden mallin kehittämiselle. Tutkimuksen tavoitteena oli kehittää suomalaisten yritysjohtajien ja alan asiantuntijoiden avulla BSC-projektimalli, jota käyttämällä yritykset voisivat menestyksekkäämmin toteuttaa BSC-projektinsa. Lisäksi tavoitteena oli selvittää BSC:n käytön nykytila Suomen 500 suurimmassa yrityksessä. Tutkimuksessa haluttiin myös hankkia tietoa siitä, miksi yritykset olivat lähteneet BSC-projektiin, mitkä tekijät vaikuttivat BSC-projektin onnistumiseen jamitä muutoksia yritykset olivat tehneet BSC:n käytännön kokemuksen pohjalta. Tutkimuksen teoriaosassa tarkasteltiin yrityksen strategista suunnittelua ja johtamista, yrityksen johtamisessa käytettyjä ohjausjärjestelmiä, toiminnan kehittämistä ja BSC-projektien toteuttamista. Tutkimuksen empiriisessä osassa kehitettiinkymmenvaiheinen BSC-projektin toteuttamismalli. Se tehtiin tutustumalla 15 konsultointiyrityksen tapaan toteuttaa BSC-projekti ja paneutumalla 50 yrityksen BSC-projektista saamiin kokemuksiin. Kehitettyä mallia testattiin Tulikivi-casessa,ja sitä arvioitiin kyselytutkimuksessa ja työistunnossa. Kyselytutkimuksen mukaan ensimmäiset suomalaiset yritykset aloittivat BSC:n käytön vuonna 1995. Vuonna1996 käyttö yleistyi jonkin verran, ja vuosia 1997 ja 1998 voidaan Suomessa kutsua BSC:n läpimurtovuosiksi. Vastanneista yrityksistä 23,2 % ilmoitti käyttävänsä BSC:tä. Yrityksistä 14,8 % oli ottamassa sitä käyttöön, ja 19,2 % harkitsi käyttöönottamista. Yritykset olivat lähteneet BSC-projektiin mm. paremman ohjausjärjestelmän, toiminnan tehostamisen ja muutoksen aikaansaamisen toivossa. BSC-projektin onnistumisen tärkeimpinä tekijöinä pidettiin johdon sitoutumista hankkeeseen, mittariston kytkeytymistä strategiaan ja mittareiden selkeyttä. BSC:n nähtiin vaikuttaneen yrityksissä eniten liiketoiminnan kokonaisuuden ymmärtämiseen, strategian toteutumiseen ja ei-taloudellisten asioiden seurantaan. Yrityksissä olimuutettu toimintaa mm. niin, että se suuntautuisi enemmän asiakkaisiin ja tulevaisuuteen. Tulevaisuudessa BSC:llä uskottiin olevan suurimmat vaikutukset kokonaisvaltaiseen ja strategiseen johtamiseen sekä strategian toteutumisen seurantaan. Kyselytutkimuksen perusteella voitiin osoittaa, että suuret yritykset käyttävät BSC:tä enemmän kuin pienet yritykset. Myös alueellisia eroja on: pääkaupunkiseudulla BSC:tä käytetään enemmän kuin muualla maassa. Mitä kannattavammaksi kyselyyn vastaaja arvioi yrityksensä, sitä parempana se piti tässä tutkimuksessa kehitettyä BSC-projektimallia verrattuna Kaplanin ja Nortonin kehittämään BSC-projektimalliin. BSC-projekti on niin kokonaisvaltainen, että sen onnistuminen edellyttää koko henkilöstön osallistuvan siihen. Ylimmän johdon aito sitoutuminen on välttämätöntä, jotta BSC-projekti saa riittävästi resursseja. Projektissa visio jastrategiat puretaan käytännön toimiksi, joten ilman ylimmän johdon mukanaoloa projektilla ei ole asiakasta. Keskijohto ja henkilöstö toteuttavat laaditut strategiat, jolloin heidän panoksensa on erittäin merkittävä projektin onnistumiseksi. Henkilöstö pitää saada osallistumaan mittaristotyöhön, jotta he sitoutuisivat asetettuihin tavoitteisiin. Ellei henkilöstöä saada mukaan, mittaristo jää helposti ylimmän johdon työkaluksi. Tällöin strategian toteuttaminen koko organisaatiossa on hyvin työlästä, jopa mahdotonta. Mittariston pitää olla strategialähtöinen, eikä se saa olla liian monimutkainen. Mitä alemmalle tasolle organisaatiossamennään, sitä yksinkertaisempi mittariston pitää olla. Ylimmillä tasoilla mittareita voi olla kahdeksasta kahteentoista, mutta alemmilla tasoilla niitä on oltava hieman vähemmän. Projektin nopea läpivienti yrityksessä ei saa olla itsetarkoitus, mutta nopeasti saadut konkreettiset tulokset auttavat, että projekti saa resursseja ja mahdollistavat palautteen saamisen ja oppimisen. Kerralla ei BSC:täsaada täydellisesti toimivaksi, vaan se on oppimisprosessi, joka mahdollistaa syvällisemmän strategian toteuttamiseen. Tässä tutkimuksessa kehitetty BSC-projektin toteuttamismalli perustuu kymmenien asiantuntijoiden kokemuksiin ja näkemyksiin BSC-projektin toteuttamisesta. Kyselytutkimuksesta, työistunnosta ja Tulikivi-casesta saadut tulokset osoittavat, että kehitetyn mallin avulla yrityksillä on entistä paremmat mahdollisuudet saada BSC-projekti onnistumaan. Näin tutkimuksen päätavoite saavutettiin. Muut tavoitteet saavutettiin kyselytutkimuksen tulosten avulla.
Resumo:
The market place of the twenty-first century will demand that manufacturing assumes a crucial role in a new competitive field. Two potential resources in the area of manufacturing are advanced manufacturing technology (AMT) and empowered employees. Surveys in Finland have shown the need to invest in the new AMT in the Finnish sheet metal industry in the 1990's. In this run the focus has been on hard technology and less attention is paid to the utilization of human resources. In manymanufacturing companies an appreciable portion of the profit within reach is wasted due to poor quality of planning and workmanship. The production flow production error distribution of the sheet metal part based constructions is inspectedin this thesis. The objective of the thesis is to analyze the origins of production errors in the production flow of sheet metal based constructions. Also the employee empowerment is investigated in theory and the meaning of the employee empowerment in reducing the overall production error amount is discussed in this thesis. This study is most relevant to the sheet metal part fabricating industrywhich produces sheet metal part based constructions for electronics and telecommunication industry. This study concentrates on the manufacturing function of a company and is based on a field study carried out in five Finnish case factories. In each studied case factory the most delicate work phases for production errors were detected. It can be assumed that most of the production errors are caused in manually operated work phases and in mass production work phases. However, no common theme in collected production error data for production error distribution in the production flow can be found. Most important finding was still that most of the production errors in each case factory studied belong to the 'human activity based errors-category'. This result indicates that most of the problemsin the production flow are related to employees or work organization. Development activities must therefore be focused to the development of employee skills orto the development of work organization. Employee empowerment gives the right tools and methods to achieve this.
Resumo:
Familial Mediterranean fever (FMF) is a disease of early onset which can lead to significant morbidity. In 2012, Single Hub and Access point for pediatric Rheumatology in Europe (SHARE) was launched with the aim of optimising and disseminating diagnostic and management regimens for children and young adults with rheumatic diseases. The objective was to establish recommendations for FMF focusing on provision of diagnostic tools for inexperienced clinicians particularly regarding interpretation of MEFV mutations. Evidence-based recommendations were developed using the European League against Rheumatism standard operating procedure. An expert committee of paediatric rheumatologists defined search terms for the systematic literature review. Two independent experts scored articles for validity and level of evidence. Recommendations derived from the literature were evaluated by an online survey and statements with less than 80% agreement were reformulated. Subsequently, all recommendations were discussed at a consensus meeting using the nominal group technique and were accepted if more than 80% agreement was reached. The literature search yielded 3386 articles, of which 25 were considered relevant and scored for validity and level of evidence. In total, 17 articles were scored valid and used to formulate the recommendations. Eight recommendations were accepted with 100% agreement after the consensus meeting. Topics covered were clinical versus genetic diagnosis of FMF, genotype-phenotype correlation, genotype-age at onset correlation, silent carriers and risk of amyloid A (AA) amyloidosis, and role of the specialist in FMF diagnosis. The SHARE initiative provides recommendations for diagnosing FMF aimed at facilitating improved and uniform care throughout Europe.
Resumo:
AIM: To provide insight into cancer registration coverage, data access and use in Europe. This contributes to data and infrastructure harmonisation and will foster a more prominent role of cancer registries (CRs) within public health, clinical policy and cancer research, whether within or outside the European Research Area. METHODS: During 2010-12 an extensive survey of cancer registration practices and data use was conducted among 161 population-based CRs across Europe. Responding registries (66%) operated in 33 countries, including 23 with national coverage. RESULTS: Population-based oncological surveillance started during the 1940-50s in the northwest of Europe and from the 1970s to 1990s in other regions. The European Union (EU) protection regulations affected data access, especially in Germany and France, but less in the Netherlands or Belgium. Regular reports were produced by CRs on incidence rates (95%), survival (60%) and stage for selected tumours (80%). Evaluation of cancer control and quality of care remained modest except in a few dedicated CRs. Variables evaluated were support of clinical audits, monitoring adherence to clinical guidelines, improvement of cancer care and evaluation of mass cancer screening. Evaluation of diagnostic imaging tools was only occasional. CONCLUSION: Most population-based CRs are well equipped for strengthening cancer surveillance across Europe. Data quality and intensity of use depend on the role the cancer registry plays in the politico, oncomedical and public health setting within the country. Standard registration methodology could therefore not be translated to equivalent advances in cancer prevention and mass screening, quality of care, translational research of prognosis and survivorship across Europe. Further European collaboration remains essential to ensure access to data and comparability of the results.
Resumo:
We present ACACIA, an agent-based program implemented in Java StarLogo 2.0 that simulates a two-dimensional microworld populated by agents, obstacles and goals. Our program simulates how agents can reach long-term goals by following sensorial-motor couplings (SMCs) that control how the agents interact with their environment and other agents through a process of local categorization. Thus, while acting in accordance with this set of SMCs, the agents reach their goals through the emergence of global behaviors. This agent-based simulation program would allow us to understand some psychological processes such as planning behavior from the point of view that the complexity of these processes is the result of agent-environment interaction.
Resumo:
Target identification for tractography studies requires solid anatomical knowledge validated by an extensive literature review across species for each seed structure to be studied. Manual literature review to identify targets for a given seed region is tedious and potentially subjective. Therefore, complementary approaches would be useful. We propose to use text-mining models to automatically suggest potential targets from the neuroscientific literature, full-text articles and abstracts, so that they can be used for anatomical connection studies and more specifically for tractography. We applied text-mining models to three structures: two well-studied structures, since validated deep brain stimulation targets, the internal globus pallidus and the subthalamic nucleus and, the nucleus accumbens, an exploratory target for treating psychiatric disorders. We performed a systematic review of the literature to document the projections of the three selected structures and compared it with the targets proposed by text-mining models, both in rat and primate (including human). We ran probabilistic tractography on the nucleus accumbens and compared the output with the results of the text-mining models and literature review. Overall, text-mining the literature could find three times as many targets as two man-weeks of curation could. The overall efficiency of the text-mining against literature review in our study was 98% recall (at 36% precision), meaning that over all the targets for the three selected seeds, only one target has been missed by text-mining. We demonstrate that connectivity for a structure of interest can be extracted from a very large amount of publications and abstracts. We believe this tool will be useful in helping the neuroscience community to facilitate connectivity studies of particular brain regions. The text mining tools used for the study are part of the HBP Neuroinformatics Platform, publicly available at http://connectivity-brainer.rhcloud.com/.
Resumo:
PURPOSE: Proper delineation of ocular anatomy in 3-dimensional (3D) imaging is a big challenge, particularly when developing treatment plans for ocular diseases. Magnetic resonance imaging (MRI) is presently used in clinical practice for diagnosis confirmation and treatment planning for treatment of retinoblastoma in infants, where it serves as a source of information, complementary to the fundus or ultrasonographic imaging. Here we present a framework to fully automatically segment the eye anatomy for MRI based on 3D active shape models (ASM), and we validate the results and present a proof of concept to automatically segment pathological eyes. METHODS AND MATERIALS: Manual and automatic segmentation were performed in 24 images of healthy children's eyes (3.29 ± 2.15 years of age). Imaging was performed using a 3-T MRI scanner. The ASM consists of the lens, the vitreous humor, the sclera, and the cornea. The model was fitted by first automatically detecting the position of the eye center, the lens, and the optic nerve, and then aligning the model and fitting it to the patient. We validated our segmentation method by using a leave-one-out cross-validation. The segmentation results were evaluated by measuring the overlap, using the Dice similarity coefficient (DSC) and the mean distance error. RESULTS: We obtained a DSC of 94.90 ± 2.12% for the sclera and the cornea, 94.72 ± 1.89% for the vitreous humor, and 85.16 ± 4.91% for the lens. The mean distance error was 0.26 ± 0.09 mm. The entire process took 14 seconds on average per eye. CONCLUSION: We provide a reliable and accurate tool that enables clinicians to automatically segment the sclera, the cornea, the vitreous humor, and the lens, using MRI. We additionally present a proof of concept for fully automatically segmenting eye pathology. This tool reduces the time needed for eye shape delineation and thus can help clinicians when planning eye treatment and confirming the extent of the tumor.
Resumo:
Lentivirus-based gene delivery vectors carrying multiple gene cassettes are powerful tools in gene transfer studies and gene therapy, allowing coexpression of multiple therapeutic factors and, if desired, fluorescent reporters. Current strategies to express transgenes and microRNA (miRNA) clusters from a single vector have certain limitations that affect transgene expression levels and/or vector titers. In this study, we describe a novel vector design that facilitates combined expression of therapeutic RNA- and protein-based antiangiogenic factors as well as a fluorescent reporter from back-to-back RNApolII-driven expression cassettes. This configuration allows effective production of intron-embedded miRNAs that are released upon transduction of target cells. Exploiting such multigenic lentiviral vectors, we demonstrate robust miRNA-directed downregulation of vascular endothelial growth factor (VEGF) expression, leading to reduced angiogenesis, and parallel impairment of angiogenic pathways by codelivering the gene encoding pigment epithelium-derived factor (PEDF). Notably, subretinal injections of lentiviral vectors reveal efficient retinal pigment epithelium-specific gene expression driven by the VMD2 promoter, verifying that multigenic lentiviral vectors can be produced with high titers sufficient for in vivo applications. Altogether, our results suggest the potential applicability of combined miRNA- and protein-encoding lentiviral vectors in antiangiogenic gene therapy, including new combination therapies for amelioration of age-related macular degeneration.