941 resultados para Work methods
Resumo:
The driving forces of technology and globalization continuously transform the business landscape in a way which undermines the existing strategies and innovations of organizations. The challenge for organizations is to establish such conditions where they are able to create new knowledge for innovative business ideas in interaction between other organizations and individuals. Innovation processes continuously need new external stimulations and seek new ideas, new information and knowledge locating more and more outside traditional organizational boundaries. In several studies, the early phases of the innovation process have been considered as the most critical ones. During these phases, the innovation process can emerge or conclude. External knowledge acquirement and utilization are noticed to be important at this stage of the innovation process giving information about the development of future markets and needs for new innovative businessideas. To make it possible, new methods and approaches to manage proactive knowledge creation and sharing activities are needed. In this study, knowledge creation and sharing in the early phases of the innovation process has been studied, and the understanding of knowledge management in the innovation process in an open and collaborative context advanced. Furthermore, the innovation management methods in this study are combined in a novel way to establish an open innovation process and tested in real-life cases. For these purposes two complementary and sequentially applied group work methods - the heuristic scenario method and the idea generation process - are examined by focusing the research on the support of the open knowledge creation and sharing process. The research objective of this thesis concerns two doctrines: the innovation management including the knowledge management, and the futures research concerning the scenario paradigm. This thesis also applies the group decision support system (GDSS) in the idea generation process to utilize the converged knowledge during the scenario process.
Resumo:
La colaboración entre familia y profesionales es imprescindible en todos los procesos educativos, sobre todo en aquellos que conllevan una especial dificultad. Actualmente los procesos de transición a la vida adulta son complejos para la mayor ía de los jóvenes, y esta situación afecta especialmente a las personas con discapacidad. En el presente artículo, y sobre la base de las aportaciones de los profesionales que trabajan en los servicios que utilizan la metodología del trabajo con apoyo, analizamos qué aspectos relacionados con el ámbito familiar pueden contribuir a facilitar los procesos de inserción laboral de las personas con discapacidad en contextos ordinarios. Entre otros, la colaboración entre la institución familiar y los servicios y la generación de expectativas realistas respecto a las posibilidades laborales de las personas con discapacidad, se configuran como aspectos esenciales para favorecer la inserción en el mercado laboral ordinario a las personas con discapacidad.
Resumo:
Työn tavoitteena oli kuvata Ama-Prom Oy:n erään tuoteryhmän tilaustoimitusketjun nykyprosessi ja etsiä menetelmiä, kuinka prosessi tehostetaan. Prosessin tehokkuutta tutkittiin asiakastyytyväisyyskyselyn avulla, haastattelemalla prosessissa työskenteleviä henkilöitä ja tutkimalla prosessin läpimenoaikaa. Kun nykyprosessi saatiin määriteltyä, selvitettiin kuinka kyseisestä prosessista voitaisiin karsia ylimääräistä työtä pois. Haastattelujen avulla ja seinätaulutekniikaa hyväksikäyttäen etsittiin nykyprosessista ongelmakohdat ja muodostettiin tilaus- toimitusketjulle tavoitemalli. Tavoiteprosessiin pääsemiseksi on Ama-Prom Oy:ssa tapahduttava työmenetelmienmuutos. Muutoksen aikaansaamiseksi luotiin muutokselle läpivientimalli. Läpivientimallin pohjalta määriteltiin projekti, jossa määrättiin toimenpiteet uusiin työmenetelmiin pääsemiseksi. Työssä käsiteltiin teoriapuolella prosessiajattelun teoriaa ja ajan merkitystä toimitusketjuissa. Prosessijohtamisen jälkeen käsiteltiin muutoksenhallintaa ja muutosjohtamista. Synteesiosassa tarkasteltiin Ama-Prom Oy muutoksen tarvettaja ja tarjottiin menetelmäehdotuksia, joilla tilaus- toimitusprosessia voidaan tehostaa. Lopuksi määriteltiin muutosprojekti menetelmien muuttamiseksi.
Resumo:
Työn tavoitteena on selvittää pääomavaltaisen teollisuudenalan yritysten käyttämiä investointien suunnittelu- ja jälkitarkkailumenetelmiä. Työn keskeisintä aluetta ovat operatiiviset tuottavuusinvestoinnit, kuten laajennus- ja korvausinvestoinnit. Tutkimuksen teoriaosassa käsitellään investointiprosessia ja siihen kiinteästi liittyviä käsitteitä ja toimintoja. Myös käytetyimpien investointilaskentamenetelmien laskentakaavat esitetään. Muita työssä käsiteltäviä aiheita ovat mm. laskentakorkokannan määrittäminen, riskin huomioiminen investointihankkeissa ja reaalioption käsite. Työssä keskitytään eri laskentamenetelmien tulosten antaman informaation tulkintaan. Työssä selvitetään mm. pääoman tuottoasteen (ROI), hyötykustannussuhteen, nykyarvomenetelmän (NPV) ja sisäisen koron menetelmän (IRR) tulosten tulkitsemista. Työssä selvitetään myös käsitteet: taloudellinen lisäarvo (EVA) ja jäännöskate (RI). Työssä tutkitaan investointiprosessia investoinnin jälkitarkkailun kannalta, eli miten mahdollistetaan luotettava ja systemaattinen investoinnin jälkitarkkailu. Myös jälkitarkkailulla saavutettavan tiedon hyödyntämiseen otetaan kantaa. Yhden haasteen työhön asettaa tutkittavan teollisuudenalan konsernien suuri koko. Investointilaskentamenetelmiä on osattava käyttää monipuolisesti. Investointien jälkitarkkailu on huomioitava jo suunnitteluvaiheessa. Yleisesti ottaen yritysten tulisi lisätä nykyarvomenetelmän käyttöä. Jälkitarkkailussa havaittuihin poikkeamiin täytyy reagoida mahdollisimman aikaisessa vaiheessa. Suunnittelun ja jälkitarkkailun apuna voidaan käyttää asiantuntijoista koottua arviointiryhmää. Suuren konsernin on tärkeää kiinnittää huomiota investointien suunnittelu- ja jälkitarkkailutoimintojen yhtenäistämiseen eri tuotantoyksikköjen sisällä. Työn ensisijainen kohdeyritys, UPM-Kymmene Oyj, on yksi maailman suurimmista metsäteollisuusyrityksistä. Tutkimuksen empiirisen osan teossa oli mukana UPM-Kymmenen lisäksi kolme muuta suurta suomalaista pääomavaltaisella teollisuudenalalla toimivaa yritystä: M-Real, Outokumpu ja Stora Enso. Tutkimukseen osallistuneiden yritysten investointiprosessin läpivientiin liittyviä ajatuksia ja toimintamalleja selvitettiin haastattelemalla investointisuunnittelun parissa toimivia henkilöitä.
Resumo:
Tutkimuksen tavoitteena oli selvittää tilintarkastuksen valvonnan ja laadunvalvonnan vaikutuksia tilintarkastukseen: laatuun, uskottavuuteen ja luotettavuuteen. Tavoitteeseen päästiin alatavoitteiden kautta: 1) selvittämällä tilintarkastukselle asetetut vaatimukset, 2) selvittämällä, mitä tilintarkastuksen valvonta ja laadunvalvonta sisältävät, 3) tutkimalla tilintarkastajien käsityksiä tilintarkastukselle asetetuista vaatimuksista, valvonnasta ja laadunvalvonnasta sekä tilintarkastuksen valvonnan ja laadunvalvonnan vaikutuksista ja 4) tutkimalla vieraan pääoman rahoittajien käsityksiä tilintarkastuksen laadusta, uskottavuudesta ja luotettavuudesta. Tutkimus on kvalitatiivinen, hermeneuttinen tutkimus ja siinä on tulkitseva tutkimusote. Empiirisen aineiston keräsin haastattelemalla viisi ammattitilintarkastajaa ja tekemällä sähköpostihaastattelun kahdeksalle rahoittajan edustajalle. Tilintarkastajista neljällä on kokemusta joko tilintarkastuksen laadunvalvonnasta tai valvonnasta. Lisäksi olen hyödyntänyt omaa kokemustani tutkittavasta ilmiöstä. Rahoittajan edustajat ovat kokeneita riski- ja pankkirahoittajia. Tilintarkastukselle asetetaan tiukat riippumattomuus-, ammattitaito- ja työn toteutusvaatimukset. Vaatimusten noudattamista valvotaan tilintarkastuslakiin perustuvalla valvonnalla ja pakollisella laadunvalvonnalla. Molempien valvontamuotojen tavoitteena on tilintarkastuksen laadun, uskottavuuden ja luotettavuuden varmistaminen. Erityisesti laadunvalvonnan vaikutuksesta tilintarkastuksen laatu on kohonnut. Tilintarkastajien ammattitaidon ja työmenetelmien kehittyminen ja tilintarkastuksen ammattimaistuminen on nostanut laatua. Laatu syntyy pääasiassa tilintarkastusprosessissa, jota rahoittaja ei pysty seuraamaan. Rahoittajien käsitykset laadusta ovat ristiriitaiset, mutta siitä huolimatta ammattimaista tilintarkastusta pidetään pääosin luotettavana ja uskottavana.
Resumo:
The modern generation of Cherenkov telescopes has revealed a new population of gamma-ray sources in the Galaxy. Some of them have been identified with previously known X-ray binary systems while other remain without clear counterparts a lower energies. Our initial goal here was reporting on extensive radio observations of the first extended and yet unidentified source, namely TeV J2032+4130. This object was originally detected by the HEGRA telescope in the direction of the Cygnus OB2 region and its nature has been a matter of debate during the latest years. The situation has become more complex with the Whipple and MILAGRO telescopes new TeV detections in the same field which could be consistent with the historic HEGRA source, although a different origin cannot be ruled out. Aims.We aim to pursue our radio exploration of the TeV J2032+4130 position that we initiated in a previous paper but taking now into account the latest results from new Whipple and MILAGRO TeV telescopes. The data presented here are an extended follow up of our previous work. Methods.Our investigation is mostly based on interferometric radio observations with the Giant Metre Wave Radio Telescope (GMRT) close to Pune (India) and the Very Large Array (VLA) in New Mexico (USA). We also conducted near infrared observations with the 3.5 m telescope and the OMEGA2000 camera at the Centro Astronómico Hispano Alemán (CAHA) in Almería (Spain). Results.We present deep radio maps centered on the TeV J2032+4130 position at different wavelengths. In particular, our 49 and 20 cm maps cover a field of view larger than half a degree that fully includes the Whipple position and the peak of MILAGRO emission. Our most important result here is a catalogue of 153 radio sources detected at 49 cm within the GMRT antennae primary beam with a full width half maximum (FWHM) of 43 arc-minute. Among them, peculiar sources inside the Whipple error ellipse are discussed in detail, including a likely double-double radio galaxy and a one-sided jet source of possible blazar nature. This last object adds another alternative counterpart possibility to be considered for both the HEGRA, Whipple and MILAGRO emission. Moreover, our multi-configuration VLA images reveal the non-thermal extended emission previously reported by us with improved angular resolution. Its non-thermal spectral index is also confirmed thanks to matching beam observations at the 20 and 6 cm wavelengths.
Resumo:
In this work methods for the multiresidue determination of the series of quinolones include in the European regulation in food of animal origin are de veloped and validated in line with Commission Decision 2002/657/EC in terms of linearity, decision limit, capability detection, precision and stability. Mult iresidue methods were established to allow the determination of quinolones covered by EU legislation in 2377/90/EC in muscle of chicken, turkey, pig and cow, plasma of cow and pig, liver of pig and milk of cow. First an extraction step was optimized and a SPE step was applied to clean!up and preconcentrate quinolones prior to their separation by CE or LC and determination by CE!UV, LC!UV, LC!Fl, LC!MS with different ion sources (ESI ,ApCI) and different mass analyser (Q, ToF) and LC!E SI!QqQ tandem mass spectrometry. The limits of quantification obtained are always lower than Maxim um Residue Limit (MRL) established by EU for quinolones in animal products and they can be applied to the control of quinolones in foodstuffs of animal origin . Finally the proposed methods were applied to determine quinolones in samples of turkey and pig muscle, pig plasma and milk of cow. Excellent quality parameters and reduced time of analysis were obtained when LC!ESI!MS/MS is used, although the others techniques presented too satisfactory results.
Resumo:
Ydinvoimateollisuudessa irtokappaleella tarkoitetaan prosessiin kuulumatonta materiaalia, joka ei luonnostaan kuulu prosessiin ja jolla prosessiin jäädessään voi olla haitallinen vaikutus sen toimintaan, komponentteihin tai kemiaan. Irtokappaleet voivat aiheuttaa monenlaisia haittoja ydinvoimalaitoksen turvalliselle ja taloudelliselle käytölle. Vaikka ydinvoimalaitoksen käytössä turvallisuus on aina etusijalla, negatiiviset vaikutukset turvallisuuteen heijastuvat usein myös talouteen. Diplomityössä arvioitiin erilaisia irtokappaleiden aiheuttamia riskejä ydinvoimalan toiminnalle käyttötapahtumia analysoimalla. Erilaisiin tapahtumiin, niiden aiheuttajiin ja vaikutusmekanismeihin tutustumisen jälkeen tutkittiin Loviisan voimalaitoksen käyttämiä toimintatapoja irtokappaleiden hallitsemiseksi. Irtokappaleiden hallintaan pyritään sekä hallinnollisilla että käytännön menetelmillä. Hallinnollisia menetelmiä ovat esimerkiksi ohjeistojärjestelmä ja johtaminen, käytännön menettelytapoja esimerkiksi työtavat ja koulutus. Irtokappaleiden hallinnan menetelmiin tutustuttiin sekä tehoajolla että vuosihuollon aikana. Nykytilan arvioinnin perusteella esitettiin toimenpide-ehdotuksia irtokappaleiden hallinnan kehittämiseksi. Toimenpide-ehdotukset muodostettiin sekä korjaamaan havaittuja haavoittuvuuksia että kehittämään toimintaa kansainvälisesti hyviksi tunnistettujen käytäntöjen mukaisiksi.
Resumo:
In this thesis three experiments with atomic hydrogen (H) at low temperatures T<1 K are presented. Experiments were carried out with two- (2D) and three-dimensional (3D) H gas, and with H atoms trapped in solid H2 matrix. The main focus of this work is on interatomic interactions, which have certain specific features in these three systems considered. A common feature is the very high density of atomic hydrogen, the systems are close to quantum degeneracy. Short range interactions in collisions between atoms are important in gaseous H. The system of H in H2 differ dramatically because atoms remain fixed in the H2 lattice and properties are governed by long-range interactions with the solid matrix and with H atoms. The main tools in our studies were the methods of magnetic resonance, with electron spin resonance (ESR) at 128 GHz being used as the principal detection method. For the first time in experiments with H in high magnetic fields and at low temperatures we combined ESR and NMR to perform electron-nuclear double resonance (ENDOR) as well as coherent two-photon spectroscopy. This allowed to distinguish between different types of interactions in the magnetic resonance spectra. Experiments with 2D H gas utilized the thermal compression method in homogeneous magnetic field, developed in our laboratory. In this work methods were developed for direct studies of 3D H at high density, and for creating high density samples of H in H2. We measured magnetic resonance line shifts due to collisions in the 2D and 3D H gases. First we observed that the cold collision shift in 2D H gas composed of atoms in a single hyperfine state is much smaller than predicted by the mean-field theory. This motivated us to carry out similar experiments with 3D H. In 3D H the cold collision shift was found to be an order of magnitude smaller for atoms in a single hyperfine state than that for a mixture of atoms in two different hyperfine states. The collisional shifts were found to be in fair agreement with the theory, which takes into account symmetrization of the wave functions of the colliding atoms. The origin of the small shift in the 2D H composed of single hyperfine state atoms is not yet understood. The measurement of the shift in 3D H provides experimental determination for the difference of the scattering lengths of ground state atoms. The experiment with H atoms captured in H2 matrix at temperatures below 1 K originated from our work with H gas. We found out that samples of H in H2 were formed during recombination of gas phase H, enabling sample preparation at temperatures below 0.5 K. Alternatively, we created the samples by electron impact dissociation of H2 molecules in situ in the solid. By the latter method we reached highest densities of H atoms reported so far, 3.5(5)x1019 cm-3. The H atoms were found to be stable for weeks at temperatures below 0.5 K. The observation of dipolar interaction effects provides a verification for the density measurement. Our results point to two different sites for H atoms in H2 lattice. The steady-state nuclear polarizations of the atoms were found to be non-thermal. The possibility for further increase of the impurity H density is considered. At higher densities and lower temperatures it might be possible to observe phenomena related to quantum degeneracy in solid.
Resumo:
Tämä diplomityö käsittelee Lappeenrannan teknillisen yliopiston ja Etelä- Karjalan poliisilaitoksen yhteistä kehitysprojektia, jonka tavoitteena oli tuottaa käytäntöön vietävissä oleva kehittämissuunnitelma ulkomaalaislupa-asioiden läpäisyaikojen hallintaan. Kehitysalueita on pyritty löytämään poliisilaitoksen henkilöstön haastatteluilla ja prosessianalyyseilla. Työ sisältää teoriaosion määräaikahallinnasta, yleiskatsauksen ulkomaalaislupa-asioista Suomessa sekä selvityksen ulkomaalaislupa-asioiden tilanteesta Etelä-Karjalan poliisilaitoksella. Työssä muodostettiin kolme kehittämisteemaa: seurannan kehittäminen, prosessien ja työtapojen kehittäminen ja yhteistyön kehittäminen. Tärkein kehittämistoimi oli Excel-pohjaisen seurantajärjestelmän suunnittelu, rakentaminen ja käyttöönottaminen. Seurantajärjestelmää voidaan hyödyntää tehtävien päivittäisessä ohjauksessa, määräaikatavoitteiden toteutumisen seurannassa sekä tilannekuvan ylläpitämisessä. Tavoitetilanteessa seurantajärjestelmän avulla hallitaan tilannetta siten, että hallitsemattomia hakemusruuhkia ei synny. Hankkeesta saatuja kokemuksia tehtäväjonojen hallinnasta ja suorituskyvyn mittaamisesta voidaan ajatella hyödynnettävän myös muissa prosesseissa.
Resumo:
Formal software development processes and well-defined development methodologies are nowadays seen as the definite way to produce high-quality software within time-limits and budgets. The variety of such high-level methodologies is huge ranging from rigorous process frameworks like CMMI and RUP to more lightweight agile methodologies. The need for managing this variety and the fact that practically every software development organization has its own unique set of development processes and methods have created a profession of software process engineers. Different kinds of informal and formal software process modeling languages are essential tools for process engineers. These are used to define processes in a way which allows easy management of processes, for example process dissemination, process tailoring and process enactment. The process modeling languages are usually used as a tool for process engineering where the main focus is on the processes themselves. This dissertation has a different emphasis. The dissertation analyses modern software development process modeling from the software developers’ point of view. The goal of the dissertation is to investigate whether the software process modeling and the software process models aid software developers in their day-to-day work and what are the main mechanisms for this. The focus of the work is on the Software Process Engineering Metamodel (SPEM) framework which is currently one of the most influential process modeling notations in software engineering. The research theme is elaborated through six scientific articles which represent the dissertation research done with process modeling during an approximately five year period. The research follows the classical engineering research discipline where the current situation is analyzed, a potentially better solution is developed and finally its implications are analyzed. The research applies a variety of different research techniques ranging from literature surveys to qualitative studies done amongst software practitioners. The key finding of the dissertation is that software process modeling notations and techniques are usually developed in process engineering terms. As a consequence the connection between the process models and actual development work is loose. In addition, the modeling standards like SPEM are partially incomplete when it comes to pragmatic process modeling needs, like light-weight modeling and combining pre-defined process components. This leads to a situation, where the full potential of process modeling techniques for aiding the daily development activities can not be achieved. Despite these difficulties the dissertation shows that it is possible to use modeling standards like SPEM to aid software developers in their work. The dissertation presents a light-weight modeling technique, which software development teams can use to quickly analyze their work practices in a more objective manner. The dissertation also shows how process modeling can be used to more easily compare different software development situations and to analyze their differences in a systematic way. Models also help to share this knowledge with others. A qualitative study done amongst Finnish software practitioners verifies the conclusions of other studies in the dissertation. Although processes and development methodologies are seen as an essential part of software development, the process modeling techniques are rarely used during the daily development work. However, the potential of these techniques intrigues the practitioners. As a conclusion the dissertation shows that process modeling techniques, most commonly used as tools for process engineers, can also be used as tools for organizing the daily software development work. This work presents theoretical solutions for bringing the process modeling closer to the ground-level software development activities. These theories are proven feasible by presenting several case studies where the modeling techniques are used e.g. to find differences in the work methods of the members of a software team and to share the process knowledge to a wider audience.
Resumo:
Wind power is a rapidly developing, low-emission form of energy production. In Fin-land, the official objective is to increase wind power capacity from the current 1 005 MW up to 3 500–4 000 MW by 2025. By the end of April 2015, the total capacity of all wind power project being planned in Finland had surpassed 11 000 MW. As the amount of projects in Finland is record high, an increasing amount of infrastructure is also being planned and constructed. Traditionally, these planning operations are conducted using manual and labor-intensive work methods that are prone to subjectivity. This study introduces a GIS-based methodology for determining optimal paths to sup-port the planning of onshore wind park infrastructure alignment in Nordanå-Lövböle wind park located on the island of Kemiönsaari in Southwest Finland. The presented methodology utilizes a least-cost path (LCP) algorithm for searching of optimal paths within a high resolution real-world terrain dataset derived from airborne lidar scannings. In addition, planning data is used to provide a realistic planning framework for the anal-ysis. In order to produce realistic results, the physiographic and planning datasets are standardized and weighted according to qualitative suitability assessments by utilizing methods and practices offered by multi-criteria evaluation (MCE). The results are pre-sented as scenarios to correspond various different planning objectives. Finally, the methodology is documented by using tools of Business Process Management (BPM). The results show that the presented methodology can be effectively used to search and identify extensive, 20 to 35 kilometers long networks of paths that correspond to certain optimization objectives in the study area. The utilization of high-resolution terrain data produces a more objective and more detailed path alignment plan. This study demon-strates that the presented methodology can be practically applied to support a wind power infrastructure alignment planning process. The six-phase structure of the method-ology allows straightforward incorporation of different optimization objectives. The methodology responds well to combining quantitative and qualitative data. Additional-ly, the careful documentation presents an example of how the methodology can be eval-uated and developed as a business process. This thesis also shows that more emphasis on the research of algorithm-based, more objective methods for the planning of infrastruc-ture alignment is desirable, as technological development has only recently started to realize the potential of these computational methods.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
As controvérsias contemporâneas que têm assolado a sociedade brasileira não dispensam a discussão sobre o equilíbrio entre a preservação do patrimônio (especialmente o meio ambiente) e o desenvolvimento sócio-econômico. Em qualquer ângulo de observação esta questão está colocada e, muitas vezes, tem sido vista como o ponto fundamental para a chegada ao futuro
Resumo:
Purpose – Facilities managers have less visibility of how buildings are being used due to flexible working and unpredictable workers. The purpose of this paper is to examine the current issues in workspace management and an automatic solution through radio frequency identification (RFID) that could provide real time information on the volume and capacity of buildings. Design/methodology/approach – The study described in this paper is based on a case study at a facilities management (FM) department. The department is examining a ubiquitous technology in the form of innovative RFID for security and workspace management. Interviews and observations are conducted within the facilities department for the initial phase of the implementation of RFID technology. Findings – Research suggests that work methods are evolving and becoming more flexible. With this in mind, facilities managers face new challenges to create a suitable environment for an unpredictable workforce. RFID is one solution that could provide facilities managers with an automatic way of examining space in real time and over a wider area than currently possible. RFID alone for space management is financially expensive but by making the application multiple for other areas makes more business sense. Practical implications – This paper will provide practicing FM and academics with the knowledge gained from the application of RFID in this organisation. While the concept of flexible working seems attractive, there is an emerging need to provide various forms of spaces that enable employees' satisfaction and enhance the productivity of the organisation. Originality/value – The paper introduces new thinking on the subject of “workspace management”. It highlights the current difficulties in workspace management and how an RFID solution will benefit workspace methods.