999 resultados para PIT tapes
Resumo:
Tämän tutkimuksentavoitteena on tarkastella osaamisen ja tiedon johtamista. Työssä tarkastellaan aiheeseen liittyviä teoreettisia kehyksiä. Työ ei sisällä empiiristä tutkimusosaa. Tutkimuksen teoreettisina viitekehyksinä ovat eritutkijoiden näkemykset tiedon ja osaamisen johtamisesta, tiedon ja osaamisen johtamisen sukupolvista, tiedon ja osaamisen johtamisen yhdistymisestä sekä näkemykset osaamisen kehittämisestä. Tutkimus osoittaa selkeästi osaamisen ja tiedon tärkeyden ja merkityksen organisaatiolle. Tulevaisuuden kilpailukyky rakentuu paljolti juuri osaamisen varaan. Osaaminen voidaan jakaa eri alueisiin, mistä yleinen näkemys osaamisen ja tiedon jakautumisesta. Osaamisen kehittämisprosessi etenee useilla tutkijoilla samansuuntaisesti visiosta ja strategiasta kehittämissuunnitelmaan. Tiedon luomisen tärkeys on päivä päivältä merkittävämpää myös organisaation osaamisen kannalta. Knowledge Managementin ja Competence Managementin kehitys ajan kuluessa kohti integroitunutta ja systeemistä näkemystä, missä molempien mahdollisuutena voidaan pitää koko systeemin hallintaa kohti itse uudistuvaa organisaatiota mahdollistaa myös ymmärryksen teorioiden viidakossa.
Resumo:
Työn tavoitteena on luoda looginen ja ehjä kuvaus nousevien teknologioiden tunnistamisesta ja analysoinnista sekä näihin toimintoihin käytettävissä olevista työkaluista kirjallisuuden perusteella. Työssä esitellään teknologian arviointiprosessi sekä sitä tukevat työkalut ja menetelmät, skenaariosuunnittelu, roadmap-menetelmä, reaalioptiot ja lead user -menetelmä. Näitä työkaluja käytetään yrityksen strategisen päätöksenteon apuna, ja ne soveltuvat myös nouseviin teknologioihin liittyviin päätöksiin. Laaja ja strateginen reaalioptioajattelu huomioi nouseviin teknologioihin liittyvät epävarmuudet, ymmärtää yrityksen joustavuuden merkityksen ja skaalautuu tiedon tarkentuessa myös laskentatoimen työkaluksi avustamaan budjetointia ja resurssien allokointia. Yrityksen strategiaa voidaan pitää reaalioptioista koostuvana portfoliona. Skenaarioanalyysillä puolestaan voidaan tunnistaa nouseviin teknologioihin liittyviä reaalioptioita ja analysoida toimintaympäristön mahdollisten muutosten yhteisvaikutusta yritykseen ja sen kilpailukykyyn. Skenaarioita laatimalla voidaan havaita vaikeastikin hahmotettavia mahdollisuuksia, parantaa ymmärrystä toimintaympäristön dynamiikasta ja varautua myös epätodennäköisiin tulevaisuudenkuviin. Teknologia-roadmap on havainnollinen tapa esittää yrityksen tarvitsemat teknologiat ja niiden kytkeytyminen toisiinsa ja muuhun liiketoimintaan. Roadmapping-prosessin voidaan ajatella keräävän yrityksen kannattavimmiksi katsomat reaalioptiot strategiseksi kokonaisuudeksi. Lead user -menetelmää voidaan käyttää tukemaan kaikkia näitä metodeja markkinaepävarmuuden vähentämisessä. Lead user -menetelmä täsmentää teknologiaoptioiden arviointia, laadittujen skenaarioiden osuvuutta ja teknologia-roadmapissa näkyvää markkinoiden kytkeytymistä tuotteisiin ja teknologioihin. Nousevien teknologioiden johtamisen kannalta parhaat tulokset saavutetaan käyttämällä näitä menetelmiä yhdessä ja toistensa tukena.
Resumo:
RESUME: Une zone tectonique large et complexe, connue sous le nom de ligne des Centovalli, traverse le secteur des Alpes Centrales compris entre Domodossola et Locarno. Cette région, formée par le Val Vigezzo et la vallée des Centovalli, constitue la terminaison méridionale du dôme Lepontin et représente une portion de la zone des racines des nappes alpines. Elle fait partie dune grande et complexe zone de cisaillement, en partie associée à des phénomènes hydrothermaux dâge alpin (<20 Ma), qui comprend le système tectonique Insubrien et celui du Simplon. Le Val Vigezzo et les Centovalli constituent un vrai carrefour entre les principaux accidents tectoniques des Alpes ainsi qu'une zone de juxtaposition du socle Sudalpin avec la zone des racines de lAustroalpin et du Pennique. Les phases de déformation et les structures géologiques qui peuvent être étudiées s'étalent sur une période comprise entre environ 35 Ma et l'actuel. Létude détaillée de terrain a mis en évidence la présence de nombreuses roches et structures de déformation de type ductile et cassant tels que des mylonites, des cataclasites, des pseudotachylites, des kakirites, des failles minéralisées, des gouges de faille et des plis. Sur le terrain on a pu distinguer au moins quatre générations de plis liés aux différentes phases de déformation. Le nombre et la complexité de ces structures indiquent une histoire très compliquée, selon plusieurs étapes distinctes, parfois liées, voire même superposées. Une partie de ces structures de déformation affectent aussi les dépôts sédimentaires dâge quaternaire, notamment des limons et des sables lacustres. Ces sédiments constituent les restes d'un bassin lacustre attribué à l'époque interglaciaire Riss/Würm (éemien, 67.000-120.000 ans) et ils affleurent dans la partie centrale de la zone étudiée, à l'Est de la plaine de Santa Maria Maggiore. Ces sédiments montrent en leur sein toute une série de structures de déformation tels que des plans de faille inverses, des structures conjuguées de raccourcissement et des véritables plis. Ces failles et ces plis représenteraient les évidences de surface dune déformation probablement active en époque quaternaire. Une autre formation rocheuse a retenu tout notre attention; il s'agit d'un corps de brèches péridotitiques monogéniques qui affleure en discontinuité le long du versant méridional et le long du fond de la vallée Vigezzo sur environ 20 km. Ces brèches se posent indifféremment sur le socle (unités Finero, Orselina) ou sur les sédiments lacustres. Elles sont traversées par des plans de failles qui développent des véritables stries de faille et des gouges de faille; lorientation de ces plans est la même que celle affectant les failles à gouges du socle. La genèse de cette brèche est liée à l'altération et au modelage glacier (rock-glaciers) d'une brèche tectonique originelle qui borde la partie externe du Corps de Finero. Les structures de déformation de cette brèche, pareillement à celles des sédiments lacustres, ont été considérées comme les évidences de surface d'une tectonique quaternaire active dans la région. La dernière phase de déformation cassante qui affecte cette région peut donc être considérée comme active en époque quaternaire. Une vue densemble de la région étudiée nous permet de reconnaître à léchelle régionale une zone de cisaillement complexe orientée E-W, parallèlement à laxe de la vallée Centovalli-Val Vigezzo. Les données de terrain, indiquent que cette zone de cisaillement débute sous conditions ductiles et évolue en plusieurs étapes jusquà des conditions de failles cassantes de surface. La reconstruction de l'évolution géodynamique de la région a permis de définir trois étapes distinctes qui marquent le passage, de ce secteur de socle cristallin, de conditions P-T profondes à des conditions de surface. Dans ce contexte, on a reconnu trois phases principales de déformation à léchelle régionale qui caractérisent ces trois étapes. La phase la plus ancienne est constituée par des mylonites en faciès amphibolite, associées à des mouvements de cisaillement dextre, qui sont ensuite remplacés par des mylonites en faciès schistes verts et des plis rétrovergentes liés au rétrocharriage des nappes alpines. Une deuxième étape est identifiée par le développement dune phase hydrothermale liée à un système de failles extensives et décrochantes dextres à direction principale E-W, NE-SW et NW-SE. Leur caractérisation minéralogique a permis la mise en évidence des phases cristallines de néoformation liées à cet événement constituées par : K-feldspath (microcline), chlorites (Fe+Mg), épidotes, prehnite, zéolites (laumontite), sphène, calcite. Dans ce contexte, pour obtenir une meilleure caractérisation de cet événement hydrothermal on a utilisé des géothermomètres sur chlorites, sensible aussi à la pression et a la a(H2O), qui ont donné des valeurs descendantes comprises entre 450-200°C. Les derniers mouvements sont mis en évidence par le développement dune série de plans majeurs de failles à gouge, qui forment une structure en sigmoïdes dépaisseur kilométrique reconnaissable à léchelle de la vallée et caractérisée par des mouvements transpressifs avec une composante décrochante dextre toujours importante. Cette phase de déformation forme un système conjugué de failles avec direction moyenne E-W qui coupent la zone des racines des nappes alpines, la zone du Canavese et le corps ultramafique de Finero. Ce système se déroule de manière subparallèle à l'axe de la vallée le long de plusieurs dizaines de kilomètres. Une analyse complète et détaillée des gouges de faille par XRD a montré que la fraction argileuse (<2 µm) de ces gouges contient une partie de néoformation très importante constituée par, des illites, des chlorites et des interstratifiés de type illite/smectite ou chlorite/smectite. Des datations avec méthode K-Ar sur ces illites ont donné des valeurs comprises entre 12 et 4 Ma qui représentent l'âge de cette dernière déformation cassante. L'application de la méthode de la cristallinité de l'illite (C.I.) a permis d'évaluer les conditions thermiques qui caractérisent le déroulement de cette dernière phase tectonique qui se produit sous conditions de température caractéristiques de l'anchizone et de la diagenèse. L'ensemble des structures de déformation qu'on vient de décrire s'insère parfaitement dans le contexte de convergence oblique entre la plaque adriatique et celle européenne qui à produit l'orogène alpin. On peut considérer les structures tectoniques du Val Vigezzo-Centovalli comme l'expression d'une zone majeure de cisaillement "Simplo-Insubrienne". L'empilement structural et les structures tectoniques affleurantes dans la région sont le résultat de l'interaction entre un régime tectonique transpressif et un régime transtensif. Ces deux champs de tension sont antagonistes entre eux mais sont reliés, de toute façon, à une seule phase décrochante dextre principale, due à une convergence oblique entre deux plaques. À l'échelle de l'évolution géodynamique on peut distinguer différentes étapes au cours desquelles les structures de ces deux régimes tectoniques interagissent en manière différente. En accord avec les données géophysiques et les reconstructions paléodynamiques prises dans la littérature on considère que la ligne Rhône-Simplon-Centovalli représente l'évidence de surface de la suture majeure profonde entre la plaque Adriatique et celle Européenne. Les vitesses de soulèvement qui ont été calculées dans cette étude pour cette région des Alpes donnent une valeur moyenne de 0.8 mm/a qui est tout à fait comparable avec les données proposées par la littérature sur cette zone. La zone Val Vigezzo-Centovalli peut être donc considérée comme un carrefour géologique où se croisent différentes phases tectoniques qui représentent les évidences de surface d'une suture profonde majeure entre deux plaques dans un contexte de collision continentale. ABSTRACT: A wide and complex tectonic zone known as Centovalli line, crosses the Central Alps sector between Domodossola and Locarno. This area, formed by the Vigezzo Valley and Centovalli valley, constitutes the southernmost termination of the Lepontin dome and represents a portion of the alpine nappes root zone. It belongs to a large and complex shear-zone, partly associated with hydrothermal phenomena of alpine age (<20 My), which includes the Insubric Line and the Simplon fault zone. Vigezzo Valley and Centovalli constitute a real crossroads between the mains alpines tectonics lines as well as a zone of juxtaposition of the Southalpine basement with the Austroalpin and Pennique root zone. The deformation phases and the geological structures that can be studied between approximately 35 My and the present. The detailed field study showed the presence of many brittle and ductile deformation structures and fault rocks such as mylonites, cataclasites, pseudotachylites, kakirites, mineralized faults, fault gouges and folds. In the field we could distinguish at least four folds generations related to the various deformation phases. The number and the complexity of these structures indicate a very complicated history, comprising several different stages, that sometimes are related and even superimposed. Part of these deformation structures affect also the sedimentary deposits of quaternary age, in particular the silts and sands lake deposit. These sediments constitute the remainders of a lake basin ascribed to the interglacial Riss/Würm (Eemien, 67.000-120.000 years) and outcroping in the central part of the studied area, in the Eastern part of Santa Maria Maggiore plain. These sediments show a whole series of deformation structures such as inverse fault planes, combined shortening structures and true folds. These faults and folds would represent the surface evidence of a probably active tectonic deformation in quaternary time. Another rock formation attracted all our attention. It is a body of monogenic peridotite breccia which outcrops in discontinuity along the southernmost slope and the bottom of the Vigezzo valley on approximately 20 km. This breccia lies indifferently on the basement (Finero and Orselina units) or on the lake sediments. They are crossed by fault planes which developed slikenside and fault gouges whose orientation is the same of the faults gouges in the alpine basement. This breccia results from the weathering and the surface modelling of an original tectonic breccia which borders the external part of Finero peridotite body. This breccia deformation structures, like those of the lake sediments, were regarded as the surface interaction of active quaternary tectonics in the area. So the last brittle deformation phases which affects this area seems to be actives in quaternary time. Theoverall picture of the studied area on a regional scale enables us to point out a complex shear-zone directed E-W, parallel to the axis of the Centovalli and Vigezzo Valley. The field analysis indicates that this shear-zone began under ductile conditions and evolved in several stages to brittle faulting under surface conditions. The analysis of the geodynamic evolution of the area allows to define three different stages which mark the transition of this alpine basement root zone, from deep P-T conditions to P-T surface conditions. In this context on regional scale three principal deformation phases, which characterize these three stages can be distinguished. The oldest phase consisted of the amphibolitie facies mylonites, associated to dextral strikeslip movements. They are then replaced by green-schists facies mylonites and backfolds related to the backthrusting of the alpines nappes. A second episode is caracterized by the development of an hydrothermal phase bound to an extensive fault and dextral strike-slip fault system, with E-W, NW-SE and SE-NW principal directionsThe principal neoformed mineral phases related to this event are: K-feldspar (microcline), chlorites (Fe+Mg), epidotes prehnite, zéolites (laumontite), sphene and calcite. In this context, to obtain a better characterization of this hydrothermal event, we have used an chlorite geothermometer, sensitive also to the pressure and has the a(H2O), which gave downward values ranging between 450-200°C. The last movements are caracterized by the development of important gouge fault plans, which form a sigmoid structure of kilometric thickness which is recognizable at the valley scale, and is characterized by transpressive movements always with a significant dextral strike-slip component. This deformation phase forms a combined faults system with an average E-W direction, which cuts trough the alpine root zone, the Canavese zone and the Finero ultramafic body. This fault system takes place subparallel to the axis of the valley over several tens of kilometers. A complete and detailed XRD analysis of the gouges fault showed that the clay fraction (<2µm) contains a very significant neo-formation of illite, chlorites and mixed layered clays such as illite/smectite or chlorite/smectite. The K-Ar datings of the illite fraction <2µm gave values ranging between 12 and 4 My and the illite fraction <0.2µm gave more recents values until to 2,4-0 My.This values represent the age of this last brittle deformation. The application of the illite crystallinity method (C.I.) allowed evaluating the thermal conditions which characterize this tectonic phase that occured under temperature conditions of the anchizone and diagenesis. The whole set of deformation structures which we just described, perfectly fit the context of oblique convergence between the Adriatic and the European plate that produced the alpine orogen. We can regard the Vigezzo valley and Centovalli tectonic structures as the expression of a major "Simplo-Insubric" shear-zone. Structural stacking and tectonic structures that outcrop in the studied area, are the result of the interaction between a transpressive and a transtensve tectonic phases. These two tension fields are antagonistic but they are also connected, in any event, with only one principal dextral strike-slip movement, caused by an oblique convergence between two plates. On the geodynamic evolution scale we can distinguish various stages during which these two tectonic structures fields interact in various ways. In agreement with the geophysical data and the paleodynamic recostructions taken in the literature we considers that the Rhone-Simplon-Centovalli line are the surface feature of the major collision between the Adriatique and the European plate at depth. The uplift speeds we calculated in this study for this Alpine area give an average value of 0.8 mm/a, which is in good agreement with the data suggested by the literature on this zone. TheVigezzo Valley and Centovalli zone can therefore be regarded as a geological crossroad where various tectonic phases are superimposed. They represent the evidences of a major and deeper suture between two plates in a continental collision context.
Resumo:
Ce travail de thèse décrit dans un premier volet le contexte historique et géopolitique de l'héroïne et de la cocaïne, ainsi que la composition chimique des produits et les étapes de leur fabrication. Le second volet est consacré à la description du concept du profilage et aux méthodes d'analyses chimiques et de comparaison de profils. Le troisième volet présente l'utilisation d'outils permettant une gestion et une visualisation des liens chimiques mis en évidence. L'ensemble de la démarche s'inscrit dans le but visant à cerner mieux les rouages de l'organisation du trafic de stupéfiants et de proposer une architecture cohérente et efficace de la gestion des analyses des produits stupéfiants. Le résultat permet de fournir une information opérationnelle utile aux forces de police actives dans la lutte contre le trafic de stupéfiant. Enfin une réflexion est menée sur l'interprétation des résultats et la valeur probante de ceux-ci, notamment lorsqu'une expertise est rédigée à l'attention d'un magistrat ou d'un tribunal.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
1. Abstract Cervical cancer is thought to be the consequence of infection by human papillomaviruses (HPV). In the majority of cases, DNA from HPV type 16 (HPV16) is found in malignant cervical lesions. The initial steps leading to transformation of an infected cell are not clearly understood but in most cases, disruption and integration of the episomal viral DNA must take place. As a consequence, the E2 and E4 genes are usually not expressed whereas the E6 and E7 oncogenes are highly expressed. However, in a normal infection in which the viral DNA is maintained as an episome, all viral genes are expressed. The pattern according to which the viral proteins are made, and therefore the life cycle of the virus, is tightly linked to the differentiation process of the host keratinocyte. The study of the viral oncogenes E6 and E7 has revealed crucial functions in the process of malignant transformation such as degradation of the p53 tumor suppressor protein, deregulation of the Retinoblastoma protein pathway and activation of the telomerase ribonucleoprotein. All these steps are necessary for cancerous lesions to develop. However, the loss of the E2 gene product seems to be necessary for sufficient expression of E6 and E7 in order to achieve such effects. In normal infections, the E4 protein is made abundantly in the later stages of the viral life cycle. Though extensive amounts of work have been carried out to define the function of E4, it still remains unclear. In this study, several approaches have been used to try and determine the functions of E4. First, a cell-penetrating fusion protein was designed and produced in order to circumvent the chronic difficulties of expressing E4 in mammalian cells. Unfortunately, this approach was not successful due to precipitation of the purified fusion protein. Second, the observation that E4 accumulates in cells having modified their adhesion properties led to the hypothesis that E4 might be involved in the differentiation process of keratinocytes. Preliminary results suggest that E4 triggers differentiation. Last, as E4 has been reported to collapse the cytokeratin network of keratinocytes, a direct approach using atomic force microscopy has allowed us to test the potential modification of mechanical properties of cells harboring reorganized cytokeratin networks. If so, a potential role for E4 in viral particle release could be hypothesized. 2. Résumé Il a été établi que le cancer du col de l'utérus se développe essentiellement à la suite d'une infection par le virus du papillome humain (HPV). Dans la majorité des cas analysés, de l'ADN du HPV de type 16 (HPV16) est détecté. Les étapes initiales de la transformation d'une cellule infectée sont mal connues mais il semble qu'une rupture du génome viral, normalement épisomal, suivi d'une intégration dans le génome de la cellule hôte soient des étapes nécessaires dans la plupart des cas. Or il semble qu'il y ait une sélection pour les cas où l'expression des oncogènes viraux E6 et E7 soit favorisée alors que l'expression des gènes E2 et E4 est en général impossible. Par contre, dans une infection dite normale où le génome viral n'est pas rompu, il n'y pas développement de cancer et tous les gènes viraux sont exprimés. L'ordre dans lequel les protéines virales sont produites, et donc le cycle de réplication du virus, est intimement lié au processus de différentiation de la cellule hôte. L'étude des protéines oncogènes E6 et E7 a révélé des fonctions clés dans le processus de transformation des cellules infectées telles que la dégradation du suppresseur de tumeur p53, la dérégulation de la voie de signalisation Rb ainsi que l'activation de la télomérase. Toutes ces activités sont nécessaires au développement de lésions cancéreuses. Toutefois, il semble que l'expression du gène E2 doit être empêchée afin que suffisamment des protéines E6 et E7 soient produites. Lorsque le gène E2 est exprimé, et donc lorsque le génome viral n'est pas rompu, les protéines E6 et E7 n'entraînent pas de telles conséquences. Le gène E4, qui se trouve dans la séquence codante de E2, a aussi besoin d'un génome viral intact pour être exprimé. Dans une infection normale, le gène E4 est exprimé abondamment dans les dernières étapes de la réplication du virus. Bien que de nombreuses études aient été menées afin de déterminer la fonction virale à E4, aucun résultat n'apparaît évident. Dans ce travail, plusieurs approches ont été utilisées afin d'adresser cette question. Premièrement, une protéine de fusion TAT-E4 a été produite et purifiée. Cette protéine, pouvant entrer dans les cellules vivantes par diffusion au travers de la membrane plasmique, aurait permis d'éviter ainsi les problèmes chroniques rencontrés lors de l'expression de E4 dans les cellules mammifères. Malheureusement, cette stratégie n'a pas pu être utilisée à cause de la précipitation de la protéine purifiée. Ensuite, l'observation que E4 s'accumule dans les cellules ayant modifié leurs propriétés d'adhésion a suggéré que E4 pourrait être impliqué dans le procédé de différentiation des kératinocytes. Des résultats préliminaires supportent cette possibilité. Enfin, il a été montré que E4 pouvait induire une réorganisation du réseau des cytokératines. Une approche directe utilisant le microscope à force atomique nous a ainsi permis de tester une potentielle modification des propriétés mécaniques de cellules ayant modifié leur réseau de cytokératines en présence de E4. Si tel est le cas, un rôle dans la libération de particules virales peut être proposé pour E4.
Resumo:
Verkko-opetustakäsittelevässä materiaalissa pohditaan usein verkko-opetuksesta opiskelijalle aiheutuvia kustannuksia, kun taas verkko-opetuksen toteuttajaosapuolelle aiheutuvat kustannukset jäävät vähemmälle huomiolle tai kokonaan huomiotta. Tämän tutkimuksen tarkoituksena on selvittää verkko-opetuksen toteuttajaosapuolelle (esim. opettaja, työryhmä, yliopisto tms. organisaatio) aiheutuvia työmääriä ja niistä syntyviä kustannuksia. Tutkimusaineistona käytetään Lappeenrannan teknillisessä yliopistossa toteutettuja verkkokursseja tekniikan, kauppatieteen, kielten opetuksen sekä yleisten oppimista tukevien kurssien osalta.Tutkimuksessa etsitään vastauksia seuraaviin kysymyksiin: kuinka eri tyyppisten verkkokurssien kustannuksetkertyvät ja mitkä tekijät aiheuttavat kustannuksia. Tutkimuksen tärkeimpinä tuloksina voidaan esittää, että: 1. Tutkittujen verkkokurssien hinnat näyttäisivät työkustannusten osalta jäävän alle 1000 ¤:n, samoin kokonaistyömäärät jäävät alle 50 työpäivän. 2.Runsaasti työtä vaatineissa verkkokursseissa on enimmäkseen panostettu kurssin ulkoasun suunnitteluun ja materiaalituotantoon. Sen sijaan esim. opiskelijoiden ohjauksessa ei havaittu merkittävämpää panostusta kuin muissakaan tapauksissa. 3. Karkeasti tulkiten voidaan sanoa, että jo pienellä panostuksella voidaan saada aikaan uudistuksia, jotka hyödyttävät opettajaa ja tehostavat hänen ajankäyttöään. Tämä voi tapahtua myös päinvastoin, eli opettaja voi panostaa hyvinkin paljon verkko-opetukseen saavuttamatta kuitenkaan tavoittelemaansa hyötyä. Tutkimuksen painopiste on verkkokurssien vaatimien työmäärien sekä -kustannusten selvittämisessä sekä analysoinnissa. Raportissa muistutetaan, että kustannustehokkuusajattelun rinnalla tulee kuitenkin pitää mielessä koulutuksen laatuun liittyvät näkökulmat. Kursseja suunniteltaessa on syytä muistaa, etteivät alhaiset kokonaiskustannukset ole ainoa tavoitetila, vaan että tasapaino koulutuksen kustannusten ja laadun kanssa on säilytettävä.
Resumo:
Lappeenrannan teknillisen yliopiston kirjasto on kokenut viime vuosina muutoksia: palveluiden lisäännyttyä ja tilojen laajennettua ei sen nimikään ole voinut säilyä samana. Nykyisin kirjastoalueen varastoa, kirjastotilaa alakerrassa, yläkertaa ja yläkerrasta alkavia oppimiskeskuksen tiloja kutsutaan yhteisnimellä Origo. Marraskuussa 2006 laadittiin mielipidekysely, jossa kartoitettiin eri aihealueita liittyen Origon tiloihin sekä sen palveluihin ja niiden käyttöön. Vastauksia saatiin 454 kappaletta. Saadut vastaukset käsiteltiin ja koottiin tähän raporttiin. Myös itse kyselylomake on nähtävissä raportin lopussa. Kyselyn tuloksista kävi ilmi, että suurin osa vastaajista on ymmärtänyt, mitä Origo pitää sisällään. Kaikille nimenmuutos ei ole ollut kuitenkaan helppo: Origo miellettiin usein yläkerran muodostamaksi kokonaisuudeksi. Suurin osa vastaajista ilmoitti vierailevansa Origossa useita kertoja viikossa, ja suosituimmaksi syyksi nousi kirjastomateriaalin lainaus. Myös tulostaminen ja tiedonetsintä olivat yleisiä Origossa käynnin syitä. Origon tiloihin ja viihtyvyyteenoltiin keskimäärin tyytyväisiä, mutta etenkin ryhmätyö- ja luokista toivottiin lisää informaatiota, ja työskentelypaikkoja kaivattaisiin lisää. Palveluista eniten käytettyjä ovat kirjojen lainaus ja tiedon haku Wilma-tietokannasta. Näiden kahden lisäksi yksi tärkeimmiksi koetuista palveluista oli myös kirjojen varaus. Kirjojen varaukseen tosin toivottaisiin sähköinen mahdollisuus. Wilma-tietokanta koettiin myös ylivoimaisesti hyödyllisimmäksi tietolähteeksi. Jokainen palvelupiste (lainaus, tietopalvelu sekä yläkerran neuvonta) koettiin tärkeiksi, ja mielikuva Origosta olikin useimpien vastausten perusteella myönteinen. Kyselyn lopuksi vastaajat saivat vielä antaa parannusehdotuksia ja muita kommentteja liittyen Origon toimintaan.
Resumo:
Avant-propos : De nombreuses études ont été réalisées sur les inégalités factuelles des structures sociales, comprenant aussi bien l'aspect statique de la stratification sociale que l'aspect dynamique de la mobilité sociale (voir par exemple Levy et Suter, 2002, Lemel, 1991, Erikson et Goldthorpe, 1992, Esping-Andersen, 1993). Par contre, les recherches portant sur la perception, par les acteurs, des inégalités des structures sociales sont en comparaison peu nombreuses en ce qui concerne les représentations de la stratification sociale (Levy et al., 1997, Lorenzi-Cioldi et Joye, 1988, Coxon, Davies et Jones, 1986, Zwicky, 1989) et presque inexistantes dans le cas des représentations de la mobilité sociale (Attias-Donfut et Wolff, 2001). La présente recherche se propose d'étudier simultanément la perception de la stratification sociale et de la mobilité sociale intragénérationnelle par les acteurs en intégrant le caractère multidimensionnel du système d'inégalités. Elle défend la thèse fondamentale d'une double origine des inégalités perçues, qui participeraient à la fois d'aspects macrosociaux et mésosociaux de la stratification sociale, les premiers portant sur la structure sociale dans son ensemble, les seconds sur une partie seulement de celle-ci (voir par exemple Kelley et Evans, 1995, Levy, 2002). Dans une perspective systémique, on se trouverait, à côté de la structure macrosociale, en présence de sous-systèmes mésosociaux, de portée restreinte. La perception de la stratification sociale dépendrait alors du cadre de référence adopté par les acteurs, selon qu'il porte sur le système dans son ensemble ou sur un sous-système. Un des objectifs de cette recherche sera d'établir que la pertinence des cadres de référence macrosocial et mésosocial est étroitement liée à la lecture statique ou dynamique de la stratification sociale. Dans le cas statique, celui du positionnement, les représentations sociales s'articuleraient autour des inégalités macrosociales, tenant compte du système dans son ensemble, tandis que dans le cas dynamique, celui de la mobilité ou de l'évolution du positionnement, les inégalités mésosociales, propres aux sous-systèmes, l'emporteraient. D'une part, la perception du positionnement social dépendrait de l'insertion de l'acteur dans la structure sociale, comprise dans son ensemble, et reproduirait les inégalités factuelles macrosociales, telles qu'elles apparaissent par exemple au travers des catégories socioprofessionnelles. D'autre part, la perception du parcours de mobilité ? conservation, amélioration ou dégradation de la position perçue ? resterait indépendante des changements macrosociaux de l'insertion, mais relèverait avant tout de déterminants propres à l'environnement social immédiat de l'acteur. L'environnement de l'acteur, en tant qu'il s'inscrit dans une partie restreinte de la structure sociale, permettrait de saisir les inégalités mésosociales. L'expérience, par les acteurs, de ces deux aspects de la structure sociale conduirait à la mise en place de deux types d'inégalités perçues irréductibles les unes aux autres dans la mesure où le système macrosocial et les sous-systèmes mésosociaux présentent une certaine autonomie. Cette autonomie peut être vue d'une part en rapport avec l'importance propre des organisations de nature mésosociale - en particulier les entreprises - dans les sociétés contemporaines (Sainsaulieu et Segrestin, 1986, Perrow, 1991), d'autre part en relation avec l'hétérogénéité que ces dernières induisent en termes de segmentation du marché de l'emploi (Baron et Bielby, 1980). Dans une large mesure, les organisations intermédiaires se distinguent ainsi de la structure sociale prise dans son ensemble: plutôt que de reproduire les inégalités macrosociales, elles constitueraient des systèmes d'inégalités indépendants, notamment quant à la régulation des parcours professionnels (Bertaux, 1977). Ainsi, la perception de la structure sociale ne se réduirait pas aux seuls facteurs macrosociaux, mais dépendrait, en l'absence d'un modèle d'organisation mésosocial unique, de la diversité des structures intermédiaires. On peut d'ailleurs supposer que la prise en compte des organisations mésosociales est susceptible de pallier la faiblesse des explications classiques en termes macrosociologiques, relevées par les tenants des thèses avançant le déclin du pouvoir structurant de la stratification sociale ou du travail (voir Levy, 2002 et, sur les thèses citées, par exemple Beck, 1983, Matthes, 1983, Berger et Hradil, 1990, Clark et Lipset, 1991). En effet, dans la mesure où l'acteur serait plus souvent confronté aux structures de son environnement social immédiat plutôt qu'à la structure sociale dans son ensemble, la perception pourrait dépendre en premier lieu de facteurs mésosociaux, susceptibles de supplanter ou, à tout le moins, d'atténuer l'effet des facteurs macrosociaux. Une telle approche permet de conserver une lecture structurelle de la perception du positionnement en enrichissant la relation classique entre structure macrosociale et acteur d'une composante mésosociologique, évitant ainsi le recours à une explication culturelle ad hoc Dès lors, la principale question de recherche s'adresse au lien entre structure sociale factuelle et structure sociale perçue. Dans la perspective statique du positionnement, l'effet des structures mésosociales serait tel qu'il se superposerait à la détermination macrosociale de la perception, sans pour autant subvertir la hiérarchie des positions induites par les catégories socioprofessionnelles. Dans la perspective dynamique, en revanche, les changements liés à l'insertion mésosociale peuvent l'emporter sur l'immobilité ou la mobilité définies en termes macrosociologiques. D'une part, en supposant que les plans mésosocial et macrosocial agissent de manière plus ou moins autonome sur la perception, l'amélioration, la conservation ou la dégradation de la position ne coïncide pas nécessairement selon ces deux plans. D'autre part, l'ampleur de la mobilité perçue due à l'écart entre le positionnement mésosocial passé et actuel peut dépasser celle qui est liée à la mobilité macrosociale, surtout si cette dernière est de faible distance. Le passage de la perspective statique à la perspective dynamique peut dès lors être vu comme un moyen de faire apparaître le rôle fondamental joué par les structures mésosociales au sein de la stratification sociale. L'orientation de la recherche consistera d'abord à mettre en évidence, par-delà les différences macrosociales des représentations des positions professionnelles, les variations de la perception au sein des catégories socioprofessionnelles. Ces étapes montreront, à différents égards, que les représentations se singularisent en relation avec l'insertion mésosociale de l'acteur. On verra également que la perception de la mobilité échappe à une détermination macrosociale, mais qu'elle présente une cohérence mésosociale certaine. Ces résultats, insistant sur la prise en compte des structures mésosociales, nous amèneront enfin à un examen systématique des déterminants de la perception du positionnement et du parcours de mobilité, mettant en oeuvre une variété de facteurs explicatifs dépassant un cadre d'analyse purement structurel. La recherche débute par une discussion de la place qui revient à une étude des représentations du parcours professionnel dans le champ des travaux sur la stratification et la mobilité sociale, en particulier sa justification théorique et empirique, et la formulation des hypothèses de recherche (chapitre 1). Elle se poursuit par la présentation de l'échantillonnage et des variables utilisées (chapitre 2). Le traitement des hypothèses de recherche fait l'objet de trois chapitres distincts. Chaque hypothèse s'accompagne, en plus des développements liés à son examen, d'une introduction et d'une conclusion spécifiques. Le premier (chapitre 3) porte sur la perception de la stratification sociale des positions professionnelles, le second (chapitre 4) sur la perception du parcours de mobilité et le troisième (chapitre 5) sur les déterminants sociologiques de la perception des inégalités liées au positionnement et à la mobilité professionnels. Enfin, au traitement des hypothèses fait suite la conclusion de la recherche (chapitre 6).
Resumo:
Résumé pour large public Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne Lors de la prise d'un médicament, celui-ci va passer par différentes étapes que sont l'absorption, la distribution, le métabolisme et enfin l'élimination. Ces quatre étapes sont regroupées sous le nom de pharmacocinétique. A noter que ces quatre paramètres sont dynamiques et en constante évolution. Durant cette thèse, nous avons investigué différents aspects de la pharmacocinétique, tout d'abord par une revue de la littérature sur la glycoprotéine-P (Pgp). Récemment découverte, cette protéine de membrane est située aux endroits stratégiques de l'organisme comme la barrière hématoencéphalée, le placenta ou les intestins où elle influencera l'entrée de différentes substances, en particulier les médicaments. La Pgp serait impliquée dans les phénomènes de résistances aux agents thérapeutiques en oncologie. La Pgp influence donc l'absorption des médicaments, et son impact en clinique, en termes d'efficacité de traitement et de toxicité prend chaque jour plus d'importance. Ensuite nous avons mis au point une méthode d'analyse quantitative d'un antidépresseur d'une nouvelle génération : la mirtazapine (Remeron®). La nouveauté réside dans la façon dont la mirtazapine interagit avec les neurotransmetteurs impliqués dans la dépression que sont la sérotonine et la noradrénaline. Cette méthode utilise la chromatographie liquide pour séparer la mirtazapine de ses principaux métabolites dans le sang. La spectrométrie de masse est utilisée pour les détecter et les quantifier. Les métabolites sont des substances issues de réactions chimiques entre la substance mère, la mirtazapine, et généralement des enzymes hépatiques, dans le but de rendre cette substance plus soluble en vue de son élimination. Cette méthode permet de quantifier la mirtazapine et ses métabolites dans le sang de patients traités et de déterminer la variation des taux plasmatiques chez ces patients. Puis nous avons étudié le métabolisme d'un autre antidépresseur, le citalopram, qui a un métabolisme complexe. Le citalopram est un racémate, c'est-à-dire qu'il existe sous forme de deux entités chimiques (R-(-) et S-(+) citalopram) qui ont le même nombre d'éléments mais arrangés différemment dans l'espace. La voie métabolique cérébrale du citalopram est sous le contrôle d'une enzyme, la monoamine oxydase (MAO), conduisant à une forme acide du citalopram (l'acide propionique du citalopram). La MAO existe sous deux formes : MAO-A et MAO-B. Nous avons utilisé des souris déficientes d'un gène, celui de la MAO-A, pour mieux en comprendre le métabolisme en les comparants à des souris sauvages (sans déficience de ce gène). Nous avons utilisé le citalopram et deux de ses métabolites (le déméthylcitaloprarn et le didéméthyícitalopram) comme substrats pour tester la formation in vitro de l'acide propionique du citalopram. Nos résultats montrent que la MAO-A favorise la formation de l'entité R-(-) et présente une plus grande affinité pour le citalopram, tandis que la MAO-B métabolise préférentiellement l'entité S-(+) et a une plus grande affinité pour les deux métabolites déméthylés. De plus, la déficience en MAO-A est partiellement compensée parla MAO-B chez les souris déficientes du gène de la MAO-A. Enfin, nous avons étudié une deuxième voie métabolique du citalopram qui s'est avérée toxique chez le chien Beagle. Celle-ci est catalysée par une autre famille d'enzymes, les cytochromes P-450, et mène aux métabolites déméthylés et didéméthylés du citalopram. Nous avons utilisé des tissus hépatiques de chiens Beagle. Plusieurs cytochromes P-450 sont impliqués dans le métabolisme du citalopram menant à sa forme déméthylée, ceci tant chez l'homme que chez le chien. Par contre, dans le métabolisme de la forme déméthylée menant à 1a forme didéméthylée, un seul cytochrome P-450 serait impliqué chez l'Homme, tandis qu'ils seraient plusieurs chez le chien. L'activité enzymatique produisant la forme didéméthylée est beaucoup plus importante chez le chien comparé à l'homme. Cette observation soutien l'hypothèse que des taux élevés de la forme didéméthylée participent à la toxicité spécifique du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant que les enzymes peuvent être stimulées ou inhibées, il importe de pouvoir suivre au plus prés les taux plasmatiques des différents psychotropes et de leurs métabolites. Résumé Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne La plupart des médicaments subissent une transformation enzymatique dans l'organisme. Les substances issues de cette métabolisation ne sont pas toujours dotées d'une activité pharmacologique. Il s'est avéré par conséquent indispensable de suivre les taux plasmatiques d'une substance et de ses métabolites et d'établir ou non l'existence d'une relation avec l'effet clinique observé. Ce concept nommé « therapeutic drag monitoring » (TDM) est particulièrement utile en psychiatrie ou un manque de compliance des patients est fréquemment observé. Les médicaments psychotropes ont un métabolisme principalement hépatique (cytochromes P-450) et parfois cérébral (monoamines oxydases), comme pour le citalopram par exemple. Une méthode stéréosélective de chromatographie liquide couplée à la spectrométrie de masse a été développée pour analyser les énantiomères R-(-) et S-(+) d'un antidépresseur agissant sur les récepteurs noradrénergiques et sérotoninergiques, la mirtazapine et de ses métabolites déméthylmirtazapine et 8-hydroxymirtazapine. Les données préliminaires obtenues dans les plasmas dosés suggèrent que les concentrations de R-(-)-mirtazapine sont plus élevées que celles de S-(+)-mirtazapine, à l'exception des patients qui auraient comme co-médication des inhibiteurs du CYP2D6, telle que la fluoxétine ou la thioridazine. Il y a une enantiosélectivité du métabolisme de la mirtazapine. En particulier pour la 8-hydroxymirtazapine qui est glucuroconjuguée et pour laquelle le ratio S/R varie considérablement. Cette méthode analytique présente l'avantage d'être utilisable pour le dosage stéréosélectif de la mirtazapine et de ses métabolites dans le plasma de patients ayant d'autres substances en co-médication. La glycoprotéine P fonctionne comme une pompe transmembranaire transportant les xénobiotiques depuis le milieu intracellulaire vers le milieu extracellulaire. Son induction et son inhibition, bien que moins étudiées que pour les cytochromes P-450, ont des implications cliniques importantes en termes d'efficacité de traitement et de toxicité. Cette glycoprotéine P a fait l'objet d'une recherche bibliographique. Nous avons étudié le métabolisme du citalopram, un antidépresseur de la classe des inhibiteurs spécifiques de la recapture de la sérotonine chez la souris et chez le chien. Cette substance subit un métabolisme complexe. La voie de métabolisation conduisant à la formation de l'acide propionique du citalopram, catalysée par les monoamines oxydases, a été étudiée in vitro dans les mitochondries cérébrales chez la souris déficiente du gène de la MAO-A (Tg8). La monoamine oxydase A catalyse la formation de l'énantiomère R-(-) et présente une plus grande affinité pour les amines tertiaires, tandis que la monoamine oxydase B favorise la formation de la forme S-(+) et a une affinité plus marquée pour les amines secondaires et primaires. L'étude du citalopram chez la souris Tg8 adulte a montré que la monoamine oxydase B compense la déficience de la monoamine oxydase A chez ces souris génétiquement modifiées. Une autre voie de métabolisation du citalopram conduisant à la formation de didéméthylcitalopram, catalysée par les cytochromes P-450, a été étudiée in vitro dans des microsomes hépatiques de chiens Beagle. Nos études ont montré que les cinétiques de N-déméthylation du citalopram sont biphasiques chez le chien. Les orthologues canins impliqués dans la première N-déméthylation semblent être identiques aux cytochromes P-450 humains. Par contre, dans la deuxième Ndéméthylation, un seul cytochrome P-450 semble être impliqué chez l'homme (CYP2D6), tandis qu'on retrouve jusqu'à cinq orthologues chez le chien. Le CYP2D15, orthologue canin du CYP2D6, est majoritairement impliqué. De plus, l'activité enzymatique, reflétée par les clairances intrinsèques, dans la première N-déméthylation est jusqu'à 45 fois plus élevée chez le chien comparé à l'homme. Ces différentes observations soutiennent l'hypothèse que des taux élevés de didéméthylcitalopram sont responsables de la toxicité du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant -que les enzymes peuvent être induits ou inhibés, il importe de pouvoir suivre au plus près les taux plasmatiques des différents psychotropes et de leurs métabolites. Summary Most of the drugs are metabolized in the organism. Substances issued from this metabolic activity do not always show a pharmacological activity. Therefore, it is necessary to monitor plasmatic levels of drugs and their metabolites, and establish the relationship with the clinical effect. This concept named therapeutic drug monitoring is very useful in psychiatry where lack of compliance is commonly observed. Antidepressants are mainly metabolized in the liver (cytochrome P-450) and sometimes in the brain (monoamine oxidase) like the citalopram, for exemple. A LC-MS method was developed, which allows the simultaneous analysis of R-(-) and S-(+) enantiomers of mirtazapine, an antidepressant acting specifically on noradrenergic and serotonergic receptors, and its metabolites demethylmirtazapine and 8-hydroxymirtazapine in plasma of mirtazapine treated patients. Preliminary data obtained suggested that R-(-) mirtazapine concentrations were higher than those of S-(+) mirtazapine, except in patients comedicated with CYP2D6 inhibitors such as fluoxetine or thioridazine. There is an enantioselectivity in the metabolism of mirtazapine. In particular for the 8-hydroxymirtazapine, which is glucuroconjugated and S/R ratio varies considerably. Therefore this method seems to be suitable for the stereoselective assay of mirtazapine and its metabolites in plasma of patients comedicated with mirtazapine and other drugs for routine and research purposes. P-glycoprotein is working as an efflux transporter of xenobiotics from intracellular to extracellular environment. Its induction or inhibition, although less studied than cytochrome P-450, has huge clinical implications in terms of treatment efficacy and toxicity. An extensive literature search on P-glycoprotein was performed as part of this thesis. The study of citalopram metabolism, an antidepressant belonging to the class of selective serotonin reuptake inhibitors. This substance undergoes a complex metabolism. First metabolization route leading to citalopram propionic acid, catalyzed by monoamine oxidase was studied in vitro in mice brain mitochondria. Monoamine oxidase A catalyzed the formation of R-(-) enantiomer and showed greater affinity for tertiary amines, whereas monoamine oxidase B triggered the formation of S-(+) enantiomer and demonstrated higher affinity for primary and secondary amines. citalopram evaluation in adult Tg8 mice showed that monoamine oxidase B compensated monoamine oxidase A deficiency in those genetically transformed mice. The second metabolization route of citalopram leading to didemethylcitalopram and catalyzed by cytochrome P-450 was studied in vitro in Beagle dog's livers. Our results showed that citalopram N-demethylation kinetics are biphasic in dogs. Canine orthologs involved in the first N-demethylation seemed to be identical to human cytochromes P-450. However, in the second N-demethylation only one cytochrome P-450 seemed to be involved in human (CYP2D6), whereas up to five canine orthologs were found in dogs. CYP2D15 canine ortholog of CYP2D6 was mainly involved. In addition, enzymatic activity reflected by intrinsic clearance in the first N-demethylation was up to 45 fold higher in dogs compared to humans. Those observations support the assumption that elevated rates of didemethylcitalopram are responsible for citalopram toxicity in dogs. We can conclude that several enzymes groups are involved in the brain, as well as in the liver, in antidepressant metabolization. Knowing that enzymes may be induced or inhibited, it makes sense to closely monitor plasmatic levels of antidepressants and their metabolites.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
Lisääntynyt Balanced Scorecardin käyttö herätti kiinnostuksen tutkia, mistä BSC:ssä oli oikein kysymys. Epäonnistumiset BSC-projekteissa vaikuttivat siihen, että haluttiin tutkia, mikä nykyisissä projektimalleissa oli vikana. Kirjallisuudessa on esitetty useita BSC:n käyttöönoton projektimalleja, joista tunnetuin on Kaplanin ja Nortonin kehittämä malli. Alun perin kyseessä oli varsin operatiivinen suoritusmittaristo, jonka tavoitteena oli nostaa ei-taloudelliset mittarit taloudellisten mittareiden rinnalle. Sittemmin lähestymistapa onlaajentunut strategiapohjaiseksi johtamisen järjestelmäksi, mutta mallin rakentamisessa on vielä puutteita. Havaitut puutteet BSC-projektimalleissa loivat tarpeen uuden mallin kehittämiselle. Tutkimuksen tavoitteena oli kehittää suomalaisten yritysjohtajien ja alan asiantuntijoiden avulla BSC-projektimalli, jota käyttämällä yritykset voisivat menestyksekkäämmin toteuttaa BSC-projektinsa. Lisäksi tavoitteena oli selvittää BSC:n käytön nykytila Suomen 500 suurimmassa yrityksessä. Tutkimuksessa haluttiin myös hankkia tietoa siitä, miksi yritykset olivat lähteneet BSC-projektiin, mitkä tekijät vaikuttivat BSC-projektin onnistumiseen jamitä muutoksia yritykset olivat tehneet BSC:n käytännön kokemuksen pohjalta. Tutkimuksen teoriaosassa tarkasteltiin yrityksen strategista suunnittelua ja johtamista, yrityksen johtamisessa käytettyjä ohjausjärjestelmiä, toiminnan kehittämistä ja BSC-projektien toteuttamista. Tutkimuksen empiriisessä osassa kehitettiinkymmenvaiheinen BSC-projektin toteuttamismalli. Se tehtiin tutustumalla 15 konsultointiyrityksen tapaan toteuttaa BSC-projekti ja paneutumalla 50 yrityksen BSC-projektista saamiin kokemuksiin. Kehitettyä mallia testattiin Tulikivi-casessa,ja sitä arvioitiin kyselytutkimuksessa ja työistunnossa. Kyselytutkimuksen mukaan ensimmäiset suomalaiset yritykset aloittivat BSC:n käytön vuonna 1995. Vuonna1996 käyttö yleistyi jonkin verran, ja vuosia 1997 ja 1998 voidaan Suomessa kutsua BSC:n läpimurtovuosiksi. Vastanneista yrityksistä 23,2 % ilmoitti käyttävänsä BSC:tä. Yrityksistä 14,8 % oli ottamassa sitä käyttöön, ja 19,2 % harkitsi käyttöönottamista. Yritykset olivat lähteneet BSC-projektiin mm. paremman ohjausjärjestelmän, toiminnan tehostamisen ja muutoksen aikaansaamisen toivossa. BSC-projektin onnistumisen tärkeimpinä tekijöinä pidettiin johdon sitoutumista hankkeeseen, mittariston kytkeytymistä strategiaan ja mittareiden selkeyttä. BSC:n nähtiin vaikuttaneen yrityksissä eniten liiketoiminnan kokonaisuuden ymmärtämiseen, strategian toteutumiseen ja ei-taloudellisten asioiden seurantaan. Yrityksissä olimuutettu toimintaa mm. niin, että se suuntautuisi enemmän asiakkaisiin ja tulevaisuuteen. Tulevaisuudessa BSC:llä uskottiin olevan suurimmat vaikutukset kokonaisvaltaiseen ja strategiseen johtamiseen sekä strategian toteutumisen seurantaan. Kyselytutkimuksen perusteella voitiin osoittaa, että suuret yritykset käyttävät BSC:tä enemmän kuin pienet yritykset. Myös alueellisia eroja on: pääkaupunkiseudulla BSC:tä käytetään enemmän kuin muualla maassa. Mitä kannattavammaksi kyselyyn vastaaja arvioi yrityksensä, sitä parempana se piti tässä tutkimuksessa kehitettyä BSC-projektimallia verrattuna Kaplanin ja Nortonin kehittämään BSC-projektimalliin. BSC-projekti on niin kokonaisvaltainen, että sen onnistuminen edellyttää koko henkilöstön osallistuvan siihen. Ylimmän johdon aito sitoutuminen on välttämätöntä, jotta BSC-projekti saa riittävästi resursseja. Projektissa visio jastrategiat puretaan käytännön toimiksi, joten ilman ylimmän johdon mukanaoloa projektilla ei ole asiakasta. Keskijohto ja henkilöstö toteuttavat laaditut strategiat, jolloin heidän panoksensa on erittäin merkittävä projektin onnistumiseksi. Henkilöstö pitää saada osallistumaan mittaristotyöhön, jotta he sitoutuisivat asetettuihin tavoitteisiin. Ellei henkilöstöä saada mukaan, mittaristo jää helposti ylimmän johdon työkaluksi. Tällöin strategian toteuttaminen koko organisaatiossa on hyvin työlästä, jopa mahdotonta. Mittariston pitää olla strategialähtöinen, eikä se saa olla liian monimutkainen. Mitä alemmalle tasolle organisaatiossamennään, sitä yksinkertaisempi mittariston pitää olla. Ylimmillä tasoilla mittareita voi olla kahdeksasta kahteentoista, mutta alemmilla tasoilla niitä on oltava hieman vähemmän. Projektin nopea läpivienti yrityksessä ei saa olla itsetarkoitus, mutta nopeasti saadut konkreettiset tulokset auttavat, että projekti saa resursseja ja mahdollistavat palautteen saamisen ja oppimisen. Kerralla ei BSC:täsaada täydellisesti toimivaksi, vaan se on oppimisprosessi, joka mahdollistaa syvällisemmän strategian toteuttamiseen. Tässä tutkimuksessa kehitetty BSC-projektin toteuttamismalli perustuu kymmenien asiantuntijoiden kokemuksiin ja näkemyksiin BSC-projektin toteuttamisesta. Kyselytutkimuksesta, työistunnosta ja Tulikivi-casesta saadut tulokset osoittavat, että kehitetyn mallin avulla yrityksillä on entistä paremmat mahdollisuudet saada BSC-projekti onnistumaan. Näin tutkimuksen päätavoite saavutettiin. Muut tavoitteet saavutettiin kyselytutkimuksen tulosten avulla.
Resumo:
Asiakasomisteiset osuuskunnat ovat menestyneet Suomessa erittäin hyvin. Niiden ymmärtäminen yritysmuotona on kuitenkin toistaiseksi perustunut lähinnä muilla kuin liiketaloustieteen oppialoilla tehdyille tutkimuksille. Johtaminen ja organisaatiot -oppialalla asiakasomisteista osuustoimintaa on tutkittu erittäin vähän. Tämä väitöskirja pyrkii vastaamaan osuustoiminnan liiketaloustieteellisen tutkimuksen kehittämisen haasteeseen keskittymällä omistajuuteen, yritystoiminnan erityispiirteiden ytimeen. Tutkimus osallistuu osuustoiminnallisesta omistajuudesta Suomessa käytävään akateemiseen keskusteluun esittelemällä viitekehyksen asiakasomisteisen osuuskunnan omistajuuden tulkitsemiseen. Tutkimuksessa pyritään ymmärtämään asiakasomistajuuden ulottuvuuksia, kuten ne rakentuvat osuustoiminnan asiantuntijoiden puheenvuoroissa. Asiakasomistajuutta ei siis analysoida "rivijäsenten" näkökulmasta, vaan tulkinta rajoittuu OP-ryhmän osuuspankkien ja S-ryhmän osuuskauppojen johtajien ja hallintohenkilöiden sekä tutkijoidentutkimusaineistossa esittämiin selontekoihin. Aineisto koostuu kaikkiaan kolmestakymmenestäviidestä haastattelusta sekä dokumenttiaineistosta. Tulkittavia tekstejä lähestytään siten, että niiden ajatellaan ylläpitävän ja aktiivisesti rakentavan asiakasomisteisten osuuskuntien omistajuutta. Väitöskirjassa rakentuva asiakasomistajuuden malli pitää sisällään sekä taloudellisrationaalisen että psykologisen omistajuuden niin yksittäisen asiakasomistajan kuin jäsenyhteisön näkökulmasta. Työn teoreettisena kontribuutiona on erityisesti asiakasomisteisen osuuskunnan omistajuuden psykologisen ulottuvuuden määrittely sekä sen liittäminen yhteisötasolla paikallisuuteen ja alueellisuuteen. Edellä mainittujen omistajuuden ulottuvuuksien ollessa kiinteästi sidoksissa asiakasomisteisten osuuskuntien rakenteeseen ja toimintatapaan, ne tarjoavat kehityspohjan kyseisten yritysten johtamista ja omistajaohjausta käsitteleville teorioille.
Resumo:
Tutkimuksen aiheeksi valittiin yrityksen strategiset valinnat eli ne näkökulmat ja keinot, joiden avulla yritys toimii selviytyäkseen kilpailussa. Erityisesti tutkittiin osaamisen ja yleensäkin muun kuin fyysisiin tuotteisiin liittyvien yrityksen ominaisuuksien ja toimintatapojen liittymistä yrityksen menestymiseen. Lisäksi tutkittiin yrityksissä noudatettuja liikkeenjohdon käytäntöjä ja menetelmiä suhteessa strategisiin valintoihin. Tutkimuksen kohdetoimialaksi valittiin oli leipomoala, joka on suomalaisen elintarviketeollisuuden toimipaikkojen lukumäärällä mitattuna runsaslukuisin yksittäinen toimiala. Tutkimus toteutettiin lomakekyselynä, johon vastasi 90 suomalaista leipomoalan yritystä, jotka työllistivät enintään 49 henkilöä. Ryhmittelyanalyysin avulla kohdeyrityksistä muodostettiin neljä yritysryhmää erityisesti dynaamisuuden, innovatiivisuuden ja kustannustehokkuuden suhteen. Tutkimustulosten perusteella saatiin empiiristä evidenssiä sen suhteen, että innovatiivisuus ja dynaamisuus pienten ja keskisuurten leipomoalan yritysten strategiavalintana tuo yritykselle lisää valmiuksia yrityksen toiminnan kehittämiseen, mikäli yrityksen toimintaympäristö, erityisesti kilpailuympäristö muuttuu. Liikkeenjohdon, erityisesti laskentatoimen, käytännöt ja menetelmät todettiin tutkimuksen tulosten perusteella merkityksellisiksi tekijöiksi, joiden kautta strategiset valinnat vaikuttavat yrityksen menestymiseen. Näitä käytäntöjä ja menetelmiä voidaan näin ollen pitää yrityksen tärkeänä voimavarana ja osaamisen ilmentymänä.
Resumo:
Among the traits of breeding interest for the common walnut tree Juglans regia L., characteristics such as timing of budbreak and leaf fall, water-use efficiency and growth performance are regarded as being of utmost relevance in Mediterranean conditions. The authors evaluated intraspecific variation in $\delta$13C (carbon isotope composition, surrogate of intrinsic water-use efficiency, WUE$_{\rm i}$) for 22 J. regia families grown in a progeny test under supplementary irrigation, and investigated whether such variation correlated with climatic indicators of native habitats. The genetic relationships between $\delta$13C, growth and phenology were also assessed during two consecutive years. Overall, the most water-use-efficient families (i.e. with higher $\delta$13C), which originated mainly from drought-prone provenance regions which have a high vapour pressure deficit and low rainfall, exhibited less height growth and smaller DBH. Using a stepwise regression procedure, $\delta$13C was included as the main explanatory variable of genotypic variation in growth traits, together with growing season duration (for DBH in both years) and flushing (for height in 2007). It was concluded that WUE$_{\rm i}$ is largely unconnected to phenology effects in the explanation of growth performance for J. regia, therefore suggesting the opportunity of simultaneously selecting for low WUE$_{\rm i}$ and extended growing period to maximise productivity in non-water-limited environments.