957 resultados para Microhardness tester
Resumo:
Pölyäminen aiheuttaa ongelmia sekä paperin valmistuksessa paperikoneella että asiakkaalla painokoneella. Pölyäminen painokoneella aiheuttaa kumulatiivisia kertymiä painokumeille, -levyille ja kostutusvesijärjestelmään. Pölykertymistä seuraa painojäljen heikkenemistä, pesukertojen lisääntymistä ja tuotantokatkoja. Lisääntynyt painaminen tahmeilla offsetväreillä ja täyteaineiden käyttö paperin raaka-aineena on aiheuttanut paperin pölyämisherkkyyden kasvamista. Paperin pölyävyyteen vaikuttavia tekijöitä valmistuksessa, jälkikäsittelyssä ja jatkojalostuksessa on useita, mikä tekee ilmiöstä monimutkaisen. Paperin painatuksessa esiintyvän pölyävyyden ennakoimiseksi tutkittiin erilaisten pölymittausmenetelmien käytettävyys ja luotettavuus. Työssä käytetyt menetelmät olivatMac Millan Bloedel pölytesteri, R.A. Emerson & Company:n pölymittalaite, Finntesteri, SOLA, Masuga, arkkipainatus sekä IGT ja Prüfbau laboratoriopainatukset. Menetelmien luotettavuus arvioitiin vertaamalla saatuja pölytuloksia testipainatuksesta saatuihin pölytuloksiin ja Gage R&R testiä käyttäen. Lisäksi työssä selvitettiin paperin pölyävyyteen vaikuttavia tekijöitä, ja tutkittiin prosessiolosuhteiden vaikutusta paperin pölyävyyteen. Tutkimus osoitti tuotantoprosessin olosuhteissa tehtyjen muutosten aiheuttavan oleellisia muutoksia paperin pölyävyyteen. Käytettävän massan ominaisuuksilla, tuotantoprosessin kemian hallinnalla sekä paperin ominaisuuksista etenkin lujuus- ja formaatio-ominaisuuksilla on selkeästi yhteyttä paperin pölyävyyteen painatuksessa. Pölymittauksilla paperin valmistuksen yhteydessä voidaan tasollisesti arvioida paperinpölyävyys painatuksessa, mutta absoluuttisten tulosten saaminen on ilmiön monimuotoisuudesta johtuen mahdotonta. Käytetyistä menetelmistä tähän tuotantoprosessiin toimivin pölyävyyden mittamenetelmä on R.A. Emerson & Company:n pölymittalaite. Laite on yksinkertainen ja nopea käyttää, eikä toteutus vaadi suuria investointeja.
Resumo:
Työssä suunniteltiin ja toteutettiin linkkikorttien tuotannollinen testeri. Linkkikortti on osa CERN:iin rakennettavan hiukkaskiihdyttimen Large Hadron Colliderin koeasema Compact Muon Solenoidin luentajärjestelmää. Linkkikortin tehtävänä on muuttaa rinnakkaismuotoinen LVDS-signaali sarjamuotoiseksi optiseksi signaaliksi. Testattaessa testeri ja linkkikortti sijoitetaan kehikkoon, joten testerin liittimien pitää olla linkkikortin liittimien kanssa identtisiä. Testerin lähdöt ovat linkkikortin tuloja ja toisinpäin. Tällöin testattaessa voidaan ohjelmoitavien FPGA-piirien avulla lähettää signaalia kortilta toiselle. Vastaanottavan kortin FPGA-piirin avulla voidaan tarkistaa, onko data tullut perille muuttumattomana. Testin ohjaus tapahtuu tietokoneella, jolla käyttäjä antaa käskyn testin aloittamisesta ja jonne lopulta myös raportoidaan testin tulokset. Testien tulokset näytetään myös testerin ledeillä. Työssä ei pystytä linkkikorttien puuttumisen takia testaamaan testeriä loppukäytössään. Kuitenkin testerin toimivuus pystyttiin suurilta osin testaamaan, jolloin saatiin odotettuja tuloksia.
Resumo:
Työn tarkoituksena oli kehittää jatkuvatoimiseen pesuun soveltuva emäksinen ja hapan huovanpesuaine sekä tutkia huovanpesun parametreja laboratoriossa ja paperikoneella. Kirjallisuusosassa tarkasteltiin paperikoneen puristinosaa, puristinhuopien ominaisuuksia, puristinhuovissa esiintyviä saostumia ja puristinhuopien kunnostusta sekä esiteltiin FeltPerm-vedenläpäisykykymittari. Kokeellisessa osassa analysoitiin käytetty huopa kvalitatiivisesti ja kvantitatiivisesti ja kun huopaa tukkivien yhdisteiden kemiallinen luonne oli selvitetty, kehitettiin käynninaikaiseen pesuun soveltuva emäksinen ja hapan huovanpesuaine. Huovanpesuaineiden kehitystyössä pesuaineiden tehokkuutta tutkittiin kolmella eri menetelmällä, joista kaksi perustui huovan massan muutoksen määrittämiseen pesussa ja yksi huovan vedenläpäisykyvyn mittaamiseen. Kehitetyillä pesuaineilla optimoitiin laboratoriossa happo- ja emäspesun pH sekä vaikutusaika. Lisäksi tutkittiin huovan turpoamista emäspesussa ja lämpötilan vaikutusta pesutulokseen. Puristinhuopien vedenläpäisykykyä tutkittiin FeltPerm-laitteella kahdella eri SC-paperikoneella, joista toisella oli käytössä käynninaikainen jaksottainen pesu ja toisella pelkät seisokkipesut. Koneella, jossa huovat pestiin käynninaikaisesti, määritettiin pesuparametreja ja optimoitiin emäsvaiheen aikainen pH. Kehitetyillä pesuaineilla suoritettiin koeajo tehtaalla.
Resumo:
Työssä tutkittiin muovattujen kartonkivuokien sekä muovattujen kartonkinäytteiden rinnastettavuutta. Puristusvaiheen prosessiolosuhteiden miellettiin vaikuttavan eniten multidimensionaliseen muodonmuutokseen. Multidimensionaalista muodonmuutosta simuloitiin uudella muovaamiseen soveltuvalla muovauslaitteella. Kirjallisuusosassa keskeisiä teemoja ovat kartongin muovaus sekä kuitupohjaisen materiaalin reologinen käyttäytyminen. Kirjallisuusosassa esitellään lisäksi yksi tekninen sovellus, jonka avulla kyetään ennustamaan kuitumateriaalin muovautuvuutta sekä mittaamaan tapahtunutta muodonmuutosta. Prosessiparametrien teoreettista vaikutustakuituihin tarkastellaan myös kirjallisuusosassa. Kokeellisessa osassa toteutettiin kartonkivuokien valmistus puristamalla. Vastaavilla prosessiparametreilla muovattiin myös pienemmät testinäytteet. Perinteiset yksidimensionaliset deformaatiomittaukset toteutettiin lujuusominaisuuksien laboratoriomäärityksinä. Myös kitka, joka toimii tärkeänä muuttujana prässäysprosessissa, mitattiin laboratorio-olosuhteissa. Tämän työn tulokset osoittavat uuden kehitetyn muovausmenetelmän toimivuuden. Asema-voima kuvaajat ovat selkeitä sekä helposti luettavia. Tuloksissa havaittiin materiaalin muovauspotentiaalin sekä asema-voima kuvaajan välillä vallitseva yhteys. Erittäin merkittävä huomio oli myös, että muovipäällystetyllä kartongilla oli yhteys päällystämättömän kartongin asema-voima kuvaajaan. Tämä tulos osoittaa, että muovipäällystetyn kartongin muovautuvuutta voi olla mahdollista ennustaa pohjakartongin muovautuvuustulosten perusteella. Perinteiset yksidimensionaliset laboratoriomittaukset eivät kykene antamaan riittävää informaatiota muovautuvuuden ennustamiseen. Tästä näkökulmasta on tärkeää että kartongin multidimensionalista muotoutuvuutta voidaankin tutkia kehitetyllä muovausmenetelmällä.
Resumo:
L'étude classique des attributions de responsabilité instiguée par Heider en psychologie sociale s'est principalement bornée à aborder ce processus psychosocial dans une perspective individualiste qui se cantonne aux niveaux intra-individuel et interpersonnel (selon la distinction opérée par Doise). Les réflexions et les travaux empiriques présentés dans cette thèse ont deux objectifs. Dans un premier temps, il s?agit d'élargir cette perspective aux autres niveaux sociologique et idéologique (en faisant notamment recours à l'approche des attributions sociales et aux propositions de Fauconnet sur les règles de responsabilité). Deuxièmement, il s?agit d'éprouver la pertinence d'une telle approche dans un contexte particulier : celui du travail en groupe dont la nature des rapports sociaux qui y étaient présentés ont été manipulés à l'aide de scénarii chez des étudiant-e-s de l?Université de Lausanne. L?objectif principal de cette thèse est donc de tester un modèle d?ancrage des attributions de responsabilité qui permette de souligner les dynamiques représentationnelles sous-jacentes en termes de légitimation ou de remise en cause de l?organisation des groupes. Dans l?ensemble les résultats indiquent que si la nature des rapports sociaux (re)présentés dans un groupe sont de puissants déterminants de la manière de légitimer ou de remettre en cause l?organisation des groupes, le niveau individuel d'adhésion à des croyances idéologiques dominantes, comme la justification du système économique, représente un modérateur des prises de position des répondant-e-s interrogé-e-s. De plus, il semble que ces processus évoluent dans le temps, faisant ainsi apparaître l'existence de phénomènes de socialisation relativement plus complexes que ne le laissent entendre les recherches actuellement effectuées dans ce domaine. En effet, si des connaissances idéologiques sur le monde sont acquises dans les filières universitaires et n?interviennent pas toujours dans les processus de formation des représentations du travail en groupe, des connaissances spécifiques aux disciplines et à la politique de sélection universitaire semblent intervenir dans le processus de légitimation des rapports sociaux dans les groupes au niveau des attributions. En tentant une articulation entre les concepts d?ancrage des représentations sociales, d?attribution et de socialisation, cette thèse permet ainsi de souligner la pertinence qu?il y a à insérer une problématique en termes de croyances idéologiques dans l?étude des groupes sociaux.<br/><br/>Heider?s approach of responsibility attributions almost exclusively emphasized on an individualistic point of view ; i.e. focusing at an intraindividual and interpersonnal level of analysis according to Doise?s distinction. The reflexions and empirical studies presented here firstly aim at broaden this perspective by taking socio-structural as well as societal levels of analysis into account. Secondly, it is to test this approach in the particular domain of organized groups. Manipulation of the structure of social relations in work groups on screenplays were undertaken (in a population of students from the Lausanne University). Hence, the main goal of these studies is to test the impact of the social ancoring of social representations in the responsibility processes in terms of legitimation or opposition to the group organization. All in all, the results show that social structures are powerfull predictors of the formation of social representations of a work situation and so forth of the attribution process. Nevertheless hegemonic ideological beliefs, such as Economical System Justification, do play a substantial moderating role in this process. It also proves to be evolving through time. The present findings show that a complexe process of socialization is occuring during the student?s university life. Indeed, the results let us believe that ideological beliefs may not interact anytime in the group?s perception and in the construction of the representation of the situation. In the same time, it seems that more discipline specific oriented knowledge and the impact of selection policy at the Lausanne University also predict the groupe legimation process and interfer with the ideological beliefs. Trying to articulate concepts of fields of research like social representations, attribution and socialization, the present thesis allows to underline the heuristic potential of reabilitating ideological beliefs at a dispositional level in the study of group process.
Resumo:
RESUME Les maladies cardio-vasculaires représentent la cause la plus importante de mortalité et de morbidité dans les pays occidentaux. La thérapie génique offre une nouvelle approche au traitement de ces maladies. L'expression de gènes protecteurs dans le myocarde par des technologies de transfert génique peut améliorer la fonction ventriculaire lors de l'insuffisance cardiaque ou stimuler la formation de nouveaux vaisseaux dans la maladie coronarienne. Etant donné qu'une majorité des maladies cardiaques sont des maladies chroniques, l'expression durable du gène thérapeutique introduit dans le coeur est souhaitable dans de nombreux cas. Malheureusement, l'utilité des vecteurs de transfert génique les plus utilisés en thérapie génique cardiovasculaire est limitée par une performance faible (ADN plasmidique) et une courte durée d'expression (adénovirus). Récemment, des vecteurs de transfert génique dérivés des lentivirus, une sous-famille des rétrovirus, ont retenu l'attention de la communauté scientifique en raison de leur capacité à exprimer des gènes à long terme. Contrairement aux vecteurs rétroviraux traditionnels, les vecteurs lentiviraux transduisent des gènes même dans des cellules qui ne se divisent pas, ce qui est le cas des cardiomyocytes adultes. Ces vecteurs présentent un profil de biosécurité comparable à celui des vecteurs rétroviraux traditionnels. Nous avons donc décidé de tester l'utilité des vecteurs lentiviraux pour le transfert génique dans des cardiomyocytes de rat adulte in vitro et in vivo. Plusieurs versions de vecteurs lentiviraux contenant différent promoteurs ont été construites. Ces vecteurs contenant le gène marqueur EGFP (enhanced green fluorescent protein) ont été testés dans des cardiomyocytes de rat in vitro, ainsi que dans des coeurs de rat in vivo. Le but de ces expériences était de déterminer la durée de l'expression du transgène après injection intramyocardique chez le rat. Pour ce faire, nous avons développé une technique ELISA pour détecter la protéine EGFP dans des extraits de tissu cardiaque. Les résultats ont montré que la protéine EGFP était encore présente à des niveaux significatifs jusqu'à dix semaines après l'injection de vecteurs lentiviraux, alors que l'expression transgénique obtenue avec un vecteur adénoviral traditionnel a été plus limitée dans le temps. Ces résultats démontrent la capacité des vecteurs lentiviraux à exprimer des gènes d'intérêt de manière performante et stable dans le cur de rat adulte in vivo. SUMMARY Cardiovascular diseases are the first cause of morbidity and mortality in Western countries. Gene therapy offers a new approach to these diseases. Expression of therapeutic genes in the myocardium by gene transfer technologies can improve ventricular function in heart failure and stimulate neovascularization in coronary disease. Chronic heart diseases likely require sustained expression of the therapeutic gene within the heart itself. Unfortunately, the most commonly used vectors in cardiovascular gene therapy, i.e. plasmid DNA and recombinant adenovirus vectors, are limited by poor DNA uptake and transient transgene expression, respectively. Recently, lentivirus-derived vectors have attracted much interest because of their ability to achieve long-term transgene expression. In contrast to traditional retroviral vectors, lentiviral vectors are also able to transduce non- dividing cells, while presenting a comparable biosafety profile. Adult cardiomyocytes are terminally differentiated cells that do not divide under normal conditions. For these reasons, we have decided to evaluate the efficiency of lentiviral vectors for gene-transduction of adult cardiomyocytes both in vitro and in vivo. We constructed various types of lentiviral vectors containing various promoters. Vectors encoding EGFP as a reporter gene were tested in rat cardiomyocytes in vitro and in rat hearts in vivo. The aim of the experiments involved in this thesis work was to determine the duration of the expression of the transgene after rat intramyocardial injection using a quantitative assay. Therefore, an ELISA technique was set up to measure the EGFP protein in rat heart tissue extracts. Our results showed that the EGFP protein was still present at significant levels at ten weeks after lentiviral vector injection, whereas the duration of expression with adenoviral vectors was shorter. These results demonstrate that lentiviral vectors efficiently deliver genes and achieve sustained transgene expression in adult rat cardiomyocytes in vivo.
Resumo:
L'expérience LHCb sera installée sur le futur accélérateur LHC du CERN. LHCb est un spectromètre à un bras consacré aux mesures de précision de la violation CP et à l'étude des désintégrations rares des particules qui contiennent un quark b. Actuellement LHCb se trouve dans la phase finale de recherche et développement et de conception. La construction a déjà commencé pour l'aimant et les calorimètres. Dans le Modèle Standard, la violation CP est causée par une phase complexe dans la matrice 3x3 CKM (Cabibbo-Kobayashi-Maskawa) de mélange des quarks. L'expérience LHCb compte utiliser les mesons B pour tester l'unitarité de cette matrice, en mesurant de diverses manières indépendantes tous les angles et côtés du "triangle d'unitarité". Cela permettra de surdéterminer le modèle et, peut-être, de mettre en évidence des incohérences qui seraient le signal de l'existence d'une physique au-delà du Modèle Standard. La reconstruction du vertex de désintégration des particules est une condition fondamentale pour l'expérience LHCb. La présence d'un vertex secondaire déplacé est une signature de la désintégration de particules avec un quark b. Cette signature est utilisée dans le trigger topologique du LHCb. Le Vertex Locator (VeLo) doit fournir des mesures précises de coordonnées de passage des traces près de la région d'interaction. Ces points sont ensuite utilisés pour reconstruire les trajectoires des particules et l'identification des vertices secondaires et la mesure des temps de vie des hadrons avec quark b. L'électronique du VeLo est une partie essentielle du système d'acquisition de données et doit se conformer aux spécifications de l'électronique de LHCb. La conception des circuits doit maximiser le rapport signal/bruit pour obtenir la meilleure performance de reconstruction des traces dans le détecteur. L'électronique, conçue en parallèle avec le développement du détecteur de silicium, a parcouru plusieurs phases de "prototyping" décrites dans cette thèse.<br/><br/>The LHCb experiment is being built at the future LHC accelerator at CERN. It is a forward single-arm spectrometer dedicated to precision measurements of CP violation and rare decays in the b quark sector. Presently it is finishing its R&D and final design stage. The construction already started for the magnet and calorimeters. In the Standard Model, CP violation arises via the complex phase of the 3 x 3 CKM (Cabibbo-Kobayashi-Maskawa) quark mixing matrix. The LHCb experiment will test the unitarity of this matrix by measuring in several theoretically unrelated ways all angles and sides of the so-called "unitary triangle". This will allow to over-constrain the model and - hopefully - to exhibit inconsistencies which will be a signal of physics beyond the Standard Model. The Vertex reconstruction is a fundamental requirement for the LHCb experiment. Displaced secondary vertices are a distinctive feature of b-hadron decays. This signature is used in the LHCb topology trigger. The Vertex Locator (VeLo) has to provide precise measurements of track coordinates close to the interaction region. These are used to reconstruct production and decay vertices of beauty-hadrons and to provide accurate measurements of their decay lifetimes. The Vertex Locator electronics is an essential part of the data acquisition system and must conform to the overall LHCb electronics specification. The design of the electronics must maximise the signal to noise ratio in order to achieve the best tracking reconstruction performance in the detector. The electronics is being designed in parallel with the silicon detector development and went trough several prototyping phases, which are described in this thesis.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
1. Abstract Cervical cancer is thought to be the consequence of infection by human papillomaviruses (HPV). In the majority of cases, DNA from HPV type 16 (HPV16) is found in malignant cervical lesions. The initial steps leading to transformation of an infected cell are not clearly understood but in most cases, disruption and integration of the episomal viral DNA must take place. As a consequence, the E2 and E4 genes are usually not expressed whereas the E6 and E7 oncogenes are highly expressed. However, in a normal infection in which the viral DNA is maintained as an episome, all viral genes are expressed. The pattern according to which the viral proteins are made, and therefore the life cycle of the virus, is tightly linked to the differentiation process of the host keratinocyte. The study of the viral oncogenes E6 and E7 has revealed crucial functions in the process of malignant transformation such as degradation of the p53 tumor suppressor protein, deregulation of the Retinoblastoma protein pathway and activation of the telomerase ribonucleoprotein. All these steps are necessary for cancerous lesions to develop. However, the loss of the E2 gene product seems to be necessary for sufficient expression of E6 and E7 in order to achieve such effects. In normal infections, the E4 protein is made abundantly in the later stages of the viral life cycle. Though extensive amounts of work have been carried out to define the function of E4, it still remains unclear. In this study, several approaches have been used to try and determine the functions of E4. First, a cell-penetrating fusion protein was designed and produced in order to circumvent the chronic difficulties of expressing E4 in mammalian cells. Unfortunately, this approach was not successful due to precipitation of the purified fusion protein. Second, the observation that E4 accumulates in cells having modified their adhesion properties led to the hypothesis that E4 might be involved in the differentiation process of keratinocytes. Preliminary results suggest that E4 triggers differentiation. Last, as E4 has been reported to collapse the cytokeratin network of keratinocytes, a direct approach using atomic force microscopy has allowed us to test the potential modification of mechanical properties of cells harboring reorganized cytokeratin networks. If so, a potential role for E4 in viral particle release could be hypothesized. 2. Résumé Il a été établi que le cancer du col de l'utérus se développe essentiellement à la suite d'une infection par le virus du papillome humain (HPV). Dans la majorité des cas analysés, de l'ADN du HPV de type 16 (HPV16) est détecté. Les étapes initiales de la transformation d'une cellule infectée sont mal connues mais il semble qu'une rupture du génome viral, normalement épisomal, suivi d'une intégration dans le génome de la cellule hôte soient des étapes nécessaires dans la plupart des cas. Or il semble qu'il y ait une sélection pour les cas où l'expression des oncogènes viraux E6 et E7 soit favorisée alors que l'expression des gènes E2 et E4 est en général impossible. Par contre, dans une infection dite normale où le génome viral n'est pas rompu, il n'y pas développement de cancer et tous les gènes viraux sont exprimés. L'ordre dans lequel les protéines virales sont produites, et donc le cycle de réplication du virus, est intimement lié au processus de différentiation de la cellule hôte. L'étude des protéines oncogènes E6 et E7 a révélé des fonctions clés dans le processus de transformation des cellules infectées telles que la dégradation du suppresseur de tumeur p53, la dérégulation de la voie de signalisation Rb ainsi que l'activation de la télomérase. Toutes ces activités sont nécessaires au développement de lésions cancéreuses. Toutefois, il semble que l'expression du gène E2 doit être empêchée afin que suffisamment des protéines E6 et E7 soient produites. Lorsque le gène E2 est exprimé, et donc lorsque le génome viral n'est pas rompu, les protéines E6 et E7 n'entraînent pas de telles conséquences. Le gène E4, qui se trouve dans la séquence codante de E2, a aussi besoin d'un génome viral intact pour être exprimé. Dans une infection normale, le gène E4 est exprimé abondamment dans les dernières étapes de la réplication du virus. Bien que de nombreuses études aient été menées afin de déterminer la fonction virale à E4, aucun résultat n'apparaît évident. Dans ce travail, plusieurs approches ont été utilisées afin d'adresser cette question. Premièrement, une protéine de fusion TAT-E4 a été produite et purifiée. Cette protéine, pouvant entrer dans les cellules vivantes par diffusion au travers de la membrane plasmique, aurait permis d'éviter ainsi les problèmes chroniques rencontrés lors de l'expression de E4 dans les cellules mammifères. Malheureusement, cette stratégie n'a pas pu être utilisée à cause de la précipitation de la protéine purifiée. Ensuite, l'observation que E4 s'accumule dans les cellules ayant modifié leurs propriétés d'adhésion a suggéré que E4 pourrait être impliqué dans le procédé de différentiation des kératinocytes. Des résultats préliminaires supportent cette possibilité. Enfin, il a été montré que E4 pouvait induire une réorganisation du réseau des cytokératines. Une approche directe utilisant le microscope à force atomique nous a ainsi permis de tester une potentielle modification des propriétés mécaniques de cellules ayant modifié leur réseau de cytokératines en présence de E4. Si tel est le cas, un rôle dans la libération de particules virales peut être proposé pour E4.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
Résumé Les mousses sont la plus ancienne lignée de plantes terrestres et leur longue évolution a été accompagnée par des tendances à la simplification des caractères morphologiques. Ce phénomène a quelque peu compliqué les reconstructions phylogénétiques basées sur la morphologie. Les analyses génétiques ont permis de donner de nouvelles informations dans le cadre des analyses phylogénétiques et une réévaluation de certains caractères morphologiques. La plupart des études combinant les données morphologiques et moléculaires ne concernent que des niveaux systématiques élevés comme l'ordre ou la famille et très peu considèrent le niveau du genre. La présente étude tend à tester les relations phylogénétiques du genre Grimmia à l'aide d'une combinaison de caractères morphologiques et moléculaires. Les 40 espèces de Grimmia utilisées dans la première partie de cette étude représentent la majorité des espèces trouvées en Eurasie, un des centres de diversification du genre. Lors de l'analyse morphologique, 52 caractères morphologiques/anatomiques (33 du gamétophyte et 19 du sporophyte) ont été numérisés. Malgré le peu de support statistique des arbres, la topologie des arbres est stable. Les Grimmia, comme décrit précédemment, sont paraphylétiques. Trois clades, correspondant respectivement aux sous-genres Rhabdogrimmia Limpr, Litoneuron I.Hagen et Gasterogrimmia Schimp. sont présents, tandis que le restant des taxons appartenant aux Grimmia forment un groupe non-résolu et indistinct des autres Grimmiaceae. Les séquences chloroplastiques trnL-trnF et rps4 combinés à la morphologie ont été ensuite utilisés pour reconstruire la phylogénie des Grimmia. Les arbres obtenus soutiennent la monophylie des Grimmiaceae tandis que les Grimmia, sont paraphylétiques. Deux clades principaux correspondant aux "Rhabdogrimmia" et aux "Grimmia" se détachent. Seules les espèces de "Rhabdogrimmia" produisent des gemmules foliaires (reproduction asexuée). Dans une étude considèrant 91 séquences trrIL-trnF les espèces appartenant aux "Rhabdogrimrnia" (reproduction asexuée essentiellement) ont des variabilités intraspécifique très faible et interspécifique relativement élevée tandis que les "Grimmia" possèdent la tendance inverse (plus de reproduction sexuée). Summary The mosses are a very old land plant lineage and their long evolutionary history has been accompanied by a trend of morphological character simplifications. This phenomenon has somewhat complicated morphological based phylogenetic reconstructions. Genetic analyses have provided new insights for phylogenetic studies, and have allowed morphological data to be re¬evaluated. Most of the studies combining morphological and molecular data have concerned the higher systematic levels of order and family and only have few considered the genus. The present study aims to test the phylogenetic relationships of the genus Grimmia using a combination of morphological and molecular characters. The 40 chosen Grimmia species represent the majority of those found in Eurasia, one diversification centers of the genus. For the morphological analysis, 52 morphological/anatomical characters (33 gametophyte and 19 sporophyte characters) were numerized. Although the internal statistical support was relatively low, the tree topologies were stable. Grimmia as currently defined was found to be paraphyletic. Three subclades, corresponding to the subgenera Rhabdogrimmia Limpr., Litoneuron I.Hagen, and Gasterogrimmia Schimp. were observed in the trees, while the reminder of the Grimmia species formed an unresolved group indistinct from other Grimmiaceae. Chloroplast (trnL-trnF and rps4) DNA sequences combined with morphology were used to reconstruct the phylogeny of Grimmia. The resulting trees supported the monophyly of Grimmiaceae and that the genus Grimmia, as currently defined, as paraphyletic. Two main clades were resolved corresponding to "Rhabdogrimmia" and "Grimmia". The species belonging to "Rhabdogrimmia" produce foliar-gemmae (asexual reproduction). In a study using 91 sequences of trnL-trnF,"Rhabdogrimmia" species (mainly asexual reproduction) have very low intraspecific variability and high interspecific variability whereas the "Grimmia" species possess the inverse tendency.
Resumo:
ABSTRACT: Massive synaptic pruning following over-growth is a general feature of mammalian brain maturation. Pruning starts near time of birth and is completed by time of sexual maturation. Trigger signals able to induce synaptic pruning could be related to dynamic functions that depend on the timing of action potentials. Spike-timing-dependent synaptic plasticity (STDP) is a change in the synaptic strength based on the ordering of pre- and postsynaptic spikes. The relation between synaptic efficacy and synaptic pruning suggests that the weak synapses may be modified and removed through competitive "learning" rules. This plasticity rule might produce the strengthening of the connections among neurons that belong to cell assemblies characterized by recurrent patterns of firing. Conversely, the connections that are not recurrently activated might decrease in efficiency and eventually be eliminated. The main goal of our study is to determine whether or not, and under which conditions, such cell assemblies may emerge out of a locally connected random network of integrate-and-fire units distributed on a 2D lattice receiving background noise and content-related input organized in both temporal and spatial dimensions. The originality of our study stands on the relatively large size of the network, 10,000 units, the duration of the experiment, 10E6 time units (one time unit corresponding to the duration of a spike), and the application of an original bio-inspired STDP modification rule compatible with hardware implementation. A first batch of experiments was performed to test that the randomly generated connectivity and the STDP-driven pruning did not show any spurious bias in absence of stimulation. Among other things, a scale factor was approximated to compensate for the network size on the ac¬tivity. Networks were then stimulated with the spatiotemporal patterns. The analysis of the connections remaining at the end of the simulations, as well as the analysis of the time series resulting from the interconnected units activity, suggest that feed-forward circuits emerge from the initially randomly connected networks by pruning. RESUME: L'élagage massif des synapses après une croissance excessive est une phase normale de la ma¬turation du cerveau des mammifères. L'élagage commence peu avant la naissance et est complété avant l'âge de la maturité sexuelle. Les facteurs déclenchants capables d'induire l'élagage des synapses pourraient être liés à des processus dynamiques qui dépendent de la temporalité rela¬tive des potentiels d'actions. La plasticité synaptique à modulation temporelle relative (STDP) correspond à un changement de la force synaptique basé sur l'ordre des décharges pré- et post- synaptiques. La relation entre l'efficacité synaptique et l'élagage des synapses suggère que les synapses les plus faibles pourraient être modifiées et retirées au moyen d'une règle "d'appren¬tissage" faisant intervenir une compétition. Cette règle de plasticité pourrait produire le ren¬forcement des connexions parmi les neurones qui appartiennent à une assemblée de cellules caractérisée par des motifs de décharge récurrents. A l'inverse, les connexions qui ne sont pas activées de façon récurrente pourraient voir leur efficacité diminuée et être finalement éliminées. Le but principal de notre travail est de déterminer s'il serait possible, et dans quelles conditions, que de telles assemblées de cellules émergent d'un réseau d'unités integrate-and¬-fire connectées aléatoirement et distribuées à la surface d'une grille bidimensionnelle recevant à la fois du bruit et des entrées organisées dans les dimensions temporelle et spatiale. L'originalité de notre étude tient dans la taille relativement grande du réseau, 10'000 unités, dans la durée des simulations, 1 million d'unités de temps (une unité de temps correspondant à une milliseconde), et dans l'utilisation d'une règle STDP originale compatible avec une implémentation matérielle. Une première série d'expériences a été effectuée pour tester que la connectivité produite aléatoirement et que l'élagage dirigé par STDP ne produisaient pas de biais en absence de stimu¬lation extérieure. Entre autres choses, un facteur d'échelle a pu être approximé pour compenser l'effet de la variation de la taille du réseau sur son activité. Les réseaux ont ensuite été stimulés avec des motifs spatiotemporels. L'analyse des connexions se maintenant à la fin des simulations, ainsi que l'analyse des séries temporelles résultantes de l'activité des neurones, suggèrent que des circuits feed-forward émergent par l'élagage des réseaux initialement connectés au hasard.
Resumo:
1. 1. Summaries 1.1. Preamble and extended abstract The present thesis dissertation addresses the question of antiviral immunity from the particular standpoint of the adaptive T cell-mediated immune response. The experimental work is presented in the form of three published articles (two experimental articles and one review article, see sections 4.1, 4.2 and 4.3 on pages 73, 81 and 91, respectively), describing advances both in our understanding of viral control by CD8 T lymphocytes, and in vaccine development against the Human Immunodeficiency Virus Type 1 (HIV-1). Because the articles focus on rather specialized areas of antiviral immunity, the article sections are preceded by a general introduction (section 3) on the immune system in general, and on four viruses that were addressed in the experimental work, namely HIV-1, Cytomegalovirus (CMV), Epstein Barr Virus (EBV) and Influenzavirus (Flu). This introduction section is aimed at providing a glimpse on viral molecular biology and immunity, to help the hypothetical non-expert reader proceeding into the experimental part. For this reason, each section is presented as individual entity and can be consulted separately. The four viruses described are of peculiar relevance to immunity because they induce an array of opposite host responses. Flu causes a self limiting disease after which the virus is eradicated. CMV and EBV cause pauci-symptomatic or asymptomatic diseases after which the viruses establish lifelong latency in the host cells, but are kept in check by immunity. Eventually, HIV-1 establishes both latency - by inserting its genome into the host cell chromosome - and proceeds in destroying the immune system in a poorly controlled fashion. Hence, understanding the fundamental differences between these kinds of viral host interactions might help develop new strategies to curb progressive diseases caused by viruses such as HIV-1. Publication #1: The first article (section 4.1, page 73) represents the main frame of my laboratory work. It analyses the ability of CD8 T lymphocytes recovered from viral-infected patients to secrete interferon γ (IFN-γ) alone or in conjunction with interleukin 2 (IL-2) when exposed in vitro to their cognate viral antigens. CD8 T cells are instrumental in controlling viral infection. They can identify infected cells by detecting viral antigens presented at the surface of the infected cells, and eliminate both the cell and its infecting virus by triggering apoptosis and/or lysis of the infected cell. Recognition of these antigens triggers the cognate CD8 cells to produce cytokines, including IFN-γ and IL-2, which in turn attract and activate other pro-inflammatory cells. IFN-γ triggers both intrinsic antiviral activity of the infected cells and distant activation of pro-inflammatory cells, which are important for the eradication of infection. IL-2 is essential for clonal expansion of the antigen (Ag)-specific CD8 T cell. Hence the existence of Ag-specific CD8 cells secreting both IFN-γand IL-2 should be beneficial for controlling infection. In this first work we determined the percentage of IFN-y/IL-2 double positive and single IFN-γsecreting CD8 T cells against antigens HIV-1, CMV, EBV and Flu in three groups of subjects: (i) HIV-1 infected patients progressing to disease (progressors), (ii) HIV-1-infected subjects not progressing to disease (long-term non progressors or LTNP), and (iii) HIV negative blood donors. The results disclosed a specific IFN-y/IL-2 double positive CD8 response in all subjects able to control infection. In other words, IFN-y/IL-2 double positive CD8 cells were present in virus-specific CD8 T cells against Flu, CMV and EBV as well against HIV-1 in LTNP. In contrast, progressors only had single IFN-γsecreting CD8 T cells. Hence, the ability to develop an IFN-y/IL-2 double positive response might be critical to control infection, independently of the nature of the virus. Additional experiments helped identify the developmental stage of the missing cells (using different markers such as CD45RA and CCR7) and showed a correlation between the absence of IL-2 secreting CD8 T cells and a failure in the proliferation capacity of virus-specific CD8 T cells. Addition of exogenous IL-2 could restore clonal expansion of HIV-1 specific CD8 T cells, at least in vitro. It could further been shown, that IL-2 secreting CD8 T cells are sufficient to support proliferation even in absence of CD4 help. However, the reason for the missing IFN-y/IL-2 double positive CD8 T cell response in HIV-1 progessors has yet to be determined. Publication #2: The second article (section 4.2, page 81) explores new strategies to trigger CD8 T cell immunity against specific HIV-1 proteins believed to be processed and exposed as "infection signal" at the surface of infected cells. Such signals consist of peptide fragments (8- 13 amino acids) originating from viral proteins and presented to CD8 T cells in the frame of particular cell surface molecules of the major histocompatibility complex class I* (MHC I). To mimic "natural" viral infection, the HIV-1 polyprotein Gagpolnef was inserted and expressed in either of two attenuated viruses i.e. vaccinia virus (MVA) or poxvirus (NYVAC). Mice were infected with these recombinant viruses and specific CD8 T cell response to Gagpolnef peptides was sought. Mice could indeed mount a CD8 T cell response against the HIV-1 antigens, indicating that the system worked, at least in this animal model. To further test whether peptides from Gagpolnef could also be presented in the frame of the human MHC class I proteins, a second round of experiments was performed in "humanized" transgenic mice expressing human MHC molecules. The transgenic mice were also able to load Gagpolnef peptides on their human MHC molecule, and these cells could be detected and destroyed by Ag-specific CD8 T cells isolated from HIV-1-infected patients. Therefore, expressing Gagpolnef on attenuated recombinant viruses might represent a valid strategy for anti-HIV-1 immunization in human. Publication #3: This is a review paper (section 4.3, page 91) describing the immune response to CMV and newly developed methods to detect this cellular immune response. Some of it focuses on the detection of T cells by using in vitro manufactured tetramers. These consist of four MHC class I molecules linked together and loaded with the appropriate antigenic peptide. The tetramer can be labeled with a fluorochrome and analyzed with a fluorescence-activated cell sorter. Taken together, the work presented indicates that (i) an appropriate CD8 T cell response consisting of IFN-y/IL-2 double positive effectors, can potentially control viral infection, including HIV-1 infection, (ii) such a response might be triggered by recombinant viral vaccines, and (iii) CD8 T cell response can be monitored by a variety of techniques, including recently-developed MHC class I tetramers. 1. 2. Préambule et résumé élargi Le présent travail de thèse s'intéresse à l'immunité antivirale du point de vue particulier de la réponse adaptative des cellules T. Le travail expérimental est présenté sous la forme de trois articles publiés (2 articles expérimentaux et 1 article de revue, voir sections 4.1, 4.2 et 4.3, pages 58, 66 et 77, respectivement), décrivant des progrès dans la compréhension du contrôle de l'infection virale par les lymphocytes T CD8, ainsi que dans le développement de nouveaux vaccins contre le Virus d'Immunodéficience de Humaine de type 1 (VIH-1). En raison du caractère spécialisé de l'immunité antivirale de type cellulaire, les articles sont précédés par une introduction générale (section 3), dont le but est de pourvoir le lecteur non avisé avec des bases nécessaire à une meilleure appréhension du travail expérimental. Cette introduction présente les grandes lignes du système immunitaire, et décrit de façon générale les 4 virus utilisés dans le travail expérimental: à savoir le virus VIH-1, le Cytomégalovirus (CMV), le virus Epstein Barr (EBV) et le virus Influenza A (Flu). Toutes les sections sont présentées de façon individuelle et peuvent être consultées séparément. La description des 4 virus a une pertinence particulière quant à leur interaction avec le système immun. En effet, ils induisent une panoplie de réponses immunitaires s'étendant aux extrêmes de la réaction de l'hôte. Influenza A est à l'origine d'une maladie cytopathique aiguë, au décours de laquelle le virus est éradiqué par l'hôte. CMV et EBV sont classiquement à l'origine d'infections pauci-symptomatiques, voire asymptomatiques, après lesquelles les virus persistent de façon latente dans la cellule hôte. Cependant, ils restent sous le contrôle du système immun, qui peut prévenir une éventuelle réactivation. Enfin, VIH-1 s'établit à la fois en infection latente - par l'insertion de son génome dans le chromosome des cellules hôtes - et en infection productive et cytopathique, échappant au contrôle immunitaire et détruisant ses cellules cibles. La compréhension des différences fondamentales entre ces différents types d'interactions virus-hôte devraient faciliter le développement de nouvelles stratégies antivirales. Article 1: Le premier article (section 4.1 Page 58) représente l'objet principal de mon travail de laboratoire. Il analyse la capacité des lymphocytes T CD8 spécifiques de différent virus à sécréter de l'interféron gamma (IFN-y) et/ou de l'interleukine 2 (IL-2) après stimulation par leur antigène spécifique. Les cellules T CD8 jouent un rôle crucial dans le contrôle des infections virales. Elles identifient les cellules infectées en détectant des antigènes viraux présentés à la surface de ces mêmes cellules, et éliminent à la fois les cellules infectées et les virus qu'elles contiennent en induisant l'apoptose et/ou la lyse des cellules cibles. Parallèlement, l'identification de l'antigène par la cellule T CD8 la stimule à sécréter des cytokines. L'IFN-γen est un exemple. L'IFN-γ stimule les cellules infectées à développer une activé antivirale intrinsèque. De plus, il attire sur place d'autres cellules de l'inflammation, et active leur fonction d'éradication des pathogènes. L'IL-2 est un autre exemple. L'IL-2 est essentielle à l'expansion clonale des cellules T CD8 spécifiques à un virus donné. Elle est donc essentielle à augmenter le pool de lymphocytes antiviraux. En conséquence, la double capacité de sécréter de l'IFN-γ et de IL-2 pourrait être un avantage pour le contrôle antiviral par les cellules T CD8. Dans ce travail nous avons comparé les proportions de lymphocytes T CD8 doubles positifs (IFN-γ/IL-2) et simples positifs (IFN-γ) chez trois groupes de sujets: (i) des patients infectés par VIH-1 qui ne contrôlent pas l'infection (progresseurs), (ii) des patients infectés par VIH-1, mais contrôlant l'infection malgré l'absence de traitement ("long term non progressors" [LTNP]) et (iii) des donneurs de sang négatifs pour l'infection à VIH-1. Les résultats ont montré que les individus capables de contrôler une infection possédaient des cellules T CD8 doubles positifs (IFN-γ/IL-2), alors que les patients ne contrôlant pas l'infection procédaient prioritairement des CD8 simples positifs (IFN-γ). Spécifiquement, les lymphocytes T spécifiques pour Flu, CMV, EBV, et VII-1-1 chez les LTNP étaient tous IFN-γ/IL-2 doubles positifs. Au contraire, les lymphocytes T CD8 spécifique à VIH-1 étaient IFN-γ simples positifs chez les progresseurs. La capacité de développer une réponse IFN-γ/IL-2 pourraient être primordiale pour le contrôle de l'infection, indépendamment de la nature du virus. En effet, il a été montré que l'absence de sécrétion d'IL2 par les lymphocytes T CD8 corrélait avec leur incapacité de proliférer. Dans nos mains, cette prolifération a pu être restaurée in vitro par l'adjonction exogène d'IL-2. Toutefois, la faisabilité de ce type de complémentation in vivo n'est pas claire. Des expériences additionnelles ont permis de préciser de stade de développement des lymphocytes doubles positifs et simples positifs par le biais des marqueurs CD45RA et CCR7. Il reste maintenant à comprendre pourquoi certains lymphocytes T CD8 spécifiques sont incapables à sécréter de l'IL-2. Article 2: Le deuxième article explore des nouvelles stratégies pour induire une immunité T CD8 spécifique aux protéines du VIH-1, qui sont édités et exposés à la surface des cellules infectées. Ces signaux consistent en fragments de peptide de 8-13 acide aminés provenant de protéines virales, et exposées à la surface des cellules infectées dans le cadre des molécules spécialisées d'histocompatibilité de classe I (en anglais "major histocompatibility class I" ou MHC I). Pour mimer une infection virale, la polyprotéine Gagpolnef du VIH-1 a été insérée et exprimée dans deux vecteurs viraux atténués, soit MVA (provenant de vaccinia virus) ou NYVAC (provenant d'un poxvirus). Ensuite des souris ont été infectées avec ces virus recombinants et la réponse T CD8 aux peptides issus de Gagpolnef a été étudiée. Les souris ont été capables de développer une réponse de type CD8 T contre ces antigènes du VIH-1. Pour tester si ces antigènes pouvaient aussi être présentés par dans le cadre de molécules MHC humaines, des expériences supplémentaires ont été faites avec des souris exprimant un MHC humain. Les résultats de ces manipulations ont montré que des cellules T CD8 spécifique aux protéines du VIH pouvaient être détectées. Ce travail ouvre de nouvelles options quant à l'utilisation des virus recombinants exprimant Gagpolnef comme stratégie vaccinale contre le virus VIH-I chez l'homme. Article 3: Ces revues décrivent la réponse immunitaire à CMV ainsi que des nouvelles méthodes pouvant servir à sa détection. Une partie du manuscrit décrit la détection de cellule T à l'aide de tétramères. Il s'agit de protéines chimériques composées de 4 quatre molécules MHC liées entre elles. Elles sont ensuite "chargées" avec le peptide antigénique approprié, et utilisée pour détecter les cellules T CD8 spécifiques à ce montage. Elles sont aussi marquées par un fluorochrome, qui permet une analyse avec un cytomètre de flux, et l'isolement ultime des CD8 d'intérêt. En résumé, le travail présenté dans cette thèse indique que (i) une réponse T CD8 appropriée - définie par la présence des cellules effectrices doublement positives pour l'IFN-γ et l'IL-2 - semble indispensable pour le contrôle des infections virales, y compris par le VIH-1, (ii) une telle réponse peut être induite par des vaccin viral recombinant, et (iii) la réponse T CD8 peut être analysée et suivie grâce à plusieurs techniques, incluant celle des tétramères de MHC class I. 1.3. Résumé pour un large public Le système immunitaire humain est composé de différents éléments (cellules, tissus et organes) qui participent aux défenses de l'organisme contre les pathogènes (bactéries, virus). Parmi ces cellules, les lymphocytes T CD8, également appelés cellules tueuses, jouent un rôle important dans la réponse immunitaire et le contrôle des infections virales. Les cellules T CD8 reconnaissent de manière spécifique des fragments de protéines virales qui sont exposés à la surface des cellules infectées par le virus. Suite à cette reconnaissance, les cellules T CD8 sont capables de détruire et d'éliminer ces cellules infectées, ainsi que les virus qu'elles contiennent. Dans le contexte d'une infection par le virus de l'immunodéficience humaine (VIH), le virus responsable du SIDA, il a pu être montré que la présence des cellules T CD8 est primordiale. En effet, en l'absence de ces cellules, les individus infectés par le VIH progressent plus rapidement vers le SIDA. Au cours de la vie, l'Homme est exposé à plusieurs virus. Mais à l'opposé du VIH, certains d'entre eux ne causent pas des maladies graves : par exemple le virus de la grippe (Influenza), le cytomégalovirus ou encore le virus d'Epstein-Barr. Certains de ces virus peuvent être contrôlés et éliminés de l'organisme (p. ex. le virus de la grippe), alors que d'autres ne sont que contrôlés par notre système immunitaire et restent présents en petite quantité dans le corps sans avoir d'effet sur notre santé. Le sujet de mon travail de thèse porte sur la compréhension du mécanisme de contrôle des infections virales par le système immunitaire : pourquoi certains virus peuvent être contrôlés ou même éliminés de l'organisme alors que d'autres, et notamment le VIH, ne le sont pas. Ce travail a permis de démontrer que les cellules T CD8 spécifiques du VIH ne sécrètent pas les mêmes substances, nécessaires au développement d'une réponse antivirale efficace, que les cellules T CD8 spécifiques des virus contrôlés (le virus de la grippe, le cytomégalovirus et le virus d'Epstein-Barr). Parallèlement nous avons également observé que les lymphocytes T CD8 spécifiques du VIH ne possèdent pas la capacité de se diviser. Ils sont ainsi incapables d'être présents en quantité suffisante pour assurer un combat efficace contre le virus du SIDA. La (les) différence(s) entre les cellules T CD8 spécifiques aux virus contrôlés (grippe, cytomégalovirus et Epstein-Barr) et au VIH pourront peut-être nous amener à comprendre comment restaurer une immunité efficace contre ce dernier.
Resumo:
Résumé pour large public Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne Lors de la prise d'un médicament, celui-ci va passer par différentes étapes que sont l'absorption, la distribution, le métabolisme et enfin l'élimination. Ces quatre étapes sont regroupées sous le nom de pharmacocinétique. A noter que ces quatre paramètres sont dynamiques et en constante évolution. Durant cette thèse, nous avons investigué différents aspects de la pharmacocinétique, tout d'abord par une revue de la littérature sur la glycoprotéine-P (Pgp). Récemment découverte, cette protéine de membrane est située aux endroits stratégiques de l'organisme comme la barrière hématoencéphalée, le placenta ou les intestins où elle influencera l'entrée de différentes substances, en particulier les médicaments. La Pgp serait impliquée dans les phénomènes de résistances aux agents thérapeutiques en oncologie. La Pgp influence donc l'absorption des médicaments, et son impact en clinique, en termes d'efficacité de traitement et de toxicité prend chaque jour plus d'importance. Ensuite nous avons mis au point une méthode d'analyse quantitative d'un antidépresseur d'une nouvelle génération : la mirtazapine (Remeron®). La nouveauté réside dans la façon dont la mirtazapine interagit avec les neurotransmetteurs impliqués dans la dépression que sont la sérotonine et la noradrénaline. Cette méthode utilise la chromatographie liquide pour séparer la mirtazapine de ses principaux métabolites dans le sang. La spectrométrie de masse est utilisée pour les détecter et les quantifier. Les métabolites sont des substances issues de réactions chimiques entre la substance mère, la mirtazapine, et généralement des enzymes hépatiques, dans le but de rendre cette substance plus soluble en vue de son élimination. Cette méthode permet de quantifier la mirtazapine et ses métabolites dans le sang de patients traités et de déterminer la variation des taux plasmatiques chez ces patients. Puis nous avons étudié le métabolisme d'un autre antidépresseur, le citalopram, qui a un métabolisme complexe. Le citalopram est un racémate, c'est-à-dire qu'il existe sous forme de deux entités chimiques (R-(-) et S-(+) citalopram) qui ont le même nombre d'éléments mais arrangés différemment dans l'espace. La voie métabolique cérébrale du citalopram est sous le contrôle d'une enzyme, la monoamine oxydase (MAO), conduisant à une forme acide du citalopram (l'acide propionique du citalopram). La MAO existe sous deux formes : MAO-A et MAO-B. Nous avons utilisé des souris déficientes d'un gène, celui de la MAO-A, pour mieux en comprendre le métabolisme en les comparants à des souris sauvages (sans déficience de ce gène). Nous avons utilisé le citalopram et deux de ses métabolites (le déméthylcitaloprarn et le didéméthyícitalopram) comme substrats pour tester la formation in vitro de l'acide propionique du citalopram. Nos résultats montrent que la MAO-A favorise la formation de l'entité R-(-) et présente une plus grande affinité pour le citalopram, tandis que la MAO-B métabolise préférentiellement l'entité S-(+) et a une plus grande affinité pour les deux métabolites déméthylés. De plus, la déficience en MAO-A est partiellement compensée parla MAO-B chez les souris déficientes du gène de la MAO-A. Enfin, nous avons étudié une deuxième voie métabolique du citalopram qui s'est avérée toxique chez le chien Beagle. Celle-ci est catalysée par une autre famille d'enzymes, les cytochromes P-450, et mène aux métabolites déméthylés et didéméthylés du citalopram. Nous avons utilisé des tissus hépatiques de chiens Beagle. Plusieurs cytochromes P-450 sont impliqués dans le métabolisme du citalopram menant à sa forme déméthylée, ceci tant chez l'homme que chez le chien. Par contre, dans le métabolisme de la forme déméthylée menant à 1a forme didéméthylée, un seul cytochrome P-450 serait impliqué chez l'Homme, tandis qu'ils seraient plusieurs chez le chien. L'activité enzymatique produisant la forme didéméthylée est beaucoup plus importante chez le chien comparé à l'homme. Cette observation soutien l'hypothèse que des taux élevés de la forme didéméthylée participent à la toxicité spécifique du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant que les enzymes peuvent être stimulées ou inhibées, il importe de pouvoir suivre au plus prés les taux plasmatiques des différents psychotropes et de leurs métabolites. Résumé Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne La plupart des médicaments subissent une transformation enzymatique dans l'organisme. Les substances issues de cette métabolisation ne sont pas toujours dotées d'une activité pharmacologique. Il s'est avéré par conséquent indispensable de suivre les taux plasmatiques d'une substance et de ses métabolites et d'établir ou non l'existence d'une relation avec l'effet clinique observé. Ce concept nommé « therapeutic drag monitoring » (TDM) est particulièrement utile en psychiatrie ou un manque de compliance des patients est fréquemment observé. Les médicaments psychotropes ont un métabolisme principalement hépatique (cytochromes P-450) et parfois cérébral (monoamines oxydases), comme pour le citalopram par exemple. Une méthode stéréosélective de chromatographie liquide couplée à la spectrométrie de masse a été développée pour analyser les énantiomères R-(-) et S-(+) d'un antidépresseur agissant sur les récepteurs noradrénergiques et sérotoninergiques, la mirtazapine et de ses métabolites déméthylmirtazapine et 8-hydroxymirtazapine. Les données préliminaires obtenues dans les plasmas dosés suggèrent que les concentrations de R-(-)-mirtazapine sont plus élevées que celles de S-(+)-mirtazapine, à l'exception des patients qui auraient comme co-médication des inhibiteurs du CYP2D6, telle que la fluoxétine ou la thioridazine. Il y a une enantiosélectivité du métabolisme de la mirtazapine. En particulier pour la 8-hydroxymirtazapine qui est glucuroconjuguée et pour laquelle le ratio S/R varie considérablement. Cette méthode analytique présente l'avantage d'être utilisable pour le dosage stéréosélectif de la mirtazapine et de ses métabolites dans le plasma de patients ayant d'autres substances en co-médication. La glycoprotéine P fonctionne comme une pompe transmembranaire transportant les xénobiotiques depuis le milieu intracellulaire vers le milieu extracellulaire. Son induction et son inhibition, bien que moins étudiées que pour les cytochromes P-450, ont des implications cliniques importantes en termes d'efficacité de traitement et de toxicité. Cette glycoprotéine P a fait l'objet d'une recherche bibliographique. Nous avons étudié le métabolisme du citalopram, un antidépresseur de la classe des inhibiteurs spécifiques de la recapture de la sérotonine chez la souris et chez le chien. Cette substance subit un métabolisme complexe. La voie de métabolisation conduisant à la formation de l'acide propionique du citalopram, catalysée par les monoamines oxydases, a été étudiée in vitro dans les mitochondries cérébrales chez la souris déficiente du gène de la MAO-A (Tg8). La monoamine oxydase A catalyse la formation de l'énantiomère R-(-) et présente une plus grande affinité pour les amines tertiaires, tandis que la monoamine oxydase B favorise la formation de la forme S-(+) et a une affinité plus marquée pour les amines secondaires et primaires. L'étude du citalopram chez la souris Tg8 adulte a montré que la monoamine oxydase B compense la déficience de la monoamine oxydase A chez ces souris génétiquement modifiées. Une autre voie de métabolisation du citalopram conduisant à la formation de didéméthylcitalopram, catalysée par les cytochromes P-450, a été étudiée in vitro dans des microsomes hépatiques de chiens Beagle. Nos études ont montré que les cinétiques de N-déméthylation du citalopram sont biphasiques chez le chien. Les orthologues canins impliqués dans la première N-déméthylation semblent être identiques aux cytochromes P-450 humains. Par contre, dans la deuxième Ndéméthylation, un seul cytochrome P-450 semble être impliqué chez l'homme (CYP2D6), tandis qu'on retrouve jusqu'à cinq orthologues chez le chien. Le CYP2D15, orthologue canin du CYP2D6, est majoritairement impliqué. De plus, l'activité enzymatique, reflétée par les clairances intrinsèques, dans la première N-déméthylation est jusqu'à 45 fois plus élevée chez le chien comparé à l'homme. Ces différentes observations soutiennent l'hypothèse que des taux élevés de didéméthylcitalopram sont responsables de la toxicité du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant -que les enzymes peuvent être induits ou inhibés, il importe de pouvoir suivre au plus près les taux plasmatiques des différents psychotropes et de leurs métabolites. Summary Most of the drugs are metabolized in the organism. Substances issued from this metabolic activity do not always show a pharmacological activity. Therefore, it is necessary to monitor plasmatic levels of drugs and their metabolites, and establish the relationship with the clinical effect. This concept named therapeutic drug monitoring is very useful in psychiatry where lack of compliance is commonly observed. Antidepressants are mainly metabolized in the liver (cytochrome P-450) and sometimes in the brain (monoamine oxidase) like the citalopram, for exemple. A LC-MS method was developed, which allows the simultaneous analysis of R-(-) and S-(+) enantiomers of mirtazapine, an antidepressant acting specifically on noradrenergic and serotonergic receptors, and its metabolites demethylmirtazapine and 8-hydroxymirtazapine in plasma of mirtazapine treated patients. Preliminary data obtained suggested that R-(-) mirtazapine concentrations were higher than those of S-(+) mirtazapine, except in patients comedicated with CYP2D6 inhibitors such as fluoxetine or thioridazine. There is an enantioselectivity in the metabolism of mirtazapine. In particular for the 8-hydroxymirtazapine, which is glucuroconjugated and S/R ratio varies considerably. Therefore this method seems to be suitable for the stereoselective assay of mirtazapine and its metabolites in plasma of patients comedicated with mirtazapine and other drugs for routine and research purposes. P-glycoprotein is working as an efflux transporter of xenobiotics from intracellular to extracellular environment. Its induction or inhibition, although less studied than cytochrome P-450, has huge clinical implications in terms of treatment efficacy and toxicity. An extensive literature search on P-glycoprotein was performed as part of this thesis. The study of citalopram metabolism, an antidepressant belonging to the class of selective serotonin reuptake inhibitors. This substance undergoes a complex metabolism. First metabolization route leading to citalopram propionic acid, catalyzed by monoamine oxidase was studied in vitro in mice brain mitochondria. Monoamine oxidase A catalyzed the formation of R-(-) enantiomer and showed greater affinity for tertiary amines, whereas monoamine oxidase B triggered the formation of S-(+) enantiomer and demonstrated higher affinity for primary and secondary amines. citalopram evaluation in adult Tg8 mice showed that monoamine oxidase B compensated monoamine oxidase A deficiency in those genetically transformed mice. The second metabolization route of citalopram leading to didemethylcitalopram and catalyzed by cytochrome P-450 was studied in vitro in Beagle dog's livers. Our results showed that citalopram N-demethylation kinetics are biphasic in dogs. Canine orthologs involved in the first N-demethylation seemed to be identical to human cytochromes P-450. However, in the second N-demethylation only one cytochrome P-450 seemed to be involved in human (CYP2D6), whereas up to five canine orthologs were found in dogs. CYP2D15 canine ortholog of CYP2D6 was mainly involved. In addition, enzymatic activity reflected by intrinsic clearance in the first N-demethylation was up to 45 fold higher in dogs compared to humans. Those observations support the assumption that elevated rates of didemethylcitalopram are responsible for citalopram toxicity in dogs. We can conclude that several enzymes groups are involved in the brain, as well as in the liver, in antidepressant metabolization. Knowing that enzymes may be induced or inhibited, it makes sense to closely monitor plasmatic levels of antidepressants and their metabolites.
Resumo:
Résumé destiné à un large public Le système immunitaire associé aux muqueuses gastro-intestinales doit être capable de protéger notre organisme contre l'invasion de pathogènes. Parallèlement, il doit identifier en Cant que tels, des composés inoffensifs comme la nourriture ou les milliards de bactéries qui résident dans notre intestin. Le travail présenté ici aborde ces deux aspects essentiels au bon fonctionnement de notre muqueuse intestinale. Dans une première partie, la protéine nommée pièce sécrétoire a été étudiée pour ses propriétés protectrices contre le pathogène viral rotavirus. Le rôle de la pièce sécrétoire est de transporter les anticorps que nous produisons vers la surface des muqueuses. En dehors de cette fonction bien connue, il se peut que cette protéine soit également capable de protéger notre organisme contre certains virus. L'hypothèse de travail était donc que la pièce sécrétoire se lie directement au virus, l'empêchant ainsi d'infecter des cellules épithéliales de l'intestin. En utilisant différentes techniques biochimiques, cette hypothèse s'est révélée fausse car aucune interaction entre la pièce sécrétoire et le virus n'a pu être observée, et logiquement, aucune protection n'a pu prendre place. En revanche, la pièce sécrétoire se lie à d'autres structures pathogéniques et permet ainsi de neutraliser leurs effets néfastes. La pièce sécrétoire participe donc activement à la protection de nos muqueuses, en plus de son rôle de transporteur. La deuxième partie de ce travail avait pour sujet les réactions inappropriées que le système immunitaire induit parfois contre un aliment, ou, autrement dit, les allergies alimentaires. Un modèle d'allergie alimentaire à donc été développé chez la souris et a permis de mesurer plusieurs symptômes et facteurs liés à l'allergie. Puis, ce modèle a été utilisé afin de tester les effets bénéfiques d'une bactérie lactique, dite probiotique, sur le développement de l'allergie. Il a été observé que, sous certaines circonstances, l'administration de la bactérie lactique protégeait entièrement les souris contre les réactions allergiques. L'effet bénéfique dépend donc du probiotique mais également d'autres facteurs encore inconnus â ce jour. Cette étude ouvre la voie sur la compréhension des mécanismes liés aux allergies alimentaires et sur l'impact que peuvent avoir les bactéries probiotiques sur cette maladie. Résumé Le système immunitaire associé aux muqueuses intestinales doit être capable de différencier les antigènes inoffensifs tels que 1a nourriture ou les bactéries commensales des microorganismes potentiellement dangereux. Cet aspect est essentiel pour le maintien de l'homéostase intestinale et fait l'objet du travail présenté ici. Dans un premier projet, les propriétés protectrices de la protéine appelée pièce sécrétoire (SC) ont été étudiées. SC est une protéine connue pour le transport des immunoglobulines à la surface des muqueuses. Cette protéine est fortement glycosylée paz des sucres complexes, ce qui nous a mené à postuler que SC puisse interagir avec le pathogène rotavirus. Cette hypothèse était soutenue par le fait que ce virus adhère aux cellules épithéliales par des résidus glycosylés. Des analyses biochimiques et biologiques ont démontré qu'aucune interaction entre SC et le virus ne prenait place, et que par conséquent SC n'offrait aucune protection contre ce pathogène. En revanche, SC interagit avec d'autres structures pathogéniques, comme la toxine A de Clostridium difficile, et la molécule d'adhésion intimine de la bactérie entéropathogène Escherichia coli. La liaison se fait par l'intermédiaire des sucres et confère ainsi une protection contre ces pathogènes. Ainsi, SC a été identifié comme agent neutralisant au niveau de l'intestin. La deuxième partie de ce travail abordait le sujet des allergies alimentaires, et avait pour but de tester les effets bénéfiques potentiels d'une bactérie probiotique, Lactobacillus paracasei NCC2461, contre les réactions allergiques. Un modèle marin d'allergie alimentaire a été mis au point, permettant de mesurer des immunoglobulines E, des symptômes allergiques, et la dégranulation de mastocytes. Lorsque le probiotique a été administré aux souris, celles-ci ont été complètement protégées des réactions allergiques dans une première expérience. Cependant, cette protection n'a pas été reproduite et suggère que des facteurs environnementaux encore inconnus sont critiques pour que le probiotique agisse positivement. Ce travail a permis de mettre en évidence la complexité de l'approche des traitements liés aux probiotiques et ouvre la voie sur la compréhension des mécanismes liés à l'allergie. Abstract The mucosal immune system associated to the gastrointestinal mucosa must efficiently distinguish between innocuous antigens, such as food proteins and commensal bacteria and potentially infectious agents. The work presented here deals with these two essential aspects guaranteeing intestinal homeostasis. In the first part of this work, the protective properties of secretory component (SC) toward the pathogen rotavirus were investigated. SC, which allows the transport of polymeric immunoglobulins (Ig) to mucosal surfaces, is highly glycosylated with complex glycan structures. The abundance and the nature of these carbohydrates led us to speculate that SC might interact with rotavirus, which is known to bind target cells with glycan receptors. Using various biological and biochemical techniques, we demonstrated that SC did not interact with rotaviruses, nor protected epithelial cells from infection. However, SC was shown to bind to Clostridium difficile toxin A and to the enteropathogenic Echerischia coli adhesion molecule intimin in a glycan-dependent fashion. These interactions allow in vitro protection of epithelial cells using physiological concentrations of SC. These data identify SC as a microbial scavenger at mucosal surfaces, and in the context of secretory IgA, further enhance the neutralising properties of the complex. The second project was inscribed in the domain of food allergy and aimed to test the modulatory functions of a probiotic strain of Lactobacillus paracasei toward allergic reactions. A model of food-mediated allergy was developed in the mouse using mucosal sensitisation. Several parameters associated to allergy were quantified after allergen challenge, and included allergen-specific IgE, allergic signs like diarrhea and temperature drop, and degranulation of mast cells. Administration of the probiotic strain was shown to completely protect mice from allergic reactions. However, these data were not reproduced, suggesting that unknown environmental factors are required so that protection mediated by the probiotic strain occurs. This study paves the way to the understanding of the mechanisms associated to allergy, and highlights the tremendous complexity that probiotic treatments will have to face.