999 resultados para Complexe Desjardins


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'expérience LHCb sera installée sur le futur accélérateur LHC du CERN. LHCb est un spectromètre à un bras consacré aux mesures de précision de la violation CP et à l'étude des désintégrations rares des particules qui contiennent un quark b. Actuellement LHCb se trouve dans la phase finale de recherche et développement et de conception. La construction a déjà commencé pour l'aimant et les calorimètres. Dans le Modèle Standard, la violation CP est causée par une phase complexe dans la matrice 3x3 CKM (Cabibbo-Kobayashi-Maskawa) de mélange des quarks. L'expérience LHCb compte utiliser les mesons B pour tester l'unitarité de cette matrice, en mesurant de diverses manières indépendantes tous les angles et côtés du "triangle d'unitarité". Cela permettra de surdéterminer le modèle et, peut-être, de mettre en évidence des incohérences qui seraient le signal de l'existence d'une physique au-delà du Modèle Standard. La reconstruction du vertex de désintégration des particules est une condition fondamentale pour l'expérience LHCb. La présence d'un vertex secondaire déplacé est une signature de la désintégration de particules avec un quark b. Cette signature est utilisée dans le trigger topologique du LHCb. Le Vertex Locator (VeLo) doit fournir des mesures précises de coordonnées de passage des traces près de la région d'interaction. Ces points sont ensuite utilisés pour reconstruire les trajectoires des particules et l'identification des vertices secondaires et la mesure des temps de vie des hadrons avec quark b. L'électronique du VeLo est une partie essentielle du système d'acquisition de données et doit se conformer aux spécifications de l'électronique de LHCb. La conception des circuits doit maximiser le rapport signal/bruit pour obtenir la meilleure performance de reconstruction des traces dans le détecteur. L'électronique, conçue en parallèle avec le développement du détecteur de silicium, a parcouru plusieurs phases de "prototyping" décrites dans cette thèse.<br/><br/>The LHCb experiment is being built at the future LHC accelerator at CERN. It is a forward single-arm spectrometer dedicated to precision measurements of CP violation and rare decays in the b quark sector. Presently it is finishing its R&D and final design stage. The construction already started for the magnet and calorimeters. In the Standard Model, CP violation arises via the complex phase of the 3 x 3 CKM (Cabibbo-Kobayashi-Maskawa) quark mixing matrix. The LHCb experiment will test the unitarity of this matrix by measuring in several theoretically unrelated ways all angles and sides of the so-called "unitary triangle". This will allow to over-constrain the model and - hopefully - to exhibit inconsistencies which will be a signal of physics beyond the Standard Model. The Vertex reconstruction is a fundamental requirement for the LHCb experiment. Displaced secondary vertices are a distinctive feature of b-hadron decays. This signature is used in the LHCb topology trigger. The Vertex Locator (VeLo) has to provide precise measurements of track coordinates close to the interaction region. These are used to reconstruct production and decay vertices of beauty-hadrons and to provide accurate measurements of their decay lifetimes. The Vertex Locator electronics is an essential part of the data acquisition system and must conform to the overall LHCb electronics specification. The design of the electronics must maximise the signal to noise ratio in order to achieve the best tracking reconstruction performance in the detector. The electronics is being designed in parallel with the silicon detector development and went trough several prototyping phases, which are described in this thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objet de ce travail est l'évaluation de l'activité de radionucléides présents à l'état de traces, par exemple dans l'environnement. Lorsque les mesures sont de courte durée, ou si les sources sont peu actives, l'analyse statistique standard ne donne plus une estimation fiable de l'activité et de son incertitude. L'introduction du concept bayesien d'a priori permet de modéliser l'information à disposition de l'observateur avant qu'il effectue la mesure. Cette information conduit à une estimation plus cohérente des grandeurs physiques recherchées. Le cadre de la théorie est tout d'abord présenté, définissant les concepts d'état, d'observation et de décision. La mesure physique est traduite par un modèle statistique qui est une probabilité de transition des états vers les observations. L'information de Fisher et celle de Shannon-Kullback sont introduites dans le but d'obtenir les a priori nécessaires au théorème de Bayes. Les modèles propres à la mesure de la radioactivité sont ensuite traités. Si l'on peut considérer l'activité comme constante, le modèle est celui de Poisson et conduit à des a priori de type gamma. Pour les grandes activités, ces deux lois se rapprochent des gaussiennes et l'on retrouve l'analyse statistique classique. Lorsque la décroissance du nombre de noyaux n'est plus négligeable, ou lors de l'évaluation de certains temps d'attente, d'autres modèles sont développés. Quelques applications sont présentées ensuite, notamment une définition cohérente des intervalles de confiance et l'estimation de l'activité de radionucléides à schéma complexe par spectrométrie gamma, où l'obtention de tout un spectre permet une analyse multidimensionnelle. Le paradigme bayesien conduit à une répartition complète et globale pour l'état du système physique mesuré. L'observateur obtient ainsi la meilleure estimation possible de l'état basée sur son modèle d'expérience et l'information préalable en sa possession.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV dans le centre de masse) et haute luminosité (1034 cm-2s-1), pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haute intensité, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. Cette expérience, qui a été réalisée avec succès au CERN au cours de l'année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positron), est le sujet central de ce rapport. L'expérience de combinaison des paquets d'électrons consiste à accélérer cinq impulsions dont les paquets d'électrons sont espacés de 10 cm, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dont les paquets d'électrons sont espacés de 2 cm, multipliant ainsi la fréquence des paquets d'électrons, ainsi que la charge par impulsion, par cinq. Cette combinaison est réalisée au moyen de structures RF résonnantes sur un mode déflecteur, qui créent dans l'anneau une déformation locale et dépendante du temps de l'orbite du faisceau. Ce mécanisme impose plusieurs contraintes de dynamique de faisceau comme l'isochronicité, ainsi que des tolérances spécifiques sur les paquets d'électrons, qui sont définies dans ce rapport. Les études pour la conception de la Phase Préliminaire du CTF3 sont détaillées, en particulier le nouveau procédé d'injection avec les déflecteurs RF. Les tests de haute puissance réalisés sur ces cavités déflectrices avant leur installation dans l'anneau sont également décrits. L'activité de mise en fonctionnement de l'expérience est présentée en comparant les mesures faites avec le faisceau aux simulations et calculs théoriques. Finalement, les expériences de multiplication de fréquence des paquets d'électrons sont décrites et analysées. On montre qu'une très bonne efficacité de combinaison est possible après optimisation des paramètres de l'injection et des déflecteurs RF. En plus de l'expérience acquise sur l'utilisation de ces déflecteurs, des conclusions importantes pour les futures activités CTF3 et CLIC sont tirées de cette première démonstration de la multiplication de fréquence des paquets d'électrons par injection RF dans un anneau isochrone.<br/><br/>The Compact LInear Collider (CLIC) collaboration studies the possibility of building a multi-TeV (3 TeV centre-of-mass), high-luminosity (1034 cm-2s-1) electron-positron collider for particle physics. The CLIC scheme is based on high-frequency (30 GHz) linear accelerators powered by a low-energy, high-intensity drive beam running parallel to the main linear accelerators (Two-Beam Acceleration concept). One of the main challenges to realize this scheme is to generate the drive beam in a low-frequency accelerator and to achieve the required high-frequency bunch structure needed for the final acceleration. In order to provide bunch frequency multiplication, the main manipulation consists in sending the beam through an isochronous combiner ring using radio-frequency (RF) deflectors to inject and combine electron bunches. However, such a scheme has never been used before, and the first stage of the CLIC Test Facility 3 (CTF3) project aims at a low-charge demonstration of the bunch frequency multiplication by RF injection into an isochronous ring. This proof-of-principle experiment, which was successfully performed at CERN in 2002 using a modified version of the LEP (Large Electron Positron) pre-injector complex, is the central subject of this report. The bunch combination experiment consists in accelerating in a linear accelerator five pulses in which the electron bunches are spaced by 10 cm, and combining them in an isochronous ring to obtain one pulse in which the electron bunches are spaced by 2 cm, thus achieving a bunch frequency multiplication of a factor five, and increasing the charge per pulse by a factor five. The combination is done by means of RF deflecting cavities that create a time-dependent bump inside the ring, thus allowing the interleaving of the bunches of the five pulses. This process imposes several beam dynamics constraints, such as isochronicity, and specific tolerances on the electron bunches that are defined in this report. The design studies of the CTF3 Preliminary Phase are detailed, with emphasis on the novel injection process using RF deflectors. The high power tests performed on the RF deflectors prior to their installation in the ring are also reported. The commissioning activity is presented by comparing beam measurements to model simulations and theoretical expectations. Eventually, the bunch frequency multiplication experiments are described and analysed. It is shown that the process of bunch frequency multiplication is feasible with a very good efficiency after a careful optimisation of the injection and RF deflector parameters. In addition to the experience acquired in the operation of these RF deflectors, important conclusions for future CTF3 and CLIC activities are drawn from this first demonstration of the bunch frequency multiplication by RF injection into an isochronous ring.<br/><br/>La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV) pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haut courant, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. L'expérience consiste à accélérer cinq impulsions, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dans laquelle la fréquence des paquets d'électrons et le courant sont multipliés par cinq. Cette combinaison est réalisée au moyen de structures déflectrices RF qui créent dans l'anneau une déformation locale et dépendante du temps de la trajectoire du faisceau. Les résultats de cette expérience, qui a été réalisée avec succès au CERN au cours de l?année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positon), sont présentés en détail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La complexité des parcours migratoires italiens, malgré la vaste littérature existante, n?a été souvent étudiée en profondeur qu'au niveau de la Confédération Helvétique ou bien dans le cadre d'un thème spécifique lié, plus en général, à la présence italienne en Suisse. En ce qui concerne le canton de Vaud, il n'existe pas, à notre connaissance, une étude scientifique spécifique sur la communauté italienne du canton. Il existe, bien sûr, des études concernant des thèmes spécifiques - nous y avons d?ailleurs contribué -, mais en réalité cette communauté reste méconnue dans son ensemble. Si des études scientifiques ou de vulgarisation ont mis en valeur certaines spécificités surtout historiques de cette communauté étrangère du canton de Vaud et de Suisse Romande, la parole n?a pas souvent été offerte à ces mêmes Italiens. C?est en partie dans le dessin de leur donner la parole, pour se raconter et pour raconter leur histoire de l?immigration italienne de l?aprèsguerre dans le canton de Vaud que ce travail a été fait. Il ne s?agit pas de l?objectif originel de cette recherche, surtout centré sur l?individuation des caractéristiques géographiques de la communauté italienne du canton de Vaud et moins axé sur les pratiques et la parole des migrants en question. Ce n?est qu?au fil des rencontres, des discussions, de résultats scientifiques qui sentaient le déjà vu, que le projet de thèse initial a évolué en allant vers les migrants, parfois « au détriment de la science pure » mais toujours en cherchant à rendre à ces Italiens leur statut d?individus à part entière. Il faut dire en outre que les études scientifiques ou les articles de vulgarisation existants n?ont pas souvent pris en considération la dimension spatiale. Cela ne concerne pas que les écrits concernant les Italiens de Suisse romande ou de la Confédération helvétique mais, plus généralement, l'ensemble des pays où la présence d?une population d'origine italienne constitue une part considérable de la présence étrangère ou d'origine étrangère. Ce qui laisse des creux assez importants dans les connaissances - par les acteurs bien sûr - non seulement des parcours migratoires mais aussi dans l?analyse des diverses spatialités qui, sommées, superposées, entrecroisées, juxtaposées, constituent l?une des composantes majeures de tout mouvement migratoire. Le parcours de recherche et quelques résultats Partis de schémas et de connaissances scientifiques « certaines » sur les phénomènes migratoires, nous avons dû nous obliger à revoir nos certitudes et à nous former tout en poursuivant notre chemin de recherche. Les connaissances et les compétences acquises « en route » nous ont bien confirmé que, pour chercher à pénétrer dans l?écheveau des parcours migratoires, il nous fallait abandonner l?idée de pouvoir les mesurer. Si quelques velléités quantitatives nous animaient encore, les acteurs de terrain nous ont bien aidé à les dépasser, à ne pas nous conformer au dictat de vouloir à tout prix mesurer un phénomène aussi opaque que les trajectoires migratoires. Par les reconstructions et les constructions en acte de ces mêmes trajectoires, nos témoins nous ont non seulement informés mais aussi formés à la découverte et à la reconstruction « bribe par bribe » - selon l?expression de Xavier Piolle » (Piolle, 1990, p. 149) - ce cette matière dense que sont les parcours migratoires des Italiens du canton de Vaud et cherchant à définir une grille de lecture de cet objet d?étude opaque et sinueux. Au fur et à mesure que cette grille se construisait, il nous paraissait de plus en plus clair que les Italiens mobilisés dans la recherche étaient en train de nous informer sur l?existence d?un mode de vie centré sur plusieurs références spatiales, sociales et culturelles qui ne pouvait en aucune manière s?apparenter aux modèles de sédentarité et de mobilité « reconnus » par les académiciens et les gens communs. Ce mode de vie centré sur des ancrages, réels ou bien cristallisés dans la mémoire et régulièrement « re-vivifiés », est axé sur une mobilité et un mouvement qui prennent leur source dans des racines « ancestrales » ou actuelles. Dans ce nouveau mode de vie, que devient l?espace ? Il se fait un réseau fondé sur des références spatiales concrètes et quotidiennes et sur des références symboliques qui, malgré les obligations du quotidien et de la vie réelle, ne s?effacent jamais. L?ensemble de ces références sont constitutives de l?espace du migrant et de son mode de vie entre sédentarité et mobilité - anciennes et nouvelles -. Ce mode de vie est fait de ruptures, ces mêmes ruptures qui sont parfois incompréhensibles aux non-migrants, à tous ceux qui ne comprennent pas la « non conformation » du migrant à un modèle sédentaire. Ce modèle, apparemment révolutionnaire, n?est qu?un tout premier exemple, le plus ancien peut-être, des nouveaux modes de vie qui commencent à s?affirmer et à s?ancrer dans nos sociétés actuelles. Le migrant a été et continue d?être une sorte d? « éclaireur » pour ces mêmes sociétés qui, pourtant, n?arrêtent pas de le considérer « Autre » et « hors norme » par rapport au modèle de sédentarité « monolithique » dominant. Le migrant, l? « homme porteur d?un ailleurs » plus ou moins lointain, nous enseigne que de nos jours être pluriel risque bien d?être un atout, que la (re)construction de nos identités nous ouvre au principe de la multiplicité et de l?altérité. Il est bien évident que pour arriver à entrer dans cette matière fluide, multiple et complexe, nous avons dû abandonner les chemins scientifiques habituels et que nous avons dû nous concentrer sur l?émergence de « bribes » plus que sur les données concrètes et mesurables concernant les Italiens du canton de Vaud. D?objet principal de la recherche qu?elle était, la communauté italienne du canton de Vaud s?est transformée en « objet instrumental », c?est-àdire en outil nécessaire à l?émergence et à l?étude des trajectoires migratoires des Italiens vivant dans cette région. Ce choix fait au cours de la recherche risque de ne pas satisfaire tous ceux qui voudraient « en savoir plus » sur la communauté italienne et qui rechercheraient dans ce travail des informations « factuelles » et mesurables. Nous avons été tenté par ce type d?approche, nous avons même cherché à la mettre en pratique : les résultats peu parlants pour nos interrogations sur les trajectoires migratoires nous en ont dissuadé. Cette recherche risque par ailleurs de décevoir également tous ceux qui y rechercheraient des mesures d?application concrètes. L?objectif de la recherche n?était pourtant pas la définition de modes opérationnels pour agir dans le cadre de la communauté italienne mais plutôt la découverte, par le terrain et en partenariat avec les Italiens mobilisés par les enquêtes, des tenants et aboutissants - les plus importants du moins - des trajectoires migratoires. Nous considérons que la compréhension des mécanismes et des spécificités des parcours migratoires, y compris leurs contradictions et parfois leurs anachronismes, est centrale, préalable à toute action éventuellement normative ou correctrice. Il ne nous appartient donc pas de faire des recommandations, de suggérer des décisions : seule l?action informative nous revient et nous appartient. Tel était bien le but de cette recherche. Les nouvelles pistes de recherche Notre action informative consiste dans la diffusion des résultats obtenus ainsi que dans la mise en évidence et la suggestion de nouvelles pistes de recherche et d?enquête, soit réflexives soit applicatives. Il nous paraît évident que se passer d?une réflexion « genrée » des migrations pourrait limiter la découverte des ressources existantes chez les migrants ainsi que rendre partielle la compréhension des problèmes « migratoires » anciens et nouveaux. L?approche genrée, bien que peu pratiquée jusqu?à présent, est une ressource « ancienne » mais longtemps considérée accessoire par les chercheurs tout comme par les édiles. La compréhension des spécificités et des différences dans les besoins et les aspirations des migrants et des migrantes peut conduire à devoir repenser toute action normative et correctrice, toute décision et tout choix qui, sans la prise en compte de cette composante, seraient nécessairement « artificiels » et ne correspondraient pas à la réalité migratoire. Si au début de cette recherche le chemin « genré » nous paraissait difficile à parcourir, dans le cadre des enquêtes sur le terrain en particulier - cette difficulté nous a dissuadé d?en faire l?objet « central » de notre recherche -, aujourd?hui l?acceptation du changement du rôle de la femme migrante - ainsi que les changements de cette même femme, moins passive et bien plus à même d?exprimer ses besoins et ses envies - nous rassure sur les opportunités de recherche futures ainsi que sur la portée des décisions futures concernant les migrants. La piste des jeunes migrants nous paraît aussi centrale et fondamentale dans les réflexions et les applications futures. Les modèles, les modes et les choix d?intervention sur le terrain font encore trop souvent référence à une réalité migratoire qui n?est plus ou bien qui prend encore en considération des références qui ne « font plus sens » pour les jeunes migrants. Les approches intergénérationnelles commencent timidement à se diffuser, tout en gardant une « aura » expérimentale qui risque de retarder la diffusion de ce mode de réflexion et d?action de la part des édiles comme des chercheurs. Il serait pourtant indispensable de ne pas trop prolonger cette expérimentation car la réalité de nos sociétés nous montre bien que la valorisation de quelques-unes des composantes « migratoires » augmente les risques d?affaiblissement des réseaux sociaux existants - les réseaux migratoires dans ce cas spécifique -. La réalité de nos sociétés, et de la société vaudoise dans ce cas particulier, nous donne aussi clairement l?indication d?une nouvelle réalité migratoire dans la communauté italienne : celle des « high skilled ». Composante marginale pendant des décennies, elle a acquis au cours des années ?90 du poids et de la visibilité. Sommes-nous face à une nouvelle « vague » migratoire, italienne dans ce cas spécifique, moins « redoutable » que les précédentes car constituée d?individus à même de s?intégrer plus facilement dans la société locale ? Ou bien sommes-nous face à la « concrétisation » et visibilisation d?un nouveau mode de vie, centré sur la mobilité, sur la « transition mobilitaire » dont nous parle Rémy Knafou ? Il est évident que la matière est encore assez « brute », qu?il nous manque des références spécifiques pour mieux entrer en matière et argumenter. Certains Pays occidentaux ne sont-ils pas en train de se demander comment rechercher et recruter des professionnels « high skilled » ? Cette nouvelle vague migratoire est peut-être composée par des « éclaireurs » qui expérimentent un nouveau mode de vie et de valorisation de leurs compétences professionnelles « au-delà des frontières nationales » et qui s? « alimentent » de mobilités successives. Cet ensemble de pistes, mais il y en a d?autres que nous pourrions cerner en allant plus en profondeur au sein des plus importantes, s?est révélé à nous par la manière de conduire notre recherche. Celle-ci en effet nous a demandé bien des parcours « à rebours », bien des remises en question, bien des périodes de prise de distance en regard d?une matière d?analyse qui, au fil du temps, s?est faite plus dense et plus problématique. Il nous paraît fondamental de rappeler encore une fois que la recherche n?a abouti que grâce au travail conduit sur le terrain par le chercheur, en observateur et en enquêteur d?abord, en acteur et partenaire de terrain par la suite. Cette méthode de recherche, parfois encore plus spiraliforme que les parcours migratoires, nous a permis de nous construire un « savoir être chercheur » et, par conséquent, un « savoir faire la recherche » dans le champ migratoire que nous n?envisagions pas au début de ce travail. L?acquisition de ces savoirs et les choix méthodologiques assumés nous paraissent encore plus indispensables à la fin de cette étude. Il ne s?agit pas de choix « partisans ». Nous avons bien expérimenté et cherché à utiliser les diverses approches possibles. Il s?agit plutôt de choix devenus nécessaires afin de mener la recherche à terme. Après maintes tentatives méthodologiques, nous avons bien compris qu?il existe des objets d?étude qui nécessitent l?adaptation du chercheur à leurs spécificités. Nous sommes convaincu que, voulant dépasser la phase purement « comptable » ou exploratoire d?un objet complexe et problématique comme les trajectoires migratoires, les méthodes d?enquête sur le terrain et avec les acteurs de terrain, restent les seules qui nous aident à pénétrer dans l?objet de recherche lui-même, qui nous soutiennent dans l?exploration sur la durée, qui nous permettent, par l?échange de savoirs différents, de participer à la recherche du « dedans », qui nous incitent à la confrontation de nos savoirs « savants » avec d?autres savoirs encore plus « savants » mais qui ne sont pas au bénéfice de la même légitimité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé pour large public Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne Lors de la prise d'un médicament, celui-ci va passer par différentes étapes que sont l'absorption, la distribution, le métabolisme et enfin l'élimination. Ces quatre étapes sont regroupées sous le nom de pharmacocinétique. A noter que ces quatre paramètres sont dynamiques et en constante évolution. Durant cette thèse, nous avons investigué différents aspects de la pharmacocinétique, tout d'abord par une revue de la littérature sur la glycoprotéine-P (Pgp). Récemment découverte, cette protéine de membrane est située aux endroits stratégiques de l'organisme comme la barrière hématoencéphalée, le placenta ou les intestins où elle influencera l'entrée de différentes substances, en particulier les médicaments. La Pgp serait impliquée dans les phénomènes de résistances aux agents thérapeutiques en oncologie. La Pgp influence donc l'absorption des médicaments, et son impact en clinique, en termes d'efficacité de traitement et de toxicité prend chaque jour plus d'importance. Ensuite nous avons mis au point une méthode d'analyse quantitative d'un antidépresseur d'une nouvelle génération : la mirtazapine (Remeron®). La nouveauté réside dans la façon dont la mirtazapine interagit avec les neurotransmetteurs impliqués dans la dépression que sont la sérotonine et la noradrénaline. Cette méthode utilise la chromatographie liquide pour séparer la mirtazapine de ses principaux métabolites dans le sang. La spectrométrie de masse est utilisée pour les détecter et les quantifier. Les métabolites sont des substances issues de réactions chimiques entre la substance mère, la mirtazapine, et généralement des enzymes hépatiques, dans le but de rendre cette substance plus soluble en vue de son élimination. Cette méthode permet de quantifier la mirtazapine et ses métabolites dans le sang de patients traités et de déterminer la variation des taux plasmatiques chez ces patients. Puis nous avons étudié le métabolisme d'un autre antidépresseur, le citalopram, qui a un métabolisme complexe. Le citalopram est un racémate, c'est-à-dire qu'il existe sous forme de deux entités chimiques (R-(-) et S-(+) citalopram) qui ont le même nombre d'éléments mais arrangés différemment dans l'espace. La voie métabolique cérébrale du citalopram est sous le contrôle d'une enzyme, la monoamine oxydase (MAO), conduisant à une forme acide du citalopram (l'acide propionique du citalopram). La MAO existe sous deux formes : MAO-A et MAO-B. Nous avons utilisé des souris déficientes d'un gène, celui de la MAO-A, pour mieux en comprendre le métabolisme en les comparants à des souris sauvages (sans déficience de ce gène). Nous avons utilisé le citalopram et deux de ses métabolites (le déméthylcitaloprarn et le didéméthyícitalopram) comme substrats pour tester la formation in vitro de l'acide propionique du citalopram. Nos résultats montrent que la MAO-A favorise la formation de l'entité R-(-) et présente une plus grande affinité pour le citalopram, tandis que la MAO-B métabolise préférentiellement l'entité S-(+) et a une plus grande affinité pour les deux métabolites déméthylés. De plus, la déficience en MAO-A est partiellement compensée parla MAO-B chez les souris déficientes du gène de la MAO-A. Enfin, nous avons étudié une deuxième voie métabolique du citalopram qui s'est avérée toxique chez le chien Beagle. Celle-ci est catalysée par une autre famille d'enzymes, les cytochromes P-450, et mène aux métabolites déméthylés et didéméthylés du citalopram. Nous avons utilisé des tissus hépatiques de chiens Beagle. Plusieurs cytochromes P-450 sont impliqués dans le métabolisme du citalopram menant à sa forme déméthylée, ceci tant chez l'homme que chez le chien. Par contre, dans le métabolisme de la forme déméthylée menant à 1a forme didéméthylée, un seul cytochrome P-450 serait impliqué chez l'Homme, tandis qu'ils seraient plusieurs chez le chien. L'activité enzymatique produisant la forme didéméthylée est beaucoup plus importante chez le chien comparé à l'homme. Cette observation soutien l'hypothèse que des taux élevés de la forme didéméthylée participent à la toxicité spécifique du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant que les enzymes peuvent être stimulées ou inhibées, il importe de pouvoir suivre au plus prés les taux plasmatiques des différents psychotropes et de leurs métabolites. Résumé Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne La plupart des médicaments subissent une transformation enzymatique dans l'organisme. Les substances issues de cette métabolisation ne sont pas toujours dotées d'une activité pharmacologique. Il s'est avéré par conséquent indispensable de suivre les taux plasmatiques d'une substance et de ses métabolites et d'établir ou non l'existence d'une relation avec l'effet clinique observé. Ce concept nommé « therapeutic drag monitoring » (TDM) est particulièrement utile en psychiatrie ou un manque de compliance des patients est fréquemment observé. Les médicaments psychotropes ont un métabolisme principalement hépatique (cytochromes P-450) et parfois cérébral (monoamines oxydases), comme pour le citalopram par exemple. Une méthode stéréosélective de chromatographie liquide couplée à la spectrométrie de masse a été développée pour analyser les énantiomères R-(-) et S-(+) d'un antidépresseur agissant sur les récepteurs noradrénergiques et sérotoninergiques, la mirtazapine et de ses métabolites déméthylmirtazapine et 8-hydroxymirtazapine. Les données préliminaires obtenues dans les plasmas dosés suggèrent que les concentrations de R-(-)-mirtazapine sont plus élevées que celles de S-(+)-mirtazapine, à l'exception des patients qui auraient comme co-médication des inhibiteurs du CYP2D6, telle que la fluoxétine ou la thioridazine. Il y a une enantiosélectivité du métabolisme de la mirtazapine. En particulier pour la 8-hydroxymirtazapine qui est glucuroconjuguée et pour laquelle le ratio S/R varie considérablement. Cette méthode analytique présente l'avantage d'être utilisable pour le dosage stéréosélectif de la mirtazapine et de ses métabolites dans le plasma de patients ayant d'autres substances en co-médication. La glycoprotéine P fonctionne comme une pompe transmembranaire transportant les xénobiotiques depuis le milieu intracellulaire vers le milieu extracellulaire. Son induction et son inhibition, bien que moins étudiées que pour les cytochromes P-450, ont des implications cliniques importantes en termes d'efficacité de traitement et de toxicité. Cette glycoprotéine P a fait l'objet d'une recherche bibliographique. Nous avons étudié le métabolisme du citalopram, un antidépresseur de la classe des inhibiteurs spécifiques de la recapture de la sérotonine chez la souris et chez le chien. Cette substance subit un métabolisme complexe. La voie de métabolisation conduisant à la formation de l'acide propionique du citalopram, catalysée par les monoamines oxydases, a été étudiée in vitro dans les mitochondries cérébrales chez la souris déficiente du gène de la MAO-A (Tg8). La monoamine oxydase A catalyse la formation de l'énantiomère R-(-) et présente une plus grande affinité pour les amines tertiaires, tandis que la monoamine oxydase B favorise la formation de la forme S-(+) et a une affinité plus marquée pour les amines secondaires et primaires. L'étude du citalopram chez la souris Tg8 adulte a montré que la monoamine oxydase B compense la déficience de la monoamine oxydase A chez ces souris génétiquement modifiées. Une autre voie de métabolisation du citalopram conduisant à la formation de didéméthylcitalopram, catalysée par les cytochromes P-450, a été étudiée in vitro dans des microsomes hépatiques de chiens Beagle. Nos études ont montré que les cinétiques de N-déméthylation du citalopram sont biphasiques chez le chien. Les orthologues canins impliqués dans la première N-déméthylation semblent être identiques aux cytochromes P-450 humains. Par contre, dans la deuxième Ndéméthylation, un seul cytochrome P-450 semble être impliqué chez l'homme (CYP2D6), tandis qu'on retrouve jusqu'à cinq orthologues chez le chien. Le CYP2D15, orthologue canin du CYP2D6, est majoritairement impliqué. De plus, l'activité enzymatique, reflétée par les clairances intrinsèques, dans la première N-déméthylation est jusqu'à 45 fois plus élevée chez le chien comparé à l'homme. Ces différentes observations soutiennent l'hypothèse que des taux élevés de didéméthylcitalopram sont responsables de la toxicité du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant -que les enzymes peuvent être induits ou inhibés, il importe de pouvoir suivre au plus près les taux plasmatiques des différents psychotropes et de leurs métabolites. Summary Most of the drugs are metabolized in the organism. Substances issued from this metabolic activity do not always show a pharmacological activity. Therefore, it is necessary to monitor plasmatic levels of drugs and their metabolites, and establish the relationship with the clinical effect. This concept named therapeutic drug monitoring is very useful in psychiatry where lack of compliance is commonly observed. Antidepressants are mainly metabolized in the liver (cytochrome P-450) and sometimes in the brain (monoamine oxidase) like the citalopram, for exemple. A LC-MS method was developed, which allows the simultaneous analysis of R-(-) and S-(+) enantiomers of mirtazapine, an antidepressant acting specifically on noradrenergic and serotonergic receptors, and its metabolites demethylmirtazapine and 8-hydroxymirtazapine in plasma of mirtazapine treated patients. Preliminary data obtained suggested that R-(-) mirtazapine concentrations were higher than those of S-(+) mirtazapine, except in patients comedicated with CYP2D6 inhibitors such as fluoxetine or thioridazine. There is an enantioselectivity in the metabolism of mirtazapine. In particular for the 8-hydroxymirtazapine, which is glucuroconjugated and S/R ratio varies considerably. Therefore this method seems to be suitable for the stereoselective assay of mirtazapine and its metabolites in plasma of patients comedicated with mirtazapine and other drugs for routine and research purposes. P-glycoprotein is working as an efflux transporter of xenobiotics from intracellular to extracellular environment. Its induction or inhibition, although less studied than cytochrome P-450, has huge clinical implications in terms of treatment efficacy and toxicity. An extensive literature search on P-glycoprotein was performed as part of this thesis. The study of citalopram metabolism, an antidepressant belonging to the class of selective serotonin reuptake inhibitors. This substance undergoes a complex metabolism. First metabolization route leading to citalopram propionic acid, catalyzed by monoamine oxidase was studied in vitro in mice brain mitochondria. Monoamine oxidase A catalyzed the formation of R-(-) enantiomer and showed greater affinity for tertiary amines, whereas monoamine oxidase B triggered the formation of S-(+) enantiomer and demonstrated higher affinity for primary and secondary amines. citalopram evaluation in adult Tg8 mice showed that monoamine oxidase B compensated monoamine oxidase A deficiency in those genetically transformed mice. The second metabolization route of citalopram leading to didemethylcitalopram and catalyzed by cytochrome P-450 was studied in vitro in Beagle dog's livers. Our results showed that citalopram N-demethylation kinetics are biphasic in dogs. Canine orthologs involved in the first N-demethylation seemed to be identical to human cytochromes P-450. However, in the second N-demethylation only one cytochrome P-450 seemed to be involved in human (CYP2D6), whereas up to five canine orthologs were found in dogs. CYP2D15 canine ortholog of CYP2D6 was mainly involved. In addition, enzymatic activity reflected by intrinsic clearance in the first N-demethylation was up to 45 fold higher in dogs compared to humans. Those observations support the assumption that elevated rates of didemethylcitalopram are responsible for citalopram toxicity in dogs. We can conclude that several enzymes groups are involved in the brain, as well as in the liver, in antidepressant metabolization. Knowing that enzymes may be induced or inhibited, it makes sense to closely monitor plasmatic levels of antidepressants and their metabolites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The epithelial sodium channel (ENaC) is composed of three homologous subunits α, ß, and γ. This channel is involved in the regulation of sodium balance, which influences the periciliary liquid level in the lung, and blood pressure via the kidney. ENaC expressed in Xenopus laevis oocytes is preferentially and rapidly assembled into heteromeric αßγ complexes. Expression of homomeric α or heteromeric αß and αγ complexes lead to channel expression at the cell surface wíth low activities. Recent studies have demonstrated that α and γ (but not ß) ENaC subunits undergo proteolytic cleavage by endogenous proteases (i.e. furin) correlating with increased channel activity. We therefore assayed the full-length subunits and their cleavage products at the cell surface, as well as in the intracellular pool for all homo- and heteromeric combínations (α, ß, γ, ßγ, αß, αγ, ßγ and αßγ) and measured the corresponding channel activities as amiloride-sensitive sodíum transport (INa). We showed that upon assembly, cleavage of the y ENaC subunit ís responsible for increasing INa. We further demonstrated that in disease states such as cystic fibrosis (CF) where there is disequilibrium in the proteaseprotease inhibitor balance, ENaC is over-activated by the serine protease elastase (NE). We demonstrated that elevated NE concentrations can cleave cell surface expressed γ ENaC (but not α, or ß ENaC), suggesting a causal relationship between γ ENaC cleavage and ENaC activation, taking place at the plasma membrane. In addition, we demonstrated that the serine protease inhibitor (serpin) serpinH1, which is co-expressed with ENaC in the distal nephron is capable of inhibiting the channel by preventing cleavage of the γ ENaC subunit. Aldosterone mediated increases in INa aze known to be inhibted by TGFß. TGFß is also known to increase serpinHl expression. The demonstrated inhibition of γ ENaC cleavage and channel activation by serpinH1 may be responsible for the effect of TGFß on aldosterone stimulation in the distal nephron. In summary, we show that cleavage of the γ subunit, but not the α or ß subunit is linked to channel activation in three seperate contexts. Résumé Le canal épithélial à sodium (ENaC) est constitué de trois sous-unités homologues α, ß, and γ. Ce canal est impliqué dans le maintien de la balance sodique qui influence le niveau du liquide périciliaire du poumon et la pression sanguine via le rein. Dans les ovocytes de Xenopus laevis ENaC est préférentiellement et rapidement exprimé en formant un complexe hétéromérique αßγ. En revanche, l'expression homomérique de α ou hétéromérique des complexes αß et αγ conduit à une expression à la surface cellulaire d'un canal ENaC ne possédant qu'une faible activité. Des études récentes ont mis en évidence que les sous-unités α et γ d'ENaC (mais pas ß) sont coupées par des protéases endogènes (les farines) et que ces clivages augmentent l'activité du canal. Nous avons donc analysé, aussi bien à la surface cellulaire que dans le cytoplasme, les produits des clivages de combinaison homo- et hétéromérique des sous-unités d'ENaC (α, ß, γ, ßγ, αß, αγ, ßγ et αßγ). En parallèle, nous avons étudié l'activité correspondante à ces canaux par la mesure du transport de sodium sensible à l'amiloride (INa). Nous avons montré que lors de l'assemblage des sous-unités d'ENaC, le clivage de γ correspond à l'augmentation de INa. Nous avons également mis en évidence que dans une maladie telle que la fibrose cystique (CF) caractérisée par un déséquilibre de la balance protéase-inhibiteur de protéase, ENaC est suractivé par une sérine protéase nommée élastase (NE). L'augmentation de la concentration de NE clive γ ENaC exprimé à la surface cellulaire (mais pas α, ni ß ENaC) suggérant une causalité entre le clivage d'ENaC et son activation à la membrane plasmique. De plus, nous avons démontré que l'inhibiteur de sérine protéase (serpin) serpinH1, qui est co-exprimé avec ENaC dans le néphron distal, inhibe l'activité du canal en empêchant le clivage de la sous-unité γ ENaC. Il est connu que le INa induit par l'aldostérone peut être inhibé par TGFß. Or TGFß augmente l'expression de serpinH1. L'inhibition du clivage de γ ENaC et de l'activation du canal par la serpinH1 que nous avons mis en évidence pourrait ainsi être responsable de l'effet de TGFß sur la stimulation du courant par l'aldostérone dans le néphron distal. En résumé, nous avons montré que le clivage de la sous-unité γ, mais pas des sous-unités α et ß, est lié à l'activation du canal dans trois contextes distincts. Résumé tout public Le corps humain est composé d'environ 10 000 milliards de cellules et d'approximativement 60% d'eau. Les cellules du corps sont les unités fondamentales de la vie et elles sont dépendantes de certains nutriments et molécules. Ces nutriments et molécules sont dissous dans l'eau qui est présente dans et hors des cellules. Le maintien d'une concentration adéquate - de ces nutriments et de ces molécules dans l'eau à l'intérieur et à l'extérieur des cellules est -..essentiel pour leur survie. L'eau hors des cellules est nommée le fluide extracellulaire et peut être subdivisée en fluide interstitiel, qui se trouve autour des cellules, et en plasma, qui est le fluide des vaisseaux sanguins. Les fluides, les nutriments et les molécules sont constamment échangés entre les cellules, le fluide interstitiel, et le plasma. Le plasma circule dans le système circulatoire afin de distribuer les nutriments et molécules dans tout le corps et afin d'enlever les déchets cellulaires. Le rein joue un rôle essentiel dans la régulation du volume et de la concentration du plasma en éliminant sélectivement les nutriments et les molécules via la formation de l'urine. L'être humain possède deux reins, constitués chacun d'environ 1 million de néphrons. Ces derniers sont responsables de réabsorber et de sécréter sélectivement les nutriments et les molécules. Le canal épithélial à sodium (ENaC) est localisé à la surface cellulaire des néphrons et est responsable de la réabsorption du sodium (Na+). Le Na+ est présent dans quasiment toute la nourriture que nous mangeons et représente, en terme de molécule, 50% du sel de cuisine. Si trop de sodium est consommé, ENaC est inactif, si bien que le Na+ n'est pas réabsorbé et quitte le corps par l'urine. Ce mécanisme permet d'éviter que la concentration plasmatique de Na+ ne devienne trop grande, ce qui résulterait en une augmentation de la pression sanguine. Si trop peu de Na+ est consommé, ENaC réabsorbe le Na+ de l'urine primaire ce qui permet de conserver la concentration de Na+ et de prévenir une diminution de la pression sanguine par une perte de Na+. ENaC est aussi présent dans les cellules des poumons qui sont les organes permettant la respiration. La respiration est aussi essentielle pour la survie des cellules. Les poumons ne doivent pas contenir trop de liquide afin de permettre la respiration, mais en même temps ils ne doivent pas non plus être trop secs. En effet, ceci tuerait les cellules et empêcherait aussi la respiration. ENaC permet de maintenir un niveau d'humidité approprié dans les poumons en absorbant du Na+ ce qui entraîne un mouvement osmotique d'eau. L'absorption de sodium par ENaC ~ est augmentée par les protéases (in vitro et ex vivo). Les protéases sont des molécules qui peuvent couper d'autres molécules à des endroits précis. Nous avons démonté que certaines protéases augmentent l'absorption de Na+ en coupant ENaC à des endroits spécifiques. L'inhibition de ces protéases diminue le transport de Na+ et empêche le clivage d'ENaC. Dans certaines maladies telle que la mucoviscidose, des protéases sont suractivées et augmentent l'activité d'ENaC de manière inappropriée conduisant à une trop forte absorption de Na+ et à un déséquilibre de la muqueuse des poumons. Cette étude est donc particulièrement importante dans le cadre de la recherche thérapeutique de ce genre de maladie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1913 (A25).

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1912 (A24).