1000 resultados para Modèle de données
Resumo:
Dans le cadre de ce travail de thèse intitulé, nous avons étudié les impacts des nouvelles technologies de l?information et de la communication sur les administrations publiques. Notre objectif principal était de modéliser un guichet virtuel puis d?en implémenter un prototype. Nous avons donc dans un premier temps étudié une sélection de réalisations internationales et suisses dans le domaine, ainsi que des travaux de recherche visant à développer des modèles pour un état électronique. Nous avons ensuite travaillé sur la base des résultats d?une enquête de terrain menée au sein d?une administration cantonale et auprès de citoyens. Ces données de base nous ont permis de définir un modèle de guichet virtuel, qui couvre les aspects statiques et dynamiques d?un tel système. Enfin nous avons utilisé le modèle abstrait pour définir l?architecture théorique de notre prototype de guichet virtuel, avant d?effectuer certains choix technologiques et de l?implémenter.
Resumo:
Le but essentiel de notre travail a été d?étudier la capacité du foie, premier organe de métabolisation des xénobiotiques, à dégrader la cocaïne en présence d?éthanol, à l?aide de deux modèles expérimentaux, à savoir un modèle cellulaire (les hépatocytes de rat en suspension) et un modèle acellulaire (modèle reconstitué in vitro à partir d?enzymes purifiées de foie humain). La première partie a pour objectifs de rechercher les voies de métabolisation de la cocaïne qui sont inhibées et / ou stimulées en présence d?éthanol, sur hépatocytes isolés de rat. Dans ce but, une méthode originale permettant de séparer et de quantifier simultanément la cocaïne, le cocaéthylène et huit de leurs métabolites respectifs a été développée par Chromatographie Phase Gazeuse couplée à la Spectrométrie de Masse (CPG / SM). Nos résultats préliminaires indiquent que l?éthanol aux trois concentrations testées (20, 40 et 80 mM) n?a aucun effet sur la cinétique de métabolisation de la cocaïne. Notre étude confirme que l?addition d?éthanol à des cellules hépatiques de rat en suspension supplémentées en cocaïne résulte en la formation précoce de benzoylecgonine et de cocaéthylène. L?apparition retardée d?ecgonine méthyl ester démontre l?activation d?une deuxième voie de détoxification. La production tardive d?ecgonine indique une dégradation de la benzoylecgonine et de l?ecgonine méthyl ester. De plus, la voie d?oxydation intervenant dans l?induction du stress oxydant en produisant de la norcocaïne est tardivement stimulée. Enfin, notre étude montre une métabolisation complète de la concentration initiale en éthanol par les hépatocytes de rat en suspension. La deuxième partie a pour but de déterminer s?il existe d?autres enzymes que les carboxylesterases formes 1 et 2 humaines ayant une capacité à métaboliser la cocaïne seule ou associée à de l?éthanol. Pour ce faire, une méthode de micropurification par chromatographie liquide (Smart System®) a été mise au point. Dans le cadre de nos dosages in situ de la cocaïne, du cocaéthylène, de la benzoylecgonine, de l?acide benzoïque et de la lidocaïne, une technique par Chromatographie Liquide Haute Performance couplée à une Détection par Barrette de Diode (CLHP / DBD) et une méthode de dosage de l?éthanol par Chromatographie Phase Gazeuse couplée à une Détection par Ionisation de Flamme équipée d?un injecteur à espace de tête (espace de tête CPG / DIF) ont été développées. La procédure de purification nous a permis de suspecter la présence d?autres enzymes que les carboxylesterases formes 1 et 2 de foie humain impliquées dans le métabolisme de la cocaïne et déjà isolées. A partir d?un modèle enzymatique reconstitué in vitro, nos résultats préliminaires indiquent que d?autres esterases que les formes 1 et 2 de foie humain sont impliquées dans l?élimination de la cocaïne, produisant benzoylecgonine et ecgonine méthyl ester. De plus, nous avons montré que les sensibilités de ces enzymes à l?éthanol sont variables.<br/><br/>The main purpose of our work was to study the ability of the liver, as the first organ to metabolise xenobiotic substances, to degrade cocaine in the presence of ethanol. In order to do this, we used two experimental models, namely a cellular model (rat liver cells in suspension) and an a-cellular model (model reconstructed in vitro from purified human liver enzymes). The purpose of the first part of our study was to look for cocaine metabolising processes which were inhibited and / or stimulated by the presence of ethanol, in isolated rat liver cells. With this aim in mind, an original method for simultaneously separating and quantifying cocaine, cocaethylene and eight of their respective metabolites was developed by Vapour Phase Chromatography coupled with Mass Spectrometry (VPC / MS). Our preliminary results point out that ethanol at three tested concentrations (20, 40 et 80 mM) have no effect on the kinetic of metabolisation of cocaine. Our study confirms that the addition of alcohol to rat liver cells in suspension, supplemented with cocaine, results in the premature formation of ecgonine benzoyl ester and cocaethylene. The delayed appearance of ecgonine methyl ester shows that a second detoxification process is activated. The delayed production of ecgonine indicates a degradation of the ecgonine benzoyl ester and the ecgonine methyl ester. Moreover, the oxidising process which occurs during the induction of the oxidising stress, producing norcocaine, is stimulated at a late stage. Finally, our study shows the complete metabolisation of the initial alcohol concentration by the rat liver cells in suspension. The second part consisted in determining if enzymes other than human carboxylesterases 1 and 2, able to metabolise cocaine on its own or with alcohol, existed. To do this, a micropurification method us ing liquid phase chromatography (Smart System®) was developed. A technique based on High Performance Liquid Chromatography coupled with a Diode Array Detection (HPLC / DAD) in the in situ proportioning of cocaine, cocaethylene, ecgonine benzoyl ester, benzoic acid and lidocaine, and a method for proportioning alcohol by quantifying the head space using Vapour Phase Chromatography coupled with a Flame Ionisation Detection (head space VPC / FID) were used. The purification procedure pointed to the presence of enzymes other than the human liver carboxylesterases, forms 1 and 2, involved in the metabolism of cocaine and already isolated. The preliminary results drawn from an enzymatic model reconstructed in vitro indicate that human liver carboxylesterases, other than forms 1 and 2, are involved in the elimination of cocaine, producing ecgonine benzoyl ester and ecgonine methyl ester. Moreover, we have shown that the sensitivity of these enzymes to alcohol is variable.
Resumo:
L'expérience LHCb sera installée sur le futur accélérateur LHC du CERN. LHCb est un spectromètre à un bras consacré aux mesures de précision de la violation CP et à l'étude des désintégrations rares des particules qui contiennent un quark b. Actuellement LHCb se trouve dans la phase finale de recherche et développement et de conception. La construction a déjà commencé pour l'aimant et les calorimètres. Dans le Modèle Standard, la violation CP est causée par une phase complexe dans la matrice 3x3 CKM (Cabibbo-Kobayashi-Maskawa) de mélange des quarks. L'expérience LHCb compte utiliser les mesons B pour tester l'unitarité de cette matrice, en mesurant de diverses manières indépendantes tous les angles et côtés du "triangle d'unitarité". Cela permettra de surdéterminer le modèle et, peut-être, de mettre en évidence des incohérences qui seraient le signal de l'existence d'une physique au-delà du Modèle Standard. La reconstruction du vertex de désintégration des particules est une condition fondamentale pour l'expérience LHCb. La présence d'un vertex secondaire déplacé est une signature de la désintégration de particules avec un quark b. Cette signature est utilisée dans le trigger topologique du LHCb. Le Vertex Locator (VeLo) doit fournir des mesures précises de coordonnées de passage des traces près de la région d'interaction. Ces points sont ensuite utilisés pour reconstruire les trajectoires des particules et l'identification des vertices secondaires et la mesure des temps de vie des hadrons avec quark b. L'électronique du VeLo est une partie essentielle du système d'acquisition de données et doit se conformer aux spécifications de l'électronique de LHCb. La conception des circuits doit maximiser le rapport signal/bruit pour obtenir la meilleure performance de reconstruction des traces dans le détecteur. L'électronique, conçue en parallèle avec le développement du détecteur de silicium, a parcouru plusieurs phases de "prototyping" décrites dans cette thèse.<br/><br/>The LHCb experiment is being built at the future LHC accelerator at CERN. It is a forward single-arm spectrometer dedicated to precision measurements of CP violation and rare decays in the b quark sector. Presently it is finishing its R&D and final design stage. The construction already started for the magnet and calorimeters. In the Standard Model, CP violation arises via the complex phase of the 3 x 3 CKM (Cabibbo-Kobayashi-Maskawa) quark mixing matrix. The LHCb experiment will test the unitarity of this matrix by measuring in several theoretically unrelated ways all angles and sides of the so-called "unitary triangle". This will allow to over-constrain the model and - hopefully - to exhibit inconsistencies which will be a signal of physics beyond the Standard Model. The Vertex reconstruction is a fundamental requirement for the LHCb experiment. Displaced secondary vertices are a distinctive feature of b-hadron decays. This signature is used in the LHCb topology trigger. The Vertex Locator (VeLo) has to provide precise measurements of track coordinates close to the interaction region. These are used to reconstruct production and decay vertices of beauty-hadrons and to provide accurate measurements of their decay lifetimes. The Vertex Locator electronics is an essential part of the data acquisition system and must conform to the overall LHCb electronics specification. The design of the electronics must maximise the signal to noise ratio in order to achieve the best tracking reconstruction performance in the detector. The electronics is being designed in parallel with the silicon detector development and went trough several prototyping phases, which are described in this thesis.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Les trajectoires migratoires: entre flux, filières et mythes : le cas des italiens du canton de Vaud
Resumo:
La complexité des parcours migratoires italiens, malgré la vaste littérature existante, n?a été souvent étudiée en profondeur qu'au niveau de la Confédération Helvétique ou bien dans le cadre d'un thème spécifique lié, plus en général, à la présence italienne en Suisse. En ce qui concerne le canton de Vaud, il n'existe pas, à notre connaissance, une étude scientifique spécifique sur la communauté italienne du canton. Il existe, bien sûr, des études concernant des thèmes spécifiques - nous y avons d?ailleurs contribué -, mais en réalité cette communauté reste méconnue dans son ensemble. Si des études scientifiques ou de vulgarisation ont mis en valeur certaines spécificités surtout historiques de cette communauté étrangère du canton de Vaud et de Suisse Romande, la parole n?a pas souvent été offerte à ces mêmes Italiens. C?est en partie dans le dessin de leur donner la parole, pour se raconter et pour raconter leur histoire de l?immigration italienne de l?aprèsguerre dans le canton de Vaud que ce travail a été fait. Il ne s?agit pas de l?objectif originel de cette recherche, surtout centré sur l?individuation des caractéristiques géographiques de la communauté italienne du canton de Vaud et moins axé sur les pratiques et la parole des migrants en question. Ce n?est qu?au fil des rencontres, des discussions, de résultats scientifiques qui sentaient le déjà vu, que le projet de thèse initial a évolué en allant vers les migrants, parfois « au détriment de la science pure » mais toujours en cherchant à rendre à ces Italiens leur statut d?individus à part entière. Il faut dire en outre que les études scientifiques ou les articles de vulgarisation existants n?ont pas souvent pris en considération la dimension spatiale. Cela ne concerne pas que les écrits concernant les Italiens de Suisse romande ou de la Confédération helvétique mais, plus généralement, l'ensemble des pays où la présence d?une population d'origine italienne constitue une part considérable de la présence étrangère ou d'origine étrangère. Ce qui laisse des creux assez importants dans les connaissances - par les acteurs bien sûr - non seulement des parcours migratoires mais aussi dans l?analyse des diverses spatialités qui, sommées, superposées, entrecroisées, juxtaposées, constituent l?une des composantes majeures de tout mouvement migratoire. Le parcours de recherche et quelques résultats Partis de schémas et de connaissances scientifiques « certaines » sur les phénomènes migratoires, nous avons dû nous obliger à revoir nos certitudes et à nous former tout en poursuivant notre chemin de recherche. Les connaissances et les compétences acquises « en route » nous ont bien confirmé que, pour chercher à pénétrer dans l?écheveau des parcours migratoires, il nous fallait abandonner l?idée de pouvoir les mesurer. Si quelques velléités quantitatives nous animaient encore, les acteurs de terrain nous ont bien aidé à les dépasser, à ne pas nous conformer au dictat de vouloir à tout prix mesurer un phénomène aussi opaque que les trajectoires migratoires. Par les reconstructions et les constructions en acte de ces mêmes trajectoires, nos témoins nous ont non seulement informés mais aussi formés à la découverte et à la reconstruction « bribe par bribe » - selon l?expression de Xavier Piolle » (Piolle, 1990, p. 149) - ce cette matière dense que sont les parcours migratoires des Italiens du canton de Vaud et cherchant à définir une grille de lecture de cet objet d?étude opaque et sinueux. Au fur et à mesure que cette grille se construisait, il nous paraissait de plus en plus clair que les Italiens mobilisés dans la recherche étaient en train de nous informer sur l?existence d?un mode de vie centré sur plusieurs références spatiales, sociales et culturelles qui ne pouvait en aucune manière s?apparenter aux modèles de sédentarité et de mobilité « reconnus » par les académiciens et les gens communs. Ce mode de vie centré sur des ancrages, réels ou bien cristallisés dans la mémoire et régulièrement « re-vivifiés », est axé sur une mobilité et un mouvement qui prennent leur source dans des racines « ancestrales » ou actuelles. Dans ce nouveau mode de vie, que devient l?espace ? Il se fait un réseau fondé sur des références spatiales concrètes et quotidiennes et sur des références symboliques qui, malgré les obligations du quotidien et de la vie réelle, ne s?effacent jamais. L?ensemble de ces références sont constitutives de l?espace du migrant et de son mode de vie entre sédentarité et mobilité - anciennes et nouvelles -. Ce mode de vie est fait de ruptures, ces mêmes ruptures qui sont parfois incompréhensibles aux non-migrants, à tous ceux qui ne comprennent pas la « non conformation » du migrant à un modèle sédentaire. Ce modèle, apparemment révolutionnaire, n?est qu?un tout premier exemple, le plus ancien peut-être, des nouveaux modes de vie qui commencent à s?affirmer et à s?ancrer dans nos sociétés actuelles. Le migrant a été et continue d?être une sorte d? « éclaireur » pour ces mêmes sociétés qui, pourtant, n?arrêtent pas de le considérer « Autre » et « hors norme » par rapport au modèle de sédentarité « monolithique » dominant. Le migrant, l? « homme porteur d?un ailleurs » plus ou moins lointain, nous enseigne que de nos jours être pluriel risque bien d?être un atout, que la (re)construction de nos identités nous ouvre au principe de la multiplicité et de l?altérité. Il est bien évident que pour arriver à entrer dans cette matière fluide, multiple et complexe, nous avons dû abandonner les chemins scientifiques habituels et que nous avons dû nous concentrer sur l?émergence de « bribes » plus que sur les données concrètes et mesurables concernant les Italiens du canton de Vaud. D?objet principal de la recherche qu?elle était, la communauté italienne du canton de Vaud s?est transformée en « objet instrumental », c?est-àdire en outil nécessaire à l?émergence et à l?étude des trajectoires migratoires des Italiens vivant dans cette région. Ce choix fait au cours de la recherche risque de ne pas satisfaire tous ceux qui voudraient « en savoir plus » sur la communauté italienne et qui rechercheraient dans ce travail des informations « factuelles » et mesurables. Nous avons été tenté par ce type d?approche, nous avons même cherché à la mettre en pratique : les résultats peu parlants pour nos interrogations sur les trajectoires migratoires nous en ont dissuadé. Cette recherche risque par ailleurs de décevoir également tous ceux qui y rechercheraient des mesures d?application concrètes. L?objectif de la recherche n?était pourtant pas la définition de modes opérationnels pour agir dans le cadre de la communauté italienne mais plutôt la découverte, par le terrain et en partenariat avec les Italiens mobilisés par les enquêtes, des tenants et aboutissants - les plus importants du moins - des trajectoires migratoires. Nous considérons que la compréhension des mécanismes et des spécificités des parcours migratoires, y compris leurs contradictions et parfois leurs anachronismes, est centrale, préalable à toute action éventuellement normative ou correctrice. Il ne nous appartient donc pas de faire des recommandations, de suggérer des décisions : seule l?action informative nous revient et nous appartient. Tel était bien le but de cette recherche. Les nouvelles pistes de recherche Notre action informative consiste dans la diffusion des résultats obtenus ainsi que dans la mise en évidence et la suggestion de nouvelles pistes de recherche et d?enquête, soit réflexives soit applicatives. Il nous paraît évident que se passer d?une réflexion « genrée » des migrations pourrait limiter la découverte des ressources existantes chez les migrants ainsi que rendre partielle la compréhension des problèmes « migratoires » anciens et nouveaux. L?approche genrée, bien que peu pratiquée jusqu?à présent, est une ressource « ancienne » mais longtemps considérée accessoire par les chercheurs tout comme par les édiles. La compréhension des spécificités et des différences dans les besoins et les aspirations des migrants et des migrantes peut conduire à devoir repenser toute action normative et correctrice, toute décision et tout choix qui, sans la prise en compte de cette composante, seraient nécessairement « artificiels » et ne correspondraient pas à la réalité migratoire. Si au début de cette recherche le chemin « genré » nous paraissait difficile à parcourir, dans le cadre des enquêtes sur le terrain en particulier - cette difficulté nous a dissuadé d?en faire l?objet « central » de notre recherche -, aujourd?hui l?acceptation du changement du rôle de la femme migrante - ainsi que les changements de cette même femme, moins passive et bien plus à même d?exprimer ses besoins et ses envies - nous rassure sur les opportunités de recherche futures ainsi que sur la portée des décisions futures concernant les migrants. La piste des jeunes migrants nous paraît aussi centrale et fondamentale dans les réflexions et les applications futures. Les modèles, les modes et les choix d?intervention sur le terrain font encore trop souvent référence à une réalité migratoire qui n?est plus ou bien qui prend encore en considération des références qui ne « font plus sens » pour les jeunes migrants. Les approches intergénérationnelles commencent timidement à se diffuser, tout en gardant une « aura » expérimentale qui risque de retarder la diffusion de ce mode de réflexion et d?action de la part des édiles comme des chercheurs. Il serait pourtant indispensable de ne pas trop prolonger cette expérimentation car la réalité de nos sociétés nous montre bien que la valorisation de quelques-unes des composantes « migratoires » augmente les risques d?affaiblissement des réseaux sociaux existants - les réseaux migratoires dans ce cas spécifique -. La réalité de nos sociétés, et de la société vaudoise dans ce cas particulier, nous donne aussi clairement l?indication d?une nouvelle réalité migratoire dans la communauté italienne : celle des « high skilled ». Composante marginale pendant des décennies, elle a acquis au cours des années ?90 du poids et de la visibilité. Sommes-nous face à une nouvelle « vague » migratoire, italienne dans ce cas spécifique, moins « redoutable » que les précédentes car constituée d?individus à même de s?intégrer plus facilement dans la société locale ? Ou bien sommes-nous face à la « concrétisation » et visibilisation d?un nouveau mode de vie, centré sur la mobilité, sur la « transition mobilitaire » dont nous parle Rémy Knafou ? Il est évident que la matière est encore assez « brute », qu?il nous manque des références spécifiques pour mieux entrer en matière et argumenter. Certains Pays occidentaux ne sont-ils pas en train de se demander comment rechercher et recruter des professionnels « high skilled » ? Cette nouvelle vague migratoire est peut-être composée par des « éclaireurs » qui expérimentent un nouveau mode de vie et de valorisation de leurs compétences professionnelles « au-delà des frontières nationales » et qui s? « alimentent » de mobilités successives. Cet ensemble de pistes, mais il y en a d?autres que nous pourrions cerner en allant plus en profondeur au sein des plus importantes, s?est révélé à nous par la manière de conduire notre recherche. Celle-ci en effet nous a demandé bien des parcours « à rebours », bien des remises en question, bien des périodes de prise de distance en regard d?une matière d?analyse qui, au fil du temps, s?est faite plus dense et plus problématique. Il nous paraît fondamental de rappeler encore une fois que la recherche n?a abouti que grâce au travail conduit sur le terrain par le chercheur, en observateur et en enquêteur d?abord, en acteur et partenaire de terrain par la suite. Cette méthode de recherche, parfois encore plus spiraliforme que les parcours migratoires, nous a permis de nous construire un « savoir être chercheur » et, par conséquent, un « savoir faire la recherche » dans le champ migratoire que nous n?envisagions pas au début de ce travail. L?acquisition de ces savoirs et les choix méthodologiques assumés nous paraissent encore plus indispensables à la fin de cette étude. Il ne s?agit pas de choix « partisans ». Nous avons bien expérimenté et cherché à utiliser les diverses approches possibles. Il s?agit plutôt de choix devenus nécessaires afin de mener la recherche à terme. Après maintes tentatives méthodologiques, nous avons bien compris qu?il existe des objets d?étude qui nécessitent l?adaptation du chercheur à leurs spécificités. Nous sommes convaincu que, voulant dépasser la phase purement « comptable » ou exploratoire d?un objet complexe et problématique comme les trajectoires migratoires, les méthodes d?enquête sur le terrain et avec les acteurs de terrain, restent les seules qui nous aident à pénétrer dans l?objet de recherche lui-même, qui nous soutiennent dans l?exploration sur la durée, qui nous permettent, par l?échange de savoirs différents, de participer à la recherche du « dedans », qui nous incitent à la confrontation de nos savoirs « savants » avec d?autres savoirs encore plus « savants » mais qui ne sont pas au bénéfice de la même légitimité.
Resumo:
Abstract Imatinib (Glivec~ has transformed the treatment and prognosis of chronic myeloid leukaemia (CML) and of gastrointestinal stromal tumor (GIST). However, the treatment must be taken indefinitely and is not devoid of inconvenience and toxicity. Moreover, resistance or escape from disease control occurs. Considering the large interindividual differences in the function of the enzymatic and transport systems involved in imatinib disposition, exposure to this drug can be expected to vary widely among patients. Among those known systems is a cytochrome P450 (CYI'3A4) that metabolizes imatinib, the multidrug transporter P-glycoprotein (P-gp; product of the MDR1 gene) that expels imatinib out of cells, and al-acid glycoprotein (AGP), a circulating protein binding imatinib in the plasma. The aim of this observational study was to explore the influence of these covariates on imatinib pharmacokinetics (PK), to assess the interindividual variability of the PK parameters of the drug, and to evaluate whether imatinib use would benefit from a therapeutic drug monitoring (TDM) program. A total of 321 plasma concentrations were measured in 59 patients receiving imatinib, using a validated chromatographic method developed for this study (HPLC-LTV). The results were analyzed by non-linear mixed effect modeling (NONMEM). A one-compartment pharmacokinetic model with first-order absorption appropriately described the data, and a large interindividual variability was observed. The MDK> polymorphism 3435C>T and the CYP3A4 activity appeared to modulate the disposition of imatinib, albeit not significantly. A hyperbolic relationship between plasma AGP levels and oral clearance, as well as volume of distribution, was observed. A mechanistic approach was built up, postulating that only the unbound imatinib concentration was able to undergo first-order elimination. This approach allowed determining an average free clearance (CL,~ of 13101/h and a volume of distribution (Vd) of 301 1. By comparison, the total clearance determined was 141/h (i.e. 233 ml/min). Free clearance was affected by body weight and pathology diagnosis. The estimated variability of imatinib disposition (17% for CLu and 66% for Vd) decreased globally about one half with the model incorporating the AGP impact. Moreover, some associations were observed between PK parameters of the free imatinib concentration and its efficacy and toxicity. Finally, the functional influence of P-gp activity has been demonstrated in vitro in cell cultures. These elements are arguments to further investigate the possible usefulness of a TDM program for imatinib. It may help in individualizing the dosing regimen before overt disease progression or development of treatment toxicity, thus improving both the long-term therapeutic effectiveness and tolerability of this drug. Résumé L'imatinib (Glivec ®) a révolutionné le traitement et le pronostic de la leucémie myéloïde chronique (LMC) et des tumeurs stromales d'origine digestive (GIST). Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. Par ailleurs, une résistance, ou des échappements au traitement, sont également rencontrés. Le devenir de ce médicament dans l'organisme dépend de systèmes enzymatiques et de transport connus pour présenter de grandes différences interindividuelles, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, on note un cytochrome P450 (le CYP3A4) métabolisant l'imatinib, la P-glycoprotéine (P-gp ;codée par le gène MDR1), un transporteur d'efflux expulsant le médicament hors des cellules, et l'atglycoprotéine acide (AAG), une protéine circulante sur laquelle se fixe l'imatinib dans le plasma. L'objectif de la présente étude clinique a été de déterminer l'influence de ces covariats sur la pharmacocinétique (PK) de l'imatinib, d'établir la variabilité interindividuelle des paramètres PK du médicament, et d'évaluer dans quelle mesure l'imatinib pouvait bénéficier d'un programme de suivi thérapeutique (TDM). En utilisant une méthode chromatographique développée et validée à cet effet (HPLC-UV), un total de 321 concentrations plasmatiques a été dosé chez 59 patients recevant de l'imatinib. Les résultats ont été analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle pharmacocinétique à un compartiment avec absorption de premier ordre a permis de décrire les données, et une grande variabilité interindividuelle a été observée. Le polymorphisme du gène MDK1 3435C>T et l'activité du CYP3A4 ont montré une influence, toutefois non significative, sur le devenir de l'imatinib. Une relation hyperbolique entre les taux plasmatiques d'AAG et la clairance, comme le volume de distribution, a été observée. Une approche mécanistique a donc été élaborée, postulant que seule la concentration libre subissait une élimination du premier ordre. Cette approche a permis de déterminer une clairance libre moyenne (CLlibre) de 13101/h et un volume de distribution (Vd) de 301 l. Par comparaison, la clairance totale était de 141/h (c.à.d. 233 ml/min). La CLlibre est affectée par le poids corporel et le type de pathologie. La variabilité interindividuelle estimée pour le devenir de l'imatinib (17% sur CLlibre et 66% sur Vd) diminuait globalement de moitié avec le modèle incorporant l'impact de l'AAG. De plus, une certaine association entre les paramètres PK de la concentration d'imatinib libre et l'efficacité et la toxicité a été observée. Finalement, l'influence fonctionnelle de l'activité de la P-gp a été démontrée in nitro dans des cultures cellulaires. Ces divers éléments constituent des arguments pour étudier davantage l'utilité potentielle d'un programme de TDM appliqué à l'imatinib. Un tel suivi pourrait aider à l'individualisation des régimes posologiques avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant tant l'efficacité que la tolérabilité de ce médicament. Résumé large public L'imatinib (un médicament commercialisé sous le nom de Glivec ®) a révolutionné le traitement et le pronostic de deux types de cancers, l'un d'origine sanguine (leucémie) et l'autre d'origine digestive. Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. De plus, des résistances ou des échappements au traitement sont également rencontrés. Le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline appelée pharmacocinétique) dépend de systèmes connus pour présenter de grandes différences entre les individus, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, l'un est responsable de la dégradation du médicament dans le foie (métabolisme), l'autre de l'expulsion du médicament hors des cellules cibles, alors que le dernier consiste en une protéine (dénommée AAG) qui transporte l'imatinib dans le sang. L'objectif de notre étude a été de déterminer l'influence de ces différents systèmes sur le comportement pharmacocinétique de l'imatinib chez les patients, et d'étudier dans quelle mesure le devenir de ce médicament dans l'organisme variait d'un patient à l'autre. Enfin, cette étude avait pour but d'évaluer à quel point la surveillance des concentrations d'imatinib présentes dans le sang pourrait améliorer le traitement des patients cancéreux. Une telle surveillance permet en fait de connaître l'exposition effective de l'organisme au médicament (concept abrégé par le terme anglais TDM, pour Therapeutic Drag Monitoring. Ce projet de recherche a d'abord nécessité la mise au point d'une méthode d'analyse pour la mesure des quantités (ou concentrations) d'imatinib présentes dans le sang. Cela nous a permis d'effectuer régulièrement des mesures chez 59 patients. Il nous a ainsi été possible de décrire le devenir du médicament dans le corps à l'aide de modèles mathématiques. Nous avons notamment pu déterminer chez ces patients la vitesse à laquelle l'imatinib est éliminé du sang et l'étendue de sa distribution dans l'organisme. Nous avons également observé chez les patients que les concentrations sanguines d'imatinib étaient très variables d'un individu à l'autre pour une même dose de médicament ingérée. Nous avons pu aussi mettre en évidence que les concentrations de la protéine AAG, sur laquelle l'imatinib se lie dans le sang, avait une grande influence sur la vitesse à laquelle le médicament est éliminé de l'organisme. Ensuite, en tenant compte des concentrations sanguines d'imatinib et de cette protéine, nous avons également pu calculer les quantités de médicament non liées à cette protéine (= libres), qui sont seules susceptibles d'avoir une activité anticancéreuse. Enfin, il a été possible d'établir qu'il existait une certaine relation entre ces concentrations, l'effet thérapeutique et la toxicité du traitement. Tous ces éléments constituent des arguments pour approfondir encore l'étude de l'utilité d'un programme de TDM appliqué à l'imatinib. Comme chaque patient est différent, un tel suivi pourrait aider à l'ajustement des doses du médicament avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant ainsi tant son efficacité que son innocuité.
Resumo:
Ce travail de doctorat analyse les dynamiques qui se développent lorsque des personnes discutent en groupe et doivent prendre position sur des enjeux socio-politiques. Notre modèle prédit que les dynamiques positionnelles, relatives aux opinions exprimées, et les dynamiques relationnelles, relatives aux relations affectives et à l'organisation du groupe, sont constamment en interaction et s'imbriquent différemment selon le moment de vie du groupe. Les hypothèses issues de notre modèle ont été testées au moyen de cinq études conduites sur la base d'un paradigme expérimental en plusieurs phases. Les données relatives aux variables dépendantes (attraction interpersonnelle, identification au groupe, perception de cohésion du groupe, choix d'un représentant du groupe, évolution des positions suite aux interactions) ont été récoltées par questionnaire. Les résultats de ces études appuient l'importance d'analyser conjointement les dynamiques relationnelles et positionnelles, dans une perspective temporelle.
Resumo:
Résume Les caspases sont un groupe de protéases à cystéine qui s?activent lors de l'apoptose. Leur activation induit le clivage de nombreuses cibles intracellulaires, conduisant à l'activation de voies pro-apoptotiques et finalement au démantèlement des cellules. Cependant, des caspases ont été décrites dans de nombreux autres processus indépendants de l'apoptose, notamment dans la physiologie des cellules hématopoïétiques, des cellules musculaires, des cellules de la peau et des neurones. Comment est-ce que les cellules réconcilient-elles ces deux fonctions distinctes? Une partie de la réponse réside dans la nature des substrats qu'elles clivent. Certains substrats, une fois clivées, deviennent anti-apoptotiques. RasGAP est une cible des caspases et contient deux sites spécifiques de clivage par les caspases. Lorsque le niveau d?activité des caspases est faible le clivage de RasGAP produit un fragment N-terminal qui active un signal antiapoptotique, relayé par la voie de Ras/PI3K/Akt. Lorsque le niveau d?activité des caspases est plus élevé le fragment RasGAP N-terminal est à nouveau clivé, perdant de ce fait ses propriétés anti-apoptotiques. Dans cette étude, nous avons mis en évidence que l'activation de la voie Ras/PI3K/Akt induite par le fragment RasGAP N-terminal dépend de RasGAP lui-même. Par ailleurs, dans le but d?étudier l?importance du clivage de RasGAP dans un contexte physiologique, nous avons développé un modèle animal exprimant une gêne mutée de RasGAP de sorte que la protéine est devenu insensible a l?action de caspases. Les données préliminaires obtenues montrent que le clivage de RasGAP n'est pas indispensable pour le développement et l?homéostasie chez la souris. Finalement, nous avons développé une souris transgénique surexprimant le fragment de RasGAP N-terminal dans les cellules ß du pancréas. Les animaux obtenus ne montrent pas de symptômes dans les conditions basales bien qu?ils soient plus résistants au diabète induit expérimentalement. Ces résultats montrent que la surexpression du fragment N-terminal de RasGAP protége efficacement les cellules ß du pancréas de l?apoptose induite par le stress sans pourtant affecter d?autres paramètres physiologiques des Ilot de Langerhans.<br/><br/>Caspases are a series of proteases that are activated during apoptosis. Their activation causes the cleavage of numerous intracellular targets, which leads to cell dismantling and activation of pro-apoptotic pathways. Caspases have been found to be involved in the physiology of numerous cell types including haematopoietic cells, muscle cells, skin cells and neurons. How cells conciliate these two opposite functions? Part of the answer lies in the nature of the substrates they cleave. Some substrates become anti-apoptotic once cleaved by caspases. RasGAP is a caspase substrate that possesses two conserved caspase-cleavage sites. At low caspase activity, RasGAP is first cleaved and the generated N-terminal fragment activates a potent anti-apoptotic signal, mediated by the Ras/PI3K/Akt pathway. At higher caspase activity, the N-terminal fragment is further cleaved thereby losing its anti-apoptotic properties. In the present study we show that the activation of the Ras/PI3K/Akt pathway mediated by RasGAP N-terminal fragment is dependent on RasGAP itself. Moreover, to study the role of RasGAP cleavage in a physiological model, we have developed a knock-in mouse model expressing a RasGAP mutant that is not cleavable by caspases. Preliminary data shows that RasGAP cleavage is not required for normal development and homeostasis in mice. Finally, we have developed a transgenic mouse model overexpressing RasGAP N-terminal fragment in the ß-cell of the pancreas. In basal conditions, these mice show no difference with their wt counterparts. However, they are protected against experimentally induced diabetes. These results indicate that fragment N can protect ? cells from stress-induced apoptosis without affecting other physiological parameters of the Islets.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.