227 resultados para Indice masse corporel
Resumo:
Résumé Les études épidémiologiques indiquent que la restriction intra-utérine confère un risque accru de développement de diabète de type 2 au cours de la vie. Certaines études ont documenté la présence d'une résistance à l'insuline chez les jeunes adultes ou les adolescents nés petits pour l'âge gestationnel. Comme la plupart des études ont impliqués des individus post-pubères et comme la puberté influence de manière marquée le métabolisme énergétique, nous avons évalué le devenir du glucose administré oralement dans un groupe incluant essentiellement des enfants pré-pubères ou en début de puberté avec restriction intra-utérine, et chez des enfants matchés pour l'âge et pour le poids. Tous les enfants ont eu une évaluation de leur composition corporelle par mesure des plis cutanés. Ils ont ensuite été étudiés dans des conditions standardisées et ont reçu 4 charges consécutives orales de glucose à raison de 180 mg/kg de poids corporel jusqu'à atteindre un état d'équilibre relatif. La dépense énergétique et l'oxydation des substrats ont été évaluées durant la quatrième heure par calorimétrie indirecte. Comparativement avec les enfants matchés pour l'âge et le poids, les enfants nés petits pour l'âge gestationnel avaient une plus petite stature. Leur dépense énergétique n'était pas significativement abaissée, mais leur oxydation du glucose était plus basse. Ces résultats indiquent que des altérations métaboliques sont présentes précocement chez les enfants nés petits pour l'âge gestationnel, et qu'elles sont possiblement reliées à des altérations de la composition corporelle. Abstract: Epidemiological studies indicate that intrauterine growth restriction confers an increased risk of developing type 2 diabetes mellitus in subsequent life. Several studies have further documented the presence of insulin resistance in young adults or adolescent children born small for gestational age. Since most studies addressed postpubertal individuals, and since puberty markedly affects energy metabolism, we evaluated the disposal of oral glucose in a group including mainly prepubertal and early pubertal children with intrauterine growth restriction and in healthy age- and weight-matched control children. All children had an evaluation of their body composition by skinfold thickness measurements. They were then studied in standardized conditions and received 4 consecutive hourly loads of 180 mg glucose/kg body weight to reach a near steady state. Energy expenditure and substrate oxidation were evaluated during the fourth hour by indirect calorimetry. Compared to both age- and weight-matched children, children born small for gestational age had lower stature. Their energy expenditure was not significantly decreased, but they had lower glucose oxidation rates. These results indicate that metabolic alterations are present early in children born small for gestational age, and are possibly related to alterations of body composition.
Resumo:
La réponse métabolique de l'obèse apparemment « sainen situation d'agression aiguë (polytraumatisés, traumatisés crâniens, patients chirurgicaux, grands brûlés, opérations électives) ne se distingue pas ou peu de celle de l'individu non-obèse. Cependant, les complications médicales liées à l'agression (insuffisances respiratoire et cardiaque, bronchopneumonie, infections de plaies, thrombophlébites et embolies) demeurent plus importantes chez l'obèse morbide que chez l'individu de poids normal. Grâce à l'inflation de ses réserves énergétiques, l'obèse apparemment sain est avantagé, par rapport au sujet mince, au cours d'une agression nutritionnelle chronique telle que le jeûne prolongé. Le facteur fonctionnel limitant la survie dépend avant tout de la composition corporelle initiale et du degré d'adaptation métabolique (et comportementale) en particulier du degré de conservation de la masse maigre par rapport à la masse grasse. La mobilisation accrue de la masse grasse associée à la perte de poids chez l'obèse (par rapport à son homologue non-obèse) est favorable à une prolongation de la vie, car, en brûlant davantage de graisse corporelle, la part des protéines corporelles endogènes utilisée à des fins énergétiques est plus faible. Il s'ensuit chez l'obèse qu'un niveau de masse maigre critique pour la survie n'est atteint qu'après une réduction très marquée de ses réserves énergétiques. En revanche, le sujet mince perd davantage de masse maigre lors de l'amaigrissement et, par conséquent, son métabolisme de repos diminuera plus rapidement que celui du sujet obèse. Cela peut constituer un avantage énergétique évident en termes d'économie d'énergie consécutive à l'adaptation métabolique, mais un inconvénient majeur quant à la durée de la survie. The metabolic response of « apparently healthyobese individuals following acute injury (multiple trauma, head injury and surgical patients, extended burns, elective surgery) is not dramatically different from that of a non-obese individuals. However, the medical complications following the injury (respiratory and cardiac insufficiency, broncho-pneumonia, infections of wounds, trombophlebitis and embolism) are more prevalent in morbid obese patients than in individuals of normal body weight. Because of a large increase in their individuals energy store, "apparently healthy" obese individuals have an advantage over very lean subjects when exposed to a chronic nutritional aggression such as total fasting. The functional limiting factor for survival depends primarily on initial body composition and the magnitude of metabolic adaptation (including behavioral adaptation). The key factor is the extent to which the fat-free mass is maintained (versus to the fat mass) during weight loss. The increased proportion of body fat mobilized during weight loss in obese patients, compared with their non-obese counterparts, favors prolonged survival, because more adipose tissue is burned off, the fraction of body protein endogenously utilized for energy purpose individuals, is smaller. This implies that obese individuals do not reach a fat-free mass "critical" for their survival until their energy stores reach very low values. In contrast, lean subject tend to lose more fat-free mass during weight loss than obese subjects and, as a result, their energy expenditure drops more rapidly. This may offer a potential advantage in terms of energy economy (more energy saving) but a major disadvantage in terms of duration of survival.
Resumo:
SUMMARY : Peroxisome proliferator-activated receptor ß/δ protects against obesity by reducing dyslipidemia and insulin resistance via effects in various organs, including muscle, adipose tissue and liver. However, nothing is known about the function of PPARß in pancreas, a prime organ in the control of glucose homeostasis. To gain insight into so far hypothetical functions of this PPAR isotype in ß-cell function, we specifically ablated Pparß in the whole epithelial compartment of the pancreas. The mutated mice presented expanded ß-cell mass, possibly, this is due to increased burst of ß-cell proliferation at 2 weeks of age. These PPARß null pancreas mice exhibit hyperinsulinemia-hypoglycaemia starting at 4 weeks of age, due to hyperfunctionality of ß-cell. Gene expression profiling indicated a broad repressive function of PPARß impacting the vesicular and granular compartment, actin cytoskeleton, and metabolism of glucose and fatty acids. Analyses of insulin release from isolated islets revealed accelerated second-phase of glucose-stimulated insulin secretion. Higher levels of PKD and PKCS in mutated animals, in concert with F-actin disassembly, lead to an increased insulin secretion and its associated systemic effects. Enhanced palmitate potentiation of glucose-stimulated insulin secretion in PPARß mutant islets, suggests an important role of this receptor in lipid/glucose metabolism in ß-cell. Taken together, these results provide evidence for PPARß playing a repressive role on ß-cell growth and insulin exocytosis, and shed new light on its metabolic .action. RESUME : Le récepteur nucléaire PPARß (Peroxisome proliferator-activated receptor ß/δ) protège contre l'obésité en réduisant la dyslipidémie et la résistance à l'insuline dans différents organes, comme le muscle, le tissue adipeux et le foie. Cependant, il y a, à ce jour, très peu de connaissance par rapport au rôle de PPARß dans le pancréas, qui est un organe très important dans le contrôle homéostatique du glucose. Afin de comprendre le rôle de cet isotype de PPAR dans le fonctionnement des cellules beta du pancréas, nous avons invalidé le gène Pparß dans tout le compartiment pancréatique de la souris. Ces souris mutantes présentent une augmentation de la masse totale de cellules beta; Cela serait dû à une intense prolifération des cellules beta à 2 semaines après la naissance. Également, ces souris présentent une hyperinsulinémie et une hypoglycémie qui commencent à l'âge de 4 semaines; la raison de ce phénotype serait une hyperactivité des cellules beta. Le profil d'expression génique indique une fonction répressive globale de PPARß en se référant aux compartiments vésiculaire et granulaire, au cytosquelette d'actine, et au métabolisme du glucose et des acides gras. L'analyse de la sécrétion d'insuline par les cellules beta a démontré que la deuxième phase de sécrétion d'insuline après stimulation au glucose est augmentée. Les niveaux élevés de PKD et PKCS dans les îlots pancréatiques de souris mutantes, ainsi qu'une augmentation de la dépolymérisation des filaments d'active génèrent un surplus de sécrétion d'insuline après stimulation au glucose. Les îlots pancréatiques des souris mutantes secrètent plus d'insuline après stimulation au glucose et au palmitate que les îlots de souris contrôles. Ceci suggère un rôle important de PPARß dans le métabolisme des lipides et du glucose des cellules beta. En résumé, ces résultats mettent en évidence un rôle répressif de PPARß dans la croissance des cellules beta et dans l'exocytose d'insuline.
Resumo:
Introduction: La préservation et/ou l'expansion de la masse des cellules ß pourraient constituer des approches prometteuses dans le traitement du diabète. L'une des stratégies clés serait de réduire l'apoptose des cellules ß. Le chloride intracellular channel protein 4 (Clic4) est une protéine exprimée de manière ubiquitaire et supposée agir dans de nombreux processus cellulaires tels que le contrôle du cycle cellulaire, la différenciation cellulaire et l'apoptose. Ici, nous avons étudié le rôle de Clic4 dans l'apoptose des cellules ß pancréatiques en utilisant des cellules ßTC-tet et des îlots de Langerhans issus de souris knockout pour Clic4 (ßClic4KO). Résultats: L'expression de l'ARNm et de la protéine Clic4 était augmentée par un traitement aux cytokines dans les cellules ßTC-tet et encore plus fortement dans des îlots isolés de souris. De plus, la sous-expression de Clic4 dans les cellules ßTC-tet diminuait leur sensibilité à l'apoptose induite par les cytokines. La sous-expression de Clic4 dans les cellules ßTC-tet n'affectait pas l'expression des ARNm de Bcl-2 et Bad, mais augmentait leur expression protéique ainsi que la forme phosphorylée de Bad. Les mêmes résultats ont été obtenus sur des îlots isolés de souris contrôles et ßClic4KO. De plus, les îlots issus de souris ßClic4KO présentaient une augmentation de l'expression de la protéine Bcl-xL. Dans le but de déterminer si Clic4 augmentait l'expression de Bcl-2 et Bad via une interaction protéique directe, nous avons immunoprécipité Clic4 à partir de cellules ßTC-tet à l'aide d'anticorps dirigés contre la partie C- ou N-terminale de la protéine, puis nous avons soumis les immunoprécipités à une analyse de spectrométrie de masse. Aucune co- immunoprécipitation avec Bcl-2 ou d'autres protéines de la famille Bcl-2 n'a été détectée. Cependant, de manière intéressante, Clic4 était co-purifié avec plusieurs protéines du protéasome suggérant un rôle de Clic4 dans la dégradation des protéines. Par conséquent, nous avons étudié la demi-vie de Bcl-2 et Bad, et avons observé que la sous-expression de Clic4 dans les cellules ßTC-tet augmentait la demi-vie de ces protéines. De plus, l'expression de l'ARNm et de la protéine Clic4 était également augmentée lors d'un stress du réticulum endoplasmique induit par la thapsigargine dans les cellules ßTC-tet. La sous-expression de Clic4 dans les cellules ßTC-tet ou chez les KO diminuait la sensibilité des cellules ß à l'apoptose induite par la thapsigargine ou l'acide palmitique, respectivement. Conclusion: Ces résultats suggèrent que Clic4 sensibilise les cellules ß à l'apoptose induite par les cytokines ou l'acide palmitique/thapsigargine (stress du réticulum endoplasmique). De plus, la sous-expression de Clic4 améliore la survie des cellules ß en diminuant la dégradation de Bcl-2 et Bcl-xL, et en augmentant le niveau total de Bad phosphorylé, peut-être suite à une interaction de Clic4 avec le protéasome.
Resumo:
Estimer la filtration glomérulaire chez les personnes âgées, tout en tenant compte de la difficulté supplémentaire d'évaluer leur masse musculaire, est difficile et particulièrement important pour la prescription de médicaments. Le taux plasmatique de la creatinine dépend à la fois de la fraction d'élimination rénale et extra-rénale et de la masse musculaire. Actuellement, pour estimer là filtration glomérulaire différentes formules sont utilisées, qui se fondent principalement sur la valeur de la créatinine. Néanmoins, en raison de la fraction éliminée par les voies tubulaires et intestinales la clairance de la créatinine surestime généralement le taux de filtration glomérulaire (GFR). Le but de cette étude est de vérifier la fiabilité de certains marqueurs et algorithmes de la fonction rénale actuellement utilisés et d'évaluer l'avantage additionnel de prendre en considération la masse musculaire mesurée par la bio-impédance dans une population âgée (> 70 ans) et avec une fonction rénale chronique compromise basée sur MDRD eGFR (CKD stades lll-IV). Dans cette étude, nous comparons 5 équations développées pour estimer la fonction rénale et basées respectivement sur la créatinine sérique (Cockcroft et MDRD), la cystatine C (Larsson), la créatinine combinée à la bêta-trace protéine (White), et la créatinine ajustée à la masse musculaire obtenue par analyse de la bio-impédance (MacDonald). La bio-impédance est une méthode couramment utilisée pour estimer la composition corporelle basée sur l'étude des propriétés électriques passives et de la géométrie des tissus biologiques. Cela permet d'estimer les volumes relatifs des différents tissus ou des fluides dans le corps, comme par exemple l'eau corporelle totale, la masse musculaire (=masse maigre) et la masse grasse corporelle. Nous avons évalué, dans une population âgée d'un service interne, et en utilisant la clairance de l'inuline (single shot) comme le « gold standard », les algorithmes de Cockcroft (GFR CKC), MDRD, Larsson (cystatine C, GFR CYS), White (beta trace protein, GFR BTP) et Macdonald (GFR = ALM, la masse musculaire par bio-impédance. Les résultats ont montré que le GFR (mean ± SD) mesurée avec l'inuline et calculée avec les algorithmes étaient respectivement de : 34.9±20 ml/min pour l'inuline, 46.7±18.5 ml/min pour CKC, 47.2±23 ml/min pour CYS, 54.4±18.2ml/min pour BTP, 49±15.9 ml/min pour MDRD et 32.9±27.2ml/min pour ALM. Les courbes ROC comparant la sensibilité et la spécificité, l'aire sous la courbe (AUC) et l'intervalle de confiance 95% étaient respectivement de : CKC 0 68 (055-0 81) MDRD 0.76 (0.64-0.87), Cystatin C 0.82 (0.72-0.92), BTP 0.75 (0.63-0.87), ALM 0.65 (0.52-0.78). ' En conclusion, les algorithmes comparés dans cette étude surestiment la GFR dans la population agee et hospitalisée, avec des polymorbidités et une classe CKD lll-IV. L'utilisation de l'impédance bioelectrique pour réduire l'erreur de l'estimation du GFR basé sur la créatinine n'a fourni aucune contribution significative, au contraire, elle a montré de moins bons résultats en comparaison aux autres equations. En fait dans cette étude 75% des patients ont changé leur classification CKD avec MacDonald (créatinine et masse musculaire), contre 49% avec CYS (cystatine C), 56% avec MDRD,52% avec Cockcroft et 65% avec BTP. Les meilleurs résultats ont été obtenus avec Larsson (CYS C) et la formule de Cockcroft.
Resumo:
Abstract Activation of the Wnt pathway through mutation of the adenomatous polyposis coli and 13-catenin genes is a hallmark of colon cancer. These mutations lead to constitutive activation of transcription from promoters containing binding sites for Tcf/LEF transcription factors. Tumour-selective replicating oncolytic viruses are promising agents for cancer therapy. They can in principle spread throughout a tumour mass until all the cancerous cells are killed, and clinical trials have shown that they are safe except at very high doses. Adenoviruses are interesting candidates for virotherapy because their biology is well understood and their small genome can be rapidly mutated. Adenoviruses with Tcf binding sites in the E2 early promoter replicate selectively in cells with an active Wnt pathway. Although these viruses can replicate in a broad panel of colon cancer cell lines, some colorectal cancer cells are only semi-permissive for Tcf-virus replication. The aim of my thesis was to increase the safety and the efficacy of Tcf-viruses for colon cancer virotherapy. I replaced the endogenous ElA viral promoter by four Tcf binding sites and showed that transcription from the mutant promoter was specifically activated by the Wnt pathway. A virus with Tcf binding sites in the ElA and E4 promoters was more selective for the Wnt pathway than the former Tcf-E2 viruses. Moreover, insertion of Tcf binding sites into all early promoters further increased viral selectivity, but reduced viral activity. I showed that Tcf-dependent transcription was inhibited by the interaction between ElA and p300, but deletion of the p300-binding site of ElA generally led to viral attenuation. In the semi-permissive cell lines, replication of Tcf-viruses remained lower than that of the wild-type virus. The E2 promoter was the most sensitive to the cell type, but I was unable to improve its activity by targeted mutagenesis. To increase the toxicity of the Tcf-E1A/E4 virus, I decided to express a suicide gene, yeast cytosine deaminase (yCD), late during infection. This enzyme converts the prodrug 5-FC to the cytotoxic agent 5-FU. yCD was expressed in a DNA replication-dependent manner and increased viral toxicity in presence of 5-FC. Tcf-ElA and yCD adenoviruses are potentially useful vectors for the treatment of liver metastases from colorectal tumours. Résumé Dans la quasi-totalité des cancers du côlon, la voie Wnt est activée par des mutations dans les gènes codant pour APC ou pour la (3-caténine. Ces mutations activent de façon constitutive la transcription de promoteurs contenant des sites de liaison pour les facteurs de transcription Tcf/LEF. Les virus réplicatifs spécifiques aux tumeurs sont des agents prometteurs pour la thérapie cancéreuse. En principe, ces vecteurs peuvent se propager dans une masse tumorale jusqu'à destruction de toutes les cellules cancéreuses, et des études cliniques ont démontré que de tels vecteurs n'étaient pas toxiques, sauf à de très hautes doses. Les adénovirus sont des candidats intéressants pour la thérapie virale car leur biologie est bien définie et leur petit génome peut être rapidement modifié. Des adénovirus comportant des sites de liaison à Tcf dans leur promoteur précoce E2 se répliquent sélectivement dans les cellules qui possèdent une voie Wnt active. Ces virus sont capables de se répliquer dans un grand nombre de cellules cancéreuses du côlon, bien que certaines de ces cellules ne soient que semi-permissives pour la réplication des virus Tcf. Le but de ma thèse était d'augmenter la sécurité et l'efficacité des virus Tcf. Le promoteur viral endogène ElA a été remplacé par quatre sites de liaison à Tcf, ce qui a rendu son activation dépendante de la voie Wnt. Un virus comportant des sites de liaison pour Tcf dans les promoteurs ElA et E4 était plus sélectif pour la voie Wnt que les précédents virus Tcf-E2, et un virus comportant des sites Tcf dans tous les promoteurs précoces était encore plus sélectif, mais moins actif. J'ai montré que l'interaction entre ElA et p300 inhibait la transcription dépendante de Tcf, mais la délétion du domaine concerné dans ElA a eu pour effet d'atténuer les virus. Dans les cellules semi-permissives, la réplication des virus Tcf était toujours plus basse que celle du virus sauvage. J'ai identifié le promoteur E2 comme étant le plus sensible au type cellulaire, mais n'ai pas pu augmenter son activité par mutagenèse. Pour augmenter la toxicité du virus Tcf-E1A/E4, j'ai décidé d'exprimer un gène suicide, la cytosine déaminase (yCD), pendant la phase tardive de l'infection. Cette enzyme transforme la procirogue 5-FC en l'agent cytotoxique 5-FU. yCD était exprimée après réplication de l'ADN viral et augmentait la toxicité virale en présence de 5-FC. Les virus Tcf-ElA et yCD sont des vecteurs potentiellement utiles pour le traitement des métastases hépatiques de cancers colorectaux.
Resumo:
De tout temps, hommes et femmes ont cherché par tous les moyens à développer, préserver ou recouvrer leurs propres capacités sexuelles mais également à stimuler le désir du partenaire. L?utilisation d?aphrodisiaques naturels a été l?un des recours les plus répandus. De nos jours, la commercialisation de nouvelles "love drugs" de synthèse, e.g. Viagra®, Cialis®, Levitra®, a remis au goût du jour les aphrodisiaques classiques et à relancer la recherche sur des molécules nouvelles. La pratique croissante de l?automédication, le matraquage publicitaire sur les aphrodisiaques naturels, la prolifération sur le marché de compléments alimentaires non contrôlés et l?absence de véritable législation accroissent les risques qui pèsent sur la santé publique. Dans le but d?évaluer les risques potentiels sur le consommateur de produits aphrodisiaques commercialisés, le développement et la validation d?une méthode rapide d?analyse qualitative et quantitative de la yohimbine dans ces préparations du marché sont exposés dans la première partie de ce travail. La yohimbine est un antagoniste ?2-adrénocepteur du système nerveux central et périphérique, elle est employée depuis plus d?un siècle dans le traitement des dysfonctionnements érectiles. Cette méthode analytique utilise la chromatographie liquide couplée à l?ultraviolet et à la spectrométrie de masse (LC-UV-MS) et au total, vingt préparations aphrodisiaques ont été étudiées. La dose journalière de yohimbine mesurée s?est révélée très variable selon les produits puisqu?elle varie de 1.32 à 23.16 mg. La seconde partie de ce travail concerne l?étude phytochimique et pharmacologique d?Erythroxylum vacciniifolium Mart. (Erythroxylaceae), une plante, appelée localement catuaba, utilisée dans la médecine traditionnelle brésilienne comme tonique et aphrodisiaque. Dans un premier temps, l?extrait alcaloïdique a été analysé par chromatographie liquide haute performance (HPLC) couplée soit à un détecteur UV à barrette d?iode (LC-UV-DAD), soit à un spectromètre de masse (LC-MS), ou soit à un spectromètre de résonance magnétique nucléaire (LC-RMN). L?interprétation de ces données spectrales enregistrées en ligne a permis d?obtenir des informations structurales et d?identifier partiellement près de 24 alcaloïdes appartenant à la classe des tropanes et potentiellement originaux. Par des méthodes classiques de chromatographie liquide sur l?extrait alcaloïdique de la plante, dix sept tropanes nouveaux ont ensuite été isolés dont les catuabines et leurs dérivés, et les vaccinines. Tous ces composés sont des tropane-diols ou triols estérifiés par au moins un groupe acide 1-méthyl-1H-pyrrole-2-carboxylique. Un de ces composés a été identifié comme un tropane N-oxyde. Toutes les structures ont été déterminées par spectrométrie de masse haute résolution et spectroscopie RMN multi-dimensionnelle. Parmi les nombreux tests biologiques réalisés sur ces tropanes, seuls les tests de cytotoxicité se sont révélés faiblement positifs pour certains de ces composés.<br/><br/>Throughout the ages, men and women have incessantly pursued every means to increase, preserve or recapture their sexual capacity, or to stimulate the sexual desire of selected individuals. One of the most recurrent methods has been the use of natural aphrodisiacs. Nowadays, the commercialization of new synthetic "love drugs", e.g. Viagra®, Cialis® and Levitra®, has fascinated the public interest and has led to a reassessment of classical aphrodisiacs and to the search for new ones. The practice of self-medication by an increasing number of patients, the incessant aggressive advertising of these herbal aphrodisiacs, the invasion of the medicinal market with uncontrolled dietary supplements and the absence of real directives amplifies the potential health hazards to the community. In order to evaluate the possible risks of commercialized aphrodisiac products on consumer health, the development and validation of a rapid qualitative and quantitative method for the analysis of yohimbine in these products, is reported in the first part of the present work. Yohimbine, a pharmacologically well-characterized ?2-adrenoceptor antagonist with activity in the central and peripheral nervous system, has been used for over a century in the treatment of erectile dysfunction. The analytical method is based on liquid chromatography coupled with ultraviolet and mass spectrometry (LC-UV-MS) and in total, 20 commercially-available aphrodisiac preparations were analyzed. The amount of yohimbine measured and expressed as the maximal dose per day suggested on product labels ranged from 1.32 to 23.16 mg. The second part of this work involved the phytochemical and pharmacological investigation of Erythroxylum vacciniifolium Mart. (Erythroxylaceae), a plant used in Brazilian traditional medicine as an aphrodisiac and tonic, and locally known as catuaba. With the aim of obtaining preliminary structure information on-line, the alkaloid extract was analyzed by high performance liquid chromatography (HPLC) coupled to diode array UV detection (LC-UVDAD), to mass spectrometry (LC-MS) and to nuclear magnetic resonance spectroscopy (LCNMR). Interpretation of on-line spectroscopic data led to structure elucidation and partial identification of 24 potentially original alkaloids bearing the same tropane skeleton. Seventeen new tropane alkaloids were then isolated from the alkaloid extract of the plant, including catuabines D to I, their derivatives and vaccinines A and B. All compounds were elucidated as tropane-diol or -triol alkaloids esterified by at least one 1-methyl-1H-pyrrole-2-carboxylic acid. One of the isolated compounds was identified as a tropane alkaloid N-oxide. Their structures were determined by high resolution mass spectrometry and multi-dimensional NMR spectroscopy. Among the numerous bioassays undertaken, only the cytotoxicity tests exhibited a weak positive activity of certain compounds.
Resumo:
Résumé L'eau est souvent considérée comme une substance ordinaire puisque elle est très commune dans la nature. En fait elle est la plus remarquable de toutes les substances. Sans l'eau la vie sur la terre n'existerait pas. L'eau représente le composant majeur de la cellule vivante, formant typiquement 70 à 95% de la masse cellulaire et elle fournit un environnement à d'innombrables organismes puisque elle couvre 75% de la surface de terre. L'eau est une molécule simple faite de deux atomes d'hydrogène et un atome d'oxygène. Sa petite taille semble en contradiction avec la subtilité de ses propriétés physiques et chimiques. Parmi celles-là, le fait que, au point triple, l'eau liquide est plus dense que la glace est particulièrement remarquable. Malgré son importance particulière dans les sciences de la vie, l'eau est systématiquement éliminée des spécimens biologiques examinés par la microscopie électronique. La raison en est que le haut vide du microscope électronique exige que le spécimen biologique soit solide. Pendant 50 ans la science de la microscopie électronique a adressé ce problème résultant en ce moment en des nombreuses techniques de préparation dont l'usage est courrant. Typiquement ces techniques consistent à fixer l'échantillon (chimiquement ou par congélation), remplacer son contenu d'eau par un plastique doux qui est transformé à un bloc rigide par polymérisation. Le bloc du spécimen est coupé en sections minces (denviron 50 nm) avec un ultramicrotome à température ambiante. En général, ces techniques introduisent plusieurs artefacts, principalement dû à l'enlèvement d'eau. Afin d'éviter ces artefacts, le spécimen peut être congelé, coupé et observé à basse température. Cependant, l'eau liquide cristallise lors de la congélation, résultant en une importante détérioration. Idéalement, l'eau liquide est solidifiée dans un état vitreux. La vitrification consiste à refroidir l'eau si rapidement que les cristaux de glace n'ont pas de temps de se former. Une percée a eu lieu quand la vitrification d'eau pure a été découverte expérimentalement. Cette découverte a ouvert la voie à la cryo-microscopie des suspensions biologiques en film mince vitrifié. Nous avons travaillé pour étendre la technique aux spécimens épais. Pour ce faire les échantillons biologiques doivent être vitrifiés, cryo-coupées en sections vitreuse et observées dans une cryo-microscope électronique. Cette technique, appelée la cryo- microscopie électronique des sections vitrifiées (CEMOVIS), est maintenant considérée comme étant la meilleure façon de conserver l'ultrastructure de tissus et cellules biologiques dans un état très proche de l'état natif. Récemment, cette technique est devenue une méthode pratique fournissant des résultats excellents. Elle a cependant, des limitations importantes, la plus importante d'entre elles est certainement dû aux artefacts de la coupe. Ces artefacts sont la conséquence de la nature du matériel vitreux et le fait que les sections vitreuses ne peuvent pas flotter sur un liquide comme c'est le cas pour les sections en plastique coupées à température ambiante. Le but de ce travail a été d'améliorer notre compréhension du processus de la coupe et des artefacts de la coupe. Nous avons ainsi trouvé des conditions optimales pour minimiser ou empêcher ces artefacts. Un modèle amélioré du processus de coupe et une redéfinitions des artefacts de coupe sont proposés. Les résultats obtenus sous ces conditions sont présentés et comparés aux résultats obtenus avec les méthodes conventionnelles. Abstract Water is often considered to be an ordinary substance since it is transparent, odourless, tasteless and it is very common in nature. As a matter of fact it can be argued that it is the most remarkable of all substances. Without water life on Earth would not exist. Water is the major component of cells, typically forming 70 to 95% of cellular mass and it provides an environment for innumerable organisms to live in, since it covers 75% of Earth surface. Water is a simple molecule made of two hydrogen atoms and one oxygen atom, H2O. The small size of the molecule stands in contrast with its unique physical and chemical properties. Among those the fact that, at the triple point, liquid water is denser than ice is especially remarkable. Despite its special importance in life science, water is systematically removed from biological specimens investigated by electron microscopy. This is because the high vacuum of the electron microscope requires that the biological specimen is observed in dry conditions. For 50 years the science of electron microscopy has addressed this problem resulting in numerous preparation techniques, presently in routine use. Typically these techniques consist in fixing the sample (chemically or by freezing), replacing its water by plastic which is transformed into rigid block by polymerisation. The block is then cut into thin sections (c. 50 nm) with an ultra-microtome at room temperature. Usually, these techniques introduce several artefacts, most of them due to water removal. In order to avoid these artefacts, the specimen can be frozen, cut and observed at low temperature. However, liquid water crystallizes into ice upon freezing, thus causing severe damage. Ideally, liquid water is solidified into a vitreous state. Vitrification consists in solidifying water so rapidly that ice crystals have no time to form. A breakthrough took place when vitrification of pure water was discovered. Since this discovery, the thin film vitrification method is used with success for the observation of biological suspensions of. small particles. Our work was to extend the method to bulk biological samples that have to be vitrified, cryosectioned into vitreous sections and observed in cryo-electron microscope. This technique is called cryo-electron microscopy of vitreous sections (CEMOVIS). It is now believed to be the best way to preserve the ultrastructure of biological tissues and cells very close to the native state for electron microscopic observation. Since recently, CEMOVIS has become a practical method achieving excellent results. It has, however, some sever limitations, the most important of them certainly being due to cutting artefacts. They are the consequence of the nature of vitreous material and the fact that vitreous sections cannot be floated on a liquid as is the case for plastic sections cut at room temperature. The aim of the present work has been to improve our understanding of the cutting process and of cutting artefacts, thus finding optimal conditions to minimise or prevent these artefacts. An improved model of the cutting process and redefinitions of cutting artefacts are proposed. Results obtained with CEMOVIS under these conditions are presented and compared with results obtained with conventional methods.
Resumo:
Le but essentiel de notre travail a été d?étudier la capacité du foie, premier organe de métabolisation des xénobiotiques, à dégrader la cocaïne en présence d?éthanol, à l?aide de deux modèles expérimentaux, à savoir un modèle cellulaire (les hépatocytes de rat en suspension) et un modèle acellulaire (modèle reconstitué in vitro à partir d?enzymes purifiées de foie humain). La première partie a pour objectifs de rechercher les voies de métabolisation de la cocaïne qui sont inhibées et / ou stimulées en présence d?éthanol, sur hépatocytes isolés de rat. Dans ce but, une méthode originale permettant de séparer et de quantifier simultanément la cocaïne, le cocaéthylène et huit de leurs métabolites respectifs a été développée par Chromatographie Phase Gazeuse couplée à la Spectrométrie de Masse (CPG / SM). Nos résultats préliminaires indiquent que l?éthanol aux trois concentrations testées (20, 40 et 80 mM) n?a aucun effet sur la cinétique de métabolisation de la cocaïne. Notre étude confirme que l?addition d?éthanol à des cellules hépatiques de rat en suspension supplémentées en cocaïne résulte en la formation précoce de benzoylecgonine et de cocaéthylène. L?apparition retardée d?ecgonine méthyl ester démontre l?activation d?une deuxième voie de détoxification. La production tardive d?ecgonine indique une dégradation de la benzoylecgonine et de l?ecgonine méthyl ester. De plus, la voie d?oxydation intervenant dans l?induction du stress oxydant en produisant de la norcocaïne est tardivement stimulée. Enfin, notre étude montre une métabolisation complète de la concentration initiale en éthanol par les hépatocytes de rat en suspension. La deuxième partie a pour but de déterminer s?il existe d?autres enzymes que les carboxylesterases formes 1 et 2 humaines ayant une capacité à métaboliser la cocaïne seule ou associée à de l?éthanol. Pour ce faire, une méthode de micropurification par chromatographie liquide (Smart System®) a été mise au point. Dans le cadre de nos dosages in situ de la cocaïne, du cocaéthylène, de la benzoylecgonine, de l?acide benzoïque et de la lidocaïne, une technique par Chromatographie Liquide Haute Performance couplée à une Détection par Barrette de Diode (CLHP / DBD) et une méthode de dosage de l?éthanol par Chromatographie Phase Gazeuse couplée à une Détection par Ionisation de Flamme équipée d?un injecteur à espace de tête (espace de tête CPG / DIF) ont été développées. La procédure de purification nous a permis de suspecter la présence d?autres enzymes que les carboxylesterases formes 1 et 2 de foie humain impliquées dans le métabolisme de la cocaïne et déjà isolées. A partir d?un modèle enzymatique reconstitué in vitro, nos résultats préliminaires indiquent que d?autres esterases que les formes 1 et 2 de foie humain sont impliquées dans l?élimination de la cocaïne, produisant benzoylecgonine et ecgonine méthyl ester. De plus, nous avons montré que les sensibilités de ces enzymes à l?éthanol sont variables.<br/><br/>The main purpose of our work was to study the ability of the liver, as the first organ to metabolise xenobiotic substances, to degrade cocaine in the presence of ethanol. In order to do this, we used two experimental models, namely a cellular model (rat liver cells in suspension) and an a-cellular model (model reconstructed in vitro from purified human liver enzymes). The purpose of the first part of our study was to look for cocaine metabolising processes which were inhibited and / or stimulated by the presence of ethanol, in isolated rat liver cells. With this aim in mind, an original method for simultaneously separating and quantifying cocaine, cocaethylene and eight of their respective metabolites was developed by Vapour Phase Chromatography coupled with Mass Spectrometry (VPC / MS). Our preliminary results point out that ethanol at three tested concentrations (20, 40 et 80 mM) have no effect on the kinetic of metabolisation of cocaine. Our study confirms that the addition of alcohol to rat liver cells in suspension, supplemented with cocaine, results in the premature formation of ecgonine benzoyl ester and cocaethylene. The delayed appearance of ecgonine methyl ester shows that a second detoxification process is activated. The delayed production of ecgonine indicates a degradation of the ecgonine benzoyl ester and the ecgonine methyl ester. Moreover, the oxidising process which occurs during the induction of the oxidising stress, producing norcocaine, is stimulated at a late stage. Finally, our study shows the complete metabolisation of the initial alcohol concentration by the rat liver cells in suspension. The second part consisted in determining if enzymes other than human carboxylesterases 1 and 2, able to metabolise cocaine on its own or with alcohol, existed. To do this, a micropurification method us ing liquid phase chromatography (Smart System®) was developed. A technique based on High Performance Liquid Chromatography coupled with a Diode Array Detection (HPLC / DAD) in the in situ proportioning of cocaine, cocaethylene, ecgonine benzoyl ester, benzoic acid and lidocaine, and a method for proportioning alcohol by quantifying the head space using Vapour Phase Chromatography coupled with a Flame Ionisation Detection (head space VPC / FID) were used. The purification procedure pointed to the presence of enzymes other than the human liver carboxylesterases, forms 1 and 2, involved in the metabolism of cocaine and already isolated. The preliminary results drawn from an enzymatic model reconstructed in vitro indicate that human liver carboxylesterases, other than forms 1 and 2, are involved in the elimination of cocaine, producing ecgonine benzoyl ester and ecgonine methyl ester. Moreover, we have shown that the sensitivity of these enzymes to alcohol is variable.
Resumo:
La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV dans le centre de masse) et haute luminosité (1034 cm-2s-1), pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haute intensité, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. Cette expérience, qui a été réalisée avec succès au CERN au cours de l'année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positron), est le sujet central de ce rapport. L'expérience de combinaison des paquets d'électrons consiste à accélérer cinq impulsions dont les paquets d'électrons sont espacés de 10 cm, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dont les paquets d'électrons sont espacés de 2 cm, multipliant ainsi la fréquence des paquets d'électrons, ainsi que la charge par impulsion, par cinq. Cette combinaison est réalisée au moyen de structures RF résonnantes sur un mode déflecteur, qui créent dans l'anneau une déformation locale et dépendante du temps de l'orbite du faisceau. Ce mécanisme impose plusieurs contraintes de dynamique de faisceau comme l'isochronicité, ainsi que des tolérances spécifiques sur les paquets d'électrons, qui sont définies dans ce rapport. Les études pour la conception de la Phase Préliminaire du CTF3 sont détaillées, en particulier le nouveau procédé d'injection avec les déflecteurs RF. Les tests de haute puissance réalisés sur ces cavités déflectrices avant leur installation dans l'anneau sont également décrits. L'activité de mise en fonctionnement de l'expérience est présentée en comparant les mesures faites avec le faisceau aux simulations et calculs théoriques. Finalement, les expériences de multiplication de fréquence des paquets d'électrons sont décrites et analysées. On montre qu'une très bonne efficacité de combinaison est possible après optimisation des paramètres de l'injection et des déflecteurs RF. En plus de l'expérience acquise sur l'utilisation de ces déflecteurs, des conclusions importantes pour les futures activités CTF3 et CLIC sont tirées de cette première démonstration de la multiplication de fréquence des paquets d'électrons par injection RF dans un anneau isochrone.<br/><br/>The Compact LInear Collider (CLIC) collaboration studies the possibility of building a multi-TeV (3 TeV centre-of-mass), high-luminosity (1034 cm-2s-1) electron-positron collider for particle physics. The CLIC scheme is based on high-frequency (30 GHz) linear accelerators powered by a low-energy, high-intensity drive beam running parallel to the main linear accelerators (Two-Beam Acceleration concept). One of the main challenges to realize this scheme is to generate the drive beam in a low-frequency accelerator and to achieve the required high-frequency bunch structure needed for the final acceleration. In order to provide bunch frequency multiplication, the main manipulation consists in sending the beam through an isochronous combiner ring using radio-frequency (RF) deflectors to inject and combine electron bunches. However, such a scheme has never been used before, and the first stage of the CLIC Test Facility 3 (CTF3) project aims at a low-charge demonstration of the bunch frequency multiplication by RF injection into an isochronous ring. This proof-of-principle experiment, which was successfully performed at CERN in 2002 using a modified version of the LEP (Large Electron Positron) pre-injector complex, is the central subject of this report. The bunch combination experiment consists in accelerating in a linear accelerator five pulses in which the electron bunches are spaced by 10 cm, and combining them in an isochronous ring to obtain one pulse in which the electron bunches are spaced by 2 cm, thus achieving a bunch frequency multiplication of a factor five, and increasing the charge per pulse by a factor five. The combination is done by means of RF deflecting cavities that create a time-dependent bump inside the ring, thus allowing the interleaving of the bunches of the five pulses. This process imposes several beam dynamics constraints, such as isochronicity, and specific tolerances on the electron bunches that are defined in this report. The design studies of the CTF3 Preliminary Phase are detailed, with emphasis on the novel injection process using RF deflectors. The high power tests performed on the RF deflectors prior to their installation in the ring are also reported. The commissioning activity is presented by comparing beam measurements to model simulations and theoretical expectations. Eventually, the bunch frequency multiplication experiments are described and analysed. It is shown that the process of bunch frequency multiplication is feasible with a very good efficiency after a careful optimisation of the injection and RF deflector parameters. In addition to the experience acquired in the operation of these RF deflectors, important conclusions for future CTF3 and CLIC activities are drawn from this first demonstration of the bunch frequency multiplication by RF injection into an isochronous ring.<br/><br/>La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV) pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haut courant, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. L'expérience consiste à accélérer cinq impulsions, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dans laquelle la fréquence des paquets d'électrons et le courant sont multipliés par cinq. Cette combinaison est réalisée au moyen de structures déflectrices RF qui créent dans l'anneau une déformation locale et dépendante du temps de la trajectoire du faisceau. Les résultats de cette expérience, qui a été réalisée avec succès au CERN au cours de l?année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positon), sont présentés en détail.
Resumo:
Abstract Imatinib (Glivec~ has transformed the treatment and prognosis of chronic myeloid leukaemia (CML) and of gastrointestinal stromal tumor (GIST). However, the treatment must be taken indefinitely and is not devoid of inconvenience and toxicity. Moreover, resistance or escape from disease control occurs. Considering the large interindividual differences in the function of the enzymatic and transport systems involved in imatinib disposition, exposure to this drug can be expected to vary widely among patients. Among those known systems is a cytochrome P450 (CYI'3A4) that metabolizes imatinib, the multidrug transporter P-glycoprotein (P-gp; product of the MDR1 gene) that expels imatinib out of cells, and al-acid glycoprotein (AGP), a circulating protein binding imatinib in the plasma. The aim of this observational study was to explore the influence of these covariates on imatinib pharmacokinetics (PK), to assess the interindividual variability of the PK parameters of the drug, and to evaluate whether imatinib use would benefit from a therapeutic drug monitoring (TDM) program. A total of 321 plasma concentrations were measured in 59 patients receiving imatinib, using a validated chromatographic method developed for this study (HPLC-LTV). The results were analyzed by non-linear mixed effect modeling (NONMEM). A one-compartment pharmacokinetic model with first-order absorption appropriately described the data, and a large interindividual variability was observed. The MDK> polymorphism 3435C>T and the CYP3A4 activity appeared to modulate the disposition of imatinib, albeit not significantly. A hyperbolic relationship between plasma AGP levels and oral clearance, as well as volume of distribution, was observed. A mechanistic approach was built up, postulating that only the unbound imatinib concentration was able to undergo first-order elimination. This approach allowed determining an average free clearance (CL,~ of 13101/h and a volume of distribution (Vd) of 301 1. By comparison, the total clearance determined was 141/h (i.e. 233 ml/min). Free clearance was affected by body weight and pathology diagnosis. The estimated variability of imatinib disposition (17% for CLu and 66% for Vd) decreased globally about one half with the model incorporating the AGP impact. Moreover, some associations were observed between PK parameters of the free imatinib concentration and its efficacy and toxicity. Finally, the functional influence of P-gp activity has been demonstrated in vitro in cell cultures. These elements are arguments to further investigate the possible usefulness of a TDM program for imatinib. It may help in individualizing the dosing regimen before overt disease progression or development of treatment toxicity, thus improving both the long-term therapeutic effectiveness and tolerability of this drug. Résumé L'imatinib (Glivec ®) a révolutionné le traitement et le pronostic de la leucémie myéloïde chronique (LMC) et des tumeurs stromales d'origine digestive (GIST). Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. Par ailleurs, une résistance, ou des échappements au traitement, sont également rencontrés. Le devenir de ce médicament dans l'organisme dépend de systèmes enzymatiques et de transport connus pour présenter de grandes différences interindividuelles, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, on note un cytochrome P450 (le CYP3A4) métabolisant l'imatinib, la P-glycoprotéine (P-gp ;codée par le gène MDR1), un transporteur d'efflux expulsant le médicament hors des cellules, et l'atglycoprotéine acide (AAG), une protéine circulante sur laquelle se fixe l'imatinib dans le plasma. L'objectif de la présente étude clinique a été de déterminer l'influence de ces covariats sur la pharmacocinétique (PK) de l'imatinib, d'établir la variabilité interindividuelle des paramètres PK du médicament, et d'évaluer dans quelle mesure l'imatinib pouvait bénéficier d'un programme de suivi thérapeutique (TDM). En utilisant une méthode chromatographique développée et validée à cet effet (HPLC-UV), un total de 321 concentrations plasmatiques a été dosé chez 59 patients recevant de l'imatinib. Les résultats ont été analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle pharmacocinétique à un compartiment avec absorption de premier ordre a permis de décrire les données, et une grande variabilité interindividuelle a été observée. Le polymorphisme du gène MDK1 3435C>T et l'activité du CYP3A4 ont montré une influence, toutefois non significative, sur le devenir de l'imatinib. Une relation hyperbolique entre les taux plasmatiques d'AAG et la clairance, comme le volume de distribution, a été observée. Une approche mécanistique a donc été élaborée, postulant que seule la concentration libre subissait une élimination du premier ordre. Cette approche a permis de déterminer une clairance libre moyenne (CLlibre) de 13101/h et un volume de distribution (Vd) de 301 l. Par comparaison, la clairance totale était de 141/h (c.à.d. 233 ml/min). La CLlibre est affectée par le poids corporel et le type de pathologie. La variabilité interindividuelle estimée pour le devenir de l'imatinib (17% sur CLlibre et 66% sur Vd) diminuait globalement de moitié avec le modèle incorporant l'impact de l'AAG. De plus, une certaine association entre les paramètres PK de la concentration d'imatinib libre et l'efficacité et la toxicité a été observée. Finalement, l'influence fonctionnelle de l'activité de la P-gp a été démontrée in nitro dans des cultures cellulaires. Ces divers éléments constituent des arguments pour étudier davantage l'utilité potentielle d'un programme de TDM appliqué à l'imatinib. Un tel suivi pourrait aider à l'individualisation des régimes posologiques avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant tant l'efficacité que la tolérabilité de ce médicament. Résumé large public L'imatinib (un médicament commercialisé sous le nom de Glivec ®) a révolutionné le traitement et le pronostic de deux types de cancers, l'un d'origine sanguine (leucémie) et l'autre d'origine digestive. Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. De plus, des résistances ou des échappements au traitement sont également rencontrés. Le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline appelée pharmacocinétique) dépend de systèmes connus pour présenter de grandes différences entre les individus, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, l'un est responsable de la dégradation du médicament dans le foie (métabolisme), l'autre de l'expulsion du médicament hors des cellules cibles, alors que le dernier consiste en une protéine (dénommée AAG) qui transporte l'imatinib dans le sang. L'objectif de notre étude a été de déterminer l'influence de ces différents systèmes sur le comportement pharmacocinétique de l'imatinib chez les patients, et d'étudier dans quelle mesure le devenir de ce médicament dans l'organisme variait d'un patient à l'autre. Enfin, cette étude avait pour but d'évaluer à quel point la surveillance des concentrations d'imatinib présentes dans le sang pourrait améliorer le traitement des patients cancéreux. Une telle surveillance permet en fait de connaître l'exposition effective de l'organisme au médicament (concept abrégé par le terme anglais TDM, pour Therapeutic Drag Monitoring. Ce projet de recherche a d'abord nécessité la mise au point d'une méthode d'analyse pour la mesure des quantités (ou concentrations) d'imatinib présentes dans le sang. Cela nous a permis d'effectuer régulièrement des mesures chez 59 patients. Il nous a ainsi été possible de décrire le devenir du médicament dans le corps à l'aide de modèles mathématiques. Nous avons notamment pu déterminer chez ces patients la vitesse à laquelle l'imatinib est éliminé du sang et l'étendue de sa distribution dans l'organisme. Nous avons également observé chez les patients que les concentrations sanguines d'imatinib étaient très variables d'un individu à l'autre pour une même dose de médicament ingérée. Nous avons pu aussi mettre en évidence que les concentrations de la protéine AAG, sur laquelle l'imatinib se lie dans le sang, avait une grande influence sur la vitesse à laquelle le médicament est éliminé de l'organisme. Ensuite, en tenant compte des concentrations sanguines d'imatinib et de cette protéine, nous avons également pu calculer les quantités de médicament non liées à cette protéine (= libres), qui sont seules susceptibles d'avoir une activité anticancéreuse. Enfin, il a été possible d'établir qu'il existait une certaine relation entre ces concentrations, l'effet thérapeutique et la toxicité du traitement. Tous ces éléments constituent des arguments pour approfondir encore l'étude de l'utilité d'un programme de TDM appliqué à l'imatinib. Comme chaque patient est différent, un tel suivi pourrait aider à l'ajustement des doses du médicament avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant ainsi tant son efficacité que son innocuité.
Resumo:
Résumé pour large public Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne Lors de la prise d'un médicament, celui-ci va passer par différentes étapes que sont l'absorption, la distribution, le métabolisme et enfin l'élimination. Ces quatre étapes sont regroupées sous le nom de pharmacocinétique. A noter que ces quatre paramètres sont dynamiques et en constante évolution. Durant cette thèse, nous avons investigué différents aspects de la pharmacocinétique, tout d'abord par une revue de la littérature sur la glycoprotéine-P (Pgp). Récemment découverte, cette protéine de membrane est située aux endroits stratégiques de l'organisme comme la barrière hématoencéphalée, le placenta ou les intestins où elle influencera l'entrée de différentes substances, en particulier les médicaments. La Pgp serait impliquée dans les phénomènes de résistances aux agents thérapeutiques en oncologie. La Pgp influence donc l'absorption des médicaments, et son impact en clinique, en termes d'efficacité de traitement et de toxicité prend chaque jour plus d'importance. Ensuite nous avons mis au point une méthode d'analyse quantitative d'un antidépresseur d'une nouvelle génération : la mirtazapine (Remeron®). La nouveauté réside dans la façon dont la mirtazapine interagit avec les neurotransmetteurs impliqués dans la dépression que sont la sérotonine et la noradrénaline. Cette méthode utilise la chromatographie liquide pour séparer la mirtazapine de ses principaux métabolites dans le sang. La spectrométrie de masse est utilisée pour les détecter et les quantifier. Les métabolites sont des substances issues de réactions chimiques entre la substance mère, la mirtazapine, et généralement des enzymes hépatiques, dans le but de rendre cette substance plus soluble en vue de son élimination. Cette méthode permet de quantifier la mirtazapine et ses métabolites dans le sang de patients traités et de déterminer la variation des taux plasmatiques chez ces patients. Puis nous avons étudié le métabolisme d'un autre antidépresseur, le citalopram, qui a un métabolisme complexe. Le citalopram est un racémate, c'est-à-dire qu'il existe sous forme de deux entités chimiques (R-(-) et S-(+) citalopram) qui ont le même nombre d'éléments mais arrangés différemment dans l'espace. La voie métabolique cérébrale du citalopram est sous le contrôle d'une enzyme, la monoamine oxydase (MAO), conduisant à une forme acide du citalopram (l'acide propionique du citalopram). La MAO existe sous deux formes : MAO-A et MAO-B. Nous avons utilisé des souris déficientes d'un gène, celui de la MAO-A, pour mieux en comprendre le métabolisme en les comparants à des souris sauvages (sans déficience de ce gène). Nous avons utilisé le citalopram et deux de ses métabolites (le déméthylcitaloprarn et le didéméthyícitalopram) comme substrats pour tester la formation in vitro de l'acide propionique du citalopram. Nos résultats montrent que la MAO-A favorise la formation de l'entité R-(-) et présente une plus grande affinité pour le citalopram, tandis que la MAO-B métabolise préférentiellement l'entité S-(+) et a une plus grande affinité pour les deux métabolites déméthylés. De plus, la déficience en MAO-A est partiellement compensée parla MAO-B chez les souris déficientes du gène de la MAO-A. Enfin, nous avons étudié une deuxième voie métabolique du citalopram qui s'est avérée toxique chez le chien Beagle. Celle-ci est catalysée par une autre famille d'enzymes, les cytochromes P-450, et mène aux métabolites déméthylés et didéméthylés du citalopram. Nous avons utilisé des tissus hépatiques de chiens Beagle. Plusieurs cytochromes P-450 sont impliqués dans le métabolisme du citalopram menant à sa forme déméthylée, ceci tant chez l'homme que chez le chien. Par contre, dans le métabolisme de la forme déméthylée menant à 1a forme didéméthylée, un seul cytochrome P-450 serait impliqué chez l'Homme, tandis qu'ils seraient plusieurs chez le chien. L'activité enzymatique produisant la forme didéméthylée est beaucoup plus importante chez le chien comparé à l'homme. Cette observation soutien l'hypothèse que des taux élevés de la forme didéméthylée participent à la toxicité spécifique du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant que les enzymes peuvent être stimulées ou inhibées, il importe de pouvoir suivre au plus prés les taux plasmatiques des différents psychotropes et de leurs métabolites. Résumé Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne La plupart des médicaments subissent une transformation enzymatique dans l'organisme. Les substances issues de cette métabolisation ne sont pas toujours dotées d'une activité pharmacologique. Il s'est avéré par conséquent indispensable de suivre les taux plasmatiques d'une substance et de ses métabolites et d'établir ou non l'existence d'une relation avec l'effet clinique observé. Ce concept nommé « therapeutic drag monitoring » (TDM) est particulièrement utile en psychiatrie ou un manque de compliance des patients est fréquemment observé. Les médicaments psychotropes ont un métabolisme principalement hépatique (cytochromes P-450) et parfois cérébral (monoamines oxydases), comme pour le citalopram par exemple. Une méthode stéréosélective de chromatographie liquide couplée à la spectrométrie de masse a été développée pour analyser les énantiomères R-(-) et S-(+) d'un antidépresseur agissant sur les récepteurs noradrénergiques et sérotoninergiques, la mirtazapine et de ses métabolites déméthylmirtazapine et 8-hydroxymirtazapine. Les données préliminaires obtenues dans les plasmas dosés suggèrent que les concentrations de R-(-)-mirtazapine sont plus élevées que celles de S-(+)-mirtazapine, à l'exception des patients qui auraient comme co-médication des inhibiteurs du CYP2D6, telle que la fluoxétine ou la thioridazine. Il y a une enantiosélectivité du métabolisme de la mirtazapine. En particulier pour la 8-hydroxymirtazapine qui est glucuroconjuguée et pour laquelle le ratio S/R varie considérablement. Cette méthode analytique présente l'avantage d'être utilisable pour le dosage stéréosélectif de la mirtazapine et de ses métabolites dans le plasma de patients ayant d'autres substances en co-médication. La glycoprotéine P fonctionne comme une pompe transmembranaire transportant les xénobiotiques depuis le milieu intracellulaire vers le milieu extracellulaire. Son induction et son inhibition, bien que moins étudiées que pour les cytochromes P-450, ont des implications cliniques importantes en termes d'efficacité de traitement et de toxicité. Cette glycoprotéine P a fait l'objet d'une recherche bibliographique. Nous avons étudié le métabolisme du citalopram, un antidépresseur de la classe des inhibiteurs spécifiques de la recapture de la sérotonine chez la souris et chez le chien. Cette substance subit un métabolisme complexe. La voie de métabolisation conduisant à la formation de l'acide propionique du citalopram, catalysée par les monoamines oxydases, a été étudiée in vitro dans les mitochondries cérébrales chez la souris déficiente du gène de la MAO-A (Tg8). La monoamine oxydase A catalyse la formation de l'énantiomère R-(-) et présente une plus grande affinité pour les amines tertiaires, tandis que la monoamine oxydase B favorise la formation de la forme S-(+) et a une affinité plus marquée pour les amines secondaires et primaires. L'étude du citalopram chez la souris Tg8 adulte a montré que la monoamine oxydase B compense la déficience de la monoamine oxydase A chez ces souris génétiquement modifiées. Une autre voie de métabolisation du citalopram conduisant à la formation de didéméthylcitalopram, catalysée par les cytochromes P-450, a été étudiée in vitro dans des microsomes hépatiques de chiens Beagle. Nos études ont montré que les cinétiques de N-déméthylation du citalopram sont biphasiques chez le chien. Les orthologues canins impliqués dans la première N-déméthylation semblent être identiques aux cytochromes P-450 humains. Par contre, dans la deuxième Ndéméthylation, un seul cytochrome P-450 semble être impliqué chez l'homme (CYP2D6), tandis qu'on retrouve jusqu'à cinq orthologues chez le chien. Le CYP2D15, orthologue canin du CYP2D6, est majoritairement impliqué. De plus, l'activité enzymatique, reflétée par les clairances intrinsèques, dans la première N-déméthylation est jusqu'à 45 fois plus élevée chez le chien comparé à l'homme. Ces différentes observations soutiennent l'hypothèse que des taux élevés de didéméthylcitalopram sont responsables de la toxicité du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant -que les enzymes peuvent être induits ou inhibés, il importe de pouvoir suivre au plus près les taux plasmatiques des différents psychotropes et de leurs métabolites. Summary Most of the drugs are metabolized in the organism. Substances issued from this metabolic activity do not always show a pharmacological activity. Therefore, it is necessary to monitor plasmatic levels of drugs and their metabolites, and establish the relationship with the clinical effect. This concept named therapeutic drug monitoring is very useful in psychiatry where lack of compliance is commonly observed. Antidepressants are mainly metabolized in the liver (cytochrome P-450) and sometimes in the brain (monoamine oxidase) like the citalopram, for exemple. A LC-MS method was developed, which allows the simultaneous analysis of R-(-) and S-(+) enantiomers of mirtazapine, an antidepressant acting specifically on noradrenergic and serotonergic receptors, and its metabolites demethylmirtazapine and 8-hydroxymirtazapine in plasma of mirtazapine treated patients. Preliminary data obtained suggested that R-(-) mirtazapine concentrations were higher than those of S-(+) mirtazapine, except in patients comedicated with CYP2D6 inhibitors such as fluoxetine or thioridazine. There is an enantioselectivity in the metabolism of mirtazapine. In particular for the 8-hydroxymirtazapine, which is glucuroconjugated and S/R ratio varies considerably. Therefore this method seems to be suitable for the stereoselective assay of mirtazapine and its metabolites in plasma of patients comedicated with mirtazapine and other drugs for routine and research purposes. P-glycoprotein is working as an efflux transporter of xenobiotics from intracellular to extracellular environment. Its induction or inhibition, although less studied than cytochrome P-450, has huge clinical implications in terms of treatment efficacy and toxicity. An extensive literature search on P-glycoprotein was performed as part of this thesis. The study of citalopram metabolism, an antidepressant belonging to the class of selective serotonin reuptake inhibitors. This substance undergoes a complex metabolism. First metabolization route leading to citalopram propionic acid, catalyzed by monoamine oxidase was studied in vitro in mice brain mitochondria. Monoamine oxidase A catalyzed the formation of R-(-) enantiomer and showed greater affinity for tertiary amines, whereas monoamine oxidase B triggered the formation of S-(+) enantiomer and demonstrated higher affinity for primary and secondary amines. citalopram evaluation in adult Tg8 mice showed that monoamine oxidase B compensated monoamine oxidase A deficiency in those genetically transformed mice. The second metabolization route of citalopram leading to didemethylcitalopram and catalyzed by cytochrome P-450 was studied in vitro in Beagle dog's livers. Our results showed that citalopram N-demethylation kinetics are biphasic in dogs. Canine orthologs involved in the first N-demethylation seemed to be identical to human cytochromes P-450. However, in the second N-demethylation only one cytochrome P-450 seemed to be involved in human (CYP2D6), whereas up to five canine orthologs were found in dogs. CYP2D15 canine ortholog of CYP2D6 was mainly involved. In addition, enzymatic activity reflected by intrinsic clearance in the first N-demethylation was up to 45 fold higher in dogs compared to humans. Those observations support the assumption that elevated rates of didemethylcitalopram are responsible for citalopram toxicity in dogs. We can conclude that several enzymes groups are involved in the brain, as well as in the liver, in antidepressant metabolization. Knowing that enzymes may be induced or inhibited, it makes sense to closely monitor plasmatic levels of antidepressants and their metabolites.
Resumo:
PLAN DE LA RECHERCHE La présentation de ces travaux de recherche est divisée en neuf chapitres : Chapitre 1. Les éléments qui concourent d'un point de vue essentiellement théorique à l'individualité de l'écriture manuscrite sont décrits. Dans un premier temps sont abordés les aspects anatomo-fonctionnels de l'écriture, permettant de saisir quelles sont les contributions musculaires et neuronales de l'individualité de l'écriture. Ensuite sont présentées les caractéristiques de l'écriture telles qu'elles sont étudiées et classifiées par les praticiens, ainsi que la notion de leur variation naturelle. Enfin, les "lois" dites fondamentales de l'écriture sont mentionnées et discutées. Chapitre 2. Les problèmes soulevés lors de débats contradictoires menés au sein de la justice nord-américaine, qui ont porté sur l'admissibilité des expertises d'écritures manuscrites, sont exposés. Ces débats ont mis en évidence la nécessité d'entreprendre des recherches scientifiques approfondies afin d'obtenir des données sur la variabilité des écritures manuscrites. Chapitre 3. Après une présentation de la nécessité de la récolte et de l'analyse de données quantitatives caractérisant l'écriture manuscrite, diverses études ayant cherché à réduire la part de subjectivité au sein du processus d'analyse des écritures sont résumées. Les études se basant sur des mesures ou des classifications effectuées visuellement sont traitées d'abord, suivies des études visant à estimer la fréquence d'apparition de certaines caractéristiques dans certaines populations de scripteurs, puis des études plus récentes taisant intervenir des méthodes de vérification et d'identification de scripteurs. Chapitre 4. Le choix de soumettre la forme des boucles des caractères manuscrits à une étude statistique est justifié, tant par l'importance présumée de son polymorphisme que de sa fréquente utilisation par les praticiens du domaine d'intérêt. Chapitre 5. Les descripteurs de Fourier, utilisés pour caractériser la forme du contour des boucles manuscrites, sont introduits. La mise en évidence de la diversité de leurs domaines d'application précède leur description mathématique, en mettant notamment en avant les avantages de cette technique parmi d'autres méthodes de caractérisation de la Tonne de contours. Chapitre 6. La première partie de la recherche expérimentale est consacrée à la validation de la méthodologie. L'objectif de cette étape consiste à montrer si la procédure d'analyse d'images et les descripteurs de Fourier permettent de démontrer des différences entre des groupes de boucles dont la Tonne est visuellement distincte. Chapitre 7. La variabilité des paramètres de la forme de boucles mesurés au sein d'une population plus importante de scripteurs est étudiée. Des tendances générales de forme permettant de grouper .des scripteurs sont soulignées, puis les caractéristiques particulières pouvant permettre d'individualiser un scripteur sont signalées. Chapitre 8. L'influence de la taille sur la forme des boucles de caractères manuscrits est évaluée, afin de déterminer si des boucles de la même lettre et d'un même scripteur mais de taille différente présentent des aspects de forme distincts. Des tendances générales de modification de la forme ainsi que certaines singularités sont mises en exergue. Chapitre 9. Des modèles d'évaluation permettant de quantifier la valeur probante de l'indice que représente la forme des boucles manuscrites sont exposés. Leur application, qui fait intervenir le rapport de vraisemblance, confirme le potentiel d'individualisation du scripteur mis en évidence précédemment. D'autre part, l'utilisation du rapport de vraisemblance comme métrique confirme les résultats obtenus par diverses méthodes statistiques dans les chapitres précédents. Enfin, la discussion générale résume les apports principaux de cette recherche et en dégage les conséquences pour le praticien, puis propose des pistes possibles pour la poursuite de la recherche.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
L'émergence du mercenariat entrepreneurial, et plus précisément les Sociétés Militaires et Sécuritaires Privées, fait depuis plus d'une décennie l'objet de nombreuses recherches, ouvrages et reportages. L'intervention des États-Unis en Afghanistan et en Irak constitue un tournant pour le mercenariat entrepreneurial, puisqu'en fin 2007, et ce pour la première fois dans l'histoire moderne, les contractors privés ont dépassé le nombre de troupes régulières. La fin de la guerre froide et des armées de masse, la complexification technologique, ou encore les difficultés financières des États, facteurs très souvent mis en avant pour expliquer le renouveau du mercenariat entrepreneurial sont certes des facteurs explicatifs, mais ne peuvent rendre compte à eux seuls ce phénomène. Ce travail replace tout d'abord le mercenariat dans son contexte historique en analysant quatre périodes distinctes : la guerre de Cents Ans et les Grandes compagnies ; les condottieri de la péninsule italienne ; la guerre de Trente Ans ; les compagnies marchandes. En effet, le mercenariat est intimement lié au processus de construction étatique et à son acquisition progressive du monopole de la violence légitime. Dans un deuxième temps, le processus historique du renouveau du mercenariat durant le XXème siècle est abordé. Deux changements structurels - l'avènement d'un capitalisme financier transnational et les transformations du système capitaliste dès les années 1970, et l'émergence puis la domination de la norme néolibérale dès la fin de la guerre froide - ont permis de rendre réalisable la délégation de services sécuritaires et militaires à des acteurs privés. Désormais en train de lutter pour maintenir sa position, l'État tend à devenir de plus en plus dépendant de services qu'il peine pourtant à contrôler efficacement.