639 resultados para Intervalle de confiance simultané
Resumo:
Cet article interroge les critères de choix d'un expert judiciaire par les magistrats en charge d'un dossier, à partir d'une étude empirique. Après un détour par l'international afin de spécifier les positions de ces deux acteurs sur la scène judiciaire française, les principaux critères sont décrits. Parmi eux, la célérité , la confiance, la spécialité ou la discipline démontrent que le choix de l'expert s'effectue selon plusieurs dimensions, procédurales bien sûr, mais aussi axiologiques, d'une part, et expérientielles, d'autre part. Cop. 2014 Elsevier Masson SAS.
Resumo:
Les stratégies qui sont utulisées pour prévenir des dangers ou réprimer le crime sont sans cesse remises en cause en fonction des connaissances, de l'évaluation de leur efficience, ainsi que de sensibilités et de perceptions dans des contextes particuliers. Par exemple, les munitions remises aux policiers ou la confiance que l'on peut accorder à des systèmes biométriques de contrôles d'identité sont l'objet de polémiques que des recherches systématiques peuvent ramener sur un plan plus rationnel. De même, dans un contexte souvent envahi d'émotions, la recherche sur la police et la justice propose des moyens d'adapter les systèmes, d'en évaluer le fonctionnement et les résultats, ainsi que de réfléchir aux fondements de leur action.
Resumo:
Ce travail de recherche a été réalisé dans le laboratoire de pharmacologie clinique, au Centre Hospitalier Universitaire Sainte-Justine, à Montréal. C'est une étude rétrospective basée sur le suivi thérapeutique du Tacrolimus prescrit chez les enfants après transplantation hépatique. Ce suivi est nécessaire car le Tacrolimus possède une importante variabilité pharmacocinétique inter et intra-individuelle ainsi qu'un index thérapeutique très étroit. Actuellement, l'individualisation des doses prescrites est basée sur la mesure de la concentration de base - du médicament dans le sang (C0), mais des études récentes montrent que cette mesure ne reflète pas précisément l'exposition du Tacrolimus dans l'organisme chez les enfants. Le meilleur reflet de cette exposition est la mesure de l'aire sous la courbe (AUC). Cependant, cette dernière implique la mesure de multiples concentrations tout au long de l'intervalle entre 2 doses de médicament (Tacrolimus: 12 heures) ce qui est long, cher et impraticable en ambulatoire. De nouvelles méthodes utilisant un nombre limité de prélèvements ont donc été développées pour prédire au mieux cette AUC. Ce sont les "Limited sampling strategies" ou LSS. La plupart de ces LSS pour le Tacrolimus ont été développées et validées chez des patients transplantés adultes et leur application directe chez les transplantés pédiatriques n'est pas possible en raison de différences importantes au niveau des paramètres pharmacocinétiques du médicament entre ces deux populations. Aussi, le but de ce travail était de développer et valider, pour la première fois, des LSS chez les enfants transplantés hépatiques. Pour cela, une analyse de 36 profils pharmacocinétiques de 28 patients transplantés hépatiques âgés de 0.4- 18.5 ans a été effectuée. Tous les profils ont été réalisés au Centre Hospitalier Universitaire Sainte-Justine entre janvier 2007 et janvier 2009. Les LSS comportant au maximum 4 mesures de concentration ont été développées en utilisant une analyse de régression multiple. Parmi tous les modèles obtenus, cinq ont été sélectionnés sur la base de critères précis puis validés selon la méthode décrite par Sheiner et Beal.¦Les résultats montrent que ces cinq modèles peuvent prédire l'AUC du Tacrolimus avec une précision cliniquement acceptable de ± 15% alors que la C0 présente la plus faible corrélation avec l'AUC.¦En conclusion, cette étude confirme que la C0 ne permet pas de prédire de manière efficace l'exposition du Tacrolimus dans l'organisme dans notre population de patients pédiatriques contrairement aux LSS analysées qui offrent une méthode pratique et fiable. Par ailleurs, en permettant d'obtenir une estimation précise et simplifiée de l'AUC complète du Tacrolimus chez les patients, ces LSS ouvrent la porte à de futures études prospectives visant à mieux définir l'AUC cible du médicament et à déterminer si le suivi basé sur la mesure de l'AUC est plus efficace et plus sûr que celui basé sur la mesure de la C0.
Resumo:
Abstract The late Neoproterozoic or Ediacaran period, (635 to -543 Ma) is a primordial time in the Earth history corresponding to the beginning of animal life and the most extreme ice ages on Earth. In this dissertation, palaeoenvironmental conditions were reconstructed for Ediacaran, post-Gaskiers shelf deposits in SW- Gondwana and their changes were evaluated according to the diversity of organisms. The present study addresses the question of interactions between biodiversity and environmental change by using the elemental and isotopic geochemistry of sedimentary rocks and associated organic matter, as well as the distribution of hydrocarbon biomarkers. The studied sedimentary sequences are from a large basin extended from the Paraguay belt to the Rio de la Plata craton, including the Corumbâ Group in SW-Brazil (Paraguay belt), the Arroyo del Soldado Group in Uruguay and the Sierras Bayas Group in Argentina (both in the Rio de la Plata craton). Several geochemical signatures of the sediments from Corumbâ and Sierras Bayas groups provides evidence for an euxinic setting in the Ediacaran Ocean: 1) The occurrence of syngenetic pyrite in the Corumbâ Group together with hydrocarbon biomarkers of an anoxic microbial consortium including traces of gammacerane, a distribution of hopanes with maxima at C29 as well as a low pristane/phytane (Pr/Ph) ratio; 2) the occurrence of 34S enrichments within sulfides of the Sierras Bayas Group exceeding the sulfur isotopic composition of coeval carbonate-associated sulfate. In the Arroyo del Soldado Group, an event of reducing conditions was revealed by higher concentrations of redox-sensitive trace elements and negative 513Ccar shifts in all sections. This event is extended to the whole unit in the deepest section and is restricted to tempestites in the two other shallow sections. The persistent negative. ôl3Ccar values recorded at the basinal setting implies strong isotopic gradient between shallow and deep water environments and therefore, a locus of deposition below the redox chemocline. In all studied sections, the excursions, the strong enrichment of authigenic trace-elements, the occurrence of longer chain «-alkanes, gammacerane and low Pr/Ph and Ph/>;-C]a ratios, combined with the previous sedimentological and paleontological observations indicate that the chemistry of the ocean was strongly controlled by the oxygen availability; waters being moderately oxic at the surface and anoxic at depth for much of the Neoproterozoic. This water column stratification was favourable to the storage of large amounts of nutrients in the deep ocean. During upwelling periods, the export of these nutrient-rich waters may have triggered an important bioproductivity in surface waters. Drops in Al3Cc,,.](Cr and positive ôl3Ccllr excursions highlight the increase in primary productivity. Preservation of organic carbon was ensured by reducing conditions at the bottom. The Al3ccar.kcr excursions could also reflect changes in the composition of the primary biomass. New geochemical evidence from SW-Gondwana sections supports a stratified Ediacaran ocean, outside restricted or hypersaline environments, in the aftermath of glaciations. The association of ocean stratification and the appearance of metazoans support the model that the evolution of eukaryotic life was related to the increase of oxygen levels in surface environments due to an efficient recycling of nutrients in the anoxic deep ocean. Résumé Le Néoprotérozoïque terminal, ou Édiacarien (635 à -543 Ma), est un période de première importance dans l'histoire de la Terre, car elle correspond a l'apparition des métazoaires pendant un intervalle de glaciations extrêmes. Le présent mémoire se propose de reconstituer les conditions paléoenvironnementales des dépôts de plateforme mis en place durant l'Édiacarien, au sud-ouest du Gondwana. Les interactions entre changements environnementaux et biodiversité sont évaluées en s'appuyant d'une part sur la composition élémentaire et isotopique des roches sédimentaires et de leur matière organique, et d'autre part sur la distribution moléculaire de biomarqueurs hydrocarbonés. Les séquences sédimentaires étudiées proviennent d'un grand bassin qui s'étend de la chaîne du Paraguay jusqu'au craton du Rio de la Plata. La séquence du Groupe Corumbâ au Sud Ouest du Brésil se situe dans la chaîne du Paraguay, tandis que le Groupe Arroyo del Soldado en Uruguay et le Groupe Sierras Bayas en Argentine sont situés sur le craton du Rio de la Plata. L'étude géochimique des sédiments des groupes Corumbâ et Sierras Bayas révèle de façon claire des conditions euxiniques dans l'océan édiacarien. On trouve ainsi, dans le Groupe Corumbâ, les biomarqueurs d'un cortège microbien anoxique et sulfurique comprenant des bactéries sulfato-réductrices, et dans les sulfures du Groupe Sierras Bayas, des enrichissements en Î4S excédant les rapports isotopiques du soufre dans le sulfate cogénétique associé aux carbonates. Dans la séquence de l'Arroyo del Soldado, un événement réducteur est mis en évidence par des teneurs plus élevées en éléments traces sensibles aux conditions redox et par des excursions négatives du 613Ccardans toutes les coupes. Cet événement affecte la totalité de la section la plus profonde et n'apparaît que dans les tempestites dans les sections les moins profondes. La persistance de valeurs négatives du ô13Ccarau large implique un gradient isotopique prononcé entre les environnements superficiels et profonds, et donc, ta présence d'une chémocline redox. Les excursions du. ôBCcar, l'enrichissement authigène en éléments traces, la présence de gammacérane et de rt-alcanes à longue chaîne, ainsi que de faibles rapports Pr/Ph et Ph/«-Cl8, viennent s'ajouter aux observations préliminaires sur la sédimentologie et la paléontologie pour indiquer que la chimie de l'océan était fortement contrôlée par la disponibilité d'oxygène, les eaux étant modérément oxiques à la surface et anoxiques en profondeur pendant la plus grande partie du Néoprotérozoïque. La stratification de la colonne d'eau était favorable au stockage de grandes quantités de nutriments dans l'océan profond. Dans les zones d'upwelling, la migration d'eaux profondes riches en nutriment vers la surface a pu provoquer une bioproductivité prononcée dans les eaux de surface. La conservation du carbone organique était assurée par les conditions anoxiques prévalant au fond. Les excursions du A13Ccar.kt.r pourraient aussi refléter des changements dans la biomasse primaire. Le présent travail apporte donc de nouvelles preuves qu'un océan stratifié s'est maintenu à la suite des glaciations néoprotérozoïques dans le Sud Ouest du Gondwana. L'association d'un océan stratifié et de l'apparition de la vie animale est en accord avec le modèle stipulant que l'évolution de la vie est associée à une meilleure oxygénation des environnements de surface. Résumé pour le grand public La période Ediacarienne (635 à -543 Ma) à la fin du Précambrien est l'une de plus énigmatiques dans l'histoire de la Terre, car elle est caractérisée par la diversification de la vie multicellulaire (eucaryote) pendant un intervalle de glaciations extrêmes. Dans ce travail de thèse, nous cherchons à déceler l'existence éventuelle d'un lien entre ces changements environnementaux et l'évolution de la vie eucaryote à travers une étude biogéochimique. La biogéochimie est l'étude des activités biologiques dans la géosphère, telles que celles intervenant dans les cycles des éléments chimiques (y compris les isotopes stables) et celles de production de composés carbonés caractérisant certains groups d'organismes ou taxons. La recherche des signatures paléoenvironnementales dans les roches précambriennes a été fortement facilitée par l'utilisation des biomarqueurs ou fossiles moléculaires. Ces composés, provenant des lipides biologiques (molécules avec des fonctions spécifiques dans les organismes), peuvent être reliés à des taxons spécifiques ou à des voies métaboliques. La transformation d'un biolipide en fossile moléculaire intervient lorsque des restes organiques déposés dans un substrat subissent un enfouissement et une augmentation de la pression (diagenèse). Ce processus mène à la formation de kérogène, un grand agrégat chimique de matière organique insoluble dans des solvants organiques, et de bitume ou fraction soluble (extractible) de la matière organique. L'analyse intégrée du kérogène et du bitume fournit des indications précieuses pour les reconstitutions paléoenvironnementales. Des conditions paléoenvironnementales ont ainsi été déterminées pour une plateforme marine Ediacarienne située dans la partie sud-américaine du bloc occidental du paléocontinent Gondwana. Les séquences sédimentaires étudiées appartiennent au même bassin qui s'étend de la ceinture du Paraguay (Groupe Corumbâ, Brésil) au craton du Rio de la Plata (Groupes Arroyo del Soldado, Uruguay et Sierras Bayas, Argentina). Nous nous sommes intéressés aux isotopes stables de carbonates et de la matière organique associée (kérogène et bitume), aux éléments majeurs et traces, ainsi qu'aux biomarqueurs caractérisant ces roches. Les résultats de cette dissertation suggèrent qu'au cours de l'Édiacarien, suite aux glaciations néoprotérozoïques dans le bloc occidental du Gondwana, l'océan était stratifié en zones spécifiques d'eaux riches en sulfures et dépourvues d'oxygène (euxiniques). L'association d'un océan stratifié et de l'apparition de la vie animale est en accord avec le modèle stipulant que l'évolution de la vie est associée à une meilleure oxygénation des environnements de surface. Les excursions isotopiques (tendance à des valeurs positives ou négatives) en constante fluctuation pour le carbone et très positives pour le soufre des sulfures, l'enrichissement en éléments trace et la présence de certains composés (e.g. gammacerane; Pr/Ph et Ph/«-Ci8 en basse proportion) conjugués aux observations sédimentologiques et paléontologiques des différents profils étudiés indiquent que la chimie de l'océan était fortement contrôlée par la disponibilité d'oxygène, avec des eaux modérément oxygénées en surface et euxiniques en profondeur pour la plupart du Néoprotérozoïque.
Resumo:
L'idée d'écrire cet article naît suite à l'arrivée aux urgences du Centre Hospitalier Universitaire Vaudois de deux cas cliniques de rupture de rate après colonoscopie. Ces deux patients se sont présentés à quelques semaines d'intervalle et illustrent une complication peu rapportée des colonoscopies mais décrite dans la littérature scientifique. Nos deux patients ont été traités avec succès par embolisation artérielle proximale. Nous présentons donc 2 cas de rupture de rate après colonoscopie. Nous comparons nos données avec celles obtenues par analyse après revue pertinente de la littérature. Nous avons mis en évidence les facteurs de risque inhérents aux patients et à la procédure. Les différentes prises en charges ont été analysées et les points principaux mis en évidence dans un tableau. Pour finir, nous proposons un diagramme de prise en charge des ruptures de rate de bas grade après colonoscopie par embolisation artérielle proximale.
Resumo:
Etude des modèles de Whittle markoviens probabilisés Résumé Le modèle de Whittle markovien probabilisé est un modèle de champ spatial autorégressif simultané d'ordre 1 qui exprime simultanément chaque variable du champ comme une moyenne pondérée aléatoire des variables adjacentes du champ, amortie d'un coefficient multiplicatif ρ, et additionnée d'un terme d'erreur (qui est une variable gaussienne homoscédastique spatialement indépendante, non mesurable directement). Dans notre cas, la moyenne pondérée est une moyenne arithmétique qui est aléatoire du fait de deux conditions : (a) deux variables sont adjacentes (au sens d'un graphe) avec une probabilité 1 − p si la distance qui les sépare est inférieure à un certain seuil, (b) il n'y a pas d'adjacence pour des distances au-dessus de ce seuil. Ces conditions déterminent un modèle d'adjacence (ou modèle de connexité) du champ spatial. Un modèle de Whittle markovien probabilisé aux conditions où p = 0 donne un modèle de Whittle classique qui est plus familier en géographie, économétrie spatiale, écologie, sociologie, etc. et dont ρ est le coefficient d'autorégression. Notre modèle est donc une forme probabilisée au niveau de la connexité du champ de la forme des modèles de Whittle classiques, amenant une description innovante de l'autocorrélation spatiale. Nous commençons par décrire notre modèle spatial en montrant les effets de la complexité introduite par le modèle de connexité sur le pattern de variances et la corrélation spatiale du champ. Nous étudions ensuite la problématique de l'estimation du coefficent d'autorégression ρ pour lequel au préalable nous effectuons une analyse approfondie de son information au sens de Fisher et de Kullback-Leibler. Nous montrons qu'un estimateur non biaisé efficace de ρ possède une efficacité qui varie en fonction du paramètre p, généralement de manière non monotone, et de la structure du réseau d'adjacences. Dans le cas où la connexité du champ est non observée, nous montrons qu'une mauvaise spécification de l'estimateur de maximum de vraisemblance de ρ peut biaiser celui-ci en fonction de p. Nous proposons dans ce contexte d'autres voies pour estimer ρ. Pour finir, nous étudions la puissance des tests de significativité de ρ pour lesquels les statistiques de test sont des variantes classiques du I de Moran (test de Cliff-Ord) et du I de Moran maximal (en s'inspirant de la méthode de Kooijman). Nous observons la variation de puissance en fonction du paramètre p et du coefficient ρ, montrant par cette voie la dualité de l'autocorrélation spatiale entre intensité et connectivité dans le contexte des modèles autorégressifs
Resumo:
Résumé en français Jusqu'alors, il n'avait jamais été formellement démontré qu'une forte dose d'un antagoniste de l'angiotensine II à longue durée d'action pouvait être aussi efficace sur le blocage du système rénine-angiotensine que l'association d'un inhibiteur de l'enzyme de conversion avec le même antagoniste de l'angiotensine II à des doses plus faibles. Dans cette étude randomisée en double aveugle, nous avons étudié le blocage du système rénine-angiotensine obtenu avec trois doses d'olmesartan medoxomil (20, 40 et 80 mg) chez 30 volontaires sains que nous avons comparé au blocage obtenu par du lisinopril (20 mg), seul ou associé à de l'olmesartan medoxomil (20 et 40 mg). L'étude s'est déroulée en deux phases selon un design par crossover. A deux reprises, chaque volontaire à reçu durant une semaine l'un des six traitements possibles. Un intervalle d'une semaine a été respecté entre les deux phases (période de washout). L'objectif principal était d'étudier, 24 heures après la dernière dose, le blocage de l'élévation de la pression systolique en réponse à l'administration d'angiotensine I. Ce blocage était de 58% ± 19% (moyenne ± déviation standard) avec 20 mg de lisinopril, de 58% ± 11% avec 20 mg d'olmesartan medoxomil, de 62% ± 16% avec 40 mg d'olmesartan medoxomil, et de 76% ± 12% avec la plus forte dose d'olmesartan medoxomil (80 mg) (P=.016 versus 20 mg de lisinopril et P=.0015 versus 20 mg d'olmesartan medoxomil). Le blocage était de 80% ± 22% avec 20 mg de lisinopril associé à 20 mg d'olmesartan medoxomil et de 83% ± 9% avec 20 mg de lisinopril associé à 40 mg d'olmesartan medoxomil (P= .3 versus 80 mg d'olmesartan medoxomil). Ces résultats montrent, que chez les volontaires sains, une dose suffisamment élevée d'olmesartan medoxomil peut induire un blocage à 24 heures quasi complet de l'élévation de la pression artérielle en réponse à l'administration d'angiotensine I. De même, en terme de blocage de l'effet vasculaire de l'angiotensine I, une dose suffisamment élevée d'un antagoniste de l'angiotensine II de longue durée d'action est tout aussi efficace que ce même antagoniste à des doses plus faibles associé avec à un inhibiteur de l'enzyme de conversion.
Resumo:
J. Smuda: Geochemical evolution of active porphyry copper tailings impoundments Thesis abstract Mine waste is the largest volume of materials handled in the world. The oxidation of sulfidic mine waste may result in the release of acid mine drainage (AMD) rich in heavy metals and arsenic to the environment, one of the major problems the mining industry is facing today. To control and reduce this environmental impact, it is crucial to identify the main geochemical and hydrological processes influencing contaminant liberation, transport, and retention. This thesis presents the results of a geochemical, mineralogical and stable isotope study (δ2H, δ18O, δ34S) from two active porphyry copper tailings impoundments in Mediterranean (Carén tailings impoundment, El Teniente mine, Central Chile) and hyper-arid climate (Talabre tailings impoundment, Chuquicamata, Northern Chile) from the deposition in alkaline environment (pH 10.5) towards acidification after several years of exposure. The major hydrological results were the identification of vertical contaminant and water transport in the uppermost, not water-saturated zone, triggered by capillary rise due to evaporation, and infiltration downwards due to new tailings deposition, and of horizontal transport in the groundwater zone. At the surface of the sedimented tailings, evaporation of pore water led to the precipitation of Na-Ca-Mg sulfates (e.g., gypsum, tenorite), in hyper-arid climate also halite. At the Carén tailings impoundment, renewed deposition in a 4-week interval inhibited a pH decrease below neutral values and the formation of an efflorescent salt crust. At the Talabre tailings impoundment, deposition breaks of several years resulted in the formation of acidic oxidation zones in the timeframe of less than 4 years. This process enabled the transport of liberated Cu, Zn, and Fe via capillary rise to the surface, where these metals precipitated as heavy-metal sulfates (e.g., devilline, krohnkite) and chlorides (eriochalcite, atacamite). Renewed depositing may dissolve efflorescent salts and transport liberated elements towards the groundwater zone. This zone was found to be highly dynamic due to infiltration and mixing with water from different sources, like groundwater, catchment water, and infiltration from superficial waters. There, Cu was found to be partially mobile due to complexation with Cl (in Cl-rich groundwater, Talabre) and dissolved organic matter (in zones with infiltration of catchment water rich in dissolved organic matter, Carén). A laboratory study on the isotopic fractionation of sulfur and oxygen of sulfate in different minerals groups (water-soluble sulfates, low- and high-crystalline Fe(III) oxyhydroxides) contributed to the use of stable isotopes as tracer of geochemical and transport processes for environmental studies. The results highlight that a detailed geochemical, stable isotope and mineralogical study permits the identification of contamination processes and pathways already during the deposition of mine tailings. This knowledge allows the early planning of adequate actions to reduce and control the environmental impact during tailings deposition and after the closing of the impoundment. J. Smuda: Geochemical evolution of active porphyry copper tailings impoundments Résumé de these Les déchets miniers constituent les plus grands volumes de matériel gérés dans le monde. L'oxydation des déchets miniers sulfuriques peut conduire à la libération de drainages miniers acides (DMA) riches en métaux et arsenic dans l'environnement, ce qui est l'un des principaux problèmes de l'industrie minière aujourd'hui. Pour contrôler et réduire ces impacts sur l'environnement, il est crucial d'identifier les principaux processus géochimiques et hydrologiques influençant la libération, le transport et la rétention des contaminants. Cette thèse présente les résultats d'une étude géochimique, minéralogique et des isotopes stables (δ2H, δ18O, δ34S) sur des déchets miniers de 2 sites de dépôt actifs en climat méditerranéen (Dépôt de déchets de Carén, mine de El Teniente, Centre du Chili) et en climat hyper-aride (Dépôt de déchets de Talabre, mine de Chuquicamata, Nord du Chili). L'objectif était d'étudier l'évolution des déchets de la déposition en milieu alcalin (pH = 10.5) vers l'acidification après plusieurs années d'exposition. Le principal résultat hydrologique a été l'identification de 2 types de transport : un transport vertical de l'eau et des contaminants dans la zone non saturée en surface, induit par la montée capillaire due à l'évaporation et par l'infiltration subséquente de la déposition de sédiments frais ; et un transport horizontal dans la zone des eaux souterraines. À la surface des déchets, l'évaporation de l'eau interstitielle conduit à la précipitation de sulfates de Na-Ca-Mg (ex. gypse, ténorite) et halite en climat hyper-aride. Dans le site de Carén, une nouvelle déposition de déchets frais à 4 semaines intervalle a empêché la baise du pH en deçà des valeurs neutres et la formation d'une croûte de sels efflorescentes en surface. Dans le site de Talabre, les fentes de dessiccation des dépôts ont entraîné la formation d'une zone d'oxydation à pH acide en moins de 4 ans. Ce processus a permis la libération et le transport par capillarité de Cu, Zn, Fe vers la surface, où ces éléments précipitent sous forme de sulfates de métaux lourds (ex., dévilline, krohnkite) de chlorures (ex. ériochalcite, atacamite). Une nouvelle déposition de sédiments frais pourrait dissoudre ces sels et les transporter vers la zone des eaux souterraines. Cette dernière zone était très dynamique en raison du mélange d'eaux provenant de différentes sources, comme les eaux souterraines, l'eau de captage et l'infiltration des eaux superficielles. Egalement dans cette zone, le cuivre était partiellement mobile à cause de la formation de complexe avec le chlore (dans les zone riche en Cl, Talabre) et avec la matière organique dissoute (dans les zones où s'infiltre l'eau de captage riche en matière organique, Carén). Une étude en laboratoire sur le fractionnement des isotopes stables de sulfure et d'oxygène des sulfates dans différents groupes de minéraux (sulfates hydrosolubles, sulfures de oxy-hydroxyde de Fe(III) faiblement ou fortement cristallins) a permis d'apporter une contribution à leur utilisation comme traceurs dans l'étude des processus géochimiques et de transport lors d'études environnementales. Les résultats montrent qu'une étude détaillée de la géochimie, des isotopes stables et de la minéralogie permet d'identifier les processus et les voies de contamination déjà pendant la période de dépôt des déchets miniers. Cette connaissance permet de planifier, dès le début de l'exploitation, des mesures adéquates pour réduire et contrôler l'impact sur l'environnement pendant la période de dépôts de déchets miniers et après la fermeture du site.
Resumo:
Résumé Les esters sont des agents thérapeutiques largement utilisés comme médicaments et prodrogues. Leurs dégradation est chimique et enzymatique. Le Chapitre IV de cette thèse a comme objet l'hydrolyse chimique de plusieurs dérivés esters du 2,3-dimethoxyphenol. Des composés modèles ont été synthétisés dans le but de déterminer leur mécanismes de dégradation. Les profils d'ionisation et d'hydrolyse de ces composés ont permis d'identifier la présence d'une catalyse intramoléculaire basique par un atome d'azote non-protoné. Les effets électroniques exercés par les groupes phenylethenyle et phenylcyclopropyle influencent également la vitesse d'hydrolyse des esters. La résolution des problèmes liés à l'adsorption et la perméation est devenue à nos jours l'étape limitante dans la conception de nouveaux médicaments car de trop nombreux candidats prometteurs ont échoué à cause d'une mauvaise biodisponibilité. La lipophilie décrit le partage d'un médicament entre une membrane lipidique et son environnement physiologique aqueux, et de ce fait elle influence sa pharmacocinétique. Des études récents ont mis en évidence l'importance de la détermination de la lipophilie des espèces ionisées vu leur considérable impact biologique. Le Chapitre V de cette thèse est centré sur une classe particulière de composés ionisables, les zwitterions. Plusieurs methoxybenzylpiperazines de nature zwitterionique ont été étudiées. Leurs profils d'ionisation ont montré que dans un large intervalle de pH, l'espèce prédominante est le zwitterion. Les profils de lipophilie ont montré que leur lipophilie est plus élevée que celles des zwitterions courants. Une interaction électrostatique entre l'oxygène du carboxylate et l'azote protoné est responsable de ce profil et rend la plupart des zwitterions non-donneurs de liaison hydrogène. Ces deux aspects peuvent favoriser le passage de la barrière hémato-éncephalique. Les données biologiques ont par la suite confirmé cette hypothèse pour un certain nombre de composés. Résumé large public Les esters sont des composés souvent rencontrés en chimie thérapeutique. Ils sont dégradés en milieu aqueux par une réaction d'hydrolyse, avec ou sans la participation d'enzymes. Dans ce travail de thèse, une série d'esters ont été étudiés dans le but d'établir une relation entre leur structure et les mécanismes responsables de leur dégradation chimique. Il a été prouvé que la dégradation est accélérée par un atome d'azote non-protoné. D'autres mécanismes peuvent intervenir en fonction du pH du milieu. La présence d'une liaison simple ou double ou d'un groupe phenylcyclopropyle peut également influencer la vitesse de dégradation. Il est essentiel, dans la conception de nouveaux médicaments, d'optimiser les étapes qui influencent leur distribution dans le corps. Ce dernier peut être visualisé comme une série infinie de compartiments aqueux séparés par des membranes lipidiques. La lipophilie est une propriété moléculaire importante qui décrit le passage des barrières rencontrées par les médicaments. Des études récentes ont mis en évidence l'importance de déterminer la lipophilie des espèces ionisées vu leur considérable impact biologique. Dans ce travail de thèse a été étudiée une série particulière de composés ionisables , les zwitterions. Une relation a été établie entre leur structure et leur proprietés physico-chimiques. Une lipophilie plus élevée par rapport à celle des zwitterions courants a été trouvée. Une interaction entre les groupes chargés des zwitterions étudiés est responsable de ce comportement inattendu et rend la plupart d'entre eux non-donneurs de liaison hydrogène. Ces deux facteurs peuvent favoriser la pénétration cérébrale. Les données biologiques ont confirmé cette hypothèse pour un certain nombre de composés. Summary Esters are often encountered in medicinal chemistry. Their hydrolysis may be chemical as well as enzymatic. Chapter IV of this manuscript provides a mechanistic insight into the chemical hydrolysis of a particular series of basic esters derived from 2,3-dimethoxyphenol. Their ionization and pH-rate profiles allowed to identify the presence of an intramolecular base catalysis by a non-protonated nitrogen atom. Electronic effects exerted by the phenylethenyl and phenylcyclopropyl groups that are present in the structure of the esters also influenced their rate of hydrolysis. Numerous works in the literature witness of the importance of lipophilicity in determining the fate of a drug. Most published partition coefficients are those of neutral species. In contrast, no exhaustive treatment of the lipophilicity of charged molecules is available at present, and a lack of information characterizes in particular zwitterions. Chapter V of this manuscript provides an insight into the physicochemical parameters of a series of zwitterionic methoxybenzylpiperazines. Their ionization profiles showed that they exist predominantly in the zwitterionic form in a broad pH-range. An electrostatic interaction between the oxygen of the carboxylate and the protonated nitrogen atom is increases the lipophilicity of the investigated zwitterions, and prevents the majority of them to express their hydrogen-bonding capacity. These two aspects may favor the crossing of the blood-brain barrier. The available ratios PSt/PSf measured in vitro have confirmed this point for a number of compounds.
Resumo:
Le Tribunal fédéral et la doctrine majoritaire interprètent l'art. 320 al. 2 CO comme un cas où l'existence d'un contrat de travail peut être déduite de circonstances de fait indépendantes de tout consensus. Il s'agirait donc là d'une dérogation aux art. 1 ss CO. Dans cette contribution, nous proposons une conception de l'art. 320 al. 2 CO compatible avec le mécanisme ordinaire de conclusion des contrats. En l'occurrence, le contrat de travail serait conclu par actes concluants sur la base d'un accord de droit, c'est-à-dire en appliquant le principe de la confiance. Alors que la lettre et le but de protection de l'art. 320 al. 2 CO semblent plutôt neutres à cet égard, l'histoire et la systématique de cet alinéa plaident clairement en faveur de la conception ici proposée.
Resumo:
RESUME L'obésité et l'hypertension atteignent des niveaux épidémiques aussi bien dans les pays industrialisés que dans ceux en voie de développement. La coexistence de ces deux pathologies est associée à un risque cardiovasculaire augmenté. Traditionnellement on mesure la pression artérielle (PA) au bras au moyen d'un brassard qui détermine la pression systolique et diastolique en utilisant soit la méthode auscultatoire ou oscillométrique. L'utilisation d'un brassard de taille standard chez le patient avec un tour de bras augmenté peut surestimer la pression artérielle. Il semble même qu'il existe un rapport idéal entre le tour de bras, et la taille du brassard La mesure à domicile de la pression artérielle avec des appareils validés donne des valeurs de la PA valables. Plusieurs appareils existent sur le marché et depuis quelques années les appareils de mesure de la PA au poignet font leur apparition sur le marché. Cette étude vise à comparer chez des sujets sains et obèses les valeurs de PA obtenues au poignet avec celles obtenues au bras en utilisant deux appareils validés l'OMRON HEM 705-CP et l'OMRON R6. L'OMRON HEM 705-CP permet l'utilisation soit d'un brassard standard (13x30 cm) ou d'un brassard large (16x38 cm), et l'OMRON R6 mesure la PA au poignet. Nous avons comparé un groupe de sujets obèses [Body Mass Index (BMI) >35kg/m2] avec un groupe de sujets sains (BMI <25kg/m2). Ont été exclues de l'étudé les personnes prenant un traitement antihypertenseur ainsi que celles souffrant d'arythmies. La PA a été mesurée en position assise avec le bras gauche sur une table à hauteur du coeur. Un brassard large a été employé pour les sujets obèses et un brassard standard pour les sujets sains. Trois mesures ont été effectuées, la première après une pause de 5 min et chacune des suivantes avec un intervalle de 2 min. La pression d'inflation maximale a été fixée à 170 mmHg. Nous avons utilisé la formule proposée par Marks LA et al pour déterminer si le rapport entre la taille des brassards fournis avec l'OMRON .HEM 705-CP et le tour de bras de nos sujets était optimal (taille du brassard = 9.34 x log10 taille du bras). Nos résultats ne montrent pas de différence statistiquement significative de la PA diastolique entre les deux groupes, qu'elle soit mesurée au bras ou au poignet. La PA systolique mesurée au bras s'est par contre avérée significativement plus basse chez les sujets obèses que chez les sujets sains. Aucune différence n'a été trouvée lorsque la mesure est effectuée au poignet. En utilisant la formule fournie par Marks le rapport entre taille du brassard (large chez les obèses) et tour de bras a été de 10.30±30 chez les sujets obèses et 9.630.45 chez les sujets sains (p<0.001). Le rapport entre tour de bras et brassard chez les sujets obèses est nettement au-dessus de la valeur optimale, ce qui suggère une possible sous-estimation de la PA systolique chez ces sujets. Ces résultats suggèrent qu'il existe un risque de sous-estimer la PA chez le patient obèse lors de l'utilisation d'un brassard large. Cette erreur pourrait être réduite par l'utilisation d'appareils de mesure au poignet. validés chez le sujet obèse.
Resumo:
Les difficultés que connaissent les démocraties représentatives occidentales sont tout aussi sévères que multiples. Le mouvement de néolibéralisation du monde qui a consisté à concevoir les Etats comme de simples agents économiques a puissamment contribué à éroder la confiance des citoyens en leurs institutions nationales et territoriales. Et pourtant cet amoncellement de difficultés et de crises n'a pas affaibli l'idéal démocratique...
Resumo:
Une méthode de marquage radioactif simultané de deux musaraignes est décrite. Comme instruments, 2 compteurs a scintillation portatifs et un dispositif d'enregistrement automatique à 20 sondes ont été utilisés. Les musaraignes ont été respectivement marquées avec un filament de 100 µ Ci et 600 µ Ci. Avant l'enregistrement simultané il faut déterminer pour chaque individu le domaine vital et l'emplacement des nids et calibrer les instruments. Cette technique est appliquée à une population de Crocidura russula. Elle permet d'étudier les relations spatio-temporelles des individus durant leur activité et repos (occupation commune d'un nid).
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Differences in efficacy and safety of drugs among patients are a recognized problem in pharmacotherapy. The reasons are multifactorial and, therefore, the choice of a drug and its dosage for a particular patient based on different clinical and genetic factors is suggested to improve the clinical outcome. Four drugs are currently used for the treatment of Alzheimer's disease: three acetylcholinesterase inhibitors (donepezil, galantamine, rivastigmine) and the N-methyl-D-aspartate-antagonist memantine. For these drugs, a high interindividual variability in plasma levels was observed, which might influence the response to treatment. The main objective of this thesis was to provide a better understanding of clinical and genetic factors affecting the plasma levels of antidementia drugs. Furthermore, the relationship between plasma levels, genetic variations and side effects was assessed. For this purpose, a pharmacogenetic study was conducted including 300 patients from a naturalistic clinical setting. Analytical methods for the simultaneous measurement of antidementia drugs in plasma have been developed and validated using liquid chromatography methods coupled with mass spectrometry detection. Presently, these methods are used in the therapeutic drug monitoring service of our laboratory. The routine use of therapeutic drug monitoring for antidementia drugs cannot yet be recommended with the available data, but it may be beneficial for some patients in special clinical cases such as insufficient treatment response, side effects or drug interactions. Donepezil and galantamine are extensively metabolized by the liver enzymes cytochromes P450 (CYP) 2D6 and 3A and are substrates of the drug transporter P-glycoprotein. The relationship of variations in genes affecting the activity of these metabolic enzymes and drug transporter (CYP2D6, CYP3A, POR, NR1I2, ABCB1) with donepezil and galantamine plasma levels was investigated. The CYP2D6 genotype appeared to be the major genetic factor involved in the pharmacokinetics of these two drugs. Thus, CYP2D6 poor metabolizers demonstrated significantly higher drug plasma levels than extensive metabolizers. Additionally, in the donepezil study population, the frequency of side effects was significantly increased in poor metabolizers. Lower donepezil plasma levels were observed in ultra rapid metabolizers, which might expose those patients to the risk of non-response. Memantine is mainly eliminated unchanged by the kidney, with implication of tubular secretion by renal transporters. A population pharmacokinetic model was developed to quantify the effects of clinical factors and genetic variations in renal cation transporters (SLC22A1/2/5, SLC47A1, ABCB1), and nuclear receptors (NR1I2, NR1I3, PPARG) involved in transporter expression, on memantine plasma levels. In addition to the renal function and gender, a genetic variation in the nuclear receptor Pregnane-X-Receptor (NR1I2) significantly affected memantine elimination. These findings suggest that an individualized therapy approach for antidementia drugs, taking into account clinical characteristics and genetic background of a patient, might increase efficacy and safety of the treatment. - Les différences interindividuelles dans l'efficacité et la tolérance des médicaments sont un problème connu en pharmacothérapie. Les raisons sont multiples, et le choix du médicament et de la dose, basé sur des facteurs cliniques et génétiques spécifiques au patient, peut contribuer à améliorer la réponse clinique. Quatre médicaments sont couramment utilisés dans le traitement de la maladie d'Alzheimer : trois inhibiteurs de l'acétylcholinestérase (donépézil, galantamine, rivastigmine) et un antagoniste du récepteur N-méthyl-D-aspartate, la mémantine. Une forte variabilité interindividuelle dans les taux plasmatiques de ces quatre composés a été observée, ce qui pourrait influencer la réponse au traitement. L'objectif principal de ce travail de thèse est de mieux comprendre les facteurs cliniques et génétiques influençant les taux des médicaments pro-cognitifs. En outre, des associations entre les taux, la variabilité génétique et les effets secondaires ont été recherchées. Dans ce but, 300 patients sous traitement avec un médicament pro-cognitif ont été recrutés pour une étude pharmacogénétique. Des méthodes de dosage simultané de médicaments pro-cognitifs par chromatographie liquide couplée à la spectrométrie de masse ont été développées et validées. Ces méthodes sont actuellement utilisées dans le service de suivi thérapeutique de notre unité. Malgré le fait qu'un suivi des taux sanguins des pro-cognitifs ne puisse pas encore être recommandé en routine, un dosage peut être utile dans des cas cliniques spécifiques, comme une réponse insuffisante, une intolérance ou une interaction médicamenteuse. Le donépézil et la galantamine sont fortement métabolisés par les cytochromes P450 (CYP) 2D6 et 3A, et sont également substrats du transporteur P-glycoprotéine. Les associations entre les polymorphismes génétiques de ces enzymes, cofacteur, récepteur nucléaire et transporteur (CYP2D6, CYP3A, POR, NR1I2, ABCB1) et les taux de donépézil et de galantamine ont été étudiées. Le génotype du CYP2D6 a été montré comme le facteur génétique majeur impliqué dans la pharmacocinétique de ces deux médicaments. Ainsi, les métaboliseurs déficients du CYP2D6 ont démontré des taux plasmatiques significativement plus élevés comparé aux bons métaboliseurs. De plus, dans la population traitée avec le donépézil, la fréquence des effets secondaires était plus élevée chez les métaboliseurs déficients. Des taux plasmatiques bas ont été mesurés chez les métaboliseurs ultra-rapides traités avec le donépézil, ce qui pourrait être un facteur de risque à une non-réponse au traitement. La mémantine est principalement éliminée sous forme inchangée par les reins, et partiellement par sécrétion tubulaire grâce à des transporteurs rénaux. Un modèle de cinétique de population a été développé pour quantifier les effets des différents facteurs cliniques et de la variabilité génétique des transporteurs rénaux (SLC22A1/2/5, SLC47A1, ABCB1) et des récepteurs nucléaires (NR1I2, NR1I3, PPARG, impliqués dans l'expression des transporteurs) sur les taux plasmatiques de mémantine. En plus de la fonction rénale et du genre, une variation génétique dans le récepteur nucléaire Pregnane-X-Receptor (NR1I2) a montré une influence significative sur l'élimination de la mémantine. Ces résultats suggèrent qu'une approche thérapeutique individualisée, prenant en compte des facteurs cliniques et génétiques du patient, pourrait améliorer l'efficacité et la sécurité du traitement pro-cognitif.