172 resultados para Inférence prédictive


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aquatic environment is exposed continuously and increasingly to chemical substances such as pharmaceuticals. These medical compounds are released into the environment after having being consumed and body-excreted by patients. Pharmaceutical residues are synthetic molecules that are not always removed by traditional sewage treatment processes and thus escape degradation. Among pharmaceuticals that escape sewage treatment plants (STPs), the anticancer drugs were measured in STP effluents and natural waters. In the aquatic environment, their long-term effects at low concentrations are sparsely known on non-target species. Tamoxifen is an anticancer drug that is widely prescribed worldwide for the prevention and treatment of hormone receptor-positive breast cancers. Two of its metabolites, i.e., endoxifen and 4-hydroxy- tamoxifen (4OHTam), have high pharmacological potency in vivo and such as tamoxifen, they are excreted via faeces by patients. Tamoxifen was measured in STP effluents and natural waters but, to the best of our knowledge, its metabolites concentrations in waters have never been reported. Imatinib is another and recent anticancer compound that targets specific tumour cells. This pharmaceutical is also body excreted and because of its increasing use in cancer treatment, imatinib may reach the natural water. The effects of tamoxifen and imatinib are unknown upon more than one generation of aquatic species. And the effects of 4OHTam, endoxifen have never been studied in ecotoxicology so far. The aims of this thesis were threefold. First, the sensitivity of D. pulex exposed to tamoxifen, 4OHTam, endoxifen or imatinib was assessed using ecotoxicological experiments. Ecotoxicology is the science that considers the toxic effects of natural or synthetic substances, such as pharmaceuticals, on organisms, populations, community and ecosystem. Acute and multigenerational (2-4 generations) tests were performed on daphnids considering several studied endpoints, such as immobilisation, size, reproduction, viability and intrinsic rate of natural increase. Additional prospective assays were designed to evaluate whether 1) low concentrations of tamoxifen and 4OHTam were able to induce toxic effects when used in combination, and 2) daphnids were able to recover when offspring were withdrawn from solutions carrying the pharmaceutical. Second, the stability of tamoxifen, 4OHTam and endoxifen in incubation medium was evaluated in solution exempted from daphnids. Because the nominal concentrations of tamoxifen, 4OHTam and endoxifen did not correspond to the measured, we provide a predictive method to estimate the concentrations of these chemicals during long-term ecotoxicological tests. Finally, changes in protein expressions were analysed in D. pulex exposed 2 or 7 seven days to tamoxifen using ecotoxicoproteomic experiments with a shot-gun approach inducing a peptide fractionation step. Our results show that tamoxifen, 4OHTam and endoxifen induced adverse effects in D. pulex at environmentally relevant concentrations. At very low concentrations, these molecules displayed unusual and teratogenic effects because morphological abnormalities were observed in offspring, such as thick and short antennas, curved spines, premature neonates and aborted eggs. Tamoxifen was the most toxic compound among the test chemicals, followed by 4OHTam, endoxifen and imatinib. Tamoxifen no-observed effect concentrations (NOECs) that were calculated for size, reproduction and intrinsic rate were below or in the range of the concentrations measured in natural waters, i.e., between 0.12 µg/L and 0.67 µg/L. For instance, the tamoxifen NOECs that were calculated for reproduction were between 0.67 and 0.72 µg/L, whereas the NOEC was < 0.15 µg/L when based on morphological abnormalities. The NOECs of 4OHTam were higher but still in the same order of magnitude as tamoxifen environmental concentrations, with a value of 1.48 µg/L. Endoxifen NOEC for the intrinsic rate of natural increase (r) and the reproduction were 0.4 and 4.3 µg/L, respectively. Daphnids that were withdrawn from tamoxifen and 4OHTam were not able to recover. Also, the reproduction of D. pulex was reduced when the treated animals were exposed to the combination of tamoxifen and 4OHTam while no effects were observed when these chemicals were tested individually at the same concentration. Among the anticancer drugs that were tested during this thesis, imatinib was the less toxic molecule towards D. pulex. No effects on size and reproduction were observed within two generations, except for the first whose reproduction decreased at the highest test concentration, i.e., 626 µg/L. Our results also underline the need to use measured or predicted concentrations instead of the nominal during aquatic experiments, particularly when lipophilic molecules are tested. Indeed, notable differences between nominal (i.e., theoretical) and measured concentrations were found with tamoxifen, 4OHTam and endoxifen at all test concentrations. A cost and time sustainable method was proposed to predict the test exposure levels of these chemicals during long-term experiments. This predictive method was efficient particularly for low concentrations, which corresponded to the test concentrations in multigenerational tests. In the ecotoxicoproteomic experiments a total of 3940 proteins were identified and quantified in D. pulex exposed to tamoxifen. These results are currently the largest dataset from D. pulex that is published and the results of proteomic analyses are available for the scientific community. Among these 3940 proteins, 189 were significantly different from controls. After protein annotation, we assumed that treated daphnids with tamoxifen had shifted cost-energy functions, such as reproduction, to maintain their basic metabolism necessary to survive. This metabolic cost hypothesis was supported by the presence of proteins involved in oxidative stress. Biomarkers for early detection of tamoxifen harmful effects on D. pulex were not discovered but the proteins of the vitellogenin-2 family (E9H8K5) and the ryanodine receptor (E9FTU9) are promising potential biomarkers because their expression was already modified after 2 days of treatment. In this thesis, the effects of tamoxifen, 4OHTam and endoxifen on daphnids raise questions about the potential impact of tamoxifen and 4OHTam in other aquatic ecosystems, and therefore, about metabolites in ecotoxicology. Because the NOECs were environmentally relevant, these results suggest that tamoxifen and 4OHTam may be interesting pharmaceuticals to consider in risk assessment. Our findings also emphasize the importance of performing long-term experiments and of considering multi-endpoints instead of the standard reproductive endpoint. Finally, we open the discussion about the importance to measure test exposures or not, during ecotoxicological studies. -- Les milieux aquatiques sont exposés continuellement à un nombre croissant de substances chimiques, notamment les médicaments issus de la médecine vétérinaire et humaine. Chez les patients, les substances administrées sont utilisées par le corps avant d'être éliminées par l'intermédiaire des excrétas dans le système d'eaux usées de la ville. Ces eaux rejoignent ensuite une station de traitement afin d'y éliminer les déchets. Dans le cas des molécules chimiques, il arrive que les processus de traitement d'eaux usées ne soient pas suffisamment efficaces et que ces molécules ne soient pas dégradées. Elles sont alors libérées dans le milieu aquatique avec les effluents de la station d'épuration. Une fois dans l'environnement, ces résidus de médicaments sont susceptibles d'induire des effets sur la faune et la flore aquatique, dont les conséquences à long terme et à faibles concentrations sont peu connues. Les anticancéreux sont une famille de médicaments qui peuvent échapper aux traitements des stations d'épuration et qui sont retrouvées dans le milieu aquatique naturel. Parmi ces substances, le tamoxifen est une molécule utilisée dans le monde entier pour prévenir et traiter les cancers hormonaux dépendant du sein, notamment. Une fois ingéré, le tamoxifen est transformé par le foie en métabolites dont deux d'entre eux, le 4-hydroxy-tamoxifen (4OHTam) et l'endoxifen, possèdent un affinité pour les récepteurs aux estrogènes et une efficacité sur les cellules tumorales supérieure au tamoxifen lui- même. Tout comme la molécule mère, ces métabolites sont principalement éliminés par l'intermédiaire des fèces. Le tamoxifen a déjà été mesuré dans les effluents de stations d'épuration et dans les eaux naturelles, mais aucune valeur n'a été reportée pour ses métabolites jusqu'à présent. Un autre anticancéreux, également éliminé par voie biliaire et susceptible d'atteindre l'environnement, est l'imatinib. Cette récente molécule a révolutionné le traitement et la survie des patients souffrant de leucémie myéloïde chronique et de tumeur stromales gastrointestinales. Les effets du tamoxifen et de l'imatinib sur plusieurs générations d'organismes aquatiques, tels que les microcrustacés Daphnia, sont inconnus et le 4OHTam et l'endoxifen n'ont même jamais été testés en écotoxicologie. Cette thèse s'est articulée autour de trois objectifs principaux. Premièrement, la sensibilité des D. pulex exposés au tamoxifen, 4OHTam, endoxifen et imatinib a été évaluée par l'intermédiaire de tests aigus et de tests sur deux à quatre générations. La mobilité, la taille, la reproduction, la viabilité et la croissance potentielle de la population ont été relevées au cours de ces expériences. Des tests supplémentaires, à but prospectifs, ont également été réalisés afin d'évaluer 1) la capacité de récupération des daphnies, lorsque leurs descendants ont été placés dans un milieu exempté de tamoxifen ou de 4OHTam, 2) les effets chez les daphnies exposées à une solution contenant de faibles concentration de tamoxifen et de 4OHTam mélangés. Le deuxième objectif a été d'évaluer la stabilité du tamoxifen, 4OHTam et endoxifen dilué dans le milieu des daphnies. Après analyses, les concentrations mesurées ne correspondaient pas aux concentrations nominales (c.-à-d., théoriques) et il a été nécessaire de développer une méthode efficace de prédiction des niveaux d'exposition lors de tests de longue durée réalisés avec ces trois molécules. Finalement, des changements dans l'expression des protéines chez des daphnies exposées au tamoxifen ont été investigués par l'intermédiaire d'expériences écotoxicoprotéomiques avec une approche dite de shot-gun avec une étape de fractionnement des protéines. Les résultats obtenus dans cette thèse montrent que le tamoxifen, le 4OHTam et l'endoxifen induisent des effets indésirables chez les daphnies à des niveaux d'exposition proches ou identiques aux concentrations du tamoxifen mesurées dans l'environnement, c'est-à-dire 0.12 et 0.67 µg/L de tamoxifen. Ces molécules ont induit des effets inhabituels tels que la production de : nouveau-nés anormaux, avec des antennes et des queues déformées, des prématurés et des oeufs avortés. Le tamoxifen fut la molécule la plus toxique pour les D. pulex suivie du 4OHTam, de l'endoxifen et enfin de l'imatinib. Lors des expériences sur plusieurs générations, les concentrations n'ayant statistiquement pas d'effet (c.à.d. NOEC en anglais) sur la taille, la reproduction et la croissance intrinsèque de la population étaient du même ordre de grandeur que les concentrations environnementales du tamoxifen. Par exemple, les NOECs du tamoxifen calculées pour la reproduction étaient de 0.67 et 0.72 µg/L, tandis que celle calculée sur la base des anomalies chez les nouveau-nés était < 0.15 µg/L. Les NOECs du 4OHTam se situaient entre 0.16 et 1.48 µg/L et celles de l'endoxifen pour la croissance intrinsèque de la population, ainsi que pour la reproduction, étaient de 0.4 et 4.3 µg/L, respectivement. Dans l'expérience basée sur la récupération des daphnies, la taille et la reproduction ont diminué bien que la descendance fût placée dans un milieu sans substances chimiques. Les daphnies exposées au mélange de tamoxifen et de 4OHTam ont produit moins de nouveau-nés que les contrôles, alors que ces concentrations n'ont pas induit d'effets lorsque testées individuellement. Finalement, l'imatinib n'a pas montré d'effets sur les deux générations testées. Seule la première génération exposée à la plus haute concentration (626 µg/L) a montré une diminution de la reproduction. Les résultats obtenus lors de l'évaluation de la stabilité du tamoxifen, 4OHTam et endoxifen dans le milieu des daphnies ont souligné l'importance d'utiliser des concentrations mesurées ou prédites en écotoxicologie. En effet, des différences notables entre concentrations nominales et mesurées ont été observées à toutes les concentrations et l'hypothèse d'un phénomène d'adsorption sur le verre des récipients a été posée. De ce fait, il a été nécessaire d'élaborer une méthode prédictive efficace et acceptable, en terme de temps et de coûts. Une régression polynomiale basée sur des concentrations mesurées et nominales a permis de prédire avec efficacité les faibles niveaux d'exposition utilisés lors d'expériences écotoxicologiques à long terme, sur plusieurs générations. Suite aux expériences d'écotoxicoprotéomiques, un total de 3940 protéines ont été identifiées et quantifiées chez des daphnies exposées au tamoxifen. Ce nombre est actuellement la plus large série de données publiées et mises à disposition pour la communauté scientifique. Parmi ces protéines, 189 sont significatives et possiblement reliées à des processus de reproduction et de stress. Sur cette base, nous avons émis l'hypothèse que les individus subissant un stress, lié à l'exposition au tamoxifen, ont utilisé leur énergie de base pour favoriser leur survie plutôt que la reproduction. Enfin, la détermination de bio-marqueurs exprimant des dommages précoces des daphnies exposées au tamoxifen n'a pas abouti en tant que telle, mais des protéines prometteuses, telle que la famille de viellogenin-2 (E9H8K5) et le récepteur à la ryanodine (E9FTU9), ont été exprimées après deux jours d'exposition déjà. Ces protéines pourraient faire l'objet d'investigations écotoxicoprotéomiques futures. Les résultats de cette thèse posent certaines questions quant au risque du tamoxifen, du 4OHTam et de l'endoxifen sur la faune et la flore aquatique et plus particulièrement sur les anticancéreux présents dans l'environnement. Les effets toxiques de ces molécules ont été observés à des concentrations environnementales et sur plusieurs générations. La question de considérer les métabolites, et ainsi les pro-médicaments, en écotoxicologie est soulevée, notamment parce que ces molécules peuvent être plus actives et efficaces que la molécule mère. Les expériences chroniques, sur plusieurs générations sont également à favoriser car elles offrent un meilleur reflet de la réalité environnementale que des essais aigus ou d'une génération. L'utilisation de la protéomique permet d'agrandir les connaissances sur les effets des médicaments à un niveau inférieur de l'organisation biologique et ainsi, de mieux comprendre de potentiels mécanismes d'action ou de déterminer de potentiels biomarqueurs. Finalement, il semble important de discuter de l'opportunité de mesurer les concentrations qui sont testées en écotoxicologie afin de ne pas sous-estimer le risque pour la faune et la flore aquatique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tumor-host interaction is a key determinant during cancer progression, from primary tumor growth to metastatic dissemination. At each step, tumor cells have to adapt to and subvert different types of microenvironment, leading to major phenotypic and genotypic alterations that affect both tumor and surrounding stromal compartments. Understanding the molecular mechanisms that govern tumor-host interplay may be essential for better comprehension of tumorigenesis in an effort to improve current anti-cancer therapies. The present work is composed of two projects that address tumor-host interactions from two different perspectives, the first focusing on the characterization of tumor-associated stroma and the second on membrane trafficking in tumor cells. Part 1. To selectively address stromal gene expression changes during cancer progression, oligonucleotide-based Affymetrix microarray technology was used to analyze the transcriptomes of laser-microdissected stromal cells derived from invasive human breast and prostate carcinoma. Comparison showed that invasive breast and prostate cancer elicit distinct, tumor-specific stromal responses, with a limited panel of shared induced and/or repressed genes. Both breast and prostate tumor-specific deregulated stromal gene sets displayed statistically significant survival-predictive ability for their respective tumor type. By contrast, a stromal gene signature common to both tumor types did not display prognostic value, although expression of two individual genes within this common signature was found to be associated with patient survival. Part 2. GLG1 is known as an E-selectin ligand and an intracellular FGF receptor, depending on cell type and context. Immunohistochemical and immunofluorescence analyses showed that GLG1 is primarily localized in the Golgi of human tumor cells, a central location in the biosynthetic/secretory pathways. GLG1 has been shown to interact with and to recruit the ARF GEF BIGI to the Golgi membrane. Depletion of GLG1 or BIGI markedly reduced ARF3 membrane localization and activation, and altered the Golgi structure. Interestingly, these perturbations did not impair constitutive secretion in general, but rather seemed to impair secretion of a specific subset of proteins that includes MMP-9. Thus, GLG1 coordinates ARF3 activation by recruiting BIGI to the Golgi membrane, thereby affecting secretion of specific molecules. - Les interactions tumeur-hôte constituent un élément essentiel à la progression tumorale, de la croissance de la tumeur primaire à la dissémination des métastases. A chaque étape, les cellules tumorales doivent s'adapter à différents types de microenvironnement et les détourner à leur propre avantage, donnant lieu à des altérations phénotypiques et génotypiques majeures qui affectent aussi bien la tumeur elle-même que le compartiment stromal environnant. L'étude des mécanismes moléculaires qui régissent les interactions tumeur-hôte constitue une étape essentielle pour une meilleure compréhension du processus de tumorigenèse dans le but d'améliorer les thérapies anti cancer existantes. Le travail présenté ici est composé de deux projets qui abordent la problématique des interactions tumeur-hôte selon différentes perspectives, le premier se concentrant sur la caractérisation du stroma tumoral et le second sur le trafic intracellulaire des cellules tumorales. Partie 1. Pour examiner les changements d'expression des gènes dans le stroma en réponse à la progression du cancer, des puces à ADN Affymetrix ont été utilisées afin d'analyser les transcriptomes des cellules stromales issues de carcinomes invasifs du sein et de la prostate et collectées par microdissection au laser. L'analyse comparative a montré que les cancers invasifs du sein et de la prostate provoquent des réponses stromales spécifiques à chaque type de tumeur, et présentent peu de gènes induits ou réprimés de façon similaire. L'ensemble des gènes dérégulés dans le stroma associé au cancer du sein, ou à celui de la prostate, présente une valeur pronostique pour les patients atteints d'un cancer du sein, respectivement de la prostate. En revanche, la signature stromale commune aux deux types de cancer n'a aucune valeur prédictive, malgré le fait que l'expression de deux gènes présents dans cette liste soit liée à la survie des patients. Partie 2. GLG1 est connu comme un ligand des sélectines E ainsi que comme récepteur intracellulaire pour des facteurs de croissances FGFs selon le type de cellule dans lequel il est exprimé. Des analyses immunohistochimiques et d'immunofluorescence ont montré que dans les cellules tumorales, GLG1 est principalement localisé au niveau de l'appareil de Golgi, une place centrale dans la voie biosynthétique et sécrétoire. Nous avons montré que GLG1 interagit avec la protéine BIGI et participe à son recrutement à la membrane du Golgi. L'absence de GLG1 ou de BIGI réduit drastiquement le pool d'ARF3 associé aux membranes ainsi que la quantité d'ARF3 activés, et modifie la structure de l'appareil de Golgi. Il est particulièrement intéressant de constater que ces perturbations n'ont pas d'effet sur la sécrétion constitutive en général, mais semblent plutôt affecter la sécrétion spécifique d'un sous-groupe défini de protéines comprenant MMP-9. GLG1 coordonne donc l'activation de ARF3 en recrutant BIGI à la membrane du Golgi, agissant par ce moyen sur la sécrétion de molécules spécifiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diabète de type 2 est une maladie fréquente et en augmentation dans le monde entier. Malheureusement, elle est souvent diagnostiquée à un stade ou des complications sont déjà apparues. Depuis quelques années, des scores ont été développés pour identifier les sujets à risque de développer cette maladie. L'utilisation d'un tel score par le praticien pourrait amener ces patients à des mesures préventives, telles que le changement d'hygiène de vie, ou la prescription d'un traitement médicamenteux. Le but de notre étude est de comparer et de valider différents scores de risques de diabète de type 2 et de déterminer leur capacité à prédire la survenue de cette maladie dans la population de la cohorte CoLaus. Les premiers résultats, en étude transversale, ont tout d'abord montré de grandes différences quant à la population à risque d'un score à l'autre. En effet, le nombre de personnes à traiter varie considérablement selon la méthode utilisée. Ces différents scores ont donc nécessité une validation prospective. Ces résultats ont fait l'objet d'une publication (Schmid et col, Diabetes Care. 2011 Aug;34(8):1863-8). Au moyen des données du suivi à 5 ans, il est sorti qu'un score de risque utilisant des variables biologiques et cliniques, ainsi qu'un score utilisant des variables uniquement cliniques, obtenaient de très bon résultats quant à la prédiction du diabète de type 2. En effet, un des scores testés donne une valeur prédictive positive d'environ 20% à 5 ans, ce qui signifie qu'un patient « détecté » sur 5 pourrait bénéficier d'une intervention précoce. Toutefois, ces résultats concernent la population lausannoise et ne sont donc pas forcément applicables à l'ensemble de la population suisse. De plus, de plus amples études sont nécessaires évaluer l'efficacité d'un tel score dans la prévention du diabète en Suisse. Ces résultats ont fait l'objet d'une seconde publication (Schmid et col, Arch Intern Med. 2012 Jan 23;172(2):188-9). Dans un troisième volet de l'étude, l'impact de marqueurs génétiques a été évalué dans un sous- groupe de la population CoLaus. Les résultats n'ont toutefois montré qu'une très faible amélioration de la prédiction du risque en utilisant ces marqueurs. Ceci devrait nous encourager à intensifier les efforts de prévention sur le style de vie pour toute la population, plutôt qu'une approche ciblée sur les personnes génétiquement prédisposées. Ces résultats ont fait l'objet d'une troisième publication (Schmid et col, J Clin Endocrinol Metab. 2012 Apr 24. [Epub ahead of print]). La même démarche méthodologique a été utilisée pour évaluer l'importance pronostique de plusieurs marqueurs inflammatoires (interleukines 1 et 6, Τ Ν F-, protéine C-réactive) hépatiques (GT) ou adipocytaires (leptine et adiponectine) dans la survenue du diabète. Ces résultats sont actuellement soumis au Journal of Clinical Endocrinology and Metabolism).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Ce travail de thèse étudie des moyens de formalisation permettant d'assister l'expert forensique dans la gestion des facteurs influençant l'évaluation des indices scientifiques, tout en respectant des procédures d'inférence établies et acceptables. Selon une vue préconisée par une partie majoritaire de la littérature forensique et juridique - adoptée ici sans réserve comme point de départ - la conceptualisation d'une procédure évaluative est dite 'cohérente' lors qu'elle repose sur une implémentation systématique de la théorie des probabilités. Souvent, par contre, la mise en oeuvre du raisonnement probabiliste ne découle pas de manière automatique et peut se heurter à des problèmes de complexité, dus, par exemple, à des connaissances limitées du domaine en question ou encore au nombre important de facteurs pouvant entrer en ligne de compte. En vue de gérer ce genre de complications, le présent travail propose d'investiguer une formalisation de la théorie des probabilités au moyen d'un environment graphique, connu sous le nom de Réseaux bayesiens (Bayesian networks). L'hypothèse principale que cette recherche envisage d'examiner considère que les Réseaux bayesiens, en concert avec certains concepts accessoires (tels que des analyses qualitatives et de sensitivité), constituent une ressource clé dont dispose l'expert forensique pour approcher des problèmes d'inférence de manière cohérente, tant sur un plan conceptuel que pratique. De cette hypothèse de travail, des problèmes individuels ont été extraits, articulés et abordés dans une série de recherches distinctes, mais interconnectées, et dont les résultats - publiés dans des revues à comité de lecture - sont présentés sous forme d'annexes. D'un point de vue général, ce travail apporte trois catégories de résultats. Un premier groupe de résultats met en évidence, sur la base de nombreux exemples touchant à des domaines forensiques divers, l'adéquation en termes de compatibilité et complémentarité entre des modèles de Réseaux bayesiens et des procédures d'évaluation probabilistes existantes. Sur la base de ces indications, les deux autres catégories de résultats montrent, respectivement, que les Réseaux bayesiens permettent également d'aborder des domaines auparavant largement inexplorés d'un point de vue probabiliste et que la disponibilité de données numériques dites 'dures' n'est pas une condition indispensable pour permettre l'implémentation des approches proposées dans ce travail. Le présent ouvrage discute ces résultats par rapport à la littérature actuelle et conclut en proposant les Réseaux bayesiens comme moyen d'explorer des nouvelles voies de recherche, telles que l'étude de diverses formes de combinaison d'indices ainsi que l'analyse de la prise de décision. Pour ce dernier aspect, l'évaluation des probabilités constitue, dans la façon dont elle est préconisée dans ce travail, une étape préliminaire fondamentale de même qu'un moyen opérationnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME - FRANÇAISRésuméDans ce travail de thèse, l'importance de la pharmacogénétique des traitements antiviraux a été évaluée en déterminant, au moyen de trois différentes approches, l'impact de variations génétiques sur la pharmacocinétique de deux traitements antirétroviraux (à savoir l'efavirenz et le lopinavir) ainsi que sur la capacité de pouvoir éliminer le virus de l'hépatite C de façon naturelle ou suite à un traitement médicamenteux.L'influence des variations génétiques sur les taux plasmatiques de l'efavirenz et de ses métabolites primaires a été évaluée par l'analyse d'un seul gène candidat : le cytochrome P450 (CYP) 2A6, impliqué dans une voie métabolique accessoire de l'efavirenz. Cette étude a permis de démontrer que le génotype du CYP2A6 devient cliniquement déterminant en l'absence de fonction du CYP2B6, impliqué dans la voie métabolique principale, et que la perte simultanée des voies métaboliques principales et accessoires entraine une augmen¬tation du risque d'interruption du traitement, soulignant la valeur prédictive du génotypage.L'influence de la génétique sur la clairance du lopinavir a été évaluée par l'analyse à grande échelle de gènes candidats, à savoir les gènes potentiellement impliqués dans l'absorption, le métabolisme, la distribution et l'élimination d'un médicament. Cette étude a permis l'identification de 4 polymorphismes, dans des transporteurs et des enzymes métaboliques, associés à la clairance du lopinavir et expliquant 5% de la variabilité inter¬individuelle de ce phénotype.L'influence de la génétique sur la capacité d'éliminer le virus de l'hépatite C, de façon naturelle ou à la suite d'un traitement, a été évaluée par l'analyse du génome entier. Cette étude a permis l'identification d'un polymorphisme situé à proximité de l'interféron-X3. Quatre variations génétiques potentiellement causales ont ensuite pu être identifiées par reséquencage. Finalement, la contribution nette de ce gène sur l'élimination du virus a pu être évaluée dans une cohorte infectée par une seule et même source, permettant ainsi de contrôler l'effet de la diversité virale, du genre et de la présence de co-infections.Cette thèse a permis de mettre en évidence les diverses méthodes disponibles pour la recherche en pharmacogénétique, ainsi que l'importance du reséquencage pour l'identification de variations génétiques causales.SUMMARY - ENGLISHSummaryIn this thesis work the relevance of pharmacogenetics of antiviral treatment has been assessed by investigating, through three different approaches, the impact of host genetic variation on antiretroviral drug disposition (namely efavirenz and lopinavir) and on natural or treatment-induced clearance of hepatitis C virus.The influence of host genetic variation on efavirenz and its primary metabolite plasma levels was assessed by single candidate gene approach, through comprehensive analysis of cytochrome P450 (CYP) 2A6 - involved in efavirenz accessory metabolic pathway. The study could demonstrate that CYP2A6 genotype became increasingly relevant in the setting of limited CYP2B6 function - involved in efavirenz main metabolic pathway - and that individuals with both main and accessory metabolic pathways impaired were at higher risk for treatment discontinuation, overall emphasizing the predictive power of genotyping.The influence of host genetic variation on lopinavir clearance was assessed by large scale candidate gene approach, through analysis of genes involved in the absorption, distribution, metabolism and elimination. The study identified four genetic variants in drug transporters and metabolizing enzymes that explained 5% of the interindividual variability in lopinavir clearance.The influence of host genetic variation on hepatitis C virus (HCV) natural or treatment- induced clearance was assessed through genome-wide association study approach. This study identified an intergenic polymorphism, part of a linkage disequilibrium block encompassing the interferon-3 gene, as highly associated with treatment-induced and spontaneous HCV clearance. Resequencing and recombinant mapping lead to the identification of four potentially causal genetic variants. Finally, we could assess the net contribution of genetic variants in interferon-3 to clearance by controlling for viral diversity, gender and co-infection status in a single source infected cohort.This thesis highlights the various genetic tools available to pharmacogenetic discovery (candidate gene, pathway or and genome-wide approaches), and the importance of resequencing for mapping of causal variants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: La sélection des étudiants en médecine se fait à la Faculté de Médecine de Lausanne pendant les deux premières années du curriculum, sur la base d'examens portant sur les sciences de base. Le risque est par ce biais de privilégier le passage dans les années cliniques d'étudiants doués sur le plan scientifique, mais ne possédant pas nécessairement les qualités humaines que devrait avoir un bon médecin. La présente étude a porté sur une volée d'étudiants (n = 115) ayant réussi la première partie de l'examen final à la fin de la troisième année des études de médecine. A cette occasion les étudiants ont passé un examen oral de médecine psycho-sociale permettant d'évaluer leurs aptitudes à gérer la relation médecin- malade. Les notes obtenues à cet examen ont été mises en rapport avec celles obtenues en première année lors d'un examen écrit de physique et de physiologie. Les résultats ont montré que la performance à ces disciplines de base n'ont pas de valeur prédictive quant aux performances futures à l'examen de médecine psycho-sociale. Par ailleurs il est apparu que le type de maturité acquis pendant le gymnase n'a pas d'influence majeure sur la progression des étudiants pendant les années pré-cliniques des études de médecine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte Lié au vieillissement et à la sédentarisation de la population, ainsi qu'à la chronicisation du cancer, l'emploi de cathéters veineux centraux permanents (CVCP) n'a cessé d'augmenter. La complication majeure de ces dispositifs, induisant de forts taux de morbi-mortalité, est l'infection. Actuellement, le diagnostic de ces infections reste surtout basé sur la clinique et les hémocultures. Lorsque le doute persiste, une ablation chirurgicale suivie de la mise en culture des prélèvements chirurgicaux et du cathéter permettent de poser le diagnostic. En clinique, après ces examens, nous constatons que seule la moitié des cathéters retirés étaient réellement infectés. Alors que la tomographie par émission de positons fusionnée à la tomographie (PET/CT) a montré de bons résultats dans la détection des infections chroniques, la valeur diagnostique du PET/CT au fluorodeoxyglucose marqué au 18F (18F-FDG) pour les infections de CVCP n'a encore jamais été déterminée dans une étude prospective. Objectifs Au travers de cette étude prospective, ouverte et monocentrique, nous chercherons à connaître la valeur diagnostique du PET/CT au 18F-FDG dans la détection d'infections de CVCP et ainsi d'en déterminer son utilité. Nous essaierons aussi de déterminer la différence de valeur diagnostique du PET/CT au 18F-FDG par rapport aux méthodes conventionnelles (paramètres cliniques et culture du liquide d'aspiration), afin de se déterminer sur l'éventuelle utilité diagnostique de celui-ci. Méthodes Cadre : Etude prospective d'au moins 20 patients, avec 2 groupes contrôles d'au moins 10 patients ayant chacun respectivement une faible et une forte probabilité d'infection, soit au moins 40 patients au total. Population : patients adultes avec CVCP devant être retiré. Cette étude prévoit un examen PET/CT au 18F-FDG effectué auprès de patients nécessitant une ablation de CVCP sur suspicion d'infection, sans confirmation possible par les moyens diagnostiques non chirurgicaux. Deux acquisitions seront réalisées 45 et 70 minutes après l'injection de 5,5MBq/Kg de 18F-FDG. Le groupe contrôle à faible probabilité d'infection, sera formé de patients bénéficiant de l'ablation définitive d'un CVCP pour fin de traitement durant le laps de temps de l'étude, et ayant bénéficié au préalable d'un examen PET/CT pour raison X. Après avoir retiré chirurgicalement le CVCP, nous utiliserons la culture microbiologique des deux extrémités du CVCP comme étalon d'or (gold standard) de l'infection. Le groupe contrôle à forte probabilité d'infection sera formé de patients nécessitant une ablation de CVCP sur infection de CVCP confirmée par les moyens diagnostiques non chirurgicaux (culture positive du liquide de l'aspiration). Lors de l'examen PET/CT, ces patients auront aussi deux acquisitions réalisées 45 et 70 minutes après l'injection de 5,5MBq/Kg de 18F-FDG. Les résultats de ces examens seront évalués par deux spécialistes en médecine nucléaire qui détermineront le niveau de suspicion de l'infection sur une échelle de Likert allant de I à V, sur la base du nombre de foyers, de la localisation du foyer, de l'intensité de la captation de 18F-FDG au voisinage du cathéter et du rapport tissu/arrière-plan. Par la suite, nous retirerons chirurgicalement le CVCP. Nous utiliserons la culture microbiologique du pus (si présent), des deux extrémités du CVCP ainsi que l'histologie des tissus formant un tunnel autour du cathéter comme étalon d'or de l'infection. Les résultats seront analysés à l'aide de courbes ROC (Receiver Operating Characteristic) afin de déterminer la valeur diagnostique du PET/CT dans l'infection de CVCP. Les résultats des examens des patients avec suspicion clinique d'infection seront ensuite analysés séparément, afin de déterminer la différence de valeur diagnostique du PET/CT au 18F-FDG par rapport aux méthodes conventionnelles. Résultats escomptés Ce projet veut chercher à savoir si le PET/CT au 18F-FDG peut être un moyen diagnostique valide dans les infections de CVCP, s'avérer utile lorsque les autres moyens diagnostiques sont non conclusifs. Plus-value escomptée Actuellement, lors d'incertitude sur le diagnostic d'infection de CVCP, une opération chirurgicale est effectuée à titre préventif afin d'enlever le cathéter en cause, cependant seulement la moitié de ces cathéters sont réellement infectés en pratique. Le PET/CT au 18F-FDG, grâce à sa sensibilité élevée et probablement une bonne valeur prédictive négative, pourrait éviter à une partie des patients un retrait inutile du cathéter, diminuant ainsi les risques chirurgicaux et les coûts liés à de telles opérations, tout en préservant le capital d'accès vasculaire futur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: B-type natriuretic peptide (BNP) is a biomarker of myocardial stress. In children, the value of preoperative BNP on postoperative outcome is unclear. The aim of this study was to determine the predictive value of preoperative NT-proBNP on postoperative outcome in children after congenital heart surgery. Results: Ninety-seven patients were included in the study with a median age of 3.3 years [0.7-5.2]. Preoperative median NT-proBNP was 412 pg/ml [164-1309]. NT-proBNP was above the P95 reference value for age in 56 patients (58%). Preoperative NT-proBNP was significantly higher in patients who had mechanical ventilation duration of more than 2 days (1156 pg/ml [281-1951] vs. 267 pg/ml [136-790], p=0.003) and who stayed more than 6 days in the pediatric intensive care unit (727 pg/ml [203-1951] vs. 256 pg/ml [136-790], p=0.007). However, preoperative NT-proBNP was not significantly higher in patients with an increased inotropic score, a prolonged cardiopulmonary bypass time or an increased surgical risk category. Conclusions: An elevated preoperative NT-proBNP reflects hemodynamic status and cardiac dysfunction, and therefore is a valuable adjunct in predicting a complicated postoperative course. ___________________________________ Introduction: Le peptide natriurétique type B (BNP) est un marqueur reflétant le stress myocardique. Dans la population pédiatrique, la signification des valeurs préopératoire de BNP, en particulier sur l'évolution postopératoire, n'est pas clairement établie. Le but de l'étude est de déterminer la valeur prédictive de la partie NT sérique du BNP (NT-proBNP) sur l'évolution post opératoire d'enfants porteur d'une cardiopathie congénitale et ayant eu une chirurgie cardiaque. Résultats: Nonante-sept enfants ont été inclus dans l'étude, avec un âge médian de 3.3 ans [0.7-5.2]. La valeur médiane du NT-proBNP préopératoire était de 412 pg/ml [164-1309]. Le NT-proBNP préopératoire était supérieur au P95 des valeurs de référence pour l'âge chez 56 patients (58%). Le NT-proBNP préopératoire était significativement plus élevé chez les patients ayant eu plus de deux jours de ventilation mécanique dans la période postopératoire (1156 pg/ml [281-1951] vs. 267 pg/ml [136-790], p=0.003) et ayant été hospitalisés plus de 6 jours dans l'unité de soins intensifs pédiatrique (727 pg/ml [203-1951] vs. 256 pg/ml [136-790], p=0.007). Par contre, le NT-proBNP préopératoire n'était pas significativement plus élevé chez les patients ayant eu un score d'inotrope élevé pendant leur hospitalisation aux soins intensifs, un temps de circulation extracorporelle prolongé ou ayant subi une chirurgie avec un risque chirurgical élevé. Conclusions: Un NT-proBNP sérique élevé en préopératoire reflète l'importance du stress myocardique induit par l'hémodynamique et la dysfonction myocardique, il est un marqueur qui permet d'améliorer l'identification des patients à risque d'avoir une évolution post opératoire compliquée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreuses études ont mis en évidence le fait que les individus étaient prêts à commettre des actes discriminatoires pour autant qu'ils puissent les justifier (Crandall & Eshleman, 2003). Nous proposons de contribuer à la compréhension de ce phénomène grâce au concept de désengagement moral pour des actes discriminatoires (DMD). Nous définissons le désengagement moral comme le fait de justifier ses propres actes immoraux de manière à les rendre acceptable. Ce concept trouve ses origines dans les travaux de Bandura et al. (1996) portant sur les comportements agressifs chez des enfants. Il se compose de huit mécanismes (p.ex. le déplacement de responsabilité). Notre recherche dépasse le cadre théorique développé par Bandura et al. pour inscrire le désengagement moral dans le champ de la discrimination intergroupe. De plus, en conceptualisant le désengagement moral comme une différence individuelle, nous proposons également de présenter les premières étapes du développement d'une échelle permettant de mesurer le DMD. L'échelle de DMD a été développée en trois étapes en suivant la procédure proposée par Hinkin (1998). Tout d'abord, une liste de 72 items a été générée suivant une méthode déductive. Puis, suite à une étude (n = 13) portant sur la cohérence des items vis-à-vis du concept et de ses mécanismes, cette liste a été réduite à 40 items (5 par mécanisme). Enfin, 118 étudiants universitaires ont participé à une étude dans le but de mener des analyses factorielles (exploratoire et confirmatoire), ainsi que de tester les validités convergente, divergente et prédictive de l'échelle. La première partie de cette étude se composait de différentes échelles (p.ex. mesure de personnalité, préjugés anti-immigrés, etc.). La seconde partie de l'étude était une expérience portant sur l'évaluation d'idées de méthodes de sélection (discriminatoire versus méritocratique) des étudiants suisses et étrangers à l'université, ayant pour but de réduire la surpopulation dans les salles de cours. Les résultats obtenus sont prometteurs pour le développement de l'échelle, autant du point de vue de sa structure (p.ex. α = .82) que de sa validité. Par exemple, plus le niveau de DMD des participants était élevé, plus ils étaient favorables à une méthode de sélection discriminatoire des étudiants à l'université. L'ensemble des résultats sera présenté durant la conférence. Nous discuterons également des potentielles contributions de cette échelle pour de futurs projets de recherche. Référence : Bandura, A., Barbaranelli, C., Caprara, G. V., & Pastorelli, C. (1996). Mechanisms of moral disengagement of the exercise of moral agency. Journal of Personality and Social Psychology, 71 (2), 364-374. Crandall, C. S., & Eshleman, A. (2003). The Justification-suppression model of the expression and experience of prejudice. Psychological Bulletin, 129 (3), 414-446. Hinkin, T. R. (1998). A brief tutorial on the development of measures for use un survey questionnaires. Organizational Research Methods, 1 (1), 104.121.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wastewater-based epidemiology consists in acquiring relevant information about the lifestyle and health status of the population through the analysis of wastewater samples collected at the influent of a wastewater treatment plant. Whilst being a very young discipline, it has experienced an astonishing development since its firs application in 2005. The possibility to gather community-wide information about drug use has been among the major field of application. The wide resonance of the first results sparked the interest of scientists from various disciplines. Since then, research has broadened in innumerable directions. Although being praised as a revolutionary approach, there was a need to critically assess its added value, with regard to the existing indicators used to monitor illicit drug use. The main, and explicit, objective of this research was to evaluate the added value of wastewater-based epidemiology with regards to two particular, although interconnected, dimensions of illicit drug use. The first is related to trying to understand the added value of the discipline from an epidemiological, or societal, perspective. In other terms, to evaluate if and how it completes our current vision about the extent of illicit drug use at the population level, and if it can guide the planning of future prevention measures and drug policies. The second dimension is the criminal one, with a particular focus on the networks which develop around the large demand in illicit drugs. The goal here was to assess if wastewater-based epidemiology, combined to indicators stemming from the epidemiological dimension, could provide additional clues about the structure of drug distribution networks and the size of their market. This research had also an implicit objective, which focused on initiating the path of wastewater- based epidemiology at the Ecole des Sciences Criminelles of the University of Lausanne. This consisted in gathering the necessary knowledge about the collection, preparation, and analysis of wastewater samples and, most importantly, to understand how to interpret the acquired data and produce useful information. In the first phase of this research, it was possible to determine that ammonium loads, measured directly in the wastewater stream, could be used to monitor the dynamics of the population served by the wastewater treatment plant. Furthermore, it was shown that on the long term, the population did not have a substantial impact on consumption patterns measured through wastewater analysis. Focussing on methadone, for which precise prescription data was available, it was possible to show that reliable consumption estimates could be obtained via wastewater analysis. This allowed to validate the selected sampling strategy, which was then used to monitor the consumption of heroin, through the measurement of morphine. The latter, in combination to prescription and sales data, provided estimates of heroin consumption in line with other indicators. These results, combined to epidemiological data, highlighted the good correspondence between measurements and expectations and, furthermore, suggested that the dark figure of heroin users evading harm-reduction programs, which would thus not be measured by conventional indicators, is likely limited. In the third part, which consisted in a collaborative study aiming at extensively investigating geographical differences in drug use, wastewater analysis was shown to be a useful complement to existing indicators. In particular for stigmatised drugs, such as cocaine and heroin, it allowed to decipher the complex picture derived from surveys and crime statistics. Globally, it provided relevant information to better understand the drug market, both from an epidemiological and repressive perspective. The fourth part focused on cannabis and on the potential of combining wastewater and survey data to overcome some of their respective limitations. Using a hierarchical inference model, it was possible to refine current estimates of cannabis prevalence in the metropolitan area of Lausanne. Wastewater results suggested that the actual prevalence is substantially higher compared to existing figures, thus supporting the common belief that surveys tend to underestimate cannabis use. Whilst being affected by several biases, the information collected through surveys allowed to overcome some of the limitations linked to the analysis of cannabis markers in wastewater (i.e., stability and limited excretion data). These findings highlighted the importance and utility of combining wastewater-based epidemiology to existing indicators about drug use. Similarly, the fifth part of the research was centred on assessing the potential uses of wastewater-based epidemiology from a law enforcement perspective. Through three concrete examples, it was shown that results from wastewater analysis can be used to produce highly relevant intelligence, allowing drug enforcement to assess the structure and operations of drug distribution networks and, ultimately, guide their decisions at the tactical and/or operational level. Finally, the potential to implement wastewater-based epidemiology to monitor the use of harmful, prohibited and counterfeit pharmaceuticals was illustrated through the analysis of sibutramine, and its urinary metabolite, in wastewater samples. The results of this research have highlighted that wastewater-based epidemiology is a useful and powerful approach with numerous scopes. Faced with the complexity of measuring a hidden phenomenon like illicit drug use, it is a major addition to the panoply of existing indicators. -- L'épidémiologie basée sur l'analyse des eaux usées (ou, selon sa définition anglaise, « wastewater-based epidemiology ») consiste en l'acquisition d'informations portant sur le mode de vie et l'état de santé d'une population via l'analyse d'échantillons d'eaux usées récoltés à l'entrée des stations d'épuration. Bien qu'il s'agisse d'une discipline récente, elle a vécu des développements importants depuis sa première mise en oeuvre en 2005, notamment dans le domaine de l'analyse des résidus de stupéfiants. Suite aux retombées médiatiques des premiers résultats de ces analyses de métabolites dans les eaux usées, de nombreux scientifiques provenant de différentes disciplines ont rejoint les rangs de cette nouvelle discipline en développant plusieurs axes de recherche distincts. Bien que reconnu pour son coté objectif et révolutionnaire, il était nécessaire d'évaluer sa valeur ajoutée en regard des indicateurs couramment utilisés pour mesurer la consommation de stupéfiants. En se focalisant sur deux dimensions spécifiques de la consommation de stupéfiants, l'objectif principal de cette recherche était focalisé sur l'évaluation de la valeur ajoutée de l'épidémiologie basée sur l'analyse des eaux usées. La première dimension abordée était celle épidémiologique ou sociétale. En d'autres termes, il s'agissait de comprendre si et comment l'analyse des eaux usées permettait de compléter la vision actuelle sur la problématique, ainsi que déterminer son utilité dans la planification des mesures préventives et des politiques en matière de stupéfiants actuelles et futures. La seconde dimension abordée était celle criminelle, en particulier, l'étude des réseaux qui se développent autour du trafic de produits stupéfiants. L'objectif était de déterminer si cette nouvelle approche combinée aux indicateurs conventionnels, fournissait de nouveaux indices quant à la structure et l'organisation des réseaux de distribution ainsi que sur les dimensions du marché. Cette recherche avait aussi un objectif implicite, développer et d'évaluer la mise en place de l'épidémiologie basée sur l'analyse des eaux usées. En particulier, il s'agissait d'acquérir les connaissances nécessaires quant à la manière de collecter, traiter et analyser des échantillons d'eaux usées, mais surtout, de comprendre comment interpréter les données afin d'en extraire les informations les plus pertinentes. Dans la première phase de cette recherche, il y pu être mis en évidence que les charges en ammonium, mesurées directement dans les eaux usées permettait de suivre la dynamique des mouvements de la population contributrice aux eaux usées de la station d'épuration de la zone étudiée. De plus, il a pu être démontré que, sur le long terme, les mouvements de la population n'avaient pas d'influence substantielle sur le pattern de consommation mesuré dans les eaux usées. En se focalisant sur la méthadone, une substance pour laquelle des données précises sur le nombre de prescriptions étaient disponibles, il a pu être démontré que des estimations exactes sur la consommation pouvaient être tirées de l'analyse des eaux usées. Ceci a permis de valider la stratégie d'échantillonnage adoptée, qui, par le bais de la morphine, a ensuite été utilisée pour suivre la consommation d'héroïne. Combinée aux données de vente et de prescription, l'analyse de la morphine a permis d'obtenir des estimations sur la consommation d'héroïne en accord avec des indicateurs conventionnels. Ces résultats, combinés aux données épidémiologiques ont permis de montrer une bonne adéquation entre les projections des deux approches et ainsi démontrer que le chiffre noir des consommateurs qui échappent aux mesures de réduction de risque, et qui ne seraient donc pas mesurés par ces indicateurs, est vraisemblablement limité. La troisième partie du travail a été réalisée dans le cadre d'une étude collaborative qui avait pour but d'investiguer la valeur ajoutée de l'analyse des eaux usées à mettre en évidence des différences géographiques dans la consommation de stupéfiants. En particulier pour des substances stigmatisées, telles la cocaïne et l'héroïne, l'approche a permis d'objectiver et de préciser la vision obtenue avec les indicateurs traditionnels du type sondages ou les statistiques policières. Globalement, l'analyse des eaux usées s'est montrée être un outil très utile pour mieux comprendre le marché des stupéfiants, à la fois sous l'angle épidémiologique et répressif. La quatrième partie du travail était focalisée sur la problématique du cannabis ainsi que sur le potentiel de combiner l'analyse des eaux usées aux données de sondage afin de surmonter, en partie, leurs limitations. En utilisant un modèle d'inférence hiérarchique, il a été possible d'affiner les actuelles estimations sur la prévalence de l'utilisation de cannabis dans la zone métropolitaine de la ville de Lausanne. Les résultats ont démontré que celle-ci est plus haute que ce que l'on s'attendait, confirmant ainsi l'hypothèse que les sondages ont tendance à sous-estimer la consommation de cannabis. Bien que biaisés, les données récoltées par les sondages ont permis de surmonter certaines des limitations liées à l'analyse des marqueurs du cannabis dans les eaux usées (i.e., stabilité et manque de données sur l'excrétion). Ces résultats mettent en évidence l'importance et l'utilité de combiner les résultats de l'analyse des eaux usées aux indicateurs existants. De la même façon, la cinquième partie du travail était centrée sur l'apport de l'analyse des eaux usées du point de vue de la police. Au travers de trois exemples, l'utilisation de l'indicateur pour produire du renseignement concernant la structure et les activités des réseaux de distribution de stupéfiants, ainsi que pour guider les choix stratégiques et opérationnels de la police, a été mise en évidence. Dans la dernière partie, la possibilité d'utiliser cette approche pour suivre la consommation de produits pharmaceutiques dangereux, interdits ou contrefaits, a été démontrée par l'analyse dans les eaux usées de la sibutramine et ses métabolites. Les résultats de cette recherche ont mis en évidence que l'épidémiologie par l'analyse des eaux usées est une approche pertinente et puissante, ayant de nombreux domaines d'application. Face à la complexité de mesurer un phénomène caché comme la consommation de stupéfiants, la valeur ajoutée de cette approche a ainsi pu être démontrée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'encéphalopathie post-anoxique après arrêt cardiaque (AC) est une cause féquente d'admission pour coma en réanimation. Depuis les recommandations de 2003, l'hypothermie thérapeutique (HT) est devenue un standard de traitement après AC et est à l'origine de l'amélioration du pronostic au cours de cette derniere décennie. Les élements prédicteurs de pronostic validés par l'Académie Américaine de Neurologie avant l'ère de l'HT sont devenus moins précis. En effet, l'HT et la sédation retardent la reprise de la réponse motrice et peuvent altérer la valeur prédictive des réflexes du tronc cérébral. Une nouvelle approche est nécessaire pour établir un pronostic après AC et HT. L'enregistrement (pendant l'HTou peu après) d'une activité électroencéphalographique réactive et/ou continue est un bon prédicteur de récupération neurologique favorable après AC. Au contraire, la présence d'un tracé non réactif ou discontinu de type burst-suppression, avec une réponse N20 absente bilatérale aux potentiels évoqués somatosensoriels, sont presqu'à 100 % prédictifs d'un coma irréversible déjà à 48 heures après AC. L'HT modifie aussi la valeur prédictive de l'énolase neuronale spécifique (NSE), principal biomarqueur sérique de la lésion cérébrale post-anoxique. Un réveil avec bonne récupération neurologique a été récemment observé par plusieurs groupes chez des patients présentant des valeurs de NSE>33 μg/L à 48-72 heures : ce seuil ne doit pas être utilisé seul pour guider le traitement. L'imagerie par résonance magnétique de diffusion peut aider à prédire les séquelles neurologiques à long terme. Un réveil chez les patients en coma post-anoxique est de plus en plus observé, malgré l'absence précoce de signes moteurs et une élévation franche des biomarqueurs neuronaux. En 2014, une nouvelle approche multimodale du pronostic est donc nécessaire, pour optimiser la prédiction d'une évolution clinique favorable après AC. Hypoxic-ischemic encephalopathy after cardiac arrest (CA) is a frequent cause of intensive care unit (ICU) admission. Incorporated in all recent guidelines, therapeutic hypothermia (TH) has become a standard of care and has contributed to improve prognosis after CA during the past decade. The accuracy of prognostic predictors validated in 2006 by the American Academy of Neurology before the era of TH is less accurate. Indeed, TH and sedation may delay the recovery of motor response and alter the predictive value of brainstem reflexes. A new approach is needed to accurately establish prognosis after CA and TH. A reactive and/or continuous electroencephalogram background (during TH or shortly thereafter) strongly predicts good outcome. On the contrary, unreactive/spontaneous burst-suppression electroencephalogram pattern, together with absent N20 on somatosensory evoked potentials, is almost 100% predictive of irreversible coma. TH also affects the predictive value of neuronspecific enolase (NSE), the main serum biomarker of postanoxic injury. A good outcome can occur despite NSE levels >33 μg/L, so this cutoff value should not be used alone to guide treatment. Diffusion magnetic resonance imagery may help predict long-term neurological sequelae. Awakening from postanoxic coma is increasingly observed, despite the absence of early motor signs and pathological elevation of NSE. In 2014, a multimodal approach to prognosis is recommended to optimize the prediction of outcome after CA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.