106 resultados para Candidats
em Université de Montréal, Canada
Resumo:
L’hypertension constitue un facteur majeur de risque de maladies cardiovasculaires et touche à un pourcentage important de la population humaine. Il s’agit d’une maladie complexe étant donné son caractère multifactoriel. La régulation de la pression artérielle (PA) est sous contrôle de plusieurs gènes, appelés loci pour traits quantitatifs ou QTL, et elle est le résultat de leur interaction. Étant donné que la PA est un trait quantitatif sous contrôle de plusieurs composantes comme les facteurs génétiques et environnementaux, l’étude de l’hypertension est limitée chez les populations humaines. Ainsi la stratégie principale pour l’étude de cette maladie est l’identification de QTL à PA chez des souches congéniques de rat construites à partir des lignées hyper- et normotendues; à savoir les souches Dahl salt-sensitive [1] et Lewis, respectivement. Des études précédentes dans notre laboratoire ont localisé trois QTL à PA au niveau du chromosome 18 chez le rat. Au cours de ce projet, de nouvelles sous-souches ont été construites afin de raffiner la cartographie de ces QTL. Ainsi, les C18QTL1, C18QTL3 et C18QTL4 ont été définis. Des analyses moléculaires ont été effectuées sur deux gènes candidats pour le C18QTL3; à savoir, Adrb2 et Nedd4l associés précédemment à l’hypertension. La comparaison des résultats de séquençage des régions régulatrices et codantes de ces deux gènes, ainsi que leur analyse d’expression par qRT-PCR chez les souches contrastantes DSS et Lewis, n’ont pas montré de différence significative pouvant expliquer la variation du phénotype observé. Des études plus poussées devront être effectuées sur ces deux gènes et, le cas échéant, l’analyse d’autres gènes contenus dans le C18QTL3 devra être entamée afin d’identifier le gène responsable de ce QTL.
Resumo:
L’appropriation du feed-back a fait l’objet de plusieurs modèles théoriques en contexte d’évaluation de la performance, notamment par Ilgen, Fisher et Taylor (1979) qui suggèrent un modèle explicitant comment un feed-back en vient à susciter des changements comportementaux. Ce modèle a été repris dans divers domaines de recherche, sans pour autant être adapté en fonction du contexte spécifique dans lequel le feed-back était transmis. Cette thèse propose un modèle d’appropriation du feed-back inspiré des travaux d’Ilgen et al. (1979), mais reflétant les spécificités de l’évaluation du potentiel. Le modèle comporte trois étapes qui sont l’appropriation cognitive (composée de l’acceptation et de la conscientisation), l’intention d’agir dans le sens du feed-back et l’appropriation comportementale. La présente thèse se décompose en trois articles poursuivant les objectifs suivants : (1) Proposer un modèle théorique de l’appropriation du feed-back adapté au contexte de l’évaluation du potentiel. (2) Valider une mesure de l’appropriation cognitive combinant l’acceptation et la conscientisation. (3) Tester empiriquement le modèle d’appropriation du feed-back en contexte d’évaluation du potentiel. Le premier article vise d’abord à circonscrire les fondements de l’évaluation du potentiel et à définir l’appropriation du feed-back. Sur la base de ces informations, le modèle d’Ilgen et al. (1979) est ensuite revu et modifié. Les liens entre les différentes étapes du modèle sont subséquemment étayés par des théories et des études empiriques. L’article se conclue par une réflexion sur les retombées théoriques et pratiques du modèle revisité. L’objectif du second article consiste à développer et valider une mesure de l’appropriation cognitive incluant deux dimensions, à savoir l’acceptation et la conscientisation. Pour ce faire, deux études ont été menées auprès de candidats ayant reçu un feed-back suite à une évaluation du potentiel. Des analyses factorielles exploratoires (N = 111), puis des analyses factorielles confirmatoires (N = 178) ont été réalisées en ce sens. Chaque dimension de l’appropriation cognitive a également été mise en relation avec des variables critères afin de recueillir des éléments de preuve appuyant la validité de l’instrument. La majorité des indices obtenus confirment la présence des deux dimensions pressenties et des constats sont tirés sur la base de ces résultats. Le troisième article vise à vérifier empiriquement les liens anticipés entre les composantes du modèle d’appropriation du feed-back détaillé dans le premier article. Les deux premières étapes du modèle, soit l’appropriation cognitive et l’intention d’agir, ont été mesurées via un questionnaire complété immédiatement après le feed-back par 178 candidats. Ces derniers ont été sollicités trois mois plus tard afin de compléter un second questionnaire portant sur la dernière étape, l’appropriation comportementale, et 97 d’entre eux y ont répondu. Les résultats d’analyses par équations structurelles supportent le modèle et une discussion sur la portée de tels résultats s’en suit.
Resumo:
L'épilepsie constitue le désordre neurologique le plus fréquent après les maladies cérébrovasculaires. Bien que le contrôle des crises se fasse généralement au moyen d'anticonvulsivants, environ 30 % des patients y sont réfractaires. Pour ceux-ci, la chirurgie de l'épilepsie s'avère une option intéressante, surtout si l’imagerie par résonance magnétique (IRM) cérébrale révèle une lésion épileptogène bien délimitée. Malheureusement, près du quart des épilepsies partielles réfractaires sont dites « non lésionnelles ». Chez ces patients avec une IRM négative, la délimitation de la zone épileptogène doit alors reposer sur la mise en commun des données cliniques, électrophysiologiques (EEG de surface ou intracrânien) et fonctionnelles (tomographie à émission monophotonique ou de positrons). La faible résolution spatiale et/ou temporelle de ces outils de localisation se traduit par un taux de succès chirurgical décevant. Dans le cadre de cette thèse, nous avons exploré le potentiel de trois nouvelles techniques pouvant améliorer la localisation du foyer épileptique chez les patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie d’épilepsie : l’IRM à haut champ, la spectroscopie proche infrarouge (SPIR) et la magnétoencéphalographie (MEG). Dans une première étude, nous avons évalué si l’IRM de haut champ à 3 Tesla (T), présentant théoriquement un rapport signal sur bruit plus élevé que l’IRM conventionnelle à 1,5 T, pouvait permettre la détection des lésions épileptogènes subtiles qui auraient été manquées par cette dernière. Malheureusement, l’IRM 3 T n’a permis de détecter qu’un faible nombre de lésions épileptogènes supplémentaires (5,6 %) d’où la nécessité d’explorer d’autres techniques. Dans les seconde et troisième études, nous avons examiné le potentiel de la SPIR pour localiser le foyer épileptique en analysant le comportement hémodynamique au cours de crises temporales et frontales. Ces études ont montré que les crises sont associées à une augmentation significative de l’hémoglobine oxygénée (HbO) et l’hémoglobine totale au niveau de la région épileptique. Bien qu’une activation contralatérale en image miroir puisse être observée sur la majorité des crises, la latéralisation du foyer était possible dans la plupart des cas. Une augmentation surprenante de l’hémoglobine désoxygénée a parfois pu être observée suggérant qu’une hypoxie puisse survenir même lors de courtes crises focales. Dans la quatrième et dernière étude, nous avons évalué l’apport de la MEG dans l’évaluation des patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie. Il s’est avéré que les localisations de sources des pointes épileptiques interictales par la MEG ont eu un impact majeur sur le plan de traitement chez plus des deux tiers des sujets ainsi que sur le devenir postchirurgical au niveau du contrôle des crises.
Resumo:
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.
Resumo:
Ce mémoire est une recherche théorique qui tire son origine du constat selon lequel il est difficile d’analyser la réalisation du projet professionnel des candidats à l’enseignement. Tel est le cas en raison des particularités contextuelles et des pluralités théoriques relatives aux notions de formation et d’insertion. À partir de ce constat, ce mémoire propose un cadre d’analyse permettant de comprendre comment les jeunes enseignants du Québec appréhendent le « rapport entre » leur formation et leur insertion face aux différentes contraintes (i.e. rigidité du système institutionnel de la formation, marché de l’insertion fluctuant et saturé, etc.) et aux ressources disponibles (i.e. programme d’études, cours, etc.) pour réaliser leur projet professionnel. Il repose sur l’hypothèse selon laquelle, pour réaliser leur projet professionnel, les candidats à l’enseignement mobilisent des stratégies afin de négocier les contraintes et ressources de leurs contextes respectifs. Dans cette optique, la démarche de cette recherche théorique s’inscrit dans une perspective interactionniste, telle qu’elle est véhiculée par la tradition de Chicago (Chapoulie, 2001). Quelques postulats sont mobilisés pour baliser les différentes étapes d’élaboration du cadre d’analyse. Le premier postulat considère que le « point de vue » de l’acteur est prépondérant pour comprendre ses conduites (Morrissette, Guignon & Demaziére, 2011). Cela amène à articuler les ancrages théoriques nécessaires à l’élaboration du cadre d’analyse en croisant une sociologie interactionniste avec une sociologie de l’action. Plus particulièrement, les concepts de « définition de la situation » de Thomas (1923) et de la « représentation de soi » de Goffman (1969) sont mis à profit. Les notions de coopération, d’incertitude et de rationalité, tirées du modèle de l’acteur stratégique de Crozier et Friedberg (1981), viennent compléter les assises de la modélisation d’une trame de négociation (Strauss & Baszanger, 1992). Le deuxième postulat considère que les contextes, sont prépondérants pour expliquer les conduites humaines (Abbott, 1999). Ces contextes, dits «éloignés» et «rapprochés» de l’acteur, constituent le « contexte d’action » (Strauss & Baszanger, 1992). Ce faisant, ils influent sur les stratégies mobilisées par l’acteur candidat à l’enseignement. Le troisième postulat considère que le monde social est animé par des processus (re)créés au travers des interactions entre acteurs (Morrissette & Guignon, 2014). Il amène à envisager la formation et l’insertion comme des processus sujets à des redéfinitions continues. Cela conduit à repenser la réalisation du projet professionnel des candidats à l’enseignement sous l’angle du « rapport entre ». Ces trois postulats structurent le cadre d’analyse qui se présente comme une « trame de négociation ». Il est développé pour éventuellement éclairer les stratégies de négociation mobilisées en contexte par les candidats québécois à l’enseignement pour réaliser leur projet professionnel.
Resumo:
L’hypertension essentielle étant un facteur majeur de morbidité, la compréhension de son l’étiologie est prépondérante. Ainsi, la découverte de nouvelles composantes ou mécanismes de régulation de la PA par l’identification de QTL et l’étude de leurs interactions s’avère une approche prometteuse. L’utilisation de souches congéniques de rats pour l’étude de l’hypertension est une stratégie payante puisqu’elle permet de masquer les effets de l’environnement, tout en gardant le caractère polygénique de la PA. Longtemps conçu comme un trait issu de l’accumulation des effets minimes des QTL, la PA est régulée par une architecture basée sur l’existence d’interactions épistatiques. L’analyse par paires de QTL individuels a permis d’établir une modularité dans l’organisation des QTL chez le rat Dahl Salt-sensitive en fonction de la présence ou de l’absence d’une interaction épistatique entre eux. Ainsi, deux modules épistatiques ont été établis; EM1 et EM2 où tous les QTL appartenant à EM1 sont épistatiques entre eux et agissent de façon additive avec les membres de EM2. Des hiérarchies dans la régulation peuvent alors être révélées si les QTL d’un même EM ont des effets opposés. L’identification de la nature moléculaire des candidats C18QTL4/Hdhd2 et C18QTL3/Tcof1, membres du EM1, et de l’interaction épistatique entre ces deux QTL, a permis, en plus, d’élucider une régulation séquentielle au sein du module. Hdhd2 pourrait agir en amont de Tcof1 et réguler ce dernier par une modification post-traductionnelle. Cette interaction est la première évidence expérimentale de la prédiction des relations entre QTL, phénomène établi par leur modularisation. Le dévoilement du fonctionnement de l’architecture génétique à la base du contrôle de la PA et la découverte des gènes responsables des QTL permettrait d’élargir les cibles thérapeutiques et donc de développer des traitements antihypertenseurs plus efficaces.
Resumo:
Problématique: L’hypertension artérielle essentielle, facteur de risque majeur dans le développement des maladies cardiovasculaires, est un trait multigénique complexe dont les connaissances sur le déterminisme génétique nécessitent d’être approfondies. De nombreux loci à trait quantitatif (QTLs); soit des gènes responsables de faire varier la pression artérielle (PA), ont été identifiés chez l’humain et le modèle animal. Cependant, le mystère plane encore sur la façon dont ces gènes fonctionnent ensemble pour réguler la PA. Hypothèse et objectif: Plutôt qu’une addition de QTLs ayant chacun une action infinitésimale sur la PA, une interaction épistatique entre les gènes serait responsable du phénotype hypertendu. Ainsi, l’étude de cette épistasie entre les gènes impliqués, directement ou indirectement, dans l’homéostasie de la PA nous permettrait d’explorer de nouvelles voies de régulation moléculaire en cause dans cette maladie. Méthodes: Via la réalisation de souches congéniques de rats, où un segment chromosomique provenant d’une souche receveuse hypertendue (Dahl Salt Sensitive, SS/Jr) est remplacé par son homologue provenant d’une souche donneuse normotendue (Lewis, LEW), des QTLs peuvent être mis en évidence. Dans ce contexte, la combinaison de QTLs via la création de doubles ou multiples congéniques constitue la première démonstration fonctionnelle des interactions intergéniques. Résultats: Vingt-sept combinaisons au total nous ont menés à l’appréciation d’une modularisation des QTLs. Ces derniers ont été catégorisés selon deux principaux modules épistatiques (EMs) où les QTLs appartenant à un même EM sont épistatiques entre eux et participent à une même voie régulatrice. Les EMs/cascades agissent alors en parallèle pour réguler la PA. Grâce à l’existence de QTLs ayant des effets opposés sur la PA, nous avons pu établir l’ordre hiérarchique entre trois paires de QTLs. Cependant, lorsque cette suite régulatrice ne peut être déterminée, d’autres approches sont nécessaires. Nos travaux nous ont mené à l’identification d’un QTL situé sur le chromosome 16 du rat (C16QTL), appartenant au EM1 et qui révélerait une nouvelle voie de l’homéostasie de la PA. Le gène retinoblastoma-associated protein 140 (Rap140)/family with sequence similarity 208 member A (Fam208a), présentant une mutation non synonyme entre SS/Jr et LEW est le gène candidat le plus plausible pour représenter C16QTL. Celui-ci code pour un facteur de transcription et semblerait influencer l’expression de Solute carrier family 7 (cationic amino acid transporter, y+ system) member 12 (Slc7a12), spécifiquement et significativement sous exprimé dans les reins de la souche congénique portant C16QTL par rapport à la souche SS/Jr. Rap140/Fam208a agirait comme un inhibiteur de la transcription de Slc7a12 menant à une diminution de la pression chez Lewis. Conclusions: L’architecture complexe de la régulation de la PA se dévoile mettant en scène de nouveaux acteurs, pour la plupart inconnus pour leur implication dans la PA. L’étude de la nouvelle voie de signalisation Rap140/Fam208a - Slc7a12 nous permettra d’approfondir nos connaissances quant à l’homéostasie de la pression artérielle et de l’hypertension chez SS/Jr. À long terme, de nouveaux traitements anti-hypertenseurs, ciblant plus d’une voie de régulation à la fois, pourraient voir le jour.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Les nombreux scrutins qui ont eu lieu dernièrement ont suscité plusieurs réflexions tant en ce qui concerne les taux de participation que l’impact réel du vote individuel sur la sphère politique. Récemment, une commission spéciale de l’Assemblée nationale du Québec a parcouru seize villes pour consulter la population sur le mode de scrutin et la loi électorale. De fait, cette dernière a changé radicalement depuis 1792, année où a eu lieu la première élection parlementaire. À ce sujet, la collection Baby de l’Université de Montréal est une source d’information inestimable sur les mœurs électorales du 19e siècle québécois. Les pressions et les sollicitations dont les électeurs font l’objet, les stratégies adoptées par les candidats et leurs partisans, l’ambiance enfiévrée autour des bureaux de scrutin, tous ces éléments trouvent des exemples dans les documents disponibles. En plus de témoigner des vicissitudes du scrutin ouvert et public, ces derniers révèlent des aspects insoupçonnés de la culture politique de l’époque. Cette présentation se veut donc une exploration de la sphère politique de notre passé à partir des traces multiples offertes par la collection Baby.
Resumo:
Le débat autour du rôle de l’assurance vie, de la nécessité de recourir à un processus de sélection des risques et de la notion de discrimination acceptable a suscité un questionnement sur le rôle social de l’assurance. Ce débat a été exacerbé par les récents développements dans le domaine de la génétique humaine permettant aux assureurs d’utiliser les résultats de tests génétiques dans le processus de sélection des risques. Cet article présente une étude comparative des positions adoptées sur l’assurance et la génétique dans plusieurs pays. Nous analyserons les positions de 43 pays sélectionnés et commenterons leur capacité à assurer un accès plus équitable aux candidats à l’assurance vie.
Resumo:
Le but de cette thèse est premièrement d’évaluer l’effet du vieillissement sur les fonctions psychomotrices des souches de souris sélectionnées génétiquement en fonction de leur tension artérielle (TA); deuxièmement, de localiser les déterminants génétiques des phénotypes psychophysiologiques à partir de souches recombinantes congéniques (RCS). Ces travaux ont mené à la publication de 4 articles. Le premier article décrit l’évaluation des fonctions psychomotrices des souches avec une tension artérielle élevée (HBP), basse (LBP) et normale (NBP). La performance aux épreuves d’exploration, d’habiletés motrices et d’apprentissage spatial, a été mesurée sur deux cohortes âgées respectivement de 12 mois et de trois mois. Indépendamment de l’âge, les HBPs sont hyperactives dans l’open-field (OF), mais pas dans le test d’exploration de trous. Inversement, les LBP explorent moins d’espaces que les NBP et, à trois mois seulement, sont hypoactives dans l’OF. Par ailleurs, les HBPs et les LBP présentent des déficits précoces de coordination motrice et des fonctions visuo-motrices. Le second article concerne l’évaluation longitudinale de la coordination motrice, de l’anxiété et de l’apprentissage spatial des souches HBP, LBP et NBP, à l’âge de deux mois et de 12 mois. Le vieillissement accentue l’hyperactivité des HBPs dans l’OF. Par contre, l’hypoactivité des souris LBP est détectable seulement à l’âge de deux mois. Indépendamment de l’âge, les souris HBP et LBP montrent une perception réduite du danger dans l’épreuve d’anxiété et des dysfonctions visuo-motrices au labyrinthe aquatique. Enfin, des déficits précoces de coordination motrice se manifestent seulement chez les HBPs. Il reste à déterminer si les déficits observés sont liés à des déterminants génétiques indépendants ou secondaires aux altérations de la tension artérielle. Le troisième article présente la comparaison entre les souches consanguines A/J et C57Bl/6J (B6) aux épreuves de l’OF, de la planche à trous, du labyrinthe aquatique et du cintre (coordination motrice). Les B6 explore d’avantage l’OF et la planche à trous. Les B6 sont moins rapides sur le cintre, mais supérieurs aux A/J dans le labyrinthe aquatique, avec une plate-forme invisible ou visible. Ces résultats démontrent l’implication de déterminants génétiques. Cette thèse se termine par un quatrième article sur la localisation des déterminants génétiques de la susceptibilité au stress dans les RCS, dérivées de A/J et B6, et présentant un agencement spécifique de 12.5% du génome. La réactivité émotionnelle est évaluée dans l’OF et le plus-maze; la réponse de stress est mesurée par radio télémétrie de la température interne pendant le stress d’immobilisation (SI) sous diète régulière et riche en sel; l’excrétion des électrolytes urinaires est dosée après 24 heures de diète salée. Les loci les plus significatifs sont situés dans les régions suivantes: de l’émotionalité dans l’OF (Emo1) sur le chr. 1 (LOD=4.6) correspondant à la région homologue impliquée dans la cohorte d’hypertension familiale du Saguenay; de la dopa décarboxylase (ddc) sur le chr. 11 pour l’émergence du plus-maze (LOD=4.7); de la protéine liant l’endotoxine (lbp) sur le chr. 2 pour l’hypothermie initiale en réponse au SI (LOD=4); et de HSP90 sur le chr. 12 pour l’excrétion de Ca++ (LOD=4.6). Des banques de données sont ensuite interrogées pour recenser les polymorphismes des régions régulatrices ou codantes des gènes candidats chez les souches ancestrales A/J et B6, dont les séquences sont disponibles pour le génome entier. Des utilitaires web permettent de dévoiler les changements dans la structure secondaire de l’ARNm, l’interférence avec des microARN ou avec d’autres motifs de liaison. Plusieurs SNPs fonctionnels ont été identifiés pour le QTL du chr. 1, particulièrement dans les éléments de régulation; ceux-ci impliquant des gènes reliés avec les réponses inflammatoire/immunitaire ou avec le système cardiovasculaire. La quantification par la PCR confirme une régulation à la baisse d’atp1a2 dans le cœur et le cerveau des souches susceptibles à l’anxiété. Ces résultats confirment l’intrication des altérations de la susceptibilité au stress et de la régulation de la TA.
Resumo:
La stéatohépatite non alcoolique (NASH) est une pathologie du foie dont l’amplitude et les répercussions sont de plus en plus préoccupantes dans le monde médical ou biomédical. Elle est associée à l’obésité, au syndrome métabolique et au diabète sucré de type II. La recherche de la thérapie optimale pour le NASH est un domaine en plein essor puisqu’aucun traitement n’est suffisamment efficace à ce jour. La présente étude fait le point sur de nouvelles possibilités de traitements qui se sont avérés efficaces pour contrer les différentes lésions métaboliques et cellulaires rencontrées dans un modèle in vivo chez le rat où le NASH est induit par l’ingestion d’une diète riche en gras. Cette étude démontre, tout d’abord, que les traitements durant six semaines avec l’acide ursodéoxycholique (UDCA) et son dérivé le NCX 1000, possédant des propriétés donatrices de monoxyde d’azote, à doses équimolaires, protègent de manière équivalente le foie contre le stress oxydatif, l’hyperinsulinémie, l’inflammation et la fibrose causés par la stéatohépatite. De plus, la combinaison d’une plus faible dose de NCX 1000 avec un antioxydant lipophile tel que la vitamine E offre une protection similaire, particulièrement au niveau des paramètres du stress oxydatif. Par ailleurs, l’étude illustre aussi que la silibinine, composé polyphénolique actif du chardon marie (Silybum marianum) et utilisé en traitement pendant 5 semaines, possède un pouvoir hépatoprotecteur, des propriétés antioxydantes et un effet hypoinsulinémique dans ce modèle de stéatohépatite d’origine nutritionnelle. Le potentiel thérapeutique de ces composés en fait des candidats de choix pour le traitement du NASH qui méritent de faire l’objet d’études cliniques poussées.
Resumo:
La dihydrofolate réductase humaine (DHFRh) est une enzyme essentielle à la prolifération cellulaire, ce qui en fait une cible de choix pour le traitement de différents cancers. À cet effet, plusieurs inhibiteurs spécifiques de la DHFRh, les antifolates, ont été mis au point : le méthotrexate (MTX) et le pemetrexed (PMTX) en sont de bons exemples. Malgré l’efficacité clinique certaine de ces antifolates, le développement de nouveaux traitements s’avère nécessaire afin de réduire les effets secondaires liés à leur utilisation. Enfin, dans l’optique d’orienter la synthèse de nouveaux composés inhibiteurs des DHFRh, une meilleure connaissance des interactions entre les antifolates et leur enzyme cible est primordiale. À l’aide de l’évolution dirigée, il a été possible d’identifier des mutants de la DHFRh pour lesquels l’affinité envers des antifolates cliniquement actifs se voyait modifiée. La mutagenèse dite ¬¬de saturation a été utilisée afin de générer des banques de mutants présentant une diversité génétique au niveau des résidus du site actif de l’enzyme d’intérêt. De plus, une nouvelle méthode de criblage a été mise au point, laquelle s’est avérée efficace pour départager les mutations ayant entrainé une résistance aux antifolates et/ou un maintient de l’activité enzymatique envers son substrat natif, soient les phénotypes d’activité. La méthode de criblage consiste dans un premier temps en une sélection bactérienne à haut débit, puis dans un second temps en un criblage sur plaques permettant d’identifier les meilleurs candidats. Plusieurs mutants actifs de la DHFRh, résistants aux antifolates, ont ainsi pu être identifiés et caractérisés lors d’études de cinétique enzymatique (kcat et IC50). Sur la base de ces résultats cinétiques, de la modélisation moléculaire et des données structurales de la littérature, une étude structure-activité a été effectuée. En regardant quelles mutations ont les effets les plus significatif sur la liaison, nous avons commencé à construire un carte moléculaire des contacts impliqués dans la liaison des ligands. Enfin, des connaissances supplémentaires sur les propriétés spécifiques de liaison ont put être acquises en variant l’inhibiteur testé, permettant ainsi une meilleure compréhension du phénomène de discrimination du ligand.