951 resultados para Logique de la découverte
Resumo:
Au XIXe siècle, enfanter illégitimement représentait une transgression importante. Honteuses, abandonnées par leur amant, craignant d’être répudiées par leur famille et leur communauté, de nombreuses célibataires ne purent assumer les conséquences de leur grossesse. Confrontées à des méthodes contraceptives et abortives inefficaces, incapables d’intenter un procès pour reconnaissance de paternité ou inconscientes du fait que les orphelinats et les maternités leur offraient des alternatives, ces femmes entreprirent de cacher leur grossesse et se résolurent à tuer leur enfant presque immédiatement après leur naissance. La découverte du cadavre d’un nouveau-né déclenchait une enquête officielle et quelques femmes furent trainées devant les tribunaux. Cette étude met l'accent sur le parcours individuel et social des mères infanticides et tente de comprendre les circonstances qui firent d’elles des meurtrières.
Resumo:
Depuis déjà plusieurs décennies, nous sommes en mesure d'identifier les mutations responsable de diverses maladies mendéliennes. La découverte des gènes responsables de ces maladies permet non seulement un meilleur diagnostic clinique pour ces familles, mais aussi de mieux comprendre les mécanismes physiopathologiques de ces maladies ainsi que mieux définir la fonction normale des gènes causales. Ultimement, ces découvertes mènent à l'identification de cibles thérapeutiques pour le traitement de ces maladies. Les progrès technologiques sont depuis toujours un facteur très important dans la découverte de ces gènes mutés. De l'approche traditionnelle de clonage positionnel en passant par la première séquence du génome humain et maintenant les technologies de séquençage à grande échelle, de plus en plus de maladies ont maintenant une entité génétique. Dans le cadre de ce projet de doctorat, nous avons utilisé tant les approches traditionnelles (leucodystrophies) que les nouvelles technologies de séquençage (polyneuropathie douloureuse) qui ont mené à l'identification du gène causal pour plusieurs de nos familles. L'efficacité de ces deux approches n'est plus à démontrer, chacune d'entre elles possèdent des avantages et des inconvénients. Dans le cadre de ces projets, nous avons utilisé la population canadienne-française connue pour ces effets fondateurs et la présence, encore aujourd'hui, de grandes familles. Les différents projets ont permis d'établir certains avantages et inconvénients quant à l'utilisation de ces techniques et de la population canadienne-française. Dans le cadre d'un phénotype assez homogène et bien défini comme celui du projet leucodystrophie, l'approche traditionnel par gène candidat nous a permis d'identifier le gène causal, POLR3B, sans trop de difficulté. Par contre, pour les autres projets où nous sommes en présence d'une hétérogénéité clinique et génétique une approche non-biaisée utilisant le séquençage exomique a obtenu un plus grand succès. La présence de grandes familles est un grand avantage dans les deux approches. Dans le projet polyneuropathie douloureuse, une grande famille originaire du Saguenay-Lac-St-Jean nous a permis d'identifier le gène NAGLU comme responsable suite à l'exclusion des autres variants candidats par analyse de ségrégation. Comme NAGLU était déjà associé à un phénotype qui diffère sur plusieurs points à celui de notre famille, une approche traditionnelle n'aurait pas été en mesure d'identifier NAGLU comme le gène causal. Dans l'analyse de nos données de séquençage exomique, nous avons observé que plusieurs variants rares, absents des bases de données, étaient partagés entre les différents individus Canadiens français. Ceci est probablement dû à la démographie génétique particulière observée chez les Canadiens français. En conclusion, les technologies de séquençage à grande échelle sont avantageuses dans l'étude de maladies hétérogènes au niveau clinique et génétique. Ces technologies sont en voie de modifier l'approche d'identification de gènes en permettant une analyse de génétique inversée, c'est-à-dire de la génétique vers la clinique.
Resumo:
Chez la levure Saccharomyces cerevisiae, l'acétylation de l'histone H3 sur la lysine 56 (H3K56ac) est présente sur les histones néo-synthétisées déposées derrière les fourches de réplication et est essentielle pour préserver la viabilité cellulaire en réponse au dommage à l'ADN. La désacétylation d'H3K56 sur l'ensemble du génome catalysée par Hst3 et Hst4 et a lieu en phase G2 ou M. H3K56ac est une lame à double tranchant. L'absence d'H3K56ac rend les cellules sensibles aux dommages à l'ADN. En revanche, un excès d'acétylation d'H3K56 dans un mutant hst3Δ hst4Δ a des conséquences encore plus sévères tels que la thermo-sensibilité, l'hypersensibilité aux agents génotoxiques, l'instabilité génomique ainsi qu'une courte durée de vie réplicative. Les désacétylases Hst3 et Hst4 sont étroitement régulées au cours du cycle cellulaire afin de permettre à l'H3K56ac d'exercer son rôle en réponse aux dommages à l'ADN tout en évitant les conséquences néfastes de l'hyperacétylation d'H3K56. Dans cette thèse, nous avons identifié la machinerie moléculaire responsable de la dégradation de Hst3. De plus, nous avons exploré les raisons pour lesquelles l'absence de désacétylation donne lieu aux phénotypes du mutant hst3Δ hst4Δ. Au chapitre 2, nous démontrons que la dégradation d'Hst3 peut être complétée avant l'anaphase. Ceci suggère que la désacétylation de H3K56 a lieu durant une courte fenêtre du cycle cellulaire se situant entre la complétion de la phase S et la métaphase. De plus, nous avons identifié deux sites de phosphorylation d'Hst3 par la kinase cycline-dépendante 1 (Cdk1) et démontré que ces évènements de phosphorylation conduisent à la dégradation d'Hst3 in vivo. Nous avons aussi démontré que l'ubiquityltransférase Cdc34 et l'ubiquitine ligase SCFCdc4 sont requises pour la dégradation d'Hst3. Finalement, nous avons montré que la phosphorylation d'Hst3 par la kinase mitotique Clb2-Cdk1 peut directement entraîner l'ubiquitylation d'Hst3 par SCFCdc4 in vitro. Au chapitre 3, nous avons étudié les mécanismes moléculaires sous-jacents à la sensibilité extrême du mutant hst3Δ hst4Δ aux agents qui endommagent l'ADN. Nous avons établi qu'en raison de la présence anormale d'H3K56ac devant les fourches de réplication, le mutant hst3Δ hst4Δ exhibe une forte perte de viabilité lorsqu'exposé au méthyl méthanesulfonate (MMS) durant un seul passage à travers la phase S. Nous avons aussi découvert que, malgré le fait que le point de contrôle de réponse aux dommages à l'ADN est activé normalement dans le mutant hst3Δ hst4Δ, ce mutant est incapable de compléter la réplication de l'ADN et d'inactiver le point de contrôle pour une longue période de temps après exposition transitoire au MMS. L'ensemble de nos résultats suggère que les lésions à l'ADN induites par le MMS dans le mutant hst3Δ hst4Δ causent une forte perte de viabilité parce que ce mutant est incapable de compléter la réplication de l'ADN après une exposition transitoire au MMS. Dans la deuxième section du chapitre 3, nous avons employé une approche génétique afin d'identifier de nouveaux mécanismes de suppression de deux phénotypes prononcés du mutant hst3Δ hst4Δ. Nous avons découvert que la délétion de plusieurs gènes impliqués dans la formation de frontières entre l'hétérochromatine et de l'euchromatine atténue les phénotypes du mutant hst3Δ hst4Δ sans réduire l'hyperacétylation d'H3K56. Nos résultats indiquent aussi que l'abondante acétylation de l'histone H4 sur la lysine 16 (H4K16ac) est néfaste au mutant hst3Δ hst4Δ. Ce résultat suggère un lien génétique intriguant entre l'acétylation d'H3K56 et celle d'H4K16. L'existence de ce lien était jusqu'à présent inconnu. Nous avons identifié un groupe de suppresseurs spontanés où H3K56ac est indétectable, mais la majorité de nos suppresseurs ne montrent aucune réduction flagrante d'H3K56ac ou d'H4 K16ac par rapport aux niveaux observés dans le mutant hst3Δ hst4Δ. Une étude plus approfondie de ce groupe de suppresseurs est susceptible de mener à la découverte de nouveaux mécanismes génétiques ou épigénétiques permettant d'éviter les conséquences catastrophiques de l'hyperacétylation d'H3K56 chez le mutant hst3Δ hst4Δ. En résumé, cette thèse identifie la machinerie moléculaire responsable de la dégradation d'Hst3 (une désacétylase d'H3K56) durant une fenêtre de temps situées entre la fin de la phase S et la métaphase. Nos résultats permettent aussi d'expliquer pourquoi la dégradation d'Hst3 précède le début de la phase S durant laquelle l'acétylation d'H3K56 s'accumule derrière les fourches de réplication afin d'exercer son rôle de mécanisme de défense contre le dommage à l'ADN. De plus, nous avons identifié plusieurs suppresseurs qui permettent de contourner le rôle important d'Hst3 et Hst4 en réponse au dommage à l'ADN. Plusieurs suppresseurs révèlent un lien génétique inattendu entre deux formes abondantes d'acétylation des histones chez Saccharomyces cerevisiae, soit H3K56ac et H4K16ac.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Les récepteurs couplés aux protéines G (RCPGs) représentent la plus grande famille de cibles thérapeutiques pour le traitement d’une panoplie de pathologies humaines. Bien que plusieurs décennies de recherche aient permis de façonner nos connaissances sur ces protéines membranaires, notre compréhension des déterminants moléculaires de leur activité signalétique reste encore limitée. De ces domaines de recherche, une avancée récente a mis à jour un nouveau phénomène, appelé sélectivité fonctionnelle des ligands, qui a bouleversé les paradigmes décrivant leu fonctionnement de ces récepteurs. Ce concept émane d’observations montrant que l’activité pharmacologique de certains ligands n’est pas nécessairement conservée sur tout le répertoire signalétiques connu du récepteur et peu se restreindre à l'activation sélective d’un sous-groupe de voies de signalisation.Ce nouveau modèle pharmacologique de l'activation des RCPG ouvre de nouvelles possibilités pour la découverte de médicaments plus efficace et sûr, ciblant les RCPGs. En effet, il permet la conception de molécules modulant spécifiquement les voies signalétiques d’intérêt thérapeutique, sans engager les autres voies qui pourraient mener à des effets secondaires indésirables ou de la tolérance. Cette thèse décrit l'utilisation d'une nouvelle approche sans marquage, basée sur la mesure du changement l'impédance cellulaire. Par la mesure des changements cellulaires, comme la morphologie, l’adhésion et/ou la redistribution des macromolécules, cette approche permet de mesurer de façon simultanée l'activité de plusieurs voies de signalisation impliqués dans ces réponses. Utilisant le récepteur β2-adrénergique (β2AR) comme modèle, nous avons démontré que les variations dans l’impédance cellulaire étaient directement liées à l’activation de multiples voies de signalisation suite à la stimulation du récepteur par son ligand. L’agoniste type du β2AR, l’isoprotérénol, s’est avéré induire une réponse d’impédance dose-dépendante constituée, dans le temps, de plusieurs caractéristiques distinctes pouvant être bloquées de façon compétitive par l’antagoniste ICI118,551 Par l’utilisation d’inhibiteurs sélectifs, nous avons été en mesure de déterminer la contribution de plusieurs voies signalétiques canoniques, comme les voies dépendantes de Gs et Gi, la production d’AMPc et l’activation de ERK1/2, sur ces changements. De plus, la dissection de la réponse d’impédance a permis d’identifier une nouvelle voie de mobilisation du Ca2+ contribuant à la réponse globale des changements initiés par la stimulation du β2AR. Dans une autre étude, nous avons rapporté que la réponse calcique induite par le β2AR serait attribuable à une transactivation Gs-dépendant du récepteur purinergique P2Y11, lui-même couplé à la protéine Gq. La mesure d’impédance permettant de distinguer et de décrire une pléiade d’activités signalétiques, nous avons émis l’hypothèse que des ligands arborant des profils signalétiques différents généreraient des réponses d’impédance distinctes. Le criblage d’une librairie de ligands spécifiques au β2AR a révélé une grande variété de signatures d’impédance. Grâce au développement d’une approche computationnelle innovatrice, nous avons été en mesure de regrouper ces signatures en cinq classes de composés, un regroupement qui s’est avéré hautement corrélé avec le profil signalétique des différents ligands. Nous avons ensuite combiné le criblage de composés par impédance avec l’utilisation d’inhibiteurs sélectifs de voies signalétiques afin d’augmenter la résolution du regroupement. En évaluant l’impact d’une voie signalétique donnée sur la signature d’impédance, nous avons été en mesure de révéler une plus grande variété de textures parmi les ligands. De plus, cette méthode s’est avérée efficace pour prédire le profil signalétique d’une librairie de composés non caractérisés, ciblant le β2AR. Ces travaux ont mené à l’élaboration d’une méthode permettant d’exprimer visuellement la sélectivité fonctionnelle de ligands et ont révélé de nouvelles classes de composés pour ce récepteur. Ces nouvelles classes de composés ont ensuite été testées sur des cardiomyocytes humains, confirmant que les composés regroupés dans différentes classes produisent des effets distincts sur la contractilité de ces cellules. Globalement, ces travaux démontrent la pertinence de l’utilisation de l’impédance cellulaire pour une évaluation précise des différences fonctionnelles parmi les composés ciblant les RCPGs. En fournissant une représentation pluridimensionnelle de la signalisation émanant des RCPGs à l’aide d’un seul essai ne requérant pas de marquage, les signatures d’impédance représentent une stratégie simple et innovante pour l’évaluation de la fonctionnalité sélective des ligands. Cette méthode pourrait être d’une grande utilité dans le processus de découverte de nouveaux médicaments.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.
Resumo:
This thesis is concerned with the interaction between literature and abstract thought. More specifically, it studies the epistemological charge of the literary, the type of knowledge that is carried by elements proper to fictional narratives into different disciplines. By concentrating on two different theoretical methods, the creation of thought experiments and the framing of possible worlds, methods which were elaborated and are still used today in spheres as varied as modal logics, analytic philosophy and physics, and by following their reinsertion within literary theory, the research develops the theory that both thought experiments and possible worlds are in fact short narrative stories that inform knowledge through literary means. By using two novels, Abbott’s Flatland and Vonnegut’s The Sirens of Titan, that describe extra-dimensional existence in radically different ways, respectively as a phenomenologically unknowable space and as an outward perspective on time, it becomes clear that literature is constitutive of the way in which worlds, fictive, real or otherwise, are constructed and understood. Thus dimensions, established through extensional analogies as either experimental knowledge or modal possibility for a given world, generate new directions for thought, which can then take part in the inductive/deductive process of scientia. By contrasting the dimensions of narrative with the way that dimensions were historically constituted, the research also establishes that the literary opens up an infinite potential of abstract space-time domains, defined by their specific rules and limits, and that these different experimental folds are themselves partaking in a dimensional process responsible for new forms of understanding. Over against science fiction literary theories of speculation that posit an equation between the fictive and the real, this thesis examines the complex structure of many overlapping possibilities that can organise themselves around larger compossible wholes, thus offering a theory of reading that is both non-mimetic and non-causal. It consequently examines the a dynamic process whereby literature is always reconceived through possibilities actualised by reading while never defining how the reader will ultimately understand the overarching structure. In this context, the thesis argues that a causal story can be construed out of any one interaction with a given narrative—underscoring, for example, the divinatory strength of a particular vision of the future—even as this narrative represents only a fraction of the potential knowledge of any particular literary text. Ultimately, the study concludes by tracing out how novel comprehensions of the literary, framed by the material conditions of their own space and time, endlessly renew themselves through multiple interactions, generating analogies and speculations that facilitate the creation of new knowledge.
Resumo:
Cette thèse de doctorat analyse les processus et les actions des consommateurs de pornographie juvénile. Nous soutenons que l’univers des collectionneurs de pornographie juvénile se distingue par trois particularités : la préférence sexuelle, l’offre pornographique dans un monde immatériel et la sociabilité virtuelle. Afin de mettre cette thèse à l’épreuve, nous avons eu accès aux disques durs de 40 personnes condamnées pour des infractions de pornographie juvénile. La méthode de l’analyse informatique judiciaire (computer forensics) utilisée dans ce contexte a permis de recréer les événements entourant la collection d’images par ces personnes. De plus, un échantillon des images possédées par ces individus a été catégorisé selon l’âge et les actes posés sur les images (n = 61 244). En plus des nombreux points qu’il a en commun avec les collectionneurs d’objets populaires, les résultats montrent l’importance de la préférence sexuelle dans la perception et les stratégies du collectionneur, l’omniprésence des images de pornographie adulte dans les collections et la sociabilité virtuelle comme mesure d’efficacité dans la découverte des contenus. En outre, en créant quatre groupes différents en fonction de l’évolution de la gravité des images dans le temps, nous avons découvert que le groupe où il y a aggravation à la fois dans l’âge et dans la gravité des actes posés est le groupe le plus nombreux, avec 37,5 % des sujets. Les résultats de l’étude mettent également en évidence la pertinence de l’utilisation de l’informatique judiciaire dans les études en criminologie.
Resumo:
Nous présentons la découverte de quatorze nouveaux systèmes binaires ayant une séparation supérieure à 250 UA et dont au moins l'une des composantes est une naine M ou une naine L. Ces systèmes ont d'abord été identifiés en cherchant des objets ayant un mouvement propre commun autour d'étoiles connues possédant un mouvement propre élevé, grâce à une corrélation croisée de grands relevés du ciel dans l'infrarouge proche (2MASS, SDSS et SIMP). Un suivi astrométrique, afin de confirmer le mouvement propre commun, a été réalisé sur toutes les cibles avec la caméra SIMON et/ou la caméra CPAPIR à l'Observatoire du Mont-Mégatic (OMM) ou à l'Observatoire interaméricain du Cerro Tololo (CTIO). Un suivi spectroscopique a aussi été effectué sur la plupart des compagnons avec GMOS ou GNIRS à Gemini afin de déterminer leurs types spectraux. La probabilité que deux objets forment un système binaire par hasard a été évaluée afin de s'assurer que les couples candidats que nous présentons soient réellement liés.Un de nos nouveaux systèmes a un compagnon de masse sous-stellaire : 2M1259+1001 (L4.5). L'étude des systèmes que nous avons découverts pourra, entre autre, nous aider à mieux comprendre les mécanismes de formation des étoiles de très faible masse et des naines brunes.
Resumo:
Plusieurs études ont permis la caractérisation de la structure et de la fonction du ribosome. En ce qui attrait à la biogénèse du ribosome, nombreux aspects restent à être découverts et compris de façon plus dynamique. En effet, cette biogénèse englobe une variété de voies de modifications et d’assemblages requises pour la maturation des ARNr et pour leurs liaisons avec les protéines ribosomales. De ce fait, les protéines Noc ont été caractérisées comme des facteurs d’assemblages et ont permis la découverte d’une des premières indications sur l’ordre spatio-temporel de la maturation du ribosome. Ainsi, en utilisant la levure comme modèle, notre objectif est d’étudier d’avantage l’échange des complexes composés des protéines Noc ainsi que leur localisation intranucléaire. Ainsi, la nature des interactions de Noc2p avec Noc1p et Noc3p et l’influence de l’arrêt du transport intranucléaire ont été étudiés en utilisant des promoteurs inductibles, la microscopie à fluorescence, des immunobuvardages, qRT-PCR et des purifications par affinité.
Resumo:
L’insuffisance rénale chronique (IRC) est un problème majeur fréquemment rencontré chez les greffés cardiaques. Les inhibiteurs de la calcineurine, pierre angulaire de l’immunosuppression en transplantation d’organes solides, sont considérés comme une des principales causes de dysfonction rénale postgreffe. Plusieurs autres éléments tels que les caractéristiques démographiques, cliniques et génétiques du receveur contribuent également au phénomène, mais il demeure plutôt difficile de déterminer quels sont les patients les plus à risque de développer une IRC après la transplantation. Ainsi, la découverte de nouveaux marqueurs génétiques de dysfonction rénale pourrait un jour mener à l’individualisation de la thérapie immunosuppressive selon le profil génétique de chaque patient. Or, on ne connaît pas les opinions des greffés à l’égard des tests pharmacogénomiques et l’on ne sait pas si celles-ci diffèrent des opinions exprimées par les individus en bonne santé. Cette thèse de doctorat a donc pour objectifs : 1- De décrire l’évolution de la fonction rénale à très long terme après la transplantation et d’identifier les marqueurs démographiques et phénotypiques associés à l’IRC postgreffe cardiaque; 2- D’identifier les marqueurs génétiques associés à la néphrotoxicité induite par les inhibiteurs de la calcineurine; 3- D’évaluer et de comparer les attitudes des patients et des individus en bonne santé par rapport à l’intégration clinique potentielle des marqueurs pharmacogénomiques. Trois projets ont été réalisés pour répondre à ces questions. Le premier repose sur une analyse rétrospective de l’évolution de la fonction rénale chez les patients greffés au sein de notre établissement entre 1983 et 2008. Nous y avons découvert que le déclin de la fonction rénale se poursuit jusqu’à 20 ans après la transplantation cardiaque et que les facteurs de risque d’IRC incluent entre autres l’âge avancé, le sexe féminin, la dysfonction rénale prégreffe, l’hypertension, l’hyperglycémie et l’utilisation de la prednisone. Le deuxième projet est une étude pharmacogénomique s’intéressant aux déterminants génétiques de la néphrotoxicité induite par les inhibiteurs de la calcineurine. Elle nous a permis d’illustrer pour la première fois qu’un polymorphisme génétique lié à PRKCB (gène codant pour la protéine kinase C-β) est associé avec la fonction rénale des patients greffés cardiaques, alors que cela n’est probablement pas le cas pour les polymorphismes de TGFB1 (gène codant pour le transforming growth factor-β1). La troisième section de cette thèse rapporte les résultats d’un questionnaire dont le but était de comparer les attitudes envers les tests pharmacogénomiques parmi un groupe de personnes en bonne santé, de patients greffés cardiaques et de patients souffrant d’insuffisance cardiaque. Cette étude a démontré que, bien que l’enthousiasme pour la pharmacogénomique soit partagé par tous ces individus, les craintes liées à la confidentialité et aux répercussions potentielles sur l’emploi et les assurances sont plus prononcées chez les personnes en bonne santé. En résumé, les travaux issus de cette thèse ont révélé que l’identification précoce des patients greffés cardiaques les plus susceptibles de présenter une détérioration de la fonction rénale ainsi que l’adoption d’une approche thérapeutique individualisée reposant notamment sur les applications cliniques de la pharmacogénomique pourraient éventuellement permettre de freiner cette complication postgreffe.
Resumo:
Il est à ce jour bien établi que la régulation de l’expression génique dépend en grande partie des évènements post-transcriptionnels et que la traduction des ARNm tient un rôle de premier plan dans ces processus. Elle est particulièrement importante pour définir le protéome, maintenir l’homéostasie et contrôler la croissance et la prolifération cellulaire. De nombreuses pathologies humaines telles que le cancer découlent de dérèglements de la synthèse protéique. Ceci souligne l’importance d’une meilleure compréhension des mécanismes moléculaires contribuant au contrôle de la traduction des ARNm. Le facteur d’initiation eIF4E est essentiel à la traduction et son activité est régulée par ses partenaires protéiques dont font partie les protéines 4E-BP et 4E-T. Les voies de signalisation PI3K/mTOR et MAPK qui sont fortement impliquées dans l’étiologie du cancer, contrôlent la traduction en modulant l’activité d’eIF4E via l’inhibition des protéines 4E-BP et la localisation de 4E-T. Afin d’améliorer notre compréhension des mécanismes régulant la traduction des ARNm, nous avons utilisé plusieurs approches. Tout d’abord, nous avons caractérisé les mécanismes par lesquels le complexe mTORC1 est activé en réponse aux facteurs de croissance et avons déterminé que la kinase RSK, en aval de la voie Ras/ERK, contrôle directement l’activité de mTORC1 en phosphorylant Raptor, la sous-unité régulatrice du complexe mTORC1. Par ailleurs, nous nous sommes intéressés au rôle joué par mTORC1 dans l’initiation de la traduction. Pour cela, nous avons réalisé un criblage protéomique dans le but d’identifier de nouveaux facteurs sous le contrôle de mTORC1 qui participent activement à la traduction. Ces travaux ont ainsi permis l’identification de la protéine de liaison à l’ARN LARP1 comme effecteur majeur de la traduction des ARNm et de la croissance cellulaire en aval de mTORC1. Finalement, notre étude de l’effet du stress oxydant dans la répression de la traduction nous a permis de montrer que la kinase JNK contrôle la localisation du répresseur 4E-T au sein des P-bodies, qui sont des granules cytoplasmiques concentrant des ARNm non traduits et des facteurs de la dégradation des ARNm. Nos travaux ont donc abouti à la découverte de mécanismes moléculaires cruciaux impliqués dans la régulation de la traduction des ARNm et de la synthèse protéique. Ces derniers étant largement impliqués dans la prolifération cellulaire et la croissance tumorale, nos recherches ouvrent sur un champ d’investigation plus large pour le développement de nouvelles molécules anti-cancéreuses.
Resumo:
L’objectif de cette étude est de décrire et comprendre l’impact d’un programme de sport-étude mis sur pied pour les jeunes à risque sur la vie des participants. Le programme à l’étude a été mis sur pied à Montréal afin de maximiser l’intégration sociale de jeunes à risque de s’engager, ou étant déjà engagés dans un mode de vie déviant. Le programme mise sur les sports de combat comme levier d’intervention auprès de ces jeunes. Les participants sont invités à suivre une formation scolaire aux adultes en matinée et des entraînements en sports de combat en après-midi. L’objectif de ce programme est de les outiller pour qu’ils intègrent la société efficacement. Une méthodologie qualitative a été choisie afin de mener cette étude à terme. Une période d’observation participante et des entretiens semi-dirigés avec différents acteurs du programme ont permis de bien saisir la dynamique à l’intérieur de celui-ci et de déterminer quels sont les impacts de la participation au programme sur la vie des jeunes. Le programme génère des effets mixtes sur la vie des participants: 1) quelques uns y vivent des changements positifs, notamment par rapport à l’estime de soi et l’autodiscipline, 2) d’autres ne tirent pas de bénéfices particuliers de leur passage dans le programme et 3) certains développent un sentiment d’indifférence, d’apathie à la suite de leur passage dans le programme, notamment induit par la dynamique présente au sein de celui-ci. Il appert que le modèle logique du programme n’a pas été fidèlement respecté lors de sa mise en place. Un mauvais appariement entre la clientèle et le programme ainsi qu’une implantation déficiente du modèle logique sont à la base des effets pervers induits par celui-ci.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Les ligands de carbènes N-hétérocycliques (NHC) qui possèdent une symétrie C1 attirent beaucoup l’attention dans la littérature. Le présent projet de recherche propose de synthétiser une nouvelle série de ligands NHC C1-symétriques avec deux groupements N-alkyles qui exploitent un relais chiral. Un protocole modulaire et efficace pour la synthèse des sels d’imidazolium chiraux qui servent comme préligands pour les NHC a été développé. Quelques-uns de ces nouveaux ligands ont été installés sur le cuivre et de l’or, créant de nouveaux complexes chiraux. Les nouveaux complexes à base de cuivre ont été évalués comme catalyseurs pour le couplage oxydatif de 2-naphthols. Les ligands C1-symmétriques ont fourni des meilleurs rendements que les ligands C2-symmétriques. Au cours de l’optimisation, des additifs ont été évalués; les additifs à base de pyridine ont fourni des énantiosélectivités modérées tandis que les additifs à base de malonate ont donné des meilleurs rendements de la réaction de couplage oxydatif. Ultérieurement, les additifs à base de malonate ont été appliqués envers l’hétérocouplage de 2-naphthols. Le partenaire de couplage qui est riche en électrons est normalement en grand excès à cause de sa tendance à dégrader. Avec le bénéfice de l’additif, les deux partenaires de couplage peuvent être utilisés dans des quantités équivalentes. La découverte de l’effet des additifs a permis le développement d’un protocole général pour l’hétérocouplage de 2-naphthols.