84 resultados para cartographie de l’homozygosité
Resumo:
Le manuscrit suivant porte sur le développement d’une méthodologie de cartographie de la susceptibilité magnétique. Cette méthodologie a été appliquée au niveau des seins à des fins de détection de microcalcifications. Afin de valider ces algorithmes, un fantôme numérique ainsi qu’un fantôme réel ont été créés. À l’aide de ces images, les paramètres modifiables de notre méthodologie ont été ajustés. Par la suite, les problèmes reliés à l’imagerie du sein ont été explorés, tel la présence de gras ainsi que la proximité des poumons. Finalement, des images in vivo, acquises à 1.5 et 7.0 Tesla ont été analysées par notre méthodologie. Sur ces images 1.5T, nous avons réussi à observer la présence de microcalcifications. D’un autre côté, les images 7.0T nous ont permis de présenter un meilleur contraste que les images standards de magnitude.
Resumo:
Cette recherche vise à apporter un éclairage sur les facteurs déterminants de la concertation économique. De manière spécifique, elle poursuit trois principaux objectifs. Premièrement, nous cherchons à définir la notion de dialogue social et les termes qui y sont généralement associés tels que la concertation, la consultation, le tripartisme, le partenariat, la négociation collective, etc. Deuxièmement, nous faisons le point sur l’État du dialogue social au Québec, notamment en décrivant son évolution historique, les acteurs impliqués, les objets abordés et les instances de dialogue. Certaines comparaisons entre la culture québécoise de concertation et celles caractérisant d’autres cultures (Canada, États-Unis, Europe) sont par ailleurs présentées. De plus, ce tour d’horizon des différents lieux de dialogue social permettra de mieux saisir les composantes de la concertation en lien avec le développement économique, plus particulièrement, sur les façons de planifier le développement économique d’une manière socialement responsable (Papadakis, 2010). Troisièmement, une analyse empirique des facteurs déterminants de la concertation économique est effectuée. Pour atteindre les objectifs et répondre à notre question de recherche, nous articulons cette recherche en deux phases. Dans un premier temps, une cartographie des instances de dialogue social au Québec et la collecte de données auprès d’instances québécoises sont établies. Cette première phase permet également d’identifier quels sont les facteurs déterminants de la concertation économique généralement reconnus au sein de la littérature. Afin de mieux saisir ces facteurs et par conséquent, bonifier le modèle d’analyse, l’étude s’appuie sur une série d’entretiens exploratoires réalisés au Québec, mais aussi en France où la culture de dialogue social économique semble plus développée. Ce mouvement itératif entre la littérature et les entretiens exploratoires effectués permet de construire un modèle d’analyse des facteurs déterminants de la concertation économique. Dans un second temps, ce modèle d’analyse est testé en se concentrant sur deux organismes de concertation économique au Québec. Au sein de ces organismes ont été rencontrés des acteurs syndicaux, patronaux et gouvernementaux. L’entretien a été retenu comme la méthode de collecte de données utilisée auprès des individus (Gavard-Perret, Gotteland, Haon et Jolibert, 2008) et plus spécifiquement, des entretiens semi-directifs auprès des répondants afin de leur laisser la liberté de s’exprimer de façon plus large sur les questions et possiblement apporter de nouveaux éléments pouvant enrichir le modèle. La méthode de l’appariement logique sert à analyser les réponses aux questionnaires d’entrevues (Yin, 1994) et à les comparer aux propositions de recherche. Au plan théorique, l’apport des théories néo-institutionnalistes permet d’approfondir nos constats en lien avec la naissance et le développement des institutions de dialogue social. L’analyse de nos résultats nous permet de vérifier la théorie sur la création des institutions qui se veut la prise de conscience d’une problématique par les acteurs qui perçoivent leur implication au sein des institutions comme une façon de résoudre cette situation. Nous vérifions également la notion d’acteur dominant via le double rôle de l’acteur gouvernemental comme participant et comme donneur d’argent. Finalement, notre recherche a permis de confirmer notre modèle d’analyse tout en le raffinant par l’ajout de nouveaux facteurs déterminants de la concertation économique. Les entrevues que nous avons réalisées nous ont permis d’apporter des nuances et de préciser la portée des facteurs déterminants tirés de la littérature. Notre analyse confirme trois de nos propositions de recherche telle que formulées et deux autres le sont que partiellement. Nos constats confirment en effet que la volonté réelle des parties à travailler ensemble, la présence d’intérêts communs et la participation de l’État sont tous des facteurs qui ont un impact positif sur la concertation économique. La question de la confiance est nécessaire pour la poursuite de la concertation. En appui aux travaux antérieurs sur la question, nous avons observé que la confiance entre les acteurs influence positivement le déroulement de la concertation économique. Nous avons toutefois constaté qu’un certain niveau de méfiance réside entre les acteurs qui participent à ce processus, ces derniers représentant des organisations distinctes qui ont leurs intérêts propres. Pour permettre la concertation entre acteurs, le niveau de confiance doit être plus élevé que le niveau de méfiance. Nos observations nous ont aussi permis d’établir des liens entre la présence des facteurs déterminants et l’atteinte de résultats par la concertation, mais nous ne pouvons pas déterminer leur importance relative: nous ne pouvons donc pas prétendre qu’un plus grand nombre de facteurs réunis va assurer la réussite du processus de concertation ou s’il s’agit plutôt de la présence de certains facteurs qui auraient plus d’impact sur les résultats. Notre recherche fournit un apport important à la littérature sur la concertation puisqu’elle a permis de cerner de nouveaux facteurs déterminants à la réussite de ce processus. Les entretiens réalisés ont montré que le « contrôle des égos » des acteurs de la concertation et la mise en place de mécanismes permettant une intégration réussie des nouveaux participants au processus constituent des facteurs à ne pas négliger. De plus, notre recherche a permis de raffiner notre modèle conceptuel puisque nous avons été en mesure de cerner différents sous-facteurs qui permettent d’approfondir l’analyse des facteurs déterminants de la concertation. Notre recherche comporte toutefois certaines limites puisque les institutions comparées présentent des différences importantes en termes de culture et le nombre restreint d’organisme étudié limite grandement la généralisation des résultats.
Resumo:
Les ataxies forment un groupe de maladies neurodégénératives qui sont caractérisées par un manque de coordination des mouvements volontaires. Mes travaux ont porté sur une forme d'ataxie à début tardif (LOCA), après l’âge de 50 ans. Les principales caractéristiques cliniques sont: atrophie cérébelleuse à l’IRM (88%), dysarthrie (81%), atrophie du lobe frontal (50%) et nystagmus (52%). La ségrégation dans les familles de cette ataxie est en faveur d’une transmission récessive. Afin d'identifier le gène responsable de LOCA, nous avons recruté 38 patients affectés d'une forme tardive d'ataxie, issus du SLSJ, des Cantons de l’Est ou d’autres régions du Québec. Un premier criblage du génome a été effectué avec des marqueurs microsatellites sur une famille clé. Une analyse de liaison paramétrique nous a suggéré une liaison au chromosome 13 (4.4Mb). Une recherche d’un haplotype partagé entre 17 familles LOCA a diminué la taille de l'intervalle candidat à 1.6Mb, mais l’haplotype s’est avéré fréquent dans la population canadienne-française. Un second criblage du génome avec des marqueurs SNP nous a permis d’évaluer par cartographie d’homozygotie la possibilité qu’une mutation fondatrice partagée dans des sous-groupes de malades. Plusieurs stratégies d'analyse ont été effectuées, entre autre par regroupement régional. Aucun loci candidats ne fut identifié avec confiance. Nous avons donc combiné les données de génotypage avec le séquençage exomique afin d'identifier le gène responsable. L'analyse de six individus atteints nous a permis d'obtenir une liste de variants rare contenant quatre gènes potentiels. Cette analyse doit se poursuivre pour identifier le gène responsable de LOCA.
Resumo:
La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.
Resumo:
L’anémie falciforme est une maladie monogénique causée par une mutation dans le locus de la β-globine. Malgré le fait que l’anémie falciforme soit une maladie monogénique, cette maladie présente une grande hétérogénéité clinique. On présume que des facteurs environnementaux et génétiques contribuent à cette hétérogénéité. Il a été observé qu’un haut taux d’hémoglobine fœtale (HbF) diminuait la sévérité et la mortalité des patients atteints de l’anémie falciforme. Le but de mon projet était d’identifier des variations génétiques modifiant la sévérité clinique de l’anémie falciforme. Dans un premier temps, nous avons effectué la cartographie-fine de trois régions précédemment associées avec le taux d’hémoglobine fœtale. Nous avons ensuite effectué des études d’association pan-génomiques avec deux complications cliniques de l’anémie falciforme ainsi qu’avec le taux d’hémoglobine fœtale. Hormis les régions déjà identifiées comme étant associées au taux d’hémoglobine fœtale, aucun locus n’a atteint le niveau significatif de la puce de génotypage. Pour identifier des groupes de gènes modérément associés au taux d’hémoglobine fœtale qui seraient impliqués dans de mêmes voies biologiques, nous avons effectué une étude des processus biologiques. Finalement, nous avons effectué l’analyse de 19 exomes de patients Jamaïcains ayant des complications cliniques mineures de l’anémie falciforme. Compte tenu de la taille des cohortes de réplication disponibles, nous n’avons pas les moyens de valider statistiquement les variations identifiées par notre étude. Cependant, nos résultats fournissent de bons gènes candidats pour des études fonctionnelles et pour les réplications futures. Nos résultats suggèrent aussi que le β-hydroxybutyrate en concentration endogène pourraient influencer le taux d’hémoglobine fœtale. De plus, nous montrons que la cartographie-fine des régions associées par des études pan-génomiques peut identifier des signaux d’association additionnels et augmenter la variation héritable expliquée par cette région.
Resumo:
La déficience intellectuelle (DI) définit un groupe de conditions génétiquement hétérogènes caractérisées par l’apparition de troubles cognitifs précoces chez l’enfant. Elle affecte 1-3% de la population dans les pays industrialisés. La prévalence de la DI est beaucoup plus élevée ailleurs dans le monde, en raison de facteurs sociodémographiques comme le manque de ressources dans le système de santé, la pauvreté et la consanguinité. Des facteurs non-génétiques sont mis en cause dans l’étiologie de la DI ; on estime qu’environ 25% des cas de DI sont d’origine génétique. Traditionnellement, les bases moléculaires de la DI ont été investiguées par des analyses cytogénétiques, les approches de cartographie génétique et le séquençage de gènes candidats ; ces techniques de génétiques classiques sont encore mises à rude épreuve dans l’analyse de maladies complexes comme la DI. La DI liée à l’X a été particulièrement étudiée, avec plus d’une centaine de gènes identifiés uniquement sur le chromosome X. Des mutations hétérozygotes composites sont mises en évidence dans la DI autosomique, dans le contexte d’unions non-consanguines. L’occurrence de ce type de mutations est rare, chez des individus non-apparentés, de sorte que les mutations dominantes de novo sont plus courantes. Des mutations homozygotes sont attendues dans les populations consanguines ou marquées par un effet fondateur. En fait, les bases moléculaires de la DI autosomique ont été presqu’exclusivement étudiées dans le contexte de populations avec des forts taux de consanguinité. L’origine de la DI demeure encore inconnue dans environ 60 % des cas diagnostiqués. En l’absence de facteurs environnementaux associés à la DI chez ces individus, il est possible d’envisager que des facteurs génétiques non identifiés entrent en jeu dans ces cas de DI inexpliqués. Dans ce projet de recherche, nous voulions explorer l’origine génétique de la DI, dans vingt familles, où une transmission de la maladie selon un mode autosomique récessif est suspectée. Nous avons mis de l’avant les techniques de séquençage de nouvelle génération, afin de mettre en évidence les déterminants génétiques de la DI, à l’échelle du génome humain. En fait, nous avons priorisé la capture et le séquençage de l’exome; soient la totalité des régions codantes du génome humain et leurs sites d’épissage flanquants. Dans nos analyses, nous avons ciblé les variants qui ne sont pas rapportés trop fréquemment dans différentes bases de données d’individus contrôles, ces mutations rares cadrent mieux avec une condition comme la DI. Nous avons porté une attention particulière aux mutations autosomiques récessives (homozygotes et hétérozygotes composites) ; nous avons confirmé que ces mutations ségréguent avec une transmission récessive dans la famille à l’étude. Nous avons identifié des mutations dans des gènes pouvant être à l’origine de la DI, dans certaines des familles analysées ; nous avons validé biologiquement l'impact fonctionnel des mutations dans ces gènes candidats, afin de confirmer leur implication dans la pathophysiologie de la DI. Nous avons élucidé les bases moléculaires de la DI dans huit des familles analysées. Nous avons identifié le second cas de patients avec syndrome de cassure chromosomique de Varsovie, caractérisé par des dysfonctions de l’ARN hélicase DDX11. Nous avons montré qu’une perte de l’activité de TBC1D7, une des sous-unités régulatrice du complexe TSC1-TSC2, est à l’origine de la pathologie dans une famille avec DI et mégalencéphalie. Nous avons mis en évidence des mutations pathogéniques dans le gène ASNS, codant pour l’Asparagine synthétase, chez des patients présentant une microcéphalie congénitale et une forme progressive d’encéphalopathie. Nous avons montré que des dysfonctions dans la protéine mitochondriale MAGMAS sont mises en cause dans une condition caractérisée par un retard prononcé dans le développement associé à une forme sévère de dysplasie squelettique. Nous avons identifié une mutation tronquant dans SPTBN2, codant pour la protéine spinocerebellar ataxia 5, dans une famille avec DI et ataxie cérébelleuse. Nous avons également mis en évidence une mutation dans PIGN, un gène impliqué dans la voie de biosynthèse des ancres de glycosylphosphatidylinositol , pouvant être à l’origine de la maladie chez des individus avec épilepsie et hypotonie. Par ailleurs, nous avons identifié une mutation - perte de fonction dans CLPB, codant pour une protéine chaperonne mitochondriale, dans une famille avec encéphalopathie néonatale, hyperekplexie et acidurie 3-méthylglutaconique. Le potentiel diagnostic des techniques de séquençage de nouvelle génération est indéniable ; ces technologies vont révolutionner l’univers de la génétique moléculaire, en permettant d’explorer les bases génétiques des maladies complexes comme la DI.
Resumo:
Ce projet de recherche revisite la conceptualisation du logement et des ressources résidentielles pour les adultes avec un trouble mental. Les objectifs visent : (1) à identifier les attributs, dimensions et domaines ; (2) à développer un nouveau modèle ; (3) à concevoir un instrument de mesure pour décrire l’éventail des ressources résidentielles en santé mentale. Méthodologie : Phase 1: Le devis de recherche s’articule autour de la cartographie de concepts, caractérisée par une méthodologie mixte. L’échantillonnage, par choix raisonné, a permis de recueillir une pluralité de perceptions et d’expériences (p.ex. personnes utilisatrices de services, proches, responsables de ressources résidentielles, gestionnaires). Les participants proviennent de cinq régions du Québec (nombre total de participations = 722). Au cours des six étapes de la cartographie de concepts, les participants ont généré des attributs décrivant le logement (n = 221), leur ont accordé une cote numérique (n = 416) et les ont regroupés en catégories (n = 73). Douze participants ont interprété des cartes conceptuelles produites par des analyses multivariées, soit l’échelonnage multidimensionnel (MDS) et la typologie hiérarchique. Des analyses par composantes principales (PCAs) ont été utilisées pour raffiner la conceptualisation (n = 228). Phase II: L’instrument a été développé, utilisé et ajusté à la suite de deux groupes de discussions (n = 23) et d’une étude transversale auprès de ressources résidentielles (n = 258). La passation se fait via une entrevue téléphonique semi-structurée enregistrée, d’une durée moyenne de 130 minutes. Résultats : Les participants ont généré 1382 idées (99.5% de saturation). Les cartes conceptuelles issues de la cartographie de concepts comprennent 140 idées (attributs du logement), 12 dimensions et cinq domaines (indice de stress MDS = 0.2302, 10 itérations). Les analyses PCAs ont permis de retenir quatre domaines, 11 composantes (α = 0.600 à 0.933) et 81 attributs. Les domaines sont : (1) environnement géophysique; (2) atmosphère et fonctionnement du milieu; (3) soutien et interventions offerts; (4) pratiques organisationnelles et managériales. L’instrument développé comprend quatre domaines, 10 dimensions et 83 attributs. À cela s’ajoutent des variables descriptives. L’instrument résulte des Phases I et II de ce projet. Conclusion : L’instrument a été développé en collaboration avec diverses parties prenantes, à partir de considérations ontologiques, réalistes, causales et statistiques. Il dresse le profil détaillé d’une ressource résidentielle sous ses différentes facettes et s’appuie sur la prémisse qu’il n’existe pas de milieu résidentiel idéal pour tous.
Resumo:
Latex a été utilisé pour la redaction de cette thèse.
Resumo:
Le dioxyde de carbone (CO2) est un résidu naturel du métabolisme cellulaire, la troisième substance la plus abondante du sang, et un important agent vasoactif. À la moindre variation de la teneur en CO2 du sang, la résistance du système vasculaire cérébral et la perfusion tissulaire cérébrale subissent des changements globaux. Bien que les mécanismes exacts qui sous-tendent cet effet restent à être élucidés, le phénomène a été largement exploité dans les études de réactivité vasculaire cérébrale (RVC). Une voie prometteuse pour l’évaluation de la fonction vasculaire cérébrale est la cartographie de la RVC de manière non-invasive grâce à l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf). Des mesures quantitatives et non-invasives de de la RVC peuvent être obtenus avec l’utilisation de différentes techniques telles que la manipu- lation du contenu artériel en CO2 (PaCO2) combinée à la technique de marquage de spin artériel (Arterial Spin Labeling, ASL), qui permet de mesurer les changements de la perfusion cérébrale provoqués par les stimuli vasculaires. Toutefois, les préoccupations liées à la sensibilité et la fiabilité des mesures de la RVC limitent de nos jours l’adoption plus large de ces méthodes modernes de IRMf. J’ai considéré qu’une analyse approfondie ainsi que l’amélioration des méthodes disponibles pourraient apporter une contribution précieuse dans le domaine du génie biomédical, de même qu’aider à faire progresser le développement de nouveaux outils d’imagerie de diagnostique. Dans cette thèse je présente une série d’études où j’examine l’impact des méthodes alternatives de stimulation/imagerie vasculaire sur les mesures de la RVC et les moyens d’améliorer la sensibilité et la fiabilité de telles méthodes. J’ai aussi inclus dans cette thèse un manuscrit théorique où j’examine la possible contribution d’un facteur méconnu dans le phénomène de la RVC : les variations de la pression osmotique du sang induites par les produits de la dissolution du CO2. Outre l’introduction générale (Chapitre 1) et les conclusions (Chapitre 6), cette thèse comporte 4 autres chapitres, au long des quels cinq différentes études sont présentées sous forme d’articles scientifiques qui ont été acceptés à des fins de publication dans différentes revues scientifiques. Chaque chapitre débute par sa propre introduction, qui consiste en une description plus détaillée du contexte motivant le(s) manuscrit(s) associé(s) et un bref résumé des résultats transmis. Un compte rendu détaillé des méthodes et des résultats peut être trouvé dans le(s) dit(s) manuscrit(s). Dans l’étude qui compose le Chapitre 2, je compare la sensibilité des deux techniques ASL de pointe et je démontre que la dernière implémentation de l’ASL continue, la pCASL, offre des mesures plus robustes de la RVC en comparaison à d’autres méthodes pulsés plus âgées. Dans le Chapitre 3, je compare les mesures de la RVC obtenues par pCASL avec l’utilisation de quatre méthodes respiratoires différentes pour manipuler le CO2 artérielle (PaCO2) et je démontre que les résultats peuvent varier de manière significative lorsque les manipulations ne sont pas conçues pour fonctionner dans l’intervalle linéaire de la courbe dose-réponse du CO2. Le Chapitre 4 comprend deux études complémentaires visant à déterminer le niveau de reproductibilité qui peut être obtenu en utilisant des méthodes plus récentes pour la mesure de la RVC. La première étude a abouti à la mise au point technique d’un appareil qui permet des manipulations respiratoires du CO2 de manière simple, sécuritaire et robuste. La méthode respiratoire améliorée a été utilisée dans la seconde étude – de neuro-imagerie – où la sensibilité et la reproductibilité de la RVC, mesurée par pCASL, ont été examinées. La technique d’imagerie pCASL a pu détecter des réponses de perfusion induites par la variation du CO2 dans environ 90% du cortex cérébral humain et la reproductibilité de ces mesures était comparable à celle d’autres mesures hémodynamiques déjà adoptées dans la pratique clinique. Enfin, dans le Chapitre 5, je présente un modèle mathématique qui décrit la RVC en termes de changements du PaCO2 liés à l’osmolarité du sang. Les réponses prédites par ce modèle correspondent étroitement aux changements hémodynamiques mesurés avec pCASL ; suggérant une contribution supplémentaire à la réactivité du système vasculaire cérébral en lien avec le CO2.
Resumo:
Le syndrome de Joubert est une maladie récessive caractérisée par une malformation congénitale distincte du tronc cérébral et du cervelet, associée à une anomalie des mouvements oculaires (apraxie oculomotrice), une respiration irrégulière, un retard de développement, et une ataxie à la démarche. Au cours de la dernière décennie, plus de 20 gènes responsables ont été identifiés, tous ayant un rôle important dans la structure et la fonction des cils primaires. Ainsi, le syndrome de Joubert est considéré une ciliopathie. Bien que le Syndrome de Joubert ait été décrit pour la première fois dans une famille canadienne-française en 1969, le(s) gène(s) causal demeurait inconnu dans presque tous les cas de syndrome de Joubert recensés en 2010 dans la population canadienne-française, soit début de mon projet doctoral. Nous avons identifié un total de 43 individus canadiens-français (35 familles) atteints du syndrome de Joubert. Il y avait un regroupement de familles dans la région du Bas-Saint-Laurent de la province de Québec, suggérant la présence d'un effet fondateur. L’objectif de ce projet était de caractériser la génétique du syndrome de Joubert dans la population canadienne-française. Notre hypothèse était qu’il existait un effet fondateur impliquant au moins un nouveau gène JBTS. Ainsi, dans un premier temps, nous avons utilisé une approche de cartographie par homozygotie. Cependant, nous n’avons pas identifié de région d’homozygotie partagée parmi les individus atteints, suggérant la présence d’une hétérogénéité génétique ou allélique. Nous avons donc utilisé le séquençage exomique chez nos patients, ce qui représente une approche plus puissante pour l’étude de conditions génétiquement hétérogènes. Nos travaux ont permis l’identification de deux nouveaux gènes responsables du syndrome de Joubert: C5orf42 et TMEM231. Bien que la localisation cellulaire et la fonction de C5orf42 soient inconnus au moment de cette découverte, nos résultats génétiques combinés avec des études ultérieures ont établi un rôle important de C5orf42 dans la structure et la fonction ciliaire, en particulier dans la zone de transition, qui est une zone de transition entre le cil et le reste de la cellule. TMEM231 avait déjà un rôle établi dans la zone de transition ciliaire et son interaction avec d’autres protéines impliquées dans le syndrome de Joubert était connu. Nos études ont également identifié des variants rares délétères chez un patient JBTS dans le gène ciliaire CEP104. Nous proposons donc CEP104 comme un gène candidat JBTS. Nous avons identifié des mutations causales dans 10 gènes, y compris des mutations dans CC2D2A dans 9 familles et NPHP1 dans 3 familles. Au total, nous avons identifié les mutations causales définitives chez 32 des 35 familles étudiées (91% des cas). Nous avons documenté un effet fondateur complexe dans la population canadienne-française avec de multiples mutations récurrentes dans quatre gènes différents (C5orf42, CC2D2A, TMEM231, NPHP1). Au début de ce projet de recherche, l’étiologie génétique était inconnue chez les 35 familles touchées du syndrome de Joubert. Maintenant, un diagnostique moléculaire définitif est identifié chez 32 familles, et probable chez les 3 autres. Nos travaux ont abouti à la caractérisation génétique du syndrome de Joubert dans la population canadienne-française grâce au séquençage exomique, et révèlent la présence d'un effet fondateur complexe avec une l'hétérogénéité allélique et intralocus importante. Ces découvertes ont éclairé la physiologie de cette maladie. Finalement, l’identification des gènes responsables ouvre de nouvelles perspectives diagnostiques ante-natales, et de conseils génétique, très précieuses pour les familles.
Resumo:
La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.
Resumo:
La digestion enzymatique des protéines est une méthode de base pour les études protéomiques ainsi que pour le séquençage en mode « bottom-up ». Les enzymes sont ajoutées soit en solution (phase homogène), soit directement sur le gel polyacrylamide selon la méthode déjà utilisée pour l’isolation de la protéine. Les enzymes protéolytiques immobilisées, c’est-à-dire insolubles, offrent plusieurs avantages tels que la réutilisation de l’enzyme, un rapport élevé d’enzyme-sur-substrat, et une intégration facile avec les systèmes fluidiques. Dans cette étude, la chymotrypsine (CT) a été immobilisée par réticulation avec le glutaraldehyde (GA), ce qui crée des particules insolubles. L’efficacité d’immobilisation, déterminée par spectrophotométrie d’absorbance, était de 96% de la masse totale de la CT ajouté. Plusieurs différentes conditions d’immobilisation (i.e., réticulation) tels que la composition/pH du tampon et la masse de CT durant la réticulation ainsi que les différentes conditions d’entreposage tels que la température, durée et humidité pour les particules GA-CT ont été évaluées par comparaison des cartes peptidiques en électrophorèse capillaire (CE) des protéines standards digérées par les particules. Les particules de GA-CT ont été utilisés pour digérer la BSA comme exemple d’une protéine repliée large qui requit une dénaturation préalable à la digestion, et pour digérer la caséine marquée avec de l’isothiocyanate de fluorescéine (FITC) comme exemple d’un substrat dérivé afin de vérifier l’activité enzymatique du GA-CT dans la présence des groupements fluorescents liés au substrat. La cartographie peptidique des digestions par les particules GA-CT a été réalisée par CE avec la détection par absorbance ultraviolet (UV) ou fluorescence induite par laser. La caséine-FITC a été, en effet, digérée par GA-CT au même degré que par la CT libre (i.e., soluble). Un microréacteur enzymatique (IMER) a été fabriqué par immobilisation de la CT dans un capillaire de silice fondu du diamètre interne de 250 µm prétraité avec du 3-aminopropyltriéthoxysilane afin de fonctionnaliser la paroi interne avec les groupements amines. Le GA a été réagit avec les groupements amine puis la CT a été immobilisée par réticulation avec le GA. Les IMERs à base de GA-CT étaient préparé à l’aide d’un système CE automatisé puis utilisé pour digérer la BSA, la myoglobine, un peptide ayant 9 résidus et un dipeptide comme exemples des substrats ayant taille large, moyenne et petite, respectivement. La comparaison des cartes peptidiques des digestats obtenues par CE-UV ou CE-spectrométrie de masse nous permettent d’étudier les conditions d’immobilisation en fonction de la composition et le pH du tampon et le temps de réaction de la réticulation. Une étude par microscopie de fluorescence, un outil utilisé pour examiner l’étendue et les endroits d’immobilisation GA-CT dans l’IMER, ont montré que l’immobilisation a eu lieu majoritairement sur la paroi et que la réticulation ne s’est étendue pas si loin au centre du capillaire qu’anticipée.
Resumo:
Cette thèse trace la généalogie culturelle de la jeune fille en Occident en ciblant les moments charnières de son devenir femme au sein de structures de savoir qui ont activement participé à forger cette figure hétéronormative. Mon objectif est de produire une analyse culturelle en forgeant une cartographie des adolescences au féminin. Afin de sortir de la temporalité téléologique de la virginité et de la défloration, j’emprunte un mot étranger, parthénos, qui fait appel à l’idée de la jeune fille, sans nécessairement se limiter à ses connotations conventionnelles. La première partie, intitulée « La virginité, une affaire de jeunes filles », laisse place à une analyse du concept de parthénos à partir d’une lecture au carrefour de la médecine, de la loi et du mythe. Une lecture du traité hippocratique De la maladie des jeunes filles dévoile comment la défloration et la grossesse deviennent une cure érotique, une discipline du corps, qui décide du passage de la jeune fille dans une temporalité utile à la Cité. Un déplacement paradigmatique s’opère au 19e siècle dans les écrits médico-légaux, parce que l’hymen, auparavant inexistant dans la doxa hippocratique, devient le signe matériel par excellence pour examiner le statut de virginité de la fille. L’analyse de ces traités (frères Beck, Ambroise Tardieu, Paulier et Hétet) révèle la configuration de pratiques et de discours d’infantilisation des victimes de viol, et le refus des médecins légistes de reconnaître qu’une femme mariée puisse être violée. À partir d’une lecture contemporaine des tragédies L’Orestie d’Eschyle et Antigone de Sophocle, je montre que les figures d’Antigone et d’Électre constituent des exemples et des symboles convaincants de ce destin funeste de la parthénos qui n’accède jamais au statut de femme mariée. À ces figures mortelles, se télescopent les figures d’Artémis et des Érinyes pour montrer le potentiel de régénération inhérent à la figure de la parthénos. La deuxième partie, qui porte le titre « Le liminaire. Repenser les devenirs de l’adolescence », engage une réflexion à la lisière du contexte contemporain des Girlhood Studies, de la psychanalyse sociale et des études féministes sur le corps et le sexe, pour faciliter le déploiement d’une cartographie plus contextualisée du concept de parthénos. Je montre ici les écueils et les effets du danger qu’engendre la rationalité économique (cf. Henry A. Giroux) pour les espaces de liberté et d’exploration propres à l’adolescence. Cette posture est appuyée sur une lecture des récentes études en psychanalyse sociale (Anne Bourgain, Olivier Douville et Edmond Ortigues). Il est ainsi question d’identifier ce qui marque le passage entre l’adolescence et l’âge adulte : la crainte de la disparition et le fantasme de la naissance de soi. La théorie de la volatilité corporelle qu’élabore Elizabeth Grosz à propos de la sexualité féminine, ainsi que les théories de Michel Foucault, reprises par Judith Butler, en ce qui concerne les disciplines du corps, répondent à mon objectif de sortir de l’écueil d’une temporalité téléologique pour saisir les effets et les ramifications du discours sur la matérialité du corps de la jeune fille, sur ce qui lui arrive lorsqu’elle ne correspond pas tout à fait à l’idéal de régulation. Enfin, la dernière partie, qui porte le titre « Temporalités de la parthénos en tant que sujet liminaire », est traversée par les modalités particulières de la parthénia qui semble désincarnée dans la littérature contemporaine. L’objectif est de prouver que la virginité est toujours un marqueur symbolique qui déploie le destin de la fille dans un horizon particulier, trop souvent celui de la disparition. En proposant un éventail de cinq textes littéraires que j’inscris au sein d’une posture généalogique, je souhaite voir dans la littérature contemporaine, une volonté, parfois aussi un échec, dans cette pensée de la parthénos en tant que sujet liminaire. Le récit Vu du ciel de Christine Angot montre que l’ascension vers le statut d’ange concerne seulement les victimes enfants. Le récit d’Angot met donc en lumière la distinction entre la vraie victime, toujours innocente et pré-pubère, et la fausse victime, l’adolescente. Contrairement à Vu du ciel, The Lovely Bones d’Alice Sebold met en scène la possibilité d’une communauté politique de filles qui sera en fait limitée par le refus du potentiel lesbien. La question du viol sera ici centrale et sera abordée à partir de l’insistance sur la voix de la narratrice Susan. La littérature devient un espace propice à la survie de la jeune fille, puisqu’elle admet la reprise de l’expérience de la première relation sexuelle. Si la communauté est convoquée dans The Lovely Bones, elle est associée à l’image de l’identité sororale dans le roman Virgin Suicides de Jeffrey Eugenides. La pathologie virale et la beauté virginale que construit le narrateur polyphonique et anonyme font exister le discours médical sur la maladie des vierges dans un contexte contemporain. Le récit médical rejoint alors le récit érotique puisque le narrateur devient médecin, détective et voyeur. À la différence de ces trois récits, Drames de princesses d’Elfriede Jelinek montre une parthénos, Blanche Neige, qui fait face à son agresseur pour s’inscrire dans une historicité discursive. Cette collision dialogique ranime le cycle tragique (celui d’une Antigone confrontant Créon) et traduit de nouveau le danger d’une superstructure sociétale composée d’images et de discours où la fille est construite comme un accessoire pour le plaisir éphémère de l’homme. À l’inverse de l’image de la vierge sacrée et désincarnée que proposent les récits d’Angot, de Sebold, d’Eugenides et de Jelinek, Virginie Despentes offre une autre réflexion dans Apocalypse bébé. Le personnage de Valentine est configuré comme une sœur des parthénoi qui préfère le suicide et la terreur à la domestication, faisant ainsi appel à une temporalité radicale et inachevable, celle de la fin de la jeune fille. Mon souhait est enfin de souligner la nécessité de penser au mérite autant épistémologique, intime que politique, d’explorer le temps des éclosions sexuelles de la fille par delà l’idée de la première relation sexuelle.
Resumo:
Fictif, artificiel, imaginaire, trompeur, immatériel, irréel, impalpable, invisible, mystérieux... Lorsque l’on pense au virtuel, une foule d’idées nous submerge. Concept aux valeurs sémantiques multiformes et aux différents usages, sa signification reste floue et son sens en perpétuel mouvement. Qu’est-ce « réellement » que le virtuel? Quel rapport entre le sens philosophique et son emploi dans le domaine du numérique? Quelles sont ses implications politiques? Quelle conception de la réalité en découle? Ce livre se veut une cartographie offrant des repères stables pour s’orienter et naviguer à travers le concept de virtuel. L’effet d’un phare en plein brouillard…
Resumo:
L’objectif de cette thèse est de réfléchir aux enjeux d’une histoire du jeu de stratégie en temps réel (STR). Il s’agit de mieux comprendre les contextes dans lesquels le genre prend sens pour historiciser son émergence et sa période classique. Cette thèse cherche à documenter, d’une part, la cristallisation du STR en tant qu’objet ayant une forme relativement stable et en tant que corpus précis et identifié et, d’autre part, l’émergence des formes de jouabilité classiques des STR. La première partie est consacrée à décrire l’objet de cette recherche, pour mieux comprendre la complexité du terme « stratégie » et de la catégorisation « jeu de stratégie ». La seconde partie met en place la réflexion épistémologique en montrant comment on peut tenir compte de la jouabilité dans un travail historien. Elle définit le concept de paradigme de jouabilité en tant que formation discursive pour regrouper différents énoncés actionnels en une unité logique qui n’est pas nécessairement l’équivalent du genre. La troisième partie cartographie l’émergence du genre entre les wargames des années 1970 et les jeux en multijoueur de la décennie suivante. Deux paradigmes de jouabilité se distinguent pour former le STR classique : le paradigme de décryptage et le paradigme de prévision. La quatrième partie explique et contextualise le STR classique en montrant qu’il comporte ces deux paradigmes de jouabilité dans deux modes de jeu qui offrent des expériences fondamentalement différentes l’une de l’autre.