982 resultados para Proportional
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie
Resumo:
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.
Resumo:
Le nœud auriculoventriculaire (AV) joue un rôle vital dans le cœur normal et pathologique. Il connecte les oreillettes aux ventricules et, grâce à sa conduction lente, génère un délai entre les contractions auriculaire et ventriculaire permettant d’optimiser le pompage sanguin. Sa conduction lente et sa longue période réfractaire font du nœud AV un filtre d’impulsions auriculaires lors de tachyarythmies assurant ainsi une fréquence ventriculaire plus lente favorable au débit cardiaque. L’optimisation de ce filtrage est une cible dans le traitement de ces arythmies. Malgré ce rôle vital et de nombreuses études, le nœud AV demeure l’objet de plusieurs controverses qui en rendent la compréhension laborieuse. Nos études expérimentales sur des préparations isolées de cœurs de lapin visent à apporter des solutions à certains des problèmes qui limitent la compréhension des propriétés fréquentielles du nœud AV. Le premier problème concerne la définition de la propriété de récupération nodale. On s’accorde généralement sur la dépendance du temps de conduction nodale (intervalle auriculo-Hissien, AH) du temps de récupération qui le précède mais un débat presque centenaire persiste sur la façon de mesurer ce temps de récupération. Selon que l’on utilise à cette fin la longueur du cycle auriculaire (AA) ou l’intervalle His-auriculaire précédent (HA), la même réponse nodale montre des caractéristiques différentes, un paradoxe à ce jour inexpliqué. Le temps de conduction nodale augmente aussi avec le degré et la durée d'une fréquence rapide, un phénomène appelé fatigue. Or, les caractéristiques de la fatigue mesurée varient avec l’indice de récupération utilisé (AA vs. HA). De plus, une troisième propriété appelée facilitation qui entraîne un raccourcissement du temps de conduction diffère aussi avec l’indice de récupération utilisé. Pour établir l’origine de ce problème, nous avons déterminé les différences entre les courbes de récupération (AH compilé en fonction du AA ou HA) pour 30 états fonctionnels nodaux différents. Ces conditions étaient obtenues à l’aide de protocoles permettant la variation du cycle de base (BCL) et du cycle prétest (PTCL), deux paramètres connus pour altérer la fonction nodale. Nous avons pu établir que pour chaque état fonctionnel, la forme de la courbe de récupération et le niveau de fatigue étaient les mêmes pour les deux indices de récupération. Ceci s’applique aussi aux données obtenues à des BCL et PTCL égaux comme dans les protocoles de stimulation prématurée conventionnels couramment utilisés. Nos résultats ont établi pour la première fois que les propriétés nodales de récupération et de fatigue sont indépendantes de l’indice de récupération utilisé. Nos données montrent aussi que les différences entre les courbes de récupération en fonction de l’indice utilisé proviennent d’effets associés aux variations du PTCL. Notre deuxième étude établit à partir des mêmes données pourquoi les variations du PTCL altèrent différemment les courbes de récupération selon l’indice utilisé. Nous avons démontré que ces différences augmentaient en proportion directe avec l’augmentation du temps de conduction au battement prétest. Cette augmentation cause un déplacement systématique de la courbe construite avec l’intervalle AA vers la droite et de celle construite avec l’intervalle HA vers la gauche. Ce résultat met en évidence l’importance de tenir compte des changements du temps de conduction prétest dans l’évaluation de la fonction nodale, un paramètre négligé dans la plupart des études. Ce résultat montre aussi que chacun des deux indices a des limites dans sa capacité d’évaluer le temps de récupération nodale réel lorsque le temps de conduction prétest varie. Lorsque ces limites sont ignorées, comme c’est habituellement le cas, elles entraînent un biais dans l’évaluation des effets de fatigue et de facilitation. Une autre grande difficulté dans l’évaluation des propriétés fréquentielles du nœud AV concerne son état réfractaire. Deux indices sont utilisés pour évaluer la durée de la période réfractaire nodale. Le premier est la période réfractaire efficace (ERPN) définie comme l’intervalle AA le plus long qui n’est pas conduit par le nœud. Le deuxième est la période réfractaire fonctionnelle (FRPN) qui correspond à l’intervalle minimum entre deux activations mesurées à la sortie du nœud. Paradoxalement et pour des raisons obscures, l’ERPN augmente alors que la FRPN diminue avec l’augmentation de la fréquence cardiaque. De plus, ces effets varient grandement avec les sujets, les espèces et l’âge. À partir des mêmes données que pour les deux autres études, nous avons cherché dans la troisième étude l’origine des variations fréquentielles de l’ERPN et de la FRPN. Le raccourcissement du BCL prolonge l’ERPN mais n’affecte pas la FRPN. L’allongement de l’ERPN provient principalement d’un allongement du temps de conduction prétest. Un PTCL court en comparaison avec un BCL court allonge encore plus substantiellement le temps de conduction prétest mais raccourcit en même temps l’intervalle His-auriculaire, ces deux effets opposés s’additionnent pour produire un allongement net de l’ERPN. Le raccourcissement de l’intervalle His-auriculaire par le PTCL court est aussi entièrement responsable pour le raccourcissement de la FRPN. Nous avons aussi établi que, lorsque la composante du temps de conduction prétest est retirée de l’ERPN, un lien linéaire existe entre la FRPN et l’ERPN à cause de leur dépendance commune de l’intervalle His-auriculaire. Le raccourcissement combiné du BCL et du PTCL produit des effets nets prévisibles à partir de leurs effets individuels. Ces effets reproduisent ceux obtenus lors de protocoles prématurés conventionnels. Ces observations supportent un nouveau schème fonctionnel des variations fréquentielles de l’ERPN et de la FRPN à partir des effets distincts du BCL et du PTCL. Elles établissent aussi un nouveau lien entre les variations fréquentielles de l’ERPN et de la FRPN. En conclusion, la modulation fréquentielle de la fonction du nœud AV provient de la combinaison d’effets concurrents cumulatifs liés au cycle de base et non-cumulatifs liés au cycle prétest. Ces effets peuvent être interprétés de façon consistante indépendamment de l’indice de récupération en tenant compte des changements du temps de conduction au battement prétest. Les effets fréquentiels disparates sur l’ERPN et la FRPN sont aussi grandement liés aux changements du temps de conduction prétest. Lorsque l’analyse tient compte de ce facteur, l’ERPN et la FRPN montrent des variations parallèles fortement liées à celles de l’intervalle His-auriculaire. Le nouveau schème fonctionnel des propriétés fréquentielles du nœud AV supporté par nos données aidera à mieux cibler les études sur les mécanismes cellulaires contrôlant la modulation fréquentielle nodale. Nos données pourraient aider à l’interprétation et au contrôle des réponses nodales diverses associées aux tachyarythmies supraventriculaires et à leur traitement pharmacologique. En bref, nos travaux supportent une compréhension factuelle améliorée du comportement fréquentiel du nœud AV, un domaine aux applications multiples en rythmologie cardiaque.
Resumo:
Les reliques sont des objets associés aux saints, ou au Christ. Une relique est porteuse d’une puissance spirituelle, une virtus, source de miracles. Depuis l’Antiquité et surtout le Moyen Âge, les reliques ont joué un rôle essentiel dans la vie des sociétés chrétiennes. Il n’en reste pas moins que les théologiens semblent n’avoir réservé au culte des reliques qu’une faible part de leurs écrits, au point d’être considéré par l’historiographie actuelle comme ayant eu « une élaboration théorique inversement proportionnelle à son importance ». Le présent mémoire se propose d’étudier, à travers les différents témoignages laissés sur le culte des reliques, durant l’Antiquité et le Moyen Âge, quelles ont pu être les conceptions, croyances et controverses autour du culte des reliques. L’hypothèse par conséquent proposée est celle d’un « problème des reliques », intimement lié aux évolutions du culte des saints et aux conceptions sur l’eucharistie tout au long du Moyen Âge. Un glissement se produit au cours du Moyen Âge, d’une critique jugée hérétique du culte en lui-même, à un refus des abus et du flou entourant ce culte au nom de l’orthodoxie. Ces paroles persistantes, à défaut d’un débat, sur la validité, les mécanismes mystiques et les abus d’un tel culte se sont ainsi cristallisées au XIIe siècle chez plusieurs auteurs contemporains, tels Thiofrid d’Echternach et surtout Guibert de Nogent, soulignant le besoin d’une élaboration théorique et d’une codification de ces pratiques.
Resumo:
But : Ce projet de recherche a comme objectif principal de mieux comprendre diverses facettes de la relation entraîneur-entrainée. Cette relation entre un entraîneur masculin et une athlète féminine en volleyball sera observée selon trois niveaux de compétition des athlètes – secondaire, collégial et universitaire. Trois aspects seront étudiés à travers les questions posées dans cette recherche : (1) Est-ce que la perception que les athlètes ont de la relation entraîneur-entraîné est différente selon le niveau de compétition de l’athlète? (2) Existe-il des différences dans la nature de la relation à l’intérieur d’un même niveau? (3) Est-ce que le nombre d’années qu’une athlète a passé avec le même entraîneur affecte la qualité de la relation?. Méthodologie : Évoluant sur le circuit québécois, les six équipes de volleyball et leur entraîneur respectif représentent l’échantillon de la présente étude. Les tests utilisés afin de réaliser les analyses univariées et bivariées de cette étude sont : le Test de Welch, les corrélations de Pearson ainsi que les tests post-hoc de Games-Howell. Résultats : (1) Les athlètes du secondaire partagent une relation de meilleure qualité avec leur entraîneur que celles du cégep et de l’université. (2) Dans un même niveau de compétition, ce qui différencie la qualité de la relation est : le rôle de la joueuse dans son équipe ainsi que le nombre de sports organisés dans lesquels elle participe (relations proportionnelles). (3) Une relation inverse existe entre le nombre d’années vécues par la dyade entraîneur-athlète et la qualité de la relation.
Resumo:
Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.
Resumo:
Dans le cadre de ce mémoire, les relations entre morphologie, locomotion et croissance chez les hominoïdes sont analysées sous l'angle des proportions métaphysaires et de leur acquisition. Plusieurs niveaux d'analyse — intermembre, supérieur et inférieur — sont abordés dans une perspective ontogénique. La masse corporelle et la direction des charges influencent la morphologie des surfaces articulaires et métaphysaires mais aussi leur développement. Les charges étant dépendantes du mode locomoteur et celui-ci se modifiant en fonction de l'âge, on tente de voir à quel(s) moment(s) les changements proportionnels ont lieu et pourquoi ils apparaissent. Des mesures linéaires ont été recueillies sur l'humérus, le radius, le fémur et le tibia sur un échantillon squelettique des espèces H. sapiens, P. troglodytes, G. gorilla et P. pygmaeus. À partir de ces mesures et du calcul de certains ratios, des comparaisons intra et interspécifiques ont été réalisées. Les différences les plus significatives entre les espèces se dévoilent au niveau intermembre et sont relatives aux différents pourcentages d'utilisation des membres supérieurs ou inférieurs. Au sein des espèces, les résultats révèlent une similarité dans les réactions des surfaces métaphysaires au niveau intermembre, supérieur et inférieur. Les changements proportionnels ont lieu entre les stades 0 et 1 pour H. sapiens (première marché indépendante), entre les stades 2 et 4 pour P. troglodytes (majorité du poids corporel soutenue par les membres inférieurs) et entre les stades 3 et 5 pour G. gorilla (taille adulte et quadrupédie très majoritaire). Pour P. pygmaeus aucun stade en particulier n'a été ciblé par les analyses et cela concorde avec l'homogénéité de ses modes de locomotion employés au cours de la vie. Les différences proportionnelles répondent à des changements locomoteurs majeurs. Australopithecus afarensis est intermédiaire entre H. sapiens et les grands singes pour de nombreuses comparaisons. Au niveau du genou, les plus jeunes individus A. afarensis ne montrent pas de morphologie bipède, similaire aux humains.
Resumo:
Le présent mémoire s’inscrit dans un projet, financé par le CRSH, visant l’étude des conditions de vie dans l’enfance et la survie aux grands âges L’augmentation de la longévité et de la mortalité observée dans les pays industrialisés depuis plus d’un siècle ont mené à l’émergence d’un courant de recherche visant à identifier les causes de ces progrès. Il a été soulevé que les conditions de vie dans l’enfance pourraient y jouer un rôle. L’objectif de ce mémoire est donc de mettre en lumière les déterminants qui sont en cause en étudiant la mortalité au-delà de 40 ans d’une population urbaine canadienne-française en phase d’industrialisation, soit, celle de la ville de Québec au début du 20ème siècle. Plus spécifiquement, une analyse descriptive de la population étudiée sera effectuée et suivra une analyse statistique à l’aide de modèles de risques proportionnels de Cox qui prendront en compte différentes facettes des conditions de vie. Au coeur de ce mémoire a été l’élaboration d’une base de données se basant sur le Canadian Families Project et créée à partir du recensement canadien de 1901. Cette dernière nous a permis de dresser un portrait des conditions de vie dans l’enfance, telles qu’elles étaient au tournant du 20ème siècle, de la population étudiée. Nous avons complété cette base de données en recueillant des informations sur les mariages à l’aide des fichiers de du projet BALSAC ainsi que les âges au décès des individus de l’échantillon en consultant les fiches de l’État civil. Nous avons pu mettre en lumière que les individus ayant passé leur enfance dans un ménage de type complexe affichent une mortalité moins élevée (de près de 35%) que pour les structures familiales simples. De plus, les individus qui ont grandi dans un ménage dont le chef était bilingue ou occupait un emploi qualifié ont des risques de mortalité inférieurs de près du tiers par rapport aux autres. Nous avons aussi trouvé que les résidents de la Basse-Ville courraient un risque de mortalité jusqu’à 50% plus élevé que celui de ceux provenant d’autres districts de la ville.
Resumo:
La protéine AID (déaminase induite par l’activation) joue un rôle central dans la réponse immunitaire adaptative. En désaminant des désoxycytidines en désoxyuridines au niveau des gènes immunoglobulines, elle initie l’hypermutation somatique (SHM), la conversion génique (iGC) et la commutation isotypique (CSR). Elle est essentielle à une réponse humorale efficace en contribuant à la maturation de l’affinité des anticorps et au changement de classe isotypique. Cependant, son activité mutagénique peut être oncogénique et causer une instabilité génomique propice au développement de cancers et de maladies autoimmunes. Il est donc critique de réguler AID, en particulier ses niveaux protéiques, pour générer une réponse immunitaire efficace tout en minimisant les risques de cancer et d’autoimmunité. Un élément de régulation est le fait qu’AID transite du cytoplasme vers le noyau mais reste majoritairement cytoplasmique à l’équilibre. AID est par ailleurs plus stable dans le cytoplasme que dans le noyau, ce qui contribue à réduire sa présence à proximité de l’ADN. Le but de cette thèse était d’identifier de nouveaux partenaires et déterminants d’AID régulant sa stabilité et ses fonctions biologiques. Dans un premier temps, nous avons identifié AID comme une nouvelle protéine cliente d’HSP90. Nous avons montré qu’HSP90 interagit avec AID dans le cytoplasme, ce qui empêche la poly-ubiquitination d’AID et sa dégradation par le protéasome. En conséquence, l’inhibition d’HSP90 résulte en une diminution significative des niveaux endogènes d’AID et corrèle avec une réduction proportionnelle de ses fonctions biologiques dans la diversification des anticorps mais aussi dans l’introduction de mutations aberrantes. Dans un second temps, nous avons montré que l’étape initiale dans la stabilisation d’AID par la voie de chaperonnage d’HSP90 dépend d’HSP40 et d’HSP70. En particulier, la protéine DnaJa1, qui fait partie de la famille des protéines HSP40s, limite la stabilisation d’AID dans le cytoplasme. La farnésylation de DnaJa1 est importante pour l’interaction entre DnaJa1 et AID et moduler les niveaux de DnaJa1 ou son état de farnésylation impacte à la fois les niveaux endogènes d’AID mais aussi la diversification des anticorps. Les souris DNAJA1-/- présentent une réponse immunitaire compromise en cas d’immunisation, qui est dûe à des niveaux réduits d’AID et un défaut de commutation de classe. Dans un troisième temps, nous avons montré que la protéine AID est intrinsèquement plus instable que sesprotéines paralogues APOBEC. Nous avons identifié l’acide aspartique en seconde position d’AID ainsi qu’un motif semblable au PEST comme des modulateurs de la stabilité d’AID. La modification de ces motifs augmente la stabilité d’AID et résulte en une diversification des anticorps plus efficace. En conclusion, l’instabilité intrinsèque d’AID est un élément de régulation de la diversification des anticorps. Cette instabilité est en partie compensée dans le cytoplasme par l’action protective de la voie de chaperonnage DnaJa1-HSP90. Par ailleurs, l’utilisation d’inhibiteurs d’HSP90 ou de farnésyltransférases pourrait être un outil intéressant pour la modulation indirecte des niveaux d’AID et le traitement de lymphomes/leucémies et de maladies auto-immunes causés par AID.
Resumo:
Cette thèse s'intéresse au lien qui existe entre le système électoral et deux comportements importants de la vie civique, soit la participation à une élection et la désertion stratégique du candidat préféré vers un autre candidat. Ces thèmes sont abordés dans de nombreux et de très importants ouvrages en science politique. En passant par la théorie (Downs, 1957) jusqu'à des études de terrain par l'entremise de sondages (Abramson, 2010; Blais, 2010), diverses méthodologies ont été employées pour mieux expliquer les choix des électeurs. Ma contribution à l'avancement des connaissances dans ce domaine passe par l'usage de la méthode expérimentale pour mieux saisir les similitudes et différences dans les comportements des électeurs sous le système uninominal à un tour (UT) et la représentation proportionnelle (RP) ainsi que les mécanismes au niveau individuel qui produisent ces similitudes et différences. Le cœur de la thèse est composé des trois articles dont voici les résumés : Article 1. Des élections expérimentales faites à Montréal, Paris et Bruxelles permettent d'estimer l’influence directe du mode de scrutin sur la décision des électeurs de voter ou non, et de voter pour leur parti préféré ou non. En tout, 16 groupes de 21 électeurs votent sous différents systèmes électoraux, soit le UT et la RP. Les préférences sont attribuées aléatoirement et connues de tous les participants. Nos résultats indiquent que le vote n'est pas globalement plus sincère et que la participation électorale n'est pas plus élevée sous le système proportionnel. Toutefois, nous observons moins de désertion d'un petit parti sous le système proportionnel. Article 2. Les expériences permettent également d'expliquer pourquoi les électeurs votent parfois pour un parti autre que leur parti préféré. La conclusion principale est que la décision de voter de façon sincère ou non est influencée par les préférences individuelles, mais aussi par les perceptions des chances de gagner des candidats ainsi que des chances que son propre vote puisse décider le résultat de l'élection. Les électeurs qui désertent leur premier choix prennent en considération quel candidat est le plus près de leurs positions politiques, mais également de la viabilité de cette alternative. De plus, les électeurs qui aiment prendre des risques ont davantage tendance à déserter. Article 3. Le modèle de l'électeur pivot est mis à l'épreuve pour mieux comprendre la décision de voter ou non lors d'une élection. Nos expériences permettent de répliquer, avec un devis expérimental différent, les résultats importants des travaux de Duffy et Tavits (2008). Nos résultats confirment que la perception d'être pivot augmente la participation, que ces perceptions sont sujettes à la surestimation et que cette surestimation ne décline pas complètement dans le temps. Nous allons également plus loin que les recherches de Duffy et Tavits et nous trouvons que la participation n'est pas plus forte sous RP que sous UT et que la probabilité d'être pivot a un impact plus important chez les électeurs évitant de prendre des risques.
Resumo:
Les expériences de spectroscopie ont été réalisées en collaboration avec Jean-François Allard du groupe de Denis Morris de l'Université de Sherbrooke.
Resumo:
En Amérique du Nord, et particulièrement au Canada, il y a très peu de données sur l’incidence des causes de mortalité chez l’espèce caprine. Le premier objectif de cette étude était de déterminer les principales causes de mortalité chez les chèvres au Québec. Depuis 2006, avec l’arrêt de la vaccination contre la lymphadénite caséeuse, les éleveurs de caprins laitiers et de boucherie du Québec ont rapporté une recrudescence des abcès chez leur bétail. Le second but de cette étude était de déterminer l’importance de la lymphadénite caséeuse dans le dépérissement et la mortalité des chèvres du Québec. Cent-cinquante-deux chèvres provenant de 13 élevages différents ont été soumises pour nécropsie et la cause de mortalité, de même que la présence d’abcès (s’il y a lieu), leur localisation et leur cause furent compilés. Les mortalités proportionnelles étaient, par ordre décroissant : l’entérotoxémie de type D (n= 26; 17,1%), la pneumonie (n= 21; 13,8%), la paratuberculose (n= 16; 10,5%), listériose encéphalitique (n= 10; 6,6%), la toxémie de gestation (n= 8; 5,3%), l’arthrite-encéphalite caprine (n= 7; 4,6%) et la lymphadénite caséeuse (n= 6; 3,9%). La lymphadénite caséeuse a été diagnostiquée chez 24,3% des chèvres soumises, mais sans être une cause majeure de dépérissement ou de mortalité. Les abcès étaient internes dans 54,1% des cas. Au total, la paratuberculose a été diagnostiquée chez 29 chèvres (16 en étant décédées) et fut considérée comme une cause majeure de dépérissement, d’émaciation et de mortalité. Le développement et l’implantation de mesures préventives contre cette maladie seraient donc à envisager dans le futur.
Resumo:
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Il existe un lien étroit entre la structure tridimensionnelle et la fonction cellulaire de l’ARN. Il est donc essentiel d’effectuer des études structurales de molécules d’ARN telles que les riborégulateurs afin de mieux caractériser leurs mécanismes d’action. Une technique de choix, permettant d’obtenir de l’information structurale sur les molécules d’ARN est la spectroscopie RMN. Cette technique est toutefois limitée par deux difficultés majeures. Premièrement, la préparation d’une quantité d’ARN nécessaire à ce type d’étude est un processus long et ardu. Afin de résoudre ce problème, notre laboratoire a développé une technique rapide de purification des ARN par affinité, utilisant une étiquette ARiBo. La deuxième difficulté provient du grand recouvrement des signaux présents sur les spectres RMN de molécules d’ARN. Ce recouvrement est proportionnel à la taille de la molécule étudiée, rendant la détermination de structures d’ARN de plus de 15 kDa extrêmement complexe. La solution émergeante à ce problème est le marquage isotopique spécifique des ARN. Cependant, les protocoles élaborées jusqu’à maintenant sont très coûteux, requièrent plusieurs semaines de manipulation en laboratoire et procurent de faibles rendements. Ce mémoire présente une nouvelle stratégie de marquage isotopique spécifique d’ARN fonctionnels basée sur la purification par affinité ARiBo. Cette approche comprend la séparation et la purification de nucléotides marqués, une ligation enzymatique sur support solide, ainsi que la purification d’ARN par affinité sans restriction de séquence. La nouvelle stratégie développée permet un marquage isotopique rapide et efficace d’ARN fonctionnels et devrait faciliter la détermination de structures d’ARN de grandes tailles par spectroscopie RMN.