995 resultados para Séquençage de nouvelle génération
Resumo:
Les dirigeants-propriétaires des petites et moyennes entreprises (PME) sont de plus en plus intéressés par la gestion des ressources humaines (GRH); certains y voient un avantage concurrentiel face à la pénurie de main-d’œuvre actuelle. Considérant que la compatibilité entre les caractéristiques des travailleurs et celles de l’organisation peut générer des résultats positifs (Kristof-Brown et Guay, 2011), notre étude s’intéresse aux pratiques de GRH associées aux valeurs au travail de la génération Y ainsi que leur effet sur la capacité des PME à attirer et retenir cette cohorte. Cette étude qualitative s’est réalisée grâce à des données primaires colligées à la suite d’entrevues avec des dirigeants de quatre PME du secteur de la construction et seize employés appartenant à la génération Y œuvrant au sein de ces entreprises. Par nos résultats, nous avons relevé que la qualité des relations, autant avec les collègues que les superviseurs, demeure généralement la principale source d’attraction et de rétention des Y dans les PME. Nos résultats soutiennent aussi que leur attraction et rétention peut être très fortement favorisée grâce à des pratiques de communication bidirectionnelle et illimitée, une communication stratégique et une liberté dans la gestion du temps et des méthodes de travail. La conciliation travail et vie personnelle, les défis variés, les possibilités d’avancement, la gestion des ressources humaines socialement responsable, la reconnaissance des compétences ainsi que la gestion participative sont aussi des pratiques pouvant être fortement liées à l’attraction et la rétention de cette génération. Nos résultats montrent aussi que l’attraction et la rétention des Y dans les PME sont modérément favorisées par le travail d’équipe, les conditions de travail équitables et objectives et la rémunération globale concurrentielle. À l’inverse, la présence de technologies de l’information et des communications et la formation continue sont des sources plus faibles d’attraction et de rétention en comparaison aux autres pratiques abordées dans cette étude. En somme, cette étude contribue à la littérature sur la GRH dans les PME, puisque les spécificités relatives à ces entreprises ont été peu considérées jusqu’à aujourd’hui. Elle permet aussi la recommandation de pratiques utiles aux dirigeants-propriétaires et professionnels en ressources humaines œuvrant avec le défi d’attraction et de rétention de la génération Y au sein de leur entreprise.
Resumo:
Ce mémoire cherche à concevoir en théorie la dialectique socialisa-tion/individualisation à l’œuvre dans la formation et la transmission des goûts et pratiques culturels chez les jeunes adultes. L'analyse de dix entretiens conduits auprès de jeunes Montréalais âgés de 18 à 24 ans révèle que la socialisation sous l’égide de la famille et de l’école reste active sans être coercitive du fait qu’elle s'avère propice à la capacité des jeunes à se concevoir sous leur propre gouverne et à développer leurs propres goûts en matière de pratiques culturelles. Les pairs jouent également un rôle à cet égard, rôle amplifié par les moyens numériques. Les relations entre pairs génèrent une espèce de tension entre conformité au groupe et volonté d’être soi-même et de pouvoir agir à sa guise. Les nouvelles technologies d’information et de communication, quant à elles, se révèlent de nos jours sources de socialisation et d’individualisation en donnant accès à des « réseaux » en vertu desquels s’infléchissent les goûts et les préférences qui façonnent la pratique de la culture tout en permettant aux jeunes d’avoir les coudées franches pour les développer par eux-mêmes.
Resumo:
L’identification des contraintes financières et sociales qui sont sous-entendues dans la situation des personnages amoureux de la comédie de Ménandre – à partir de ses pièces et fragments subsistants et de ses adaptations en langue latine par Térence – permet d’éclairer la rhétorique de séduction ou de dissuasion employée par les divers personnages types de ce genre littéraire. Or, il existe un parallèle étroit entre ces discours et situations dramatiques et l’élégie érotique qui fleurit quelques siècles plus tard à Rome sous la plume de Tibulle, Properce et Ovide. Certains aspects déroutants de la rhétorique de séduction employée par les élégistes sont élucidés lorsqu’on les comprend dans le contexte dramatique de la comédie nouvelle : notamment, le poète narrateur se positionne dans la situation du jeune protagoniste amoureux de la comédie et la bien-aimée à qui il s’adresse se trouve dans la situation de la courtisane indépendante qui figure dans plusieurs pièces comiques. Cette recherche conclut qu’il existe une tension financière entre l’amant élégiaque et sa maîtresse qui, bien qu’elle soit passée sous silence par les poètes, influence les arguments utilisés par le narrateur à son égard et les propos imaginés ou rapportés de sa bien-aimée en retour.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Cet article, à travers une analyse des caractéristiques du savoir traditionnel et du cadre juridique international de la propriété intellectuelle, montre que le savoir traditionnel des peuples autochtones ne peut pas être protégé par le système actuel de propriété intellectuelle, tel que défini notamment dans l'Accord sur les ADPIC, bien qu'il soit reconnu fondamental pour la conservation de la diversité biologique comme dans la Convention sur la Diversité Biologique. Dans ce contexte de normes antinomiques, cet article explore les perspectives d'avenir de la protection des droits des peuples autochtones en matière de propriété intellectuelle, et envisage la médiation pour aller au-delà de l'incompatibilité manifeste des deux sphères.
Resumo:
Le développement exponentiel des réseaux informatiques a largement contribué à augmenter le volume des renseignements personnels disponibles et à remplacer les méthodes désuètes de collecte des renseignements par des méthodes plus rapides et plus efficaces. La vie privée et le contrôle sur les informations personnelles, tels que nous les connaissions il y a quelques décennies, sont des notions difficilement compatibles avec la société ouverte et commerciale comme la nôtre. Face à cette nouvelle réalité menaçante pour les droits et libertés de l’homme, il est essentiel de donner un cadre technique et légal stable qui garantisse une protection adéquate de ces données personnelles. Pour rester dans le marché ou bénéficier de la confiance des individus, les entreprises et les gouvernements doivent posséder une infrastructure de sécurité efficace. Cette nouvelle donne a tendance à devenir plus qu’une règle de compétitivité, elle se transforme en une authentique obligation légale de protéger les données à caractère personnel par des mesures de sécurité adéquates et suffisantes. Ce mémoire aborde justement ces deux points, soit l’étude du développement d’une obligation légale de sécurité et l’encadrement juridique de la mise en place d’un programme de sécurisation des données personnelles par des mesures de sécurités qui respectent les standards minimaux imposés par les textes législatifs nationaux et internationaux.
Resumo:
« La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU). »
Resumo:
Les anomalies du tube neural (ATN) sont des malformations congénitales très fréquentes chez l’humain en touchant 1-2 nouveau-nés sur 1000 naissances. Elles résultent d’une fermeture incomplète du tube neural lors de l’embryogenèse. L’étiologie des ATN est complexe impliquant des facteurs environnementaux et des facteurs génétiques. La souris représente un outil puissant afin de mieux comprendre la génétique des ATN. Particulièrement, la souris modèle a impliqué fortement la voie de la polarité cellulaire planaire (PCP) dans ces malformations. Dans cette étude, nous avons identifié et caractérisé une nouvelle souris mutante, Skam26Jus dans le but d’identifier un nouveau gène causant les ATN. Skam26Jus a été générée par l’agent mutagène N-Ethyl-N-Nitrosuera. Cette souris est caractérisée par une queue en forme de boucle ou de crochet, soit un phénotype associé aux ATN. La complémentation génétique de la souris Skam26Jus avec une souris mutante d’un gène de la voie PCP Vangl2 (Looptail) a montré une interaction génétique entre le gène muté chez Skam26Jus et Vangl2, suggérant que ces deux gènes fonctionnent dans des voies de signalisation semblables ou parallèles. Un total de 50% des embryons doubles hétérozygotes avec un phénotype de la queue présentent un spina bifida. La cartographie par homozygotie du génome entier suivie par un clonage positionnel a permis d’identifier Lrp6 comme le gène muté chez Skam26Jus. Une mutation homozygote, p.Ile681Arg, a été identifiée dans Lrp6 chez les souris ayant une queue en boucle/crochet. Cette mutation était absente dans 30 souches génétiques pures indiquant que cette mutation est spécifique au phénotype observé. Une étude de phénotype-génotype évalue la pénétrance à 53 % de la mutation Ile681Arg. Lrp6 est connu pour activer la voie canonique Wnt/β-caténine et inhiber la voie non canonique Wnt/PCP. Le séquençage de la région codante et de la jonction exon-intron de LRP6 chez 268 patients a mené à l’identification de quatre nouvelles rares mutations faux sens absentes chez 272 contrôles et de toutes les bases de données publiques. Ces mutations sont p.Tyr306His ; p.Tyr373Cys ; p.Val1386Ile; p.Tyr1541Cys et leur pathogénicité prédite in silico indiquent que p.Val1386Ile est bénigne, et que p.Tyr306Hiset p.Tyr373Cys et p.Tyr1541Cys sont i possiblement dommageables. Les mutations p.Tyr306His, p.Tyr373Cys et p.Tyr1541Cys ont affecté l’habilité de LRP6 d’activer la voie Wnt/β-caténine en utilisant le système rapporteur luciférase de pTOPflash. Nos résultats suggèrent que LRP6 joue un rôle dans le développement des ATN chez une petite fraction de patients ayant une ATN. Cette étude présente aussi Skam26Jus comme un nouveau modèle pour étudier les ATN chez l’humain et fournit un outil important pour comprendre les mécanismes moléculaires à l’origine des A TN.
Resumo:
Essai présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Maîtrise ès Art (M.A.) en service social
Resumo:
Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.
Resumo:
Cette thèse présente le résultat de plusieurs années de recherche dans le domaine de la génération automatique de résumés. Trois contributions majeures, présentées sous la forme d'articles publiés ou soumis pour publication, en forment le coeur. Elles retracent un cheminement qui part des méthodes par extraction en résumé jusqu'aux méthodes par abstraction. L'expérience HexTac, sujet du premier article, a d'abord été menée pour évaluer le niveau de performance des êtres humains dans la rédaction de résumés par extraction de phrases. Les résultats montrent un écart important entre la performance humaine sous la contrainte d'extraire des phrases du texte source par rapport à la rédaction de résumés sans contrainte. Cette limite à la rédaction de résumés par extraction de phrases, observée empiriquement, démontre l'intérêt de développer d'autres approches automatiques pour le résumé. Nous avons ensuite développé un premier système selon l'approche Fully Abstractive Summarization, qui se situe dans la catégorie des approches semi-extractives, comme la compression de phrases et la fusion de phrases. Le développement et l'évaluation du système, décrits dans le second article, ont permis de constater le grand défi de générer un résumé facile à lire sans faire de l'extraction de phrases. Dans cette approche, le niveau de compréhension du contenu du texte source demeure insuffisant pour guider le processus de sélection du contenu pour le résumé, comme dans les approches par extraction de phrases. Enfin, l'approche par abstraction basée sur des connaissances nommée K-BABS est proposée dans un troisième article. Un repérage des éléments d'information pertinents est effectué, menant directement à la génération de phrases pour le résumé. Cette approche a été implémentée dans le système ABSUM, qui produit des résumés très courts mais riches en contenu. Ils ont été évalués selon les standards d'aujourd'hui et cette évaluation montre que des résumés hybrides formés à la fois de la sortie d'ABSUM et de phrases extraites ont un contenu informatif significativement plus élevé qu'un système provenant de l'état de l'art en extraction de phrases.
Resumo:
Ce mémoire présente mes travaux ayant menés au développement d’une première génération de radioligands marqués au fluor-18 (t1/2 = 110 min) et au carbone-11 (t1/2 = 20.4 min) destinés à l’imagerie cérébrale in vivo du récepteur tyrosine kinase neurotrophique de type 2 (TrkB) en tomographie par émission de positons (TEP). Ces travaux reposent sur l’identification récente de ligands de TrkB non peptidiques à hautes affinités dérivés du 7,8-dihydroxyflavone. La synthèse d’une série de dérivés du 7,8-dihydroxyflavone non-radioactifs de même que des précuseurs à l’incorporation du fluro-18 et du carbone-11 a d’abord été effectuée. Partant des précurseurs adéquats synthétisés, la radiosynthèse de deux radioligands, l’un marqué au fluor-18 et l’autre au carbone-11, a été développée. Ces radiosynthèses reposent respectivement sur une 18F-radiofluorination nucléophile aromatique nouvelle et hautement efficace et sur une 11C-méthylation N-sélective. Les radiotraceurs de TrkB ainsi obtenus ont ensuite été évalués in vitro en autoradiographie et in vivo en tant que traceurs TEP dans des rats. L’évaluation des propriétés physico-chimique de même que de la stabilité in vitro des radiotraceurs sont présentées. Partant d’une série d’analogues cristallisés de ces flavones synthétiques, une étude de relation structure-activité a été menée. La combinaison de cette étude, de pair avec l’évaluation in vivo de la première génération de radiotraceurs de TrkB a aussi permis d’investiguer les pharmacophores nécessaires à l’affinité de ces ligands de même que d’identifier des fragments structurels associés au métabolisme des radiotraceurs. La radiosynthèse d’un troisième radioligand de TrkB et son évaluation TEP in vivo de même que la mise en lumière des modifications structurelles utiles au développement d’une seconde génération de radioligands de TrkB avec des propriétés optimisées pour fin d’imagerie TEP sont aussi détaillés.
Resumo:
Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association.
Resumo:
L’existence d’un sous-type dissociatif de schizophrénie a été suggérée par plusieurs auteurs pour rendre compte des présentations symptomatologiques d’un groupe de personnes dont le diagnostic principal est dans le spectre de la schizophrénie mais qui présentent aussi des symptômes dissociatifs (Ross, 2004; Şar et al., 2010; Van der Hart, Witztum, & Friedman, 1993). D’origine traumatique, ce type de portrait clinique où symptômes psychotiques et dissociatifs s’entremêlent aurait été décrit il y a déjà plus d’un siècle (Janet & Raymond, 1898) mais serait disparu dans les années ’30, assimilé au concept de « schizophrénie » (Rosenbaum, 1980). C’est dans un nouveau contexte nosographique que le concept de schizophrénie dissociative refait surface. En effet, la nosographie psychiatrique a pris un tournant en 1980 lorsque l’approche préconisée par le DSM est devenue descriptive plutôt que basée sur des conceptualisations psychanalytiques. Du coup, les affections d’alors ont été divisées en troubles dont les symptômes ont tendance à se manifester ensemble (Cooper, 2004) et la comorbidité entre les troubles a augmenté. Étant donné la comorbidité fréquemment rapportée entre les troubles psychotiques et dissociatifs, la similarité phénoménologique de leurs symptômes, ainsi que leur possible étiologie traumatique, Ross (2004) a proposé une série de critères permettant de diagnostiquer une schizophrénie dissociative. L’objectif principal de cette thèse est donc d’établir si la schizophrénie dissociative, telle que définie par Ross (2004), existe. Le premier article porte sur la problématique et le contexte théorique ayant mené à la question de recherche. Il vise à faire un survol des enjeux entourant la question de la schizophrénie dissociative et rend compte des écrits scientifiques sur la symptomatologie similaire entre les troubles psychotiques et dissociatifs, sur leur étiologie traumatique et sur les études sur la dissociation et la schizophrénie. Le deuxième article est quant à lui un article empirique rendant compte de la méthodologie utilisée pour répondre à la question de recherche. En effet, aucune étude jusqu’ici n’a testé systématiquement les critères de la schizophrénie dissociative. Nos résultats démontrent que 24% de notre échantillon (N=50) pourrait recevoir le diagnostic de schizophrénie dissociative avec les critères proposés par Ross (2004). Toutefois, ces critères posant problème, une modification a été proposée et une prévalence de 14% a alors été trouvée. Des vignettes cliniques sont présentées afin de comparer nos participants avec ceux rapportés ailleurs. Les liens entre symptômes psychotiques et dissociatifs sont discutés en essayant de conceptualiser la schizophrénie dissociative de différentes manières, soit comme une nouvelle entité clinique, comme un trouble comorbide ou dans un contexte nosographique psychodynamique.