6 resultados para two-dimensional principal component analysis (2DPCA)
em Université de Montréal, Canada
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Cette thèse s’intéresse à la mesure des pratiques éducatives et à leur capacité à rendre compte de ces pratiques. Notamment, la sensibilité des instruments à rendre compte des changements dans les pratiques éducatives suite à un programme d’entraînement aux habiletés parentales est abordée tout en tenant compte des facteurs déterminants de ces pratiques. Le corps de cette thèse est composé de deux articles. L’objectif de la première étude consiste à comparer deux instruments de mesure fréquemment utilisés pour mesurer les pratiques éducatives. Les deux instruments, comparés sur la base de données empiriques, sont le Parenting Practices Interview (PPI), un instrument développé afin de mesurer les changements suite au programme d’entraînement aux habiletés parentales Ces Années Incroyables, et l’Alabama Parenting Questionnaire (APQ). Le premier s’adresse aux parents d’enfants de 3 à 8 ans alors que le second cible les parents d’enfants d’âge scolaire. Cent vingt parents ont complété le PPI et l’APQ. Des analyses corrélationnelles, une analyse en composante principale et des corrélations canoniques ont été utilisées afin de comparer les différentes pratiques mesurées par ces deux instruments. Les résultats indiquent que ces deux instruments mesurent sensiblement les mêmes pratiques parentales. Quelques sous-échelles du PPI ne sont pas mesurées par l’APQ et représentent des pratiques éducatives additionnelles. Puisque ces deux instruments mesurent sensiblement les mêmes pratiques, le choix du questionnaire devrait être fait en fonction de l’objectif de l’étude (p.ex. évaluer l’efficacité du programme Ces Années Incroyables ou non), de la facilité d’utilisation de l’instrument et de l’âge des enfants. Le deuxième article a pour objectif d’évaluer les changements dans les pratiques éducatives suite à la participation des parents à un programme d’entraînement aux habiletés parentales (PEHP) à l’aide d’une grille d’observation spécifiquement développée dans le cadre de ce projet. De plus, cette étude vise à identifier les facteurs modérateurs du changement dans les pratiques éducatives telles certaines caractéristiques de l’enfant et des parents. Soixante-dix-sept familles ayant un enfant de 6 à 9 ans avec un trouble du déficit d’attention/hyperactivité (TDA/H) ont été retenues pour cette étude. Les familles ont participé soit au PEHP, soit elles ont reçu du soutien téléphonique (ST), ou elles ont continué à recevoir les services dans la communauté. Les pratiques éducatives ont été évaluées avant et après l’intervention à l’aide d’une mesure observationnelle. Les résultats indiquent que seuls les parents ayant participé au PEHP utilisent davantage de pratiques positives et ont diminué les pratiques sévères et négatives suite à l’intervention. De plus, le sous-type de TDA/H, la présence ou non de comorbidité chez l’enfant et le cumul de risque à l’intérieur d’une famille, calculé à partir de caractéristiques des parents, ne modèrent pas le changement suite à l’intervention. Cette étude démontre donc la capacité de la mesure observationnelle à détecter des changements suite à l’intervention de même que l’efficacité du PEHP auprès des familles d’enfants d’âge scolaire ayant un TDA/H.
Resumo:
De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.
Resumo:
La fibrillation auriculaire est le trouble du rythme le plus fréquent chez l'homme. Elle conduit souvent à de graves complications telles que l'insuffisance cardiaque et les accidents vasculaires cérébraux. Un mécanisme neurogène de la fibrillation auriculaire mis en évidence. L'induction de tachyarythmie par stimulation du nerf médiastinal a été proposée comme modèle pour étudier la fibrillation auriculaire neurogène. Dans cette thèse, nous avons étudié l'activité des neurones cardiaques intrinsèques et leurs interactions à l'intérieur des plexus ganglionnaires de l'oreillette droite dans un modèle canin de la fibrillation auriculaire neurogène. Ces activités ont été enregistrées par un réseau multicanal de microélectrodes empalé dans le plexus ganglionnaire de l'oreillette droite. L'enregistrement de l'activité neuronale a été effectué continument sur une période de près de 4 heures comprenant différentes interventions vasculaires (occlusion de l'aorte, de la veine cave inférieure, puis de l'artère coronaire descendante antérieure gauche), des stimuli mécaniques (toucher de l'oreillette ou du ventricule) et électriques (stimulation du nerf vague ou des ganglions stellaires) ainsi que des épisodes induits de fibrillation auriculaire. L'identification et la classification neuronale ont été effectuées en utilisant l'analyse en composantes principales et le partitionnement de données (cluster analysis) dans le logiciel Spike2. Une nouvelle méthode basée sur l'analyse en composante principale est proposée pour annuler l'activité auriculaire superposée sur le signal neuronal et ainsi augmenter la précision de l'identification de la réponse neuronale et de la classification. En se basant sur la réponse neuronale, nous avons défini des sous-types de neurones (afférent, efférent et les neurones des circuits locaux). Leur activité liée à différents facteurs de stress nous ont permis de fournir une description plus détaillée du système nerveux cardiaque intrinsèque. La majorité des neurones enregistrés ont réagi à des épisodes de fibrillation auriculaire en devenant plus actifs. Cette hyperactivité des neurones cardiaques intrinsèques suggère que le contrôle de cette activité pourrait aider à prévenir la fibrillation auriculaire neurogène. Puisque la stimulation à basse intensité du nerf vague affaiblit l'activité neuronale cardiaque intrinsèque (en particulier pour les neurones afférents et convergents des circuits locaux), nous avons examiné si cette intervention pouvait être appliquée comme thérapie pour la fibrillation auriculaire. Nos résultats montrent que la stimulation du nerf vague droit a été en mesure d'atténuer la fibrillation auriculaire dans 12 des 16 cas malgré un effet pro-arythmique défavorable dans 1 des 16 cas. L'action protective a diminué au fil du temps et est devenue inefficace après ~ 40 minutes après 3 minutes de stimulation du nerf vague.
Resumo:
Dans le cadre de l’évaluation pré-chirurgicale de patients épileptiques, il est impératif de déterminer la spécialisation hémisphérique du langage, ainsi que de localiser les aires du langage au sein de cet hémisphère. De nouvelles méthodes d’évaluation non- invasives doivent être mises au point afin de diminuer les risques associés aux méthodes plus invasives telles que le test à l’amobarbital intracarotidien (TAI). L’objectif principal de cette thèse est donc de développer un protocole d’évaluation pré-chirurgicale alternatif et non-invasif à l’aide de la magnétoencéphalographie (MEG) pour la latéralisation et la localisation du langage, incluant la mémoire verbale qui serait éventuellement accessible à une population pédiatrique francophone épileptique. L’article 1 présente une recension de la littérature résumant les différentes études en MEG ayant pour objectif l’évaluation pré-chirurgicale du langage. Trente-sept articles en MEG ont été analysés pour déterminer quelles tâches permettaient d’obtenir les meilleurs résultats de latéralisation intrahémisphérique et de localisation du langage pour l’évaluation du langage réceptif et expressif chez des sujets neurologiquement sains et épileptiques. Parmi les tests retenus, l’épreuve de reconnaissance de mots permet d’évaluer le langage réceptif et la mémoire verbale, tandis que des épreuves de fluence verbale telles que la génération de verbes permettent d’évaluer le langage expressif de façon à obtenir de très bons résultats. L’article 2 a permis de valider un protocole auprès de sujets neurologiquement sains à l’aide des épreuves identifiées dans l’article 1. Le protocole utilisé comprend une tâche de langage réceptif et de mémoire verbale (une épreuve de reconnaissance de mots) et une tâche de langage expressif (une épreuve de fluence verbale). Suite à la validation du protocole à l’aide d’analyses par composantes principales, les épreuves ont été administrées à un groupe de patients épileptiques. Les index de latéralité et les analyses de sources i révèlent que la MEG permet de localiser et de latéraliser les fonctions langagières et pourrait donc être utilisée comme méthode d'évaluation du langage lors de l'évaluation pré- chirurgicale auprès de patients épileptiques. Toutefois, alors que l’épreuve de mémoire verbale a permis d’obtenir les meilleurs résultats auprès de l’ensemble des participants, l’épreuve de fluence verbale n’a fourni des informations supplémentaires que chez un seul patient et chez aucun participant neurologiquement sain. En résumé, les deux articles de cette thèse démontrent le potentiel clinique de la MEG pour l’évaluation pré-chirurgicale de patients souffrant d’une épilepsie réfractaire.
Resumo:
This paper describes a method for analyzing scoliosis trunk deformities using Independent Component Analysis (ICA). Our hypothesis is that ICA can capture the scoliosis deformities visible on the trunk. Unlike Principal Component Analysis (PCA), ICA gives local shape variation and assumes that the data distribution is not normal. 3D torso images of 56 subjects including 28 patients with adolescent idiopathic scoliosis and 28 healthy subjects are analyzed using ICA. First, we remark that the independent components capture the local scoliosis deformities as the shoulder variation, the scapula asymmetry and the waist deformation. Second, we note that the different scoliosis curve types are characterized by different combinations of specific independent components.