958 resultados para Prédiction de la fonction protéique
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.
Resumo:
Résumé : Les méthodes de détection de similarités de sites de liaison servent entre autres à la prédiction de fonction et à la prédiction de cibles croisées. Ces méthodes peuvent aider à prévenir les effets secondaires, suggérer le repositionnement de médicament existants, identifier des cibles polypharmacologiques et des remplacements bio-isostériques. La plupart des méthodes utilisent des représentations basées sur les atomes, même si les champs d’interaction moléculaire (MIFs) représentent plus directement ce qui cherche à être identifié. Nous avons développé une méthode bio-informatique, IsoMif, qui détecte les similarités de MIF entre différents sites de liaisons et qui ne nécessite aucun alignement de séquence ou de structure. Sa performance a été comparée à d’autres méthodes avec des bancs d’essais, ce qui n’a jamais été fait pour une méthode basée sur les MIFs. IsoMif performe mieux en moyenne et est plus robuste. Nous avons noté des limites intrinsèques à la méthodologie et d’autres qui proviennent de la nature. L’impact de choix de conception sur la performance est discuté. Nous avons développé une interface en ligne qui permet la détection de similarités entre une protéine et différents ensembles de MIFs précalculés ou à des MIFs choisis par l’utilisateur. Des sessions PyMOL peuvent être téléchargées afin de visualiser les similarités identifiées pour différentes interactions intermoléculaires. Nous avons appliqué IsoMif pour identifier des cibles croisées potentielles de drogues lors d’une analyse à large échelle (5,6 millions de comparaisons). Des simulations d’arrimage moléculaire ont également été effectuées pour les prédictions significatives. L’objectif est de générer des hypothèses de repositionnement et de mécanismes d’effets secondaires observés. Plusieurs exemples sont présentés à cet égard.
Resumo:
Grâce à l'élaboration de sa théorie opératoire du développement cognitif, Jean Piaget fut, sans contredit, l'un des auteurs les plus écoutés dans ce domaine. Il a mis en lumière une série de stades du développement cognitif allant du niveau sensori-moteur en passant par le niveau des opérations concrètes pour finalement aboutir à celui des opérations formelles qui obéissent à des lois précises de construction (Piaget, 1964). Parmi celles-ci, Piaget affirme l'universalité du développement de ces stades en ce sens que tous les sujets passent par la même séquence. Il s'est très peu intéressé aux différences inter-individuelles. Ce qui explique que la très grande majorité de ses travaux ont portés sur l'observation de sujets normaux (Inhelder, 1963). Ce fut donc d'autres chercheurs qui ont tenté d'appliquer la pensée piagétienne à des catégories précises de sujets. Dans cette veine, la présente recherche s'intéresse à l'application de cette pensée aux déficients profonds. C'est là un moyen utile de tester l'universalité de la séquence de développement proposée par Piaget. Le relevé de documentation sur cette question proposée par Klein et Safford (1977) permet de constater qu'il est relativement aisé de trouver des recherches s’intéressant à l'étude du fonctionnement cognitif des déficients mentaux légers atteignant la période des opérations concrètes mais qu'il est beaucoup plus difficile d'en trouver qui s'attardent au fonctionnement cognitif des déficients profonds. Il est pourtant possible d'en trouver quelques-unes (Ciccheti et Sroufe, 1976; Inhelder, 1963; Kahn, 1976; Lambert et Vanderlinden, 1977; Rogers, 1977; Silverstein et al., 1975; Wohlueter et Sindberg, 1975; Woodward, 1959). Les résultats divergent. De plus, une analyse approfondie des méthodologies utilisées suffit à convaincre que le débat demeure ouvert sur cette question. Des améliorations méthodologiques sont apportées dans cette recherche. La présente étude analyse donc le fonctionnement sensori-moteur des déficients profonds en le comparant à celui de sujets normaux de même âge mental qu'eux. Les déficients mentaux sont divisés en deux groupes selon qu'il y ait ou non présence de trouble lésionnel. Tous les sujets font face aux items de l'échelle de la poursuite visuelle et de la permanence de l'objet ainsi que celle des relations entre les objets dans l'espace construits par Uzgiris et Hunt (1975). Les résultats sont ensuite tour à tour présentés et interprétés.
Resumo:
Le but de cette étude est de comparer certains paramètres anthropométriques (le poids, l'indice de masse corporelle, le pli adipeux du triceps, la somme des plis cutanés) et physiologiques (la performance en minutes au test Léger navette, la pression systolique et diastolique). L'expérimentation d'une durée de trois semaines se réalise à l'école La Maisonnée, située à Rock Forest et regroupe 80 sujets âgés de 7 à 11 ans qui sont divisés en deux groupes. Le groupe contrôle de 40 sujets ayant une pression artérielle normale (< 90e percentile selon l'âge et le sexe) et le groupe expérimental est composé de 40 sujets ayant une pression artérielle élevée (> 90e percentile selon l'âge et le sexe). Les résultats démontrent des différences significatives entre le groupe contrôle et le groupe expérimental au niveau de la pression systolique et diastolique, du poids, de l'indice de masse corporelle, du pli adipeux du triceps, de la somme des plis cutanés et de la performance en minutes au test Léger navette. De plus, cette étude révèle qu'il y a beaucoup plus d'enfants du deuxième cycle que du premier cycle du primaire qui ont une pression artérielle élevée. En sachant maintenant que l'hypertension est un facteur de risque important de la maladie coronarienne et qu'elle est souvent une conséquence de l'obésité, des mesures devraient être entreprises afin de prévenir ce problème chez l'enfant. En terminant, un programme d'activité physique pourrait être implanté dans les écoles pour diminuer ce problème qui prend de plus en plus d'ampleur à chaque année.
Resumo:
Au travers de cette étude, nous proposons de mettre en place un système d’information géographique (SIG) prédictif afin d’obtenir le classement des pays vulnérables à la brusque variation des prix du maïs. L'élément déclencheur de cette variation sera un aléa climatique sur la zone de culture américaine, premier pays producteur. Afin d'analyser les conséquences d'une catastrophe naturelle, il fut nécessaire de construire un indice final de vulnérabilité par le regroupement de plusieurs thématiques (agricole, économique et socio politique). Les données des différentes thématiques ainsi que les résultats sont intégrés dans une base de données à référence spatiale pour permettre la restitution des résultats dans un SIG web.
Resumo:
Les crimes sexuels génèrent beaucoup d’inquiétudes chez la société, particulièrement quand vient le temps de libérer certains délinquants sexuels à risque élevé de récidive. Les évaluations du risque sont ainsi pertinentes puisque la majorité des délinquants sexuels sont libérés suivant une peine d’emprisonnement déterminée (Wilson, Picheca and Prinzo, 2005). Certaines méthodes sont donc mises en place servant à gérer les délinquants sexuels en communauté. Un cadre légal impose certaines conditions de remise en liberté et vise à réduire le risque de récidive (Hanson and Morton-Bourgon, 2005). Toutefois, une fois leur sentence complétée, certains délinquants posent toujours un risque pour la société. Pour répondre à ce problème, des partenariats ont été développés au Québec entre les services correctionnels et policiers. Ils imposent une surveillance accrue des personnes à risque élevé de récidive (PRER). Les décisions qui sont prises peuvent être lourdes de conséquences. Il est donc important d’évaluer si les méthodes de ciblage sont efficaces, soit orientées vers les individus à haut risque de récidive. Les données utilisées dans le cadre de ce mémoire proviennent de deux sources. Premièrement, un échantillon comparatif issu d’une compilation de données comprenant l’ensemble des délinquants sexuels condamnés depuis 20 ans a été utilisé (n = 235). Puis, un registre développé depuis 10 ans regroupant l’ensemble des individus soumis au programme a été analysé (n = 235). Les participants ont été évalués en fonction des variables disponibles de la Statique-99R. L’utilité de l’outil pour la police a été mise en perspective. Le programme ne semble pas n’impliquer que des délinquants sexuels à haut risque de récidive. Les taux de récidive sont relativement bas et similaires dans les deux échantillons. Les services de police ont des données pertinentes qui permettent d’étudier la qualité du ciblage fait dans le cadre du programme. Des évaluations plus fiables pourraient améliorer l’allocation des ressources et les stratégies de ciblage.
Resumo:
Les crimes sexuels génèrent beaucoup d’inquiétudes chez la société, particulièrement quand vient le temps de libérer certains délinquants sexuels à risque élevé de récidive. Les évaluations du risque sont ainsi pertinentes puisque la majorité des délinquants sexuels sont libérés suivant une peine d’emprisonnement déterminée (Wilson, Picheca and Prinzo, 2005). Certaines méthodes sont donc mises en place servant à gérer les délinquants sexuels en communauté. Un cadre légal impose certaines conditions de remise en liberté et vise à réduire le risque de récidive (Hanson and Morton-Bourgon, 2005). Toutefois, une fois leur sentence complétée, certains délinquants posent toujours un risque pour la société. Pour répondre à ce problème, des partenariats ont été développés au Québec entre les services correctionnels et policiers. Ils imposent une surveillance accrue des personnes à risque élevé de récidive (PRER). Les décisions qui sont prises peuvent être lourdes de conséquences. Il est donc important d’évaluer si les méthodes de ciblage sont efficaces, soit orientées vers les individus à haut risque de récidive. Les données utilisées dans le cadre de ce mémoire proviennent de deux sources. Premièrement, un échantillon comparatif issu d’une compilation de données comprenant l’ensemble des délinquants sexuels condamnés depuis 20 ans a été utilisé (n = 235). Puis, un registre développé depuis 10 ans regroupant l’ensemble des individus soumis au programme a été analysé (n = 235). Les participants ont été évalués en fonction des variables disponibles de la Statique-99R. L’utilité de l’outil pour la police a été mise en perspective. Le programme ne semble pas n’impliquer que des délinquants sexuels à haut risque de récidive. Les taux de récidive sont relativement bas et similaires dans les deux échantillons. Les services de police ont des données pertinentes qui permettent d’étudier la qualité du ciblage fait dans le cadre du programme. Des évaluations plus fiables pourraient améliorer l’allocation des ressources et les stratégies de ciblage.
Resumo:
Actuellement au Québec, le contexte d’insertion professionnelle en enseignement représente plusieurs défis pour les enseignants débutants, et ce, en raison de multiples causes (p.ex. la précarité et le manque de soutien). Résultat : près de 15 % à 20 % d’entre eux quitteront la profession dans les cinq premières années de leur carrière et cette statistique ne cesse d’augmenter. Pour remédier à la situation, l’une des solutions envisagées est la mise en place de programmes d’insertion professionnelle (PIP) par les commissions scolaires, lesquels offrent différentes mesures de soutien telles que du mentorat, des ateliers de formation et des réseaux d’entraide en ligne. Cela dit, les modalités de mise en place de ces programmes varient grandement d’un milieu à l’autre, et ce, autant en ce qui a trait aux services offerts qu’à l’admission des candidats. De plus, ceux-ci ne sont généralement évalués que de façon informelle par le milieu. On ne sait donc pas si les enseignants débutants qui y participent se distinguent réellement quant à leur persévérance dans le métier, laquelle repose notamment sur leur motivation au travail, leur capacité de résilience et leur sentiment d’efficacité personnelle (SEP) en classe et à l’école (Bandura, 1997, 2007; Bélair & Lebel, 2007; Deci & Ryan, 1985, 2002; Fernet, Sénécal, Guay, Marsh, & Dowson, 2008; Zacharyas & Brunet, 2012). Ce projet de recherche vise d’une part à mesurer les différences sur le plan de ces variables chez les enseignants débutants participant ou non à un PIP. D’autre part, il vise également à mesurer la prédiction de ces variables par les différentes mesures de soutien offertes dans les PIP chez ceux qui y participent pour constater leur contribution respective dans un PIP. Pour ce faire, une étude préexpérimentale a été menée auprès de 86 participants. À l’aide d’un questionnaire, la motivation au travail, la capacité de résilience et le SEP en classe et à l’école ont été mesurés afin de comparer les résultats du groupe d’enseignants participant à un programme à ceux n’y participant pas. Une MANCOVA a d’abord été conduite avec ces variables et trois variables contrôles « avoir pensé quitter » le milieu d’enseignement, « ordre d’enseignement » et « expérience d’enseignement » comme covariables. Des régressions linéaires multivariées ont ensuite été menées à partir des mesures de soutien. Aucun résultat significatif n’a été obtenu quant aux différences entre les participants en fonction de la participation à un PIP ce qui est représentatif des résultats obtenus dans d’autres recherches sur le sujet (Ingersoll & Strong, 2011). Aucun résultat significatif n’a été obtenu concernant la prédiction des variables d’intérêt par les mesures de soutien.
Resumo:
Dans les modèles d’évaluation d’actifs financiers, la stratégie de placement d’un individu est liée à la distribution des rendements des actifs inclus dans son portefeuille. Le modèle intertemporel d’évaluation des actifs financiers basé sur la consommation (C-CAPM) permet d’intégrer la dimension temporelle dans le cadre d’analyse et de comprendre l’arbitrage entre les décisions de consommation et d’épargne d’un individu. La prédiction fondamentale de ce modèle est l’existence d’un lien entre les rendements des actifs financiers et leur covariance avec le taux marginal de substitution intertemporel (TMSI). Dans un cadre théorique, l’énigme de la prime de risque est mise en évidence lorsqu’une fonction d’utilité de type CRRA est utilisée afin de représenter les préférences du consommateur. La rigidité de cette modélisation impose cependant un coefficient d’aversion au risque fixe réconciliant difficilement le modèle avec les données réelles. Ce mémoire a pour objectif de résoudre cette problématique en modifiant les formulations classiques du TMSI. Dans un contexte canadien, nous modifions la forme CRRA afin de déterminer, entre autres, si les variations du produit intérieur brut ont un effet sur le niveau d’aversion au risque d’un agent. Par la suite, nous insérons la richesse immobilière dans une forme d’utilité non-séparable comme proxy du rendement de la richesse. Nos résultats suggèrent qu’il est pertinent, sur une longue période, de tenir compte de la richesse immobilière dans le programme de consommation de l’agent.