983 resultados para sampling technique
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la bibliothèque de musique de l'Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
La flexibilité est une caractéristique intrinsèque des protéines qui doivent, dès le mo- ment de leur synthèse, passer d’un état de chaîne linéaire à un état de structure tridimen- sionnelle repliée et enzymatiquement active. Certaines protéines restent flexibles une fois repliées et subissent des changements de conformation de grande amplitude lors de leur cycle enzymatique. D’autres contiennent des segments si flexibles que leur structure ne peut être résolue par des méthodes expérimentales. Dans cette thèse, nous présentons notre application de méthodes in silico d’analyse de la flexibilité des protéines : • À l’aide des méthodes de dynamique moléculaire dirigée et d’échantillonnage pa- rapluie, nous avons caractérisé les trajectoires de liaison de l’inhibiteur Z-pro- prolinal à la protéine Prolyl oligopeptidase et identifié la trajectoire la plus pro- bable. Nos simulations ont aussi identifié un mode probable de recrutement des ligands utilisant une boucle flexible de 19 acides aminés à l’interface des deux domaines de la protéine. • En utilisant les méthodes de dynamique moléculaire traditionnelle et dirigée, nous avons examiné la stabilité de la protéine SAV1866 dans sa forme fermée insérée dans une membrane lipidique et étudié un des modes d’ouverture possibles par la séparation de ses domaines liant le nucléotide. • Nous avons adapté auproblème de la prédiction de la structure des longues boucles flexibles la méthode d’activation et de relaxation ART-nouveau précédemment uti- lisée dans l’étude du repliement et de l’agrégation de protéines. Appliqué au replie- ment de boucles de 8 à 20 acides aminés, la méthode démontre une dépendance quadratique du temps d’exécution sur la longueur des boucles, rendant possible l’étude de boucles encore plus longues.
Le pouvoir constitutif des stratégies rhétoriques des participants à une controverse socio-technique
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
En 2007, le Collège des médecins du Québec a résolu d’adopter le plan d’autogestion du développement professionnel continu (DPC) comme outil de maintien de la compétence professionnelle. Bien que la plupart des médecins reconnaissent la nécessité de demeurer à la fine pointe des connaissances et des découvertes médicales, certains considèrent le plan d’autogestion comme une corvée administrative. Afin de mieux comprendre leurs perceptions à l’égard du plan de DPC, une recherche qualitative a été menée à l’été 2010, par le biais d’entretiens individuels semi-structurés, auprès d’un échantillon de vingt-sept médecins québécois. Un échantillonnage mixte, utilisant la technique « boule de neige » et faisant appel à des informateurs clés et à des cas dits « négatifs », a permis d’atteindre un bon niveau de diversification de l’échantillon et la saturation empirique des données. Bien que les médecins interrogés soient généralement favorables au principe d’un plan d’autogestion de DPC, les commentaires et suggestions formulés par certains d’entre eux devraient inciter le Collège à apporter certaines améliorations à ce plan. Certains irritants tels que la nécessité de tenir à jour un registre des activités de DPC et d’en rendre compte au Collège ont été soulevés. Par contre, la majorité des médecins interrogés considèrent que le plan de DPC d’un médecin témoigne des efforts qu’ils déploient pour rester à la fine pointe des progrès scientifiques et technologiques dans le domaine de la santé. Finalement, tous les médecins interrogés considèrent que le maintien de leur compétence professionnelle est une obligation morale et déontologique.
Resumo:
De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.
Resumo:
Objectifs: Le but de cette étude clinique était de comparer un groupe d’adultes ayant un parodonte sain avec un groupe d’adultes atteints de parodontite chronique en terme de risque carieux et mesures cliniques et microbiologiques de la carie. Méthodes: Quatre-vingt-seize individus ont été divisés en deux groupes en fonction de leur état de santé parodontal et ont été appariés pour l'âge, le sexe et l'origine ethnique. Trente-huit sujets étaient atteints de parodontite chronique définie comme ayant au moins quatre dents avec ≥ 1 site avec une profondeur de sondage ≥ 4 mm et une perte d'attache clinique ≥ 2 mm, et 58 sujets présentaient un parodonte sain. Par la suite, les groupes ont été subdivisés en deux groupes en fonction de leur statut carieux : les participants ayant au moins une lésion carieuse non traitée sur une surface dentaire et ceux n’ayant pas de lésion carieuse non traitée. Les données ont été recueillies par le biais d’un questionnaire, un examen clinique et des échantillons de plaque supra- et sous-gingivale. L’évaluation de la charge buccale de Streptococcus mutans et de six agents pathogènes parodontaux a été réalisée par la technique d'amplification de la réaction en chaine de la polymérase (PCR). Les données ont été analysées à l'aide d’analyses statistiques descriptives et bivariées. Résultats: Les individus atteints de parodontite chronique étaient 3,5 fois plus susceptibles d'avoir des caries que les individus en bonne santé (OR 3,5 ; IC: 1,5 - 8,3 ; P = 0,006). Les sujets à la fois atteints de parodontite chronique et de caries dentaires ont eu un niveau d’éducation significativement plus faible que les sujets ayant un parodonte sain et sans caries dentaires (OR 6,0 ; IC: 1,7 à 21,7 ; P = 0,04). La proportion de sujets ayant une charge buccale élevée de Porphyromonas gingivalis (P. g.) et Treponema denticola (T. d.) était significativement plus élevée chez les patients atteints de parodontite chronique et de carie que chez les patients sains présentant des caries (P. g.: OR 8,6 ; IC: 2,4 - 30,3 ; P = 0,004 et T. d.: OR 10,0 ; CI: 2,6 - 38.1 ; P = 0,003). Conclusions: Les résultats de cette étude suggèrent que, chez les sujets adultes atteints de la parodontite chronique, la fréquence des caries est plus élevée que chez les sujets ayant un parodonte sain. De plus, le faible niveau d'éducation influence négativement le statut parodontal des individus.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
La douleur post-opératoire chez les patients constitue un défi thérapeutique important pour les cliniciens. Le traitement de la douleur post-opératoire n’est pas accessoire ni optionnel, puisqu’il permet de donner un congé de l’hôpital plus rapide aux patients et ainsi, il contribue à des économies importantes pour notre système de santé. Parmi les approches thérapeutiques utilisées pour la prise en charge de la douleur post-opératoire, cette thèse s’intéresse particulièrement aux blocs de nerfs périphériques par les anesthésiques locaux et à l’administration de la néostigmine par voie épidurale. Ces médicaments sont utilisés en clinique sans avoir préalablement établi, en se basant sur leur propriétés pharmacocinétiques et pharmacodynamiques spécifiques, leurs doses optimales. Ces doses devraient également tenir en considération les particularités anatomiques du site d’injection par rapport au site d’action. Cette thèse inclut des études exploratoires qui ont contribué à caractériser la pharmacocinétique de la ropivacaïne et de la bupivacaïne ainsi que la pharmacocinétique et la pharmacodynamie de la néostigmine. La première étude portait sur seize patients subissant une chirurgie orthopédique avec un bloc combiné des nerfs fémoral et sciatique par la ropivacaïne (n=8) ou la bupivacaïne (n=8). C’était la première étude qui a inclu des temps d’échantillons pharmacocinétiques allant jusqu’à 32 h après le bloc et ces résultats ont démontré une variabilité interindividuelle considérable. La modélisation par approche de population a aidé à expliquer les sources de la variabilité et démontré que l’absorption systémique des anesthésiques locaux était très lente. De plus, les concentrations plasmatiques demeuraient mesurables, et dans certains cas présentaient un plateau, 32 h après le bloc. Dans les prochaines études, un échantillonnage allant jusqu’à 4 ou 5 jours sera nécessaire afin d’atteindre la fin de l’absorption. La deuxième étude a établi le développement d’un modèle animal en étudiant la pharmacocinétique de la ropivacaïne après administration intraveineuse ainsi que son degré de liaison aux protéines plasmatiques chez le lapin (n=6). Les résultats ont démontré que, chez le lapin la ropivacaïne est beaucoup moins liée aux protéines plasmatiques comparativement à l’humain. Ce résultat important sera utile pour planifier les prochaines études précliniques. La troisième étude a exploré, pour la première fois, la pharmacocinétique et la pharmacodynamie de la néostigmine administrée par voie épidurale et a essayé de caractériser la courbe dose-réponse en utilisant trois doses différentes : 0.5, 1 et 1.5 mg. Bien que les concentrations de la néostigmine dans le liquide céphalo-rachidien fussent très variables une relation inverse entre la consommation de mépéridine et la dose de néostigmine a été démontrée. La dose de 1.5 mg a donné une meilleure réponse pharmacodynamique sur la douleur, mais elle a été considérée comme dangereuse puisqu’elle a résulté en deux cas d’hypertension. Nous avons conclu que des doses plus faibles que 1.5 mg devront être utilisées lors de l’utilisation de la néostigmine par voie épidurale. En conclusion, les études rapportées dans cette thèse ont exploré les propriétés pharmacocinétiques et/ou pharmacodynamiques de certains médicaments utilisés pour le traitement de la douleur post-opératoire. Ceci mènera au but ultime qui est la meilleure prise en charge de la douleur post-opératoire chez les patients.