178 resultados para Prédiction
Resumo:
Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.
Resumo:
De récentes découvertes montrent le rôle important que joue l’acide ribonucléique (ARN) au sein des cellules, que ce soit le contrôle de l’expression génétique, la régulation de plusieurs processus homéostasiques, en plus de la transcription et la traduction de l’acide désoxyribonucléique (ADN) en protéine. Si l’on veut comprendre comment la cellule fonctionne, nous devons d’abords comprendre ses composantes et comment ils interagissent, et en particulier chez l’ARN. La fonction d’une molécule est tributaire de sa structure tridimensionnelle (3D). Or, déterminer expérimentalement la structure 3D d’un ARN s’avère fort coûteux. Les méthodes courantes de prédiction par ordinateur de la structure d’un ARN ne tiennent compte que des appariements classiques ou canoniques, similaires à ceux de la fameuse structure en double-hélice de l’ADN. Ici, nous avons amélioré la prédiction de structures d’ARN en tenant compte de tous les types possibles d’appariements, dont ceux dits non-canoniques. Cela est rendu possible dans le contexte d’un nouveau paradigme pour le repliement des ARN, basé sur les motifs cycliques de nucléotides ; des blocs de bases pour la construction des ARN. De plus, nous avons dévelopées de nouvelles métriques pour quantifier la précision des méthodes de prédiction des structures 3D des ARN, vue l’introduction récente de plusieurs de ces méthodes. Enfin, nous avons évalué le pouvoir prédictif des nouvelles techniques de sondage de basse résolution des structures d’ARN.
Resumo:
Le rôle important joué par la mitochondrie dans la cellule eucaryote est admis depuis longtemps. Cependant, la composition exacte des mitochondries, ainsi que les processus biologiques qui sy déroulent restent encore largement inconnus. Deux facteurs principaux permettent dexpliquer pourquoi létude des mitochondries progresse si lentement : le manque defficacité des méthodes didentification des protéines mitochondriales et le manque de précision dans lannotation de ces protéines. En conséquence, nous avons développé un nouvel outil informatique, YimLoc, qui permet de prédire avec succès les protéines mitochondriales à partir des séquences génomiques. Cet outil intègre plusieurs indicateurs existants, et sa performance est supérieure à celle des indicateurs considérés individuellement. Nous avons analysé environ 60 génomes fongiques avec YimLoc afin de lever la controverse concernant la localisation de la bêta-oxydation dans ces organismes. Contrairement à ce qui était généralement admis, nos résultats montrent que la plupart des groupes de Fungi possèdent une bêta-oxydation mitochondriale. Ce travail met également en évidence la diversité des processus de bêta-oxydation chez les champignons, en corrélation avec leur utilisation des acides gras comme source dénergie et de carbone. De plus, nous avons étudié le composant clef de la voie de bêta-oxydation mitochondriale, lacyl-CoA déshydrogénase (ACAD), dans 250 espèces, couvrant les 3 domaines de la vie, en combinant la prédiction de la localisation subcellulaire avec la classification en sous-familles et linférence phylogénétique. Notre étude suggère que les gènes ACAD font partie dune ancienne famille qui a adopté des stratégies évolutionnaires innovatrices afin de générer un large ensemble denzymes susceptibles dutiliser la plupart des acides gras et des acides aminés. Finalement, afin de permettre la prédiction de protéines mitochondriales à partir de données autres que les séquences génomiques, nous avons développé le logiciel TESTLoc qui utilise comme données des Expressed Sequence Tags (ESTs). La performance de TESTLoc est significativement supérieure à celle de tout autre outil de prédiction connu. En plus de fournir deux nouveaux outils de prédiction de la localisation subcellulaire utilisant différents types de données, nos travaux démontrent comment lassociation de la prédiction de la localisation subcellulaire à dautres méthodes danalyse in silico permet daméliorer la connaissance des protéines mitochondriales. De plus, ces travaux proposent des hypothèses claires et faciles à vérifier par des expériences, ce qui présente un grand potentiel pour faire progresser nos connaissances des métabolismes mitochondriaux.
Resumo:
Les logiciels utilisés sont Splus et R.
Resumo:
Tout au long de la vie, le cerveau développe des représentations de son environnement permettant à l’individu d’en tirer meilleur profit. Comment ces représentations se développent-elles pendant la quête de récompenses demeure un mystère. Il est raisonnable de penser que le cortex est le siège de ces représentations et que les ganglions de la base jouent un rôle important dans la maximisation des récompenses. En particulier, les neurones dopaminergiques semblent coder un signal d’erreur de prédiction de récompense. Cette thèse étudie le problème en construisant, à l’aide de l’apprentissage machine, un modèle informatique intégrant de nombreuses évidences neurologiques. Après une introduction au cadre mathématique et à quelques algorithmes de l’apprentissage machine, un survol de l’apprentissage en psychologie et en neuroscience et une revue des modèles de l’apprentissage dans les ganglions de la base, la thèse comporte trois articles. Le premier montre qu’il est possible d’apprendre à maximiser ses récompenses tout en développant de meilleures représentations des entrées. Le second article porte sur l'important problème toujours non résolu de la représentation du temps. Il démontre qu’une représentation du temps peut être acquise automatiquement dans un réseau de neurones artificiels faisant office de mémoire de travail. La représentation développée par le modèle ressemble beaucoup à l’activité de neurones corticaux dans des tâches similaires. De plus, le modèle montre que l’utilisation du signal d’erreur de récompense peut accélérer la construction de ces représentations temporelles. Finalement, il montre qu’une telle représentation acquise automatiquement dans le cortex peut fournir l’information nécessaire aux ganglions de la base pour expliquer le signal dopaminergique. Enfin, le troisième article évalue le pouvoir explicatif et prédictif du modèle sur différentes situations comme la présence ou l’absence d’un stimulus (conditionnement classique ou de trace) pendant l’attente de la récompense. En plus de faire des prédictions très intéressantes en lien avec la littérature sur les intervalles de temps, l’article révèle certaines lacunes du modèle qui devront être améliorées. Bref, cette thèse étend les modèles actuels de l’apprentissage des ganglions de la base et du système dopaminergique au développement concurrent de représentations temporelles dans le cortex et aux interactions de ces deux structures.
Resumo:
La forte prévalence des troubles des conduites alimentaires (TCA) chez les jeunes femmes et les faibles taux de rémission suite à un traitement ont encouragé les chercheurs à mieux comprendre les facteurs impliqués dans ce trouble mental. L’un des premiers modèles à mettre l’emphase sur des traits de personnalité associés au développement d’un TCA a été proposé par Hilde Bruch (1962, 1973, 1978) et a toujours une grande influence dans la recherche actuelle. Le modèle de Bruch inclue trois facteurs, soit l’insatisfaction corporelle, l’inefficacité et la conscience intéroceptive. Le but de cette thèse est d’apporter un support empirique au modèle de Bruch. En se basant sur une revue extensive des écrits scientifiques, cette thèse vise aussi à déterminer si deux facteurs reliés, soit l’alexithymie et le sentiment d’efficacité personnelle face à l’adoption de conduites alimentaires saines, améliorent la précision du modèle dans la prédiction de symptômes de TCA. Pour répondre empiriquement à cette question, il était d’abord nécessaire de disposer d’un questionnaire évaluant le sentiment d’efficacité personnelle en lien avec les conduites alimentaires qui peut être utilisé dans tout le spectre de présentation des TCA. Ainsi, le Eating Disorder Self-Efficacy Questionnaire (EDRSQ) a été adapté en français et ses propriétés psychométriques ont été évaluées. Une analyse factorielle confirmatoire a révélé une structure bi-factorielle, soit le sentiment d’efficacité personnelle en lien avec l’insatisfaction corporelle et avec l’adoption d’une alimentation normative. Chaque échelle a démontré une bonne fiabilité ainsi qu’une validité de construit cohérente avec la théorie. Par la suite, la capacité des facteurs proposés par Bruch à prédire les symptômes de TCA a été évaluée et comparée à des adaptations du modèle découlant des écrits. Au total, 203 étudiantes de premier cycle universitaire ont complété les versions validées en français du Eating Disorder Inventory 2, du Eating Attitudes Test, et du Toronto Alexithymia Scale en plus du EDRSQ. Les résultats montrent que le modèle de Bruch explique 46% de la variance des symptômes de TCA. Alors que l’insatisfaction corporelle et la conscience intéroceptive démontrent chacun une contribution importante dans la prédiction des symptômes de TCA, il a été démontré que l’inefficacité présente seulement une contribution spécifique négligeable. Le modèle de Bruch est amélioré par la substitution de l’inefficacité par le sentiment d’efficacité personnelle tel que mesuré par le EDRSQ; le modèle explique alors 64% de la variance des symptômes de TCA. Finalement, cette étude démontre que l’alexithymie n’a pas de contribution spécifique dans la prédiction des symptômes de TCA. Ainsi, la combinaison d’une faible conscience intéroceptive, de l’insatisfaction corporelle et d’un faible sentiment d’efficacité personnelle en lien avec les conduites alimentaires est fortement associée aux symptômes de TCA dans un échantillon non-clinique de jeunes femmes. Finalement, les implications conceptuelles et cliniques de ces résultats sont discutées.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
Les études mettent en évidence des problèmes de santé psychologique chez les professionnels de la santé. Par contre, les facteurs permettant d’expliquer ces difficultés sont peu connus (p. ex., Cohen & Patten, 2005). Le but de cette thèse est d’étudier les déterminants de la santé psychologique des professionnels de la santé en se basant sur une théorie validée empiriquement. À cette fin, la théorie de l’autodétermination (Deci & Ryan, 1985, 2000) est utilisée comme cadre conceptuel et le soutien à l’autonomie (Black & Deci, 2000; Grolnick & Ryan, 1989) est proposé comme déterminant principal de la santé psychologique. Le premier article consiste en une recension des conséquences et corrélats associés au soutien à l’autonomie dans divers domaines de vie. Le deuxième article a pour objectif de tester un modèle prédictif de la santé psychologique auprès de médecins résidents. Le modèle propose que la concordance des tâches (Sheldon & Elliot, 1999) et la conscience de soi (Goldman & Kernis, 2002) sont deux sources distinctes d’autonomie qui prédisent de façon indépendante la santé psychologique. De plus, le soutien à l’autonomie de la part des superviseurs est suggéré comme étant un déterminant important de la concordance des tâches et de la conscience de soi. Au total, 333 médecins résidents de la province de Québec (Canada) ont rempli un questionnaire comportant différentes mesures. Des analyses par équations structurelles révèlent une excellente adéquation du modèle. Le troisième article examine l’influence du soutien à l’autonomie des collègues sur la satisfaction au travail ainsi que sur la santé psychologique des professionnels de la santé. Au total, 597 jeunes professionnels de la santé ont rempli un questionnaire incluant diverses mesures. Les résultats confirment que le soutien à l’autonomie perçu de la part des collègues prédit la santé psychologique et la satisfaction au travail. De plus, des régressions hiérarchiques démontrent que le soutien à l’autonomie des collègues contribue à la prédiction de la satisfaction au travail, du bien-être subjectif et des idéations suicidaires au-delà de ce qui est prédit par le soutien à l’autonomie des superviseurs. Les implications théoriques et pratiques de ces recherches sont discutées.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.
Resumo:
Les populations autochtones canadiennes ont un passé difficile qui influence leur vécu actuel. Les recherches canadiennes et ailleurs dans le monde s’entendent sur la surreprésentation des enfants autochtones en protection de l’enfance. Au Canada, la surreprésentation s’explique présentement par la présence de conditions de vie dégradées plutôt qu’en raison d’un traitement différentiel des services de protection à l’égard des enfants autochtones. La présente étude ajoute aux connaissances sur les mauvais traitements et la réponse des services de protection de la jeunesse aux enfants autochtones québécois en s’intéressant à trois questions : leur surreprésentation, leurs différences par rapport aux autres enfants et les prédicteurs du placement. D’abord, à partir des données administratives de la protection de la jeunesse, la surreprésentation des enfants autochtones est évaluée à trois étapes des services : les signalements retenus, les situations fondées et les placements. Les enfants autochtones et les autres enfants sont comparés sur un ensemble de caractéristiques personnelles, familiales, parentales des signalements et des services rendus. Les prédicteurs du placement des enfants desservis par la protection de la jeunesse sont enfin vérifiés, en portant une attention particulière à l’importance du statut autochtone dans cette prédiction. Les résultats révèlent une augmentation de la surreprésentation des enfants autochtones d’une étape à l’autre des services de protection considérés. Ces enfants ont plus souvent des conditions de vie difficiles et sont confrontés à davantage de facteurs de risque que les autres enfants. Le statut autochtone est important dans la prédiction du placement, même après l’ajout d’un ensemble de caractéristiques pouvant contribuer à la prédiction. La complexité d’accès aux services de première ligne dans les communautés autochtones ou l’influence d’une variable non considérée, telle la pauvreté matérielle et économique, constituent de possibles explications. Les implications pour la recherche et la pratique sont discutées.
Resumo:
La bursite infectieuse aviaire (IBD) est une des causes majeures de pertes économiques pour l’industrie aviaire. La vaccination est le principal outil de contrôle de cette maladie et les oiseaux susceptibles doivent être vaccinés aussitôt que le niveau des anticorps maternels (MA) anti-IBDV est suffisamment bas. L’estimation du moment de vaccination est habituellement déterminée par la formule de Deventer qui utilise le titre initial de MA anti-IBDV et la demi-vie des anticorps pour prédire l’évolution du titre. Dans la présente étude, l’effet du gain de poids sur la vitesse de disparition des MA a été étudié dans le but de l’utiliser pour prédire la détermination du moment de la vaccination. L’analyse des taux d’anticorps neutralisants par ELISA a montré que les poussins avec une forte croissance avaient un taux de disparition plus rapide des MA que ceux à faible croissance. Une formule pour la prédiction du moment de vaccination contre le IBDV, basée sur le gain de poids et le niveau des MA a été développée et vérifiée. La prédiction du moment de vaccination avec cette formule a montré une haute corrélation avec les titres de MA mesurés par ELISA. Le virus de l’anémie infectieuse aviaire (CIAV) est une cause importante d’immunosuppression chez le poulet augmentant la pathogénicité des infections secondaires et en entraînant une réponse humorale suboptimale et une forte mortalité. D’autre part, l’infections sub-clinique du au CIAV provoque une immunosuppression qui facilite la coinfection par d’autre virus tel que le IBDV. Les effets de la coinfection à J1 avec une souche vaccinale de CIAV CAV-VAC® (Intervet) et à J14 avec une souche faiblement virulente de IBDV isolée au Québec, sur l’état de santé des poussins, sur la persistance virale et sur la réponse immunitaire ont été étudiés autant chez des poussins de 1 jour d’âge exempts d’agents pathogènes specifique (SPF) que ceux provenant d’élevages commerciaux. Les résultats ont montré que l’inoculation de la souche vaccinale du CIAV a entraîné une infection sub-clinique, une persistance virale dans la rate et le thymus, une altération de la thymopoièse et une réponse humorale temporaire chez les poussins SPF. Ces effets ont aussi été mis en évidence chez des poussins d’élevage commerciaux malgré des taux élevés de MA. Lors de l’infection avec la souche de IBDV chez des poussins déjà vaccinés contre le CIAV, la persistance du CIAV dans les organes lymphoïdes a été aggravée par une présence de réponses humorales temporaires contre les deux virus et une altération des populations lymphocytaires dans les organes lymphoïdes. Par contre, la présence des MA contre le CIAV a limité temporairement ces effets. Ces travaux ont mis en évidence des désordres immunitaires cellulaires et humoraux et une persistance virale chez des poussins vaccinés contre le CIAV et co-infectés avec le IBDV.
Resumo:
Contexte: la survenue d’IRA chez les patients ayant subi un traumatisme est une problématique qui a été peu étudiée jusqu’à ce jour. La présence de cette atteinte rénale a été démontrée comme étant associée à un risque accru de morbidités et de mortalité chez les sujets atteints. Objectifs: identifier les facteurs prédictifs d’insuffisance rénale ou plus récemment appelée atteinte rénale dans cette population particulière et tenter de trouver des facteurs qui peuvent être mesurés dans les premières heures de la prise en charge du patient. Aussi, nous avons cherché à savoir si l’injection de produit de contraste est associée à un risque accru d’insuffisance rénale aiguë dans cette population. Méthodes et résultats: la recherche a eu lieu à l’Hôpital du Sacré-Coeur de Montréal, un centre de traumatologie tertiaire en milieu urbain. Nous avons utilisé le registre des patients hospitalisés en traumatologie dans notre centre hospitalier entre 2002 et mars 2007 de même que les banques de données de laboratoire et de radiologie pour obtenir les données sur la créatinine et les examens avec produits de contraste. Finalement, une revue de dossiers structurée fut conduite pour recueillir le reste de l’information requise. L’incidence d’IRA dans la population étudiée est estimée à environ 5 %. Une analyse cas témoins fut conduite pour identifier les facteurs prédictifs d’IRA. Quarante-neuf cas d’IRA diagnostiqués par le médecin traitant et 101 témoins sélectionnés au hasard ont été analysés. Les facteurs prédictifs suivants ont été identifiés à l’analyse univariée : la première valeur de créatinine obtenue (p<0,001), l’instabilité hémodynamique (p<0,001), les antécédents d’insuffisance rénale chronique tels que notés dans le dossier par le médecin traitant (p=0,009), une maladie cardiaque (p=0,007), une chirurgie dans les 48 premières heures suivant le traumatisme (p=0,053), le niveau de gravité du traumatisme (Injury Severity Score) (p=0,046) et l’injection de produit de contraste au cours des 48 heures suivant le trauma (p=0,077). Parmi ces facteurs, deux ont été identifiés comme prédicteurs indépendants d’IRA à l’analyse multivariée. Une des valeurs était la première valeur de créatinine obtenue RC = 6,17 (p<0,001, IC95 % 2,81 – 13,53) pour chaque augmentation de 0.5mg/dL de créatinine. L’autre facteur était la présence d’instabilité hémodynamique RC 11,61 (p<0,001, IC95 % 3,71 – 36,29). Conclusion: des informations obtenues tôt dans la prise en charge du patient permettent de prédire le risque d’IRA chez ces patients. L’administration de contraste (intraveineuse ou intra-artérielle) ne s’est pas avérée un facteur indépendant de prédiction d’insuffisance rénale aiguë dans cette population dans le modèle multivarié.
Resumo:
Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.