944 resultados para Hétérogénéité du processus évolutif
Resumo:
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.
Resumo:
Ce mémoire présente la construction d'un outil d'évaluation abordant le processus d'attachement d'un enfant confié à une famille d'accueil. S'appuyant à la fois sur la théorie de l'attachement et sur une méthode d'évaluation qualitative, un questionnaire de type Q-Sort a été élaboré. Un échantillon de 18 répondantes, issues du réseau du Centre jeunesse de l'Estrie, a par la suite complété le Q-sort de 40 énoncés. Les résultats mettent en évidence 3 regroupements distincts de répondantes. Le premier facteur accorde une grande importance aux habiletés spécifiques des parents d'accueil. Les répondantes du second facteur priorisent plutôt une centration sur la relation entre l'adulte et l'enfant. Quant au dernier regroupement, celui-ci présente un profil partagé entre les compétences et caractéristiques du parent d'accueil et celles des enfants dans le processus d'attachement. Les résultats présentent plusieurs avenues de développement de la recherche pour le futur.
Resumo:
Les urodèles amphibiens, dont fait partie l’axolotl (Ambystoma mexicanum), ont la capacité de régénérer leurs organes et membres suite à une amputation, tout au long de leur vie. La patte est l’organe dont le processus de régénération est le mieux caractérisé et ce dernier est divisé en deux phases principales. La première est la phase de préparation et commence immédiatement suite à l’amputation. Elle renferme des étapes essentielles au processus de régénération comme la guérison de la plaie et la formation d’une coiffe apicale ectodermique. Par la suite, les fibroblastes du derme et certaines cellules musculaires vont revenir à un état pluripotent via un processus appelé dédifférenciation cellulaire. Une fois dédifférenciées, ces cellules migrent et s’accumulent sous la coiffe apicale pour former le blastème. Lors de la phase de redéveloppement, les cellules du blastème se divisent puis se redifférencient pour régénérer la partie amputée. Fait intéressant, la régénération d’un membre ou la guérison d’une plaie chez l’axolotl ne mène jamais à la formation d’une cicatrice. Afin d’en apprendre plus sur le contrôle moléculaire de la régénération, les gènes Heat-shock protein-70 (Hsp-70) et Transforming growth factor-β1 (Tgf-β1) ont été sélectionnés. Ces gènes jouent un rôle important dans la réponse au stress et lors de la guérison des plaies chez les mammifères. HSP-70 est une chaperonne moléculaire qui est produite pour maintenir l’intégrité des protéines cellulaires lorsqu’un stress se présente. TGF-β1 est une cytokine produite suite à une blessure qui active la réponse inflammatoire et qui stimule la fermeture de la plaie chez les amniotes. Les résultats présentés dans cette thèse démontrent que Hsp-70 est exprimé et régulé lors du développement et de la régénération du membre chez l’axolotl. D’autre part, nos expériences ont mené à l’isolation de la séquence codante pour Tgf-β1 chez l’axolotl. Nos résultats montrent que Tgf-β1 est exprimé spécifiquement lors de la phase de préparation dans le membre en régénération. De plus, le blocage de la voie des Tgf-β avec l’inhibiteur pharmacologique SB-431542, lors de la régénération, mène à l’inhibition du processus. Ceci démontre que la signalisation via la voie des Tgf-β est essentielle à la régénération du membre chez l’axolotl.
Resumo:
Lors d’une tâche de pointage manuel, la présence de corrections rapides, adaptées, automatiques et même réflexes (Franklin et Wolpert, 2008) suite à une perturbation par saut de curseur a pu être observée dans de nombreuses études. Ici, nous avons souhaité déterminer si ces corrections étaient purement réflexes où si elles étaient amorcées seulement lorsque la perturbation mettait en péril l’atteinte de la cible ; ces corrections ont-elles aussi un aspect fonctionnel ? Dans une première expérience nous avons fait varier la taille des cibles (5 ou 30 mm de diamètre) et des sauts du curseur (5, 15 ou 25 mm) de manière à obtenir certaines combinaisons où la cible pourrait être atteinte sans qu’aucune correction du mouvement pour contrecarrer l’effet du saut du curseur ne soit nécessaire. Des corrections réduisant l’erreur d’environ 65% ont été observées dans toutes les conditions. Dans une seconde expérience, les participants devaient atteindre une très grande cible (arc de 30°) et un saut de curseur de 15 mm était introduit pour certains essais peu de temps après l’amorce du mouvement. Les participants ont modifié leur mouvement dans le sens opposé à celui de la perturbation, et cela même s’ils n’avaient pas détecté consciemment le saut. Cependant, ces corrections étaient moins rapides et plus petites (42% de l’amplitude du saut de curseur) que celles observées lors de la première expérience. Nos résultats supportent le fait que l’amorce des corrections pour des erreurs de trajectoire induites expérimentalement soit de nature réflexe. Un deuxième processus serait alors responsable du déroulement de ces corrections ; ce deuxième processus est basé, entre autres, sur les caractéristiques de la cible.
Resumo:
La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.
Resumo:
L’adhésine impliquée dans l’adhérence diffuse (AIDA-I) est une adhésine bactérienne présente chez certaines souches d’Escherichia coli qui, associée aux toxines Stx2e ou STb, contribue à l’apparition de la maladie de l’œdème ou de la diarrhée post-sevrage chez les porcelets. AIDA-I est un autotransporteur qui confère des capacités d’autoaggrégation, de formation de biofilms et d’adhésion. L’objectif principal du projet de recherche consistait en la recherche de récepteur(s) potentiel(s) d’AIDA-I. Les bactéries pathogènes adhèrent aux cellules-cibles soit en liant directement des molécules à la surface cellulaire ou en utilisant des molécules intermédiaires qui permettent de diminuer la distance séparant la bactérie de la cellule-cible. Puisque le sérum est un fluide qui contient de nombreuses molécules, celui-ci a été utilisé comme matériel de départ pour l’isolement de récepteur(s) potentiels. Nous avons isolé un récepteur potentiel à partir du sérum porcin : l’apolipoprotéine A-I. L’interaction entre l’apolipoprotéine A-I et AIDA-I a été confirmée par ELISA et microscopie à fluorescence. La capacité à envahir les cellules épithéliales offre aux pathogènes la possibilité d’établir une niche intracellulaire qui les protègent contre les attaques du milieu extérieur. La présente étude a démontré que la présence d’AIDA-I en tant que seul facteur de virulence chez une souche de laboratoire permet de conférer la capacité d’envahir les cellules sans promouvoir la survie intracellulaire. L’étude de la souche sauvage 2787, exprimant AIDA-I en association avec d’autres facteurs de virulence, a démontré une différence significative pour les phénotypes d’invasion et de survie intracellulaire face à la souche de laboratoire exprimant AIDA-I.
Resumo:
Le choix du Sénégal de faire des TIC un des leviers stratégiques de rénovation de l’école soulève des questions dont la nécessité de voir comment les enseignants se les approprient afin que l’école en tire les avantages attendus. Pour mieux comprendre comment et pourquoi se construisent les usages pédagogiques des TIC, la présente recherche vise à décrire et à analyser le processus et les facteurs d’intégration des TIC dans les pratiques d’enseignement des instituteurs sénégalais. La difficulté à retracer le processus a conduit à nous appuyer sur un modèle descripteur des processus d’intégration pédagogique des TIC inspiré de Sandholtz, Ringstaff et Dwyer (1997), de Karsenti, Savoie-Zajc et Larose (2001) et de Poellhuber et Boulanger (2001). Six instituteurs de l’Inspection d’Académie de Dakar qui développent depuis quatre ans au moins des TIC en classe ont été sélectionnés pour une étude multi-cas. Six entrevues individuelles semi-dirigées ont été réalisées complétées par un questionnaire, l’observation des pratiques d’intégration des TIC et une analyse documentaire. Les résultats du traitement des données recueillies sont présentés en trois articles abordant chacun un des volets de l’objectif de la recherche. Il ressort des résultats que les usages des TIC des six participants sont portés par des profils et des contextes d’usages particulièrement favorables à des pratiques d’information, de communication et de préparation de la classe à la maison et à des activités de recherche et de documentation, d’édition et de publication et d’apprentissages disciplinaires ou thématiques en classe avec les élèves. Par ailleurs, les analyses comparatives montrent que les formations (initiales et en cours d’emploi) qu’ils ont suivies ne les ayant pas suffisamment préparés à intégrer les TIC dans leurs pratiques d’enseignement, c’est dans le cadre des équipes pédagogiques portant leurs projets d’établissement d’intégration pédagogique des TIC et par des stratégies individuelles d’autoformation et d’organisation, collectives et coopératives de co-formation qu’ils ont construit leurs usages et surmonté les difficultés du parcours. Ce processus est porté par divers facteurs contextuels, institutionnels et sociaux particulièrement favorables. En plus, Ils partagent des dispositions d’esprit, des croyances et des postures épistémiques et psychosociales qui les poussent à toujours aller plus loin dans leurs pratiques d’intégration des TIC. En permettant de mieux comprendre le processus menant un instituteur des usages personnels des TIC à leurs usages professionnels et pédagogiques et comment les facteurs d’influence jouent sur les processus de cooptation et d’appropriation par lesquels il les construit, la présente recherche fournit des modèles de tracés et d’étapes d’intégration des TIC susceptibles d’être partagés et intégrés dans les référentiels de formation des enseignants à l’intégration pédagogique des TIC. Elle permet également de mieux dessiner les contours des contextes d’usages à développer et de définir les axes et les leviers pédagogiques et psychosociaux que des formateurs peuvent utiliser afin d’amener des enseignants en situation de construction des usages pédagogiques des TIC à développer les comportements et les attitudes favorables à l’intégration des TIC dans leurs pratiques d’enseignement.
Resumo:
En dépit des efforts de théorisation qui ont été portés sur le sujet de la créativité par le métadiscours philosophique contemporain, peu d’attentions ont été dirigées au côté « descriptif » de la chose. Dans les récents développements en enseignement et pratique des arts ainsi qu’en psychologie, on observe toutefois, et avec raison, un intérêt croissant pour ce genre d’étude qui mérite à nouveau sa place parmi les grands thèmes de la philosophie. Cette thèse prétend qu’il existe, à l’endroit du phénomène de la créativité, certaines dynamiques psycho-phénoménologiques à la fois génériques (tout domaine confondu), mais également plus spécifiques des institutions paradigmatiques qui ont été en l’occurrence observées, soit les arts (et les sciences). Nous croyons également que toute entreprise théorique descriptive et donc soucieuse de connaître et d’expliquer le plus respectueusement et fidèlement possible ces réalités doit tenir un compte avisé de ces lois.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Essai critique présenté à la Faculté des arts et sciences en vue de l’obtention du grade de Maîtrise en service social
Resumo:
L’entraînement délibéré joue un rôle essentiel dans le développement de l’excellence sportive. Cette pratique est décrite comme étant une activité menée dans un but d’amélioration exigeant un niveau élevé d’effort et de concentration et n’étant pas nécessairement plaisante. Bien que les aspects quantitatifs de la pratique délibérée aient grandement été explorés, peu d’études se sont attardées à qualifier ce processus de façon précise. Ainsi, l’objectif de la présente étude est de définir précisément ce qu’est un entraînement de qualité ainsi que le processus psychologique s’y rattachant. Pour ce faire, des entrevues semi-structurées ont été menées auprès de douze patineurs élites québécois. L’analyse des données, par théorisation ancrée, démontre qu’un entraînement de haute qualité est le résultat d’une interaction dynamique de plusieurs facteurs liés à l’athlète, à son environnement, au contenu de son entraînement et à son état psychologique. Plus précisément, la confiance, la motivation, la concentration et l’attitude positive sont les habiletés psychologiques qui peuvent affecter l’entraînement. En fait, l’analyse démontre qu’un processus psychologique important s’opère lors de l’entraînement délibéré. Tout d’abord, des stratégies cognitives et comportementales comme l’imagerie mentale, la fixation d’objectifs et la routine sont utilisées par les athlètes pour se préparer à l’entraînement. Puis, lorsque son état psychologique est affecté négativement, l’athlète a recours à différentes stratégies afin d’optimiser cet état. Si ces stratégies s’avèrent efficaces, la qualité de l’entraînement est maintenue et l’athlète en ressort avec l’impression d’avoir progressé autant sur le plan technique, mental qu’émotionnel.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.