37 resultados para Problème du traitement sensoriel
Resumo:
Le travail occupe une place très importante dans la société industrialisée, ce concept est en constante évolution. Au cours des dernières décennies, le travail a connu deux révolutions importantes. La première fût celle de l'agriculture, la deuxième industrielle. Nous vivons présentement une troisième révolution, celle de la technologie. Le virage technologique amène des changements considérables sur le marché du travail aux plans économique, social et personnel. Depuis les trente dernières années, la technologie connaît des progrès immenses et ce, de façon soutenue et de plus en plus rapide. Plusieurs professions ont disparu, d'autres sont appelées à disparaître et la plupart subiront d'importantes modifications à cause de l'implantation de la nouvelle technologie. Par exemple, la secrétaire est passée de la machine à écrire manuelle conventionnelle à l'électrique, dorénavant, elle fait du traitement de texte sur ordinateur; presque tout son travail est informatisé. Elle aura à utiliser, dans les prochaines années, des appareils dont le plus haut degré de sophistication n'a pas été atteint. Les architectes et les ingénieurs ont troqué leur table à dessins pour l'ordinateur qui réalise leurs plans et croquis en deux fois moins de temps. Les tailleurs ne coupent plus les tissus avec des ciseaux mais avec des lasers ce qui apporte plus de précision et rapidité. Les exemples de ce type se comptent par milliers maintenant et l'avancement technologique progresse rapidement. Nous retrouvons ces traces partout même dans nos foyers (magnétoscopes, jeux vidéos, ordinateurs, fours à micro-ondes, etc.).
Resumo:
Depuis le milieu des années 2000, une nouvelle approche en apprentissage automatique, l'apprentissage de réseaux profonds (deep learning), gagne en popularité. En effet, cette approche a démontré son efficacité pour résoudre divers problèmes en améliorant les résultats obtenus par d'autres techniques qui étaient considérées alors comme étant l'état de l'art. C'est le cas pour le domaine de la reconnaissance d'objets ainsi que pour la reconnaissance de la parole. Sachant cela, l’utilisation des réseaux profonds dans le domaine du Traitement Automatique du Langage Naturel (TALN, Natural Language Processing) est donc une étape logique à suivre. Cette thèse explore différentes structures de réseaux de neurones dans le but de modéliser le texte écrit, se concentrant sur des modèles simples, puissants et rapides à entraîner.
Resumo:
Les techniques d'imagerie développées pour la surveillance embarquée des structures ont maintenant des applications dans d'autres domaines. Par exemple, le domaine de l'écran tactile est en pleine expansion et de nouvelles technologies commencent à apparaître pour des applications spécifiques. Au niveau médical, des surfaces tactiles pouvant fournir des données sur la répartition du poids et la posture seraient une avancée pour le diagnostique des patients et la recherche. L'écran tactile est une technologie utilisée dans un nombre croissant d'appareils. Les écrans tactiles capacitifs et résistifs dominent le marché, mais ils sont connus pour être difficiles à fabriquer, facilement cassables et coûteux pour les grandes dimensions. Par conséquent, de nouvelles technologies sont encore explorées pour les écrans tactiles de grandes tailles et robustes. Les technologies candidates comprennent des approches basées sur les ondes. Parmi eux, des ondes guidées sont de plus en plus utilisés dans la surveillance des structures (SHM) pour de nombreuses applications liées à la caractérisation des propriétés des matériaux. Les techniques d'imagerie utilisées en SHM telles que Embedded Ultrasonic Structural Radar (EUSR) et Excitelet sont fiables, mais elles ont souvent besoin d'être couplées avec du traitement d'image pour donner de bons résultats. Dans le domaine du NDT (essais non destructifs), les ondes guidées permettent d'analyser les structures sans les détériorer. Dans ces applications, les algorithmes d'imagerie doivent pouvoir fonctionner en temps réel. Pour l'écran tactile, une technique d'imagerie de la pression en temps réel doit être développée afin d'être efficace et performante. Il faut obtenir la position et l'amplitude de la pression appliquée en un ou plusieurs points sur une surface. C'est ici que les algorithmes et l'expertise par rapport aux ondes guidées seront mises de l'avant tout pensant à l'optimisation des calculs afin d'obtenir une image en temps réel. Pour la méthodologie, différents algorithmes d'imagerie sont utilisés pour obtenir des images de déformation d'un matériau et leurs performances sont comparées en termes de temps de calcul et de précision. Ensuite, plusieurs techniques de traitement d'images ont été implantées pour comparer le temps de calcul en regard de la précision dans les images. Pour l'écran tactile, un prototype est conçu avec un programme optimisé et les algorithmes offrant les meilleures performances pour un temps de calcul réduit. Pour la sélection des composantes électroniques, ce sont la vitesse d'exécution et la définition d'image voulues qui permettent d'établir le nombre d'opérations par seconde nécessaire.
Resumo:
Le traitement de la dépression repose principalement sur la prescription d’antidépresseurs chez les personnes âgées. Au Canada, l’adéquation de la prescription d’antidépresseurs dans la population des personnes âgées est peu étudiée. En médecine générale, près de la moitié des personnes âgées ayant une dépression ne reçoivent pas une prescription appropriée d’antidépresseurs. Le but de ce mémoire était (1) : déterminer la proportion des personnes âgées qui reçoivent une prescription d’antidépresseurs selon les recommandations cliniques canadiennes et (2) identifier les facteurs liés au patient et à l’organisation des services susceptibles d’influencer la prescription adéquate d’antidépresseurs chez les personnes âgées qui consultent dans les services de médecine générale. Pour répondre à cet objectif, une étude a été réalisée à partir des données de l'enquête transversale (ESA- services) sur la santé des aînés et l'utilisation des services de santé menée auprès de 1811 personnes âgées de 65 ans et plus qui consultaient dans les services de médecine générale au Québec entre 2011-2013. Près de 20 % de ces personnes, couvertes par le régime public d’assurance médicaments de la Régie d’assurance maladie du Québec avaient une prescription d’antidépresseurs. L’échantillon de cette étude incluait des personnes ayant reçu une prescription d’antidépresseurs pendant au moins 90 jours. En fonction des recommandations cliniques canadiennes, l’adéquation de la prescription d’antidépresseurs a été mesurée à l’aide de 3 critères : la dose adéquate, la durée adéquate et le suivi médical adéquat dans la phase aigüe du traitement. Nos résultats indiquent que 44 % des personnes ont reçu une prescription adéquate d’antidépresseurs selon les 3 critères. En utilisant les régressions multivariées pour examiner les facteurs pouvant expliquer la probabilité de recevoir une prescription adéquate d’antidépresseurs en contrôlant pour l’âge, le sexe, l'état matrimonial, le revenu, la scolarité, aucune de ces variables n'était associée à la probabilité de recevoir une prescription adéquate d’antidépresseurs. Toutefois, lorsque l’on examine l’adéquation de la prescription d’antidépresseurs au niveau de chacun des critères, les résultats de notre étude ont montré que les hommes et les personnes qui vivent en milieu urbain et métropolitain sont moins susceptibles de recevoir une dose adéquate d’antidépresseurs et que la détresse psychologique modérée à sévère était associée à la probabilité d’avoir un suivi adéquat. Aucun des facteurs organisationnels n’était associé à la prescription adéquate d’antidépresseurs.
Resumo:
Le premier cours de français obligatoire, Écriture et littérature, amène l'élève à rédiger une analyse littéraire. La méthode de travail intellectuel que l'élève aura maîtrisée doit être réinvestie dans les cours suivants auxquels de nouvelles notions s'ajoutent. Il importe donc que l'élève ait intégré une méthode de travail efficace qu'il pourra réutiliser. Cet essai vient montrer dans quelle mesure l'utilisation de stratégies cognitives et métacognitives peut aider l'élève à développer sa compétence à rédiger des analyses littéraires. La problématique de la recherche concerne l'approche pédagogique offerte habituellement dans ce premier cours de français. Nous avons remarqué que l'enseignante ou l'enseignant s'intéresse principalement à la tâche réalisée, soit la rédaction de l'élève, et non à la démarche de ce dernier. Si l'élève suit une procédure qui comporte des lacunes ou omet certaines étapes essentielles, comment peut-on espérer que ce dernier arrive à produire une analyse littéraire satisfaisante? Parallèlement, si l'enseignante ou l'enseignant souhaite apporter une aide personnalisée à l'élève, il lui faut avoir accès aux processus mentaux de ce dernier. Nous avons aussi remarqué que l'élève n'est guère impliqué dans le processus d'évaluation, qu'il s'agisse de l'évaluation de sa démarche ou de son texte. Ainsi la réflexion sur son savoir-faire ou sur sa compétence en rédaction n'est pas sollicitée. Tel que donné, le cours de littérature n'offre pas une place suffisamment grande au processus d'apprentissage de l'analyse littéraire: l'élève est absent du processus d'évaluation et la réflexion sur sa démarche et ses productions n'est pas valorisée. Dans ce cas, l'enseignante ou l'enseignant ne peut espérer un transfert des apprentissages dans le cours suivant. Ces constats nous ont amenée à souhaiter analyser les effets de l'enseignement de diverses stratégies cognitives et métacognitives sur le développement de la compétence à rédiger des analyses littéraires. Afin de répondre à cet objectif général de la recherche, nous avons bâti notre cadre de référence autour de l'approche cognitiviste. Comme notre expérimentation porte principalement sur l'acquisition de connaissances procédurales, c'est à dire un savoir-faire, nous avons repris les grands principes du traitement de l'information proposés par Tardif (1992). Nous avons aussi tenu compte des catégories de connaissances (Barbeau, Montini, Roy, 1997) qui exigent, pour chacune, des stratégies différentes. Puisque notre expérimentation vise une méthode d'enseignement différente compte tenu que nous avons ajouté des stratégies d'autoévaluation et de régulation à nos stratégies cognitives déjà existantes, nous avons privilégié les écrits d'auteurs qui traitent de la métacognition dans le but de développer une compétence. Alors que l'autoévaluation permet à l'élève d'évaluer sa démarche ou son travail, la régulation, quant à elle, est l'action qui devrait suivre en vue d'apporter des correctifs aux lacunes relevées. Ces deux pratiques indissociables devraient permettre à l'élève de réaliser quelles actions il doit mettre en place pour améliorer ses écrits. Ainsi l'élève prend confiance en lui, devient plus autonome et responsable de sa réussite. C'est dans cette optique que s'est déroulée l'expérimentation à l'hiver 2008. Pendant 15 semaines, 25 élèves regroupés à l'intérieur d'un cours d'aide à la réussite ont expérimenté une approche différente de celle du cours dans lequel ils ont échoué. D'abord, l'élève a pris connaissance de ses points forts et de ses faiblesses à l'analyse littéraire du trimestre précédent. Il a pu s'exprimer sur sa conception des critères d'évaluation et ajuster sa compréhension des attentes par la suite. Après chaque production, l'élève a été appelé à porter un jugement critique sur son texte. Aussi, il a pu parler de sa méthode de travail avec ses pairs et évaluer l'efficacité de sa démarche. La réécriture de certains textes a été exigée. À plusieurs reprises, l'élève a dû se questionner sur l'état de ses apprentissages et faire le bilan de ses connaissances. Le travail par les pairs a aussi été très valorisé. Pour vérifier l'impact de notre expérimentation, nous avons recueilli tous les documents relatifs à l'analyse littéraire finale de mai 2008 afin de décrire les processus mentaux mis en place par les élèves et vérifier si leurs stratégies ont été efficaces. Nous avons aussi fait remplir deux questionnaires afin d'analyser les perceptions des élèves quant aux stratégies cognitives et métacognitives expérimentées. Finalement, lors d'une entrevue, l'enseignante nous a fait part de ses perceptions quant à l'intérêt de la recherche et ses limites. Les résultats que nous avons obtenus nous ont permis de voir quelle démarche chaque élève a suivie à partir des traces qu'il a laissées. Il semble que les étapes préalables à la rédaction, celles que l'on retrouve sur la copie de l'extrait littéraire, sont les stratégies les plus utiles pour recueillir toutes les informations nécessaires à la rédaction. Les élèves qui ont laissé des traces de ces étapes sont ceux qui ont le mieux réussi. Cependant, c'est sur le plan des perceptions qu'apparaît encore plus clairement l'importance de combiner les stratégies métacognitives aux stratégies cognitives déjà en place. Les élèves accordent une grande valeur à l'autoévaluation. Cette pratique semble avoir contribué à augmenter leur confiance alors qu'ils sont aptes à détecter leurs forces et leurs faiblesses. Aussi, plusieurs croient que le réinvestissement de cette stratégie dans les autres cours de français pourra les aider dans leur réussite. De manière générale, l'expérimentation de stratégies métacognitives conjointement aux stratégies cognitives donne de bons résultats. Même si l'expérimentation s'est effectuée sur une courte période, elle a eu un impact positif chez les élèves et l'enseignante. Les élèves avaient le sentiment d'être en contrôle de leur réussite. Bref, les résultats nous encouragent donc à poursuivre l'insertion de stratégies métacognitives à l'intérieur du premier cours de français afin d'aider les élèves à acquérir une méthode de travail qui leur sera utile et efficace.
Resumo:
La tradition lexicographique de langue française opère, en théorie, une séparation stricte entre noms communs et noms propres. Or, dans les faits, cette séparation touche surtout les noms propres de lieux et de personnes. En effet, l'observation des articles du vocabulaire politique révèle un nombre important de noms propres d'une autre nature dans les pages de dictionnaires, comme des noms propres d'institutions, de partis politiques ou d'événements et de périodes historiques. Qui plus est, ces noms propres reçoivent souvent un traitement lexicographique comparable à celui des noms communs. Toutefois, ce traitement n'a pas encore fait l'objet d'une étude approfondie. Afin de faire la lumière sur le traitement lexicographique des noms propres du vocabulaire politique, nous avons procédé à une analyse de ces noms propres à travers quatre dictionnaires généraux de langue française : Le Nouveau Petit Robert 2007 (version électronique), Le Petit Larousse Illustré 2007 (version électronique), le Dictionnaire du français Plus - À l'intention des francophones d'Amérique (1988) et le Dictionnaire québécois d'aujourd'hui (1992). Nous avons d'abord mis sur pied une typologie des noms propres du vocabulaire politique susceptibles d'être définis dans les dictionnaires généraux de langue française; puis nous avons relevé ces noms propres dans les dictionnaires à l'étude. Il ressort de ce relevé que le nombre de noms propres du vocabulaire politique dans les dictionnaires est assez élevé pour nécessiter une caractérisation de la pratique lexicographique les entourant. En outre, la description du vocabulaire politique passe par une description de certains types de noms propres en plus des mots du lexique commun. Nous nous sommes penchée sur la manière dont sont présentés les noms propres dans les dictionnaires, pour conclure que leur intégration et leur identification n'obéissent pas à une méthode systématique.La majuscule initiale n'est pas systématiquement utilisée pour les noms propres de même type.La nomenclature des noms propres à inclure dans le dictionnaire de langue à été étudiée à travers l'exemple des noms de partis politiques.La méthode servant à dresser cette nomenclature devrait se baser sur l'observation d'un corpus (fréquence) et l'importance dans un système socioculturel de référence - pour les noms de partis politiques, les noms des partis représentés dans les instances officielles devraient être décrits dans les dictionnaires généraux. Nous avons ensuite analysé les catégories de noms propres les plus représentées dans notre corpus d'articles du vocabulaire politique (les noms propres d'événements et de périodes historiques, les noms de partis politiques, dont les sigles, et les noms propres d'institutions). À la suite de cette analyse, nous proposons une liste d'éléments que le traitement lexicographique devrait inclure afin de permettre une circonscription efficace du référent (c'est-à-dire les traits distinctifs que devrait contenir une définition suffisante pour ces types de noms propres). Un point commun à toutes les catégories concerne l'explicitation du contexte référentiel : en contexte francophone particulièrement, le lieu doit être précisé par le traitement lexicographique. L'étude se termine par une analyse de l'arrimage entre noms propres et lexique commun dans les dictionnaires où ils sont intégrés dans un même ouvrage (PLI) ou dans une même nomenclature ( Dictionnaire Hachette, Dixel ). Nous arrivons à la conclusion que ces particularités dictionnairiques n'ont pas pour l'instant permis de corriger certaines faiblesses dans l'intégration des noms propres du vocabulaire politique, surtout en ce qui a trait à leur présence (nomenclature) et à leur traitement en terme de définition suffisante.
Resumo:
Les consommateurs traitent une publicité imprimée à plusieurs niveaux dépendamment de leur motivation à le faire. Dans cette recherche, nous stipulons que l'adéquation entre la publicité et un schéma présent en mémoire va influencer la motivation du consommateur à traiter l'information publicitaire. Nous stipulons aussi que cette motivation va être modérée par le niveau d'implication du consommateur par la catégorie du produit annoncé dans l'annonce publicitaire. Une recherche expérimentale a donc été menée auprès de 202 personnes sur six annonces publicitaires imprimées: trois typiques et trois atypiques. Chaque unité expérimentale a évalué une publicité. Cette recherche, nous a permis de conclure que les publicités atypiques sont traitées plus en profondeur et sont mieux évaluées que les publicités typiques. D'autre part, nous montrons aussi que lorsqu'une publicité est typique et que le niveau d'implication du consommateur pour la catégorie de produit est élevé, la publicité est traitée plus en profondeur. Ainsi, l'effet modérateur de l'implication est appuyé. Les implications tant théoriques que pratiques de nos résultats sont discutées dans cette recherche.
Resumo:
La présente étude a pour objet le perfectionnement des enseignants du secondaire technique par l'analyse et le savoir analyser de leurs actions. La mise à l'essai des dispositifs de la recherche offre une structure de formation qui favorise l'utilisation des connaissances théoriques dans l'acquisition de savoirs pratiques. À cet effet, des séances de travail conçues sous forme de travaux individuels prennent en compte les comportements de chaque sujet pour l'entraîner dans un processus d'analyse de sa relation pédagogique. Cette conception de la formation fait vivre aux Élèves Professeurs Techniques Adjoints (EPIA) une situation nouvelle d'apprentissage grâce à la médiation de la technologie vidéo. L'approche de perfectionnement ainsi élaborée, est issue des recherches de la psychologie cognitive. La démarche réflexive proposée met l'accent sur le processus de traitement de l'information des sujets. Cette façon de voir le perfectionnement des EPIA n'est pas une fin en soi, mais un moyen d'amener les personnes impliquées à une prise de conscience qui suscitera la réflexion sur les plans de perfectionnement. Dans la problématique de recherche, nous avons souligné le manque d'efficacité des plans de perfectionnement des enseignants et les conséquences directes qu'ils ont sur l'apprentissage des élèves. Le développement de ce problème, pour le moins préoccupant, nous invite à explorer parmi les structures de perfectionnement existantes, les possibilités d'une intervention qui permet à chacun de suivre selon son propre rythme. La méthodologie envisagée, se traduit par une alternance de moments théoriques et pratiques. Le modèle diffère du microenseignement classique par son mode opératoire, la présentation des problèmes éducatifs et les objectifs de formation poursuivis. La première microleçon présentée par les sujets sert à la rédaction d'une rétroaction sur la séquence d'enseignement. La deuxième microleçon est analysée par la technique du rappel stimulé. Un entretien semi-dirigé avec les sujets met fin à l'expérience. L'expérience est explorée auprès de cinq volontaires. Pour une première expérience d'autoscopie, les résultats indiquent que les EPIA identifient plus facilement les situations problématiques de leur enseignement. Aussi, ils sont plus réceptifs aux critiques et partagent leurs expériences avec le groupe. La plupart d'entre eux sont parvenus au stade de formulation des concepts de la démarche réflexive de Holborn (1992). À ce stade de la démarche, les sujets définissent souvent un projet de développement professionnel qu'ils voudront atteindre dans le futur. Notre hypothèse de recherche repose ainsi sur le point de vue de (Schön, 1994) selon lequel "Pour un praticien, savoir mettre le doigt sur le problème est au moins aussi important que savoir le résoudre". La conclusion que l'on peut tirer de cette recherche est que, pour apprendre à enseigner, le futur maître doit comprendre ce qui se passe dans la situation éducative qu'il rencontre ou qu'il crée.
Resumo:
Les récepteurs couplés aux protéines G (RCPG) représentent la famille de récepteurs membranaires la plus étendue. Présentement, 30% des médicaments disponibles sur le marché agissent sur plus ou moins 4% des RCPG connus. Cela indique qu’il existe encore une multitude de RCPG à explorer, qui pourraient démontrer un potentiel thérapeutique intéressant pour des pathologies encore sans traitement disponible. La douleur chronique, qui affecte 1 canadien sur 5, fait partie de ces affections pour lesquelles les thérapies sont faiblement efficaces. Dans le but éventuel de pallier à ce problème, le projet de ce mémoire consistait à mieux comprendre les mécanismes régissant l’adressage membranaire du récepteur de la neurotensine de type 2 (NTS2), un RCPG dont l’activation induit des effets analgésiques puissants de type non opioïdergique. Des données du laboratoire ayant révélé une interaction entre la 3e boucle intracellulaire de NTS2 et la sécrétogranine III (SgIII), une protéine résidente de la voie de sécrétion régulée, notre objectif était de caractériser le rôle de SgIII dans la fonctionnalité du récepteur NTS2. Pour ce faire, l’interaction entre les deux protéines a d’abord été vérifiée par co-immunoprécipitation, GST pull down, essais de colocalisation subcellulaire et par FRET. Nous avons également utilisé un outil d’interférence à l’ARN (DsiRNA) pour invalider la protéine SgIII dans un modèle cellulaire neuronal et chez l’animal. Des essais de radioliaison sur le modèle cellulaire ont révélé une diminution de l’adressage de NTS2 à la membrane plasmique lorsque SgIII était supprimée. De la même façon, une invalidation de SgIII chez le rat inhibe les effets analgésiques d’un agoniste NTS2-sélectif (JMV-431), qui sont normalement observés dans le test de retrait de la queue (douleur aiguë). Nous avons cependant identifié que des stimulations au KCl, à la capsaïcine et à la neurotensine induisaient plutôt une insertion du récepteur à la membrane dans les cellules neuronales. Puisque l’interaction entre SgIII et la 3e boucle intracellulaire du récepteur NTS2 est peu probable selon un système de sécrétion classique, un modèle hypothétique de transition dans les corps multi-vésiculaires a été vérifié. Ainsi, la présence de NTS2 et de SgIII a été révélée dans des préparations exosomales de DRG F11, en plus d’une transférabilité du récepteur par le milieu extracellulaire. En somme, ces résultats démontrent la dépendance du récepteur NTS2 envers SgIII et la voie de sécrétion régulée, en plus d’identifier certains facteurs pouvant augmenter son expression à la surface cellulaire. Le projet contribue ainsi à ouvrir la voie vers des approches pour potentialiser les propriétés de NTS2 in vivo¸ en plus d’une piste d’explication concernant le trafic intracellulaire du récepteur.
Resumo:
Ce mémoire est consacré à l'étude du modèle statistique bivarié duquel sont issues deux variables aléatoires conditionnellement indépendantes de loi de Poisson, dont les taux ne sont pas nécessairement égaux. Tout au long de ce mémoire, l'emphase est mise sur le développement d'un cadre bayésien au problème d'estimation paramétrique pour un tel modèle. Deux thèmes principaux y sont abordés : l'inférence statistique du rapport des deux paramètres d'intensité poissonniens et les densités prédictives. Ces problèmes surviennent notamment dans le contexte d'estimation de l'efficacité d'un vaccin développé par Laurent (Laurent, 2012) de même que Laurent et Legrand (Laurent et Legrand, 2012), ou encore, par celui d'estimation de l'efficacité d'un traitement contre le cancer par Lindley (Lindley, 2002). Alors que, dans ces articles, aucune contrainte paramétrique n'est imposée sur le rapport des deux taux poissonniens, une partie du mémoire abordera également ces thèmes lorsqu'il y a une contrainte restreignant le domaine du rapport sur l'intervalle $[0,1]$. Il sera alors possible d'établir des liens avec un article sur les files d'attente d'Armero et Bayarri (Armero et Bayarri, 1994).
Resumo:
[non disponible]
Resumo:
L'ulcère du pied diabétique (UPD) affecte 15 à 25 % des personnes diabétiques. Le traitement recommandé de la mise en décharge de l'ulcère est peu appliqué, entraînant des délais de guérison excessifs et des coûts élevés pour le système de santé. Peu d'études abordent le sujet des facteurs responsables de la faible adoption des pratiques exemplaires pour le traitement de décharge de l'UPD en soins de première ligne. Les objectifs spécifiques de ce projet de maîtrise sont d'élaborer et de valider deux questionnaires, un dédié aux patients et un dédié aux professionnels de la santé, explorant les facteurs influençant l'adoption des pratiques exemplaires pour le traitement de la mise en décharge de l’UPD en soins de première ligne. En guise de référence à l'élaboration des questionnaires, un guide de développement d'instrument de mesure, inspiré de la théorie du comportement planifié, a été utilisé. L'analyse de deux types de validation a été entreprise, soit l'analyse de la validité de contenu et de la stabilité temporelle. Les résultats ont démontré des scores particulièrement élevés de validité de contenu et des scores de stabilité temporelle satisfaisants pour le questionnaire dédié aux patients. Le questionnaire dédié aux professionnels de la santé a aussi remporté des scores de validité de contenu particulièrement élevés, mais les items ont obtenu des scores de stabilité temporelle faibles. Le niveau de connaissance des participants sur le sujet exploré a eu une influence majeure sur les résultats de stabilité temporelle. Pour la version finale des questionnaires, seulement les items obtenant des scores élevés de validité de contenu et de stabilité temporelle ont été conservés. Cette étude a fait l'objet d'un article de recherche intitulé Development of Survey Tools to Explore Factors Influencing the Adoption of Best Practices for Diabetic Foot Ulcer Offloading et a été soumis à la revue Journal of Wound Ostomy & Continence Nursing. Les réponses obtenues aux items remportant des coefficients de validité forts sont brièvement examinées à la partie discussion. Les résultats de ce projet de maîtrise permettent de souligner la nécessité de recourir à une méthodologie rigoureuse pour l'obtention d'instruments de mesure valides; un élément trop souvent négligé dans les études sur les soins de santé.
Resumo:
Le désir de trouver des outils pour rendre moins ardue l'adaptation des jeunes enseignantes et des jeunes enseignants à la profession enseignante est à l'origine de cette recherche. En effet, des statistiques alarmantes révèlent un taux très élevé d'abandon de la profession dans les cinq premières années d'enseignement au secondaire. La gestion de classe est reconnue dans la documentation scientifique comme une des principales difficultés éprouvées par les enseignantes et les enseignants débutants. Malgré toute la préparation liée, en grande partie, à la phase préactive de l'enseignement, la gestion des imprévus, une fois en classe, pose problème aux novices, puisqu'ils ne disposent pas d'un répertoire expérientiel suffisant pour faire face à une grande variété de situations. Cependant, avec le temps, les enseignants développent une certaine assurance qui les rend moins vulnérables devant les imprévus qui surviennent en classe, notamment en raison de leur capacité à improviser. Cette aisance manifestée par des enseignantes et des enseignants expérimentés devant toutes sortes de situations en classe semble établir un lien très étroit entre l'improvisation et une gestion de classe efficace, en particulier lorsque se présentent des situations non planifiées. Holborn (2003), à partir des travaux de Schön (1983) sur le processus de réflexion-en-action, établit un lien entre l'improvisation et l'enseignement de même que Yinger (1987) et Tochon (1993b). Durand (1996) et Le Boterf (2002) permettent de situer l'acte d'improviser à l'intérieur d'un système complexe de connaissances préalables ou complémentaires et font émerger l'idée que cette capacité puisse se développer autrement que par l'expérience. Les travaux de Sawyer (2004) et Lobman (2005), quant à eux, tissent des liens entre une formation en improvisation théâtrale et la gestion des interactions en classe. La recension des écrits révèle qu'une bonne partie de l'expertise en classe s'explique par l'utilisation de l'improvisation. Curieusement, mis à part Sawyer (2004) et Lobman (2005), aucun auteur ne semble considérer l'entraînement à l'improvisation comme un outil permettant d'apprendre à réagir face aux imprévus. Si Lobman (2005) démontre, en partie, qu'un entraînement à l'improvisation théâtrale peut avoir des incidences sur la gestion des interactions des enseignantes et des enseignants du préscolaire, aucune autre étude ne révèle les incidences que pourraient avoir les habiletés acquises dans un entraînement à l'improvisation sur la gestion des imprévus en classe chez des enseignantes et des enseignants du secondaire. C'est la raison pour laquelle cette recherche poursuit l'objectif d'expliciter la perception d'enseignantes et d'enseignants des composantes de leur entraînement à l'improvisation actives dans la gestion des imprévus en classe du secondaire. Pour atteindre cet objectif, une méthodologie qualitative est mise en oeuvre. Le cadre de collecte des données repose sur des entrevues semi-dirigées auprès d'enseignantes et d'enseignants ayant reçu ou non un entraînement à l'improvisation. La stratégie d'analyse utilisée s'inspire de l'analyse par théorisation ancrée de Paillé (1994) en empruntant les deux premières étapes de cette stratégie: la codification et la catégorisation. Par la suite, une schématisation préliminaire permet la mise en relation des composantes et alimente l'interprétation des résultats. Les résultats révèlent que la vigilance et la rapidité d'exécution interviennent directement dans le processus de gestion des imprévus en classe du secondaire et apparaissent comme étant exclusives aux enseignantes et enseignants ayant reçu un entraînement à l'improvisation. La discussion des résultats met non seulement en parallèle ces résultats avec les travaux de Tochon (1993b) et ceux de Yinger (1987) qui établissent un lien entre l'improvisation et la rapidité d'exécution, mais également avec les travaux de Nault (1998) sur l'hypersensitivité, concept inspiré du withitness de Kounin (1970) et des travaux de Doyle (1986) sur l'interactivité dans l'enseignement. De plus, un lien significatif est établi avec les études de Sawyer (2004) et Lobman (2005) au sujet du développement de la vigilance chez les sujets ayant reçu un entraînement à l'improvisation théâtrale. L'entraînement à l'improvisation offre d'intéressantes possibilités, notamment en ce qui a trait au développement de la compétence en gestion de classe chez les novices. Ainsi, en offrant des outils permettant à ces derniers d'atténuer le choc de la réalité à leurs débuts, ce moyen de formation pourrait contribuer, ultimement, à diminuer le taux d'abandon de la profession.
Resumo:
Ce mémoire aborde le traitement de l'erreur à l'oral entre apprenants dans une classe de français langue seconde de l'Université de Sherbrooke (Québec). Dans les classes de français langue seconde de cette institution, les étudiants travaillent la plupart du temps en équipes du fait que l'approche communicative est utilisée comme modèle pédagogique. L'objectif général de cette recherche a été d'explorer, à partir du moment où une erreur est produite, les relations entre les types de rétroactions utilisées par les apprenants dans le but de corriger leurs collègues et les réponses suivant ces rétroactions. Principalement, cette étude sur le traitement de l'erreur à l'oral dans un contexte de travail en équipe a révélé que la correction faite par un pair ne passe pas inaperçue et qu'elle est fréquemment suivie par une réparation immédiate de l'énoncé fautif initial ou encore, d'une tentative de correction.
Resumo:
Les novices en enseignement, particulièrement celles et ceux qui oeuvrent en adaptation scolaire, doivent composer avec de nombreux rôles dès leur entrée en milieu professionnel. Cette réalité multiplie les occasions de rencontrer des problèmes d'ordre éthique à l'école, soit des problèmes pour lesquels il n'existe pas de réponses ou de balises claires, qui exigent une prise de décisions et un choix d'actions qui doivent tenir compte de plusieurs éléments dont il faudra déterminer l'importance et, par conséquent, qui génèrent des conflits de valeurs. Être capable de résoudre un problème éthique implique au départ de développer la capacité à reconnaître les dimensions présentes à l'intérieur du problème. Nous avons dégagé quatre dimensions généralement présentes dans l'analyse d'un problème éthique: les personnes impliquées, les valeurs en jeu, les principes de conduite professionnelle appropriée et le cadre professionnel.Les personnes impliquées, puisque les professionnelles et professionnels sont amenés à anticiper les conséquences de leurs actions sur le bien-être des personnes concernées.Les valeurs en jeu, soit les structures internes sur lesquelles chaque individu se réfère spontanément, que ce soit des valeurs acquises durant l'enfance, dans l'expérience personnelle ou dans l'expérience professionnelle.Les principes de conduite professionnelle appropriée qui sont adoptés à titre de références par les membres de la communauté enseignante. Finalement, le cadre professionnel, car l'enseignante et l'enseignant s'inscrivent dans un cadre qui repose sur des lois et des normes des milieux. L'objectif de cette recherche a été de mettre en évidence les dimensions examinées par des enseignantes et des enseignants en adaptation scolaire en insertion professionnelle lorsqu'ils sont devant un problème éthique à l'école. La méthodologie utilisée était de nature qualitative et la cueillette de données a été effectuée par le moyen d'entrevues individuelles semi-dirigées.Les résultats obtenus à la suite de deux phases de collecte nous ont permis de mettre en évidence, entre autres, que certaines dimensions étaient examinées par les participantes de manière plus approfondie que d'autres devant des problèmes éthiques et dégager le sens accordé à chacune des dimensions par les participantes. Nous avons aussi analysé certaines préoccupations relatives à l'insertion professionnelle ayant émergé durant les entrevues.