999 resultados para Évaluation des processus
Resumo:
La pathologie de la fibrose kystique (FK) est causée par des mutations dans le gène codant pour le canal CFTR. La mutation la plus commune est la délétion du résidu Phe508 (∆F508), qui entraîne un mauvais repliement et la dégradation de la protéine mutée. Ainsi, l’absence du CFTR cause un dysfonctionnement du transport ionique et liquidien qui altère le phénomène de clairance mucociliaire. Il en résulte une accumulation de mucus visqueux obstruant les voies aériennes favorisant une colonisation bactérienne, spécialement par P. aeruginosa, et une inflammation chronique. Ces phénomènes entraînent des lésions épithéliales et un remodelage des voies aériennes. Selon nos analyses ultrastructurales de poumons issus de patients FK au moment de la transplantation, certaines zones de l’épithélium FK montrait des signes de d’initiation des processus de réparation. Malgré cela, un dommage épithélial progressif est observé chez les patients FK et il apparaît évident que les processus de réparation sont insuffisants pour permettre le rétablissement de l’intégrité épithéliale. Le principal objectif de mon étude était d’étudier le rôle du CFTR dans les mécanismes de réparation de l’épithélium FK et de déterminer l’impact de la correction du CFTR sur la réparation épithéliale et ce, en condition aseptique et en présence d’infection. Mes travaux montrent que l’épithélium des voies aériennes FK présente un défaut de réparation, associé, du moins en partie, à l’absence d’un CFTR fonctionnel. De plus, nous avons démontré pour la première fois que l’application du correcteur du CFTR VRT-325 permettait, non seulement, la maturation du CFTR, mais également une amélioration de la capacité des monocouches de cellules des voies aériennes FK à se réparer. D’autre part, nous avons montré que la présence du filtrat bactérien de P. aeruginosa (PsaDM) altérait non seulement l’expression et la fonction du CFTR, mais également les processus de réparation épithéliale. Enfin, nos résultats montrent que l’infection affecte la maturation du CFTR induite par le VRT-325 et diminue les effets bénéfiques du VRT-325 sur la réparation épithéliale. Mes travaux permettent de mieux comprendre le rôle du CFTR dans les processus de réparation de l’épithélium FK et de proposer une nouvelle approche thérapeutique visant à promouvoir la régénération épithéliale chez les patients FK afin de tenter de stabiliser leur état, malgré l’effet délétère de la composante infectieuse.
Resumo:
L’oxyde nitreux (N2O), un puissant gaz à effet de serre (GES) ayant plus de 300 fois le potentiel de réchauffement du dioxyde de carbone (CO2), est produit par des processus microbiens du cycle de l’azote (N). Bien que les eaux de surface continentales soient reconnues comme des sites actifs de transformations de l’azote, leur intégration dans les budgets globaux de N2O comporte de nombreuses incertitudes, dont l’absence des lacs dans ces modèles. Le biome boréal est caractérisé par une des plus grandes densités d’eaux douces au monde, pourtant aucune évaluation exhaustive des émissions aquatiques de N2O n’a à date été conduite dans cette région. Dans la présente étude, nous avons mesuré les concentrations de N2O à travers une large gamme de lacs, rivières, et étangs, dans quatre régions boréales du Québec (Canada), et nous avons calculé les flux eau-air résultants. Les flux nets fluctuent entre -23.1 et 177.9 μmol m-2 J-1, avec une grande variabilité inter-système, inter-régionale, et saisonnière. Étonnamment, 40% des systèmes échantillonnés agissaient en tant que puits de N2O durant l’été, et le réseau d’eaux de surfaces d’une des régions était un net consommateur de N2O. Les concentrations maximales de N2O ont été mesurées en hiver dû à l’accumulation de ce gaz sous la glace. Nous avons estimé que l’émission qui en résulte lors de la fonte des glaces représente 20% des émissions annuelles des eaux douces. Parmi les types d’eaux douces échantillonnées, les lacs sont les principaux responsables du flux aquatique net (jusqu’à 90%), et doivent donc être intégrés dans les budgets globaux de N2O. En se basant sur les données empiriques de la littérature, nous avons éstimé l’émission globale de N2O des eaux douces à 0.78 Tg N (N2O) an-1. Ce chiffre est influencé par les émissions des régions de hautes latitudes (tel que le biome boréal) dont les flux nets varient de positif à négatif constituant -9 à 27 % du total.
Resumo:
Essai doctoral présenté à la Faculté des études supérieures en vue de l’obtention du doctorat clinique en psychologie (D.Psy)
Resumo:
Le monde actuel, marqué par une augmentation incessante des exigences professionnelles, requiert des enseignants une adaptation constante aux changements sociaux, culturels et économiques. Si, pour les enseignants expérimentés, l’accommodation à ces transformations est accompagnée de plusieurs défis, pour les nouveaux enseignants qui ne maîtrisent pas complètement tous les aspects de la profession, l’intégration au milieu scolaire peut être extrêmement difficile ou même insupportable, au point où certains quittent le métier. Néanmoins, à force de persévérance, un certain nombre des nouveaux enseignants franchissent les obstacles imposés par la profession. Dans leur cas, la satisfaction et l’engagement professionnel peuvent être des caractéristiques importantes qui les incitent à continuer à exercer leurs activités d’enseignement. Dans ce contexte, l’étude vise l’analyse des éléments liés à la construction de l’identité professionnelle des enseignants lors de leur insertion dans le métier, à partir des perceptions des nouveaux enseignants et de celles des gestionnaires des écoles primaires et secondaires. L’harmonie entre la perception de ces deux groupes d’acteurs scolaires peut constituer un important facteur du rendement des professionnels dans leur métier et de l’efficacité des institutions d’enseignement. Ainsi, du côté des nouveaux enseignants, l’étude examine les variables qui peuvent être liées à leur engagement professionnel et de celui des gestionnaires, elle vise à analyser les éléments qui peuvent être liés à leur satisfaction sur le travail effectué par les nouveaux enseignants. La présente étude, de type quantitatif, est constituée des analyses secondaires des données issues des enquêtes pancanadiennes auprès des directions et des enseignants d’écoles primaires et secondaires du Canada, menées en 2005 et 2006 par une équipe de professeurs de différentes universités canadiennes. Les analyses statistiques sont basées sur deux modèles théoriques : (1) l’engagement professionnel des nouveaux enseignants et (2) la satisfaction des gestionnaires sur le travail effectué par les nouveaux enseignants. Ces modèles sont examinés en suivant la théorie classique des tests (TCT) et celle des réponses aux items (TRI) afin de profiter des avantages de chacune des méthodes. Du côté de la TCT, des analyses de cheminement et des modélisations aux équations structurelles ont été effectuées pour examiner les modèles théoriques. Du côté de la TRI, des modélisations de Rasch ont été utilisées pour examiner les propriétés psychométriques des échelles utilisées par la recherche afin de vérifier si les données sont bien ajustées aux modèles et si les items se regroupent de façon logique pour expliquer les traits latents à l’étude. Les résultats mettent en évidence le rapport humain qui définit la profession enseignante. Autrement dit, pour les nouveaux enseignants, les émotions en classe, conséquence du processus d’interaction avec leurs élèves, sont le facteur majeur lié à l’engagement professionnel. Dans le même sens, la relation des nouveaux enseignants avec les divers membres de la communauté scolaire (parents des élèves, gestionnaires, personnel de l’école et autres enseignants) est un facteur-clé de la satisfaction des gestionnaires quant au travail des nouveaux enseignants. Les analyses indiquent également l’importance de la satisfaction au travail dans le modèle des nouveaux enseignants. Cette variable est un important déterminant de l’engagement professionnel et peut être associée à tous les autres éléments du modèle des nouveaux enseignants. Finalement, les résultats indiquent le besoin de construction des variables latentes avec un plus grand nombre d’items pour mieux positionner les personnes dans l’échelle de mesure. Ce résultat est plutôt important pour le modèle des gestionnaires qui indique de mauvais ajustements items-personnes.
Resumo:
Au-delà des variables climatiques, d’autres facteurs non climatiques sont à considérer dans l’analyse de la vulnérabilité et de l’adaptation au changement et variabilité climatiques. Cette mutation de paradigme place l’agent humain au centre du processus d’adaptation au changement climatique, notamment en ce qui concerne le rôle des réseaux sociaux dans la transmission des nouvelles idées. Dans le domaine de l’agriculture, le recours aux innovations est prôné comme stratégie d’adaptation. L’élaboration et l’appropriation de ces stratégies d’adaptation peuvent être considérées comme des processus d’innovation qui dépendent autant du contexte social et culturel d’un territoire, de sa dynamique, ainsi que de la stratégie elle-même. Aussi, l’appropriation et la diffusion d’une innovation s’opèrent à partir d’un processus décisionnel à l’échelle de l’exploitation agricole, qui à son tour, demande une compréhension des multiples forces et facteurs externes et internes à l’exploitation et les multiples objectifs de l’exploitant. Ainsi, la compréhension de l’environnement décisionnel de l’exploitant agricole à l’échelle de la ferme est vitale, car elle est un préalable incontournable au succès et à la durabilité de toute politique d’adaptation de l’agriculture. Or, dans un secteur comme l’agriculture, il est reconnu que les réseaux sociaux par exemple, jouent un rôle crucial dans l’adaptation notamment, par le truchement de la diffusion des innovations. Aussi, l’objectif de cette recherche est d’analyser comment les exploitants agricoles s’approprient et conçoivent les stratégies d’adaptation au changement et à la variabilité climatiques dans une perspective de diffusion des innovations. Cette étude a été menée en Montérégie-Ouest, région du sud-ouest du Québec, connue pour être l’une des plus importantes régions agricoles du Québec, en raison des facteurs climatiques et édaphiques favorables. Cinquante-deux entrevues ont été conduites auprès de différents intervenants à l’agriculture aux niveaux local et régional. L’approche grounded theory est utilisée pour analyser, et explorer les contours de l’environnement décisionnel des exploitants agricoles relativement à l’utilisation des innovations comme stratégie d’adaptation. Les résultats montrent que les innovations ne sont pas implicitement conçues pour faire face aux changements et à la variabilité climatiques même si l’évolution du climat influence leur émergence, la décision d’innover étant largement déterminée par des considérations économiques. D’autre part, l‘étude montre aussi une faiblesse du capital sociale au sein des exploitants agricoles liée à l’influence prépondérante exercée par le secteur privé, principal fournisseur de matériels et intrants agricoles. L’influence du secteur privé se traduit par la domination des considérations économiques sur les préoccupations écologiques et la tentation du profit à court terme de la part des exploitants agricoles, ce qui pose la problématique de la soutenabilité des interventions en matière d’adaptation de l’agriculture québécoise. L’étude fait ressortir aussi la complémentarité entre les réseaux sociaux informels et les structures formelles de soutien à l’adaptation, de même que la nécessité d’établir des partenariats. De plus, l’étude place l’adaptation de l’agriculture québécoise dans une perspective d’adaptation privée dont la réussite repose sur une « socialisation » des innovations, laquelle devrait conduire à l’émergence de processus institutionnels formels et informels. La mise en place de ce type de partenariat peut grandement contribuer à améliorer le processus d’adaptation à l’échelle locale.
Resumo:
Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.
Resumo:
La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.
Resumo:
Inclut la bibliographie
Resumo:
L’objectif de cette thèse est l’étude du développement de l’attention auditive et des capacités de discrimination langagière chez l’enfant né prématurément ou à terme. Les derniers mois de grossesse sont particulièrement importants pour le développement cérébral de l’enfant et les conséquences d’une naissance prématurée sur le développement peuvent être considérables. Les enfants nés prématurément sont plus à risque de développer une variété de troubles neurodéveloppementaux que les enfants nés à terme. Même en l’absence de dommages cérébraux visibles, de nombreux enfants nés avant terme sont à risque de présenter des troubles tels que des retards langagiers ou des difficultés attentionnelles. Dans cette thèse, nous proposons donc une méthode d’investigation des processus préattentionnels auditifs et de discrimination langagière, à l’aide de l’électrophysiologie à haute densité et des potentiels évoqués auditifs (PEAs). Deux études ont été réalisées. La première visait à mettre sur pied un protocole d’évaluation de l’attention auditive et de la discrimination langagière chez l’enfant en santé, couvrant différents stades de développement (3 à 7 ans, 8 à 13 ans, adultes ; N = 40). Pour ce faire, nous avons analysé la composante de Mismatch Negativity (MMN) évoquée par la présentation de sons verbaux (syllabes /Ba/ et /Da/) et non verbaux (tons synthétisés, Ba : 1578 Hz/2800 Hz ; Da : 1788 Hz/2932 Hz). Les résultats ont révélé des patrons d’activation distincts en fonction de l’âge et du type de stimulus présenté. Chez tous les groupes d’âge, la présentation des stimuli non verbaux a évoqué une MMN de plus grande amplitude et de latence plus rapide que la présentation des stimuli verbaux. De plus, en réponse aux stimuli verbaux, les deux groupes d’enfants (3 à 7 ans, 8 à 13 ans) ont démontré une MMN de latence plus tardive que celle mesurée dans le groupe d’adultes. En revanche, en réponse aux stimuli non verbaux, seulement le groupe d’enfants de 3 à 7 ans a démontré une MMN de latence plus tardive que le groupe d’adulte. Les processus de discrimination verbaux semblent donc se développer plus tardivement dans l’enfance que les processus de discrimination non verbaux. Dans la deuxième étude, nous visions à d’identifier les marqueurs prédictifs de déficits attentionnels et langagiers pouvant découler d’une naissance prématurée à l’aide des PEAs et de la MMN. Nous avons utilisé le même protocole auprès de 74 enfants âgés de 3, 12 et 36 mois, nés prématurément (avant 34 semaines de gestation) ou nés à terme (au moins 37 semaines de gestation). Les résultats ont révélé que les enfants nés prématurément de tous les âges démontraient un délai significatif dans la latence de la réponse MMN et de la P150 par rapport aux enfants nés à terme lors de la présentation des sons verbaux. De plus, les latences plus tardives de la MMN et de la P150 étaient également corrélées à des performances langagières plus faibles lors d’une évaluation neurodéveloppementale. Toutefois, aucune différence n’a été observée entre les enfants nés à terme ou prématurément lors de la discrimination des stimuli non verbaux, suggérant des capacités préattentionnelles auditives préservées chez les enfants prématurés. Dans l’ensemble, les résultats de cette thèse indiquent que les processus préattentionnels auditifs se développent plus tôt dans l'enfance que ceux associés à la discrimination langagière. Les réseaux neuronaux impliqués dans la discrimination verbale sont encore immatures à la fin de l'enfance. De plus, ceux-ci semblent être particulièrement vulnérables aux impacts physiologiques liés à la prématurité. L’utilisation des PEAs et de la MMN en réponse aux stimuli verbaux en bas âge peut fournir des marqueurs prédictifs des difficultés langagières fréquemment observées chez l’enfant prématuré.
Resumo:
L’objectif de cette thèse est l’étude du développement de l’attention auditive et des capacités de discrimination langagière chez l’enfant né prématurément ou à terme. Les derniers mois de grossesse sont particulièrement importants pour le développement cérébral de l’enfant et les conséquences d’une naissance prématurée sur le développement peuvent être considérables. Les enfants nés prématurément sont plus à risque de développer une variété de troubles neurodéveloppementaux que les enfants nés à terme. Même en l’absence de dommages cérébraux visibles, de nombreux enfants nés avant terme sont à risque de présenter des troubles tels que des retards langagiers ou des difficultés attentionnelles. Dans cette thèse, nous proposons donc une méthode d’investigation des processus préattentionnels auditifs et de discrimination langagière, à l’aide de l’électrophysiologie à haute densité et des potentiels évoqués auditifs (PEAs). Deux études ont été réalisées. La première visait à mettre sur pied un protocole d’évaluation de l’attention auditive et de la discrimination langagière chez l’enfant en santé, couvrant différents stades de développement (3 à 7 ans, 8 à 13 ans, adultes ; N = 40). Pour ce faire, nous avons analysé la composante de Mismatch Negativity (MMN) évoquée par la présentation de sons verbaux (syllabes /Ba/ et /Da/) et non verbaux (tons synthétisés, Ba : 1578 Hz/2800 Hz ; Da : 1788 Hz/2932 Hz). Les résultats ont révélé des patrons d’activation distincts en fonction de l’âge et du type de stimulus présenté. Chez tous les groupes d’âge, la présentation des stimuli non verbaux a évoqué une MMN de plus grande amplitude et de latence plus rapide que la présentation des stimuli verbaux. De plus, en réponse aux stimuli verbaux, les deux groupes d’enfants (3 à 7 ans, 8 à 13 ans) ont démontré une MMN de latence plus tardive que celle mesurée dans le groupe d’adultes. En revanche, en réponse aux stimuli non verbaux, seulement le groupe d’enfants de 3 à 7 ans a démontré une MMN de latence plus tardive que le groupe d’adulte. Les processus de discrimination verbaux semblent donc se développer plus tardivement dans l’enfance que les processus de discrimination non verbaux. Dans la deuxième étude, nous visions à d’identifier les marqueurs prédictifs de déficits attentionnels et langagiers pouvant découler d’une naissance prématurée à l’aide des PEAs et de la MMN. Nous avons utilisé le même protocole auprès de 74 enfants âgés de 3, 12 et 36 mois, nés prématurément (avant 34 semaines de gestation) ou nés à terme (au moins 37 semaines de gestation). Les résultats ont révélé que les enfants nés prématurément de tous les âges démontraient un délai significatif dans la latence de la réponse MMN et de la P150 par rapport aux enfants nés à terme lors de la présentation des sons verbaux. De plus, les latences plus tardives de la MMN et de la P150 étaient également corrélées à des performances langagières plus faibles lors d’une évaluation neurodéveloppementale. Toutefois, aucune différence n’a été observée entre les enfants nés à terme ou prématurément lors de la discrimination des stimuli non verbaux, suggérant des capacités préattentionnelles auditives préservées chez les enfants prématurés. Dans l’ensemble, les résultats de cette thèse indiquent que les processus préattentionnels auditifs se développent plus tôt dans l'enfance que ceux associés à la discrimination langagière. Les réseaux neuronaux impliqués dans la discrimination verbale sont encore immatures à la fin de l'enfance. De plus, ceux-ci semblent être particulièrement vulnérables aux impacts physiologiques liés à la prématurité. L’utilisation des PEAs et de la MMN en réponse aux stimuli verbaux en bas âge peut fournir des marqueurs prédictifs des difficultés langagières fréquemment observées chez l’enfant prématuré.
Resumo:
L’intégration des technologies de l’information et de la communication (TIC) en contexte éducatif représente un moyen concret d’action et de réflexion en sciences de l’éducation. Les scientifiques et les acteurs de terrain se questionnent sur l’intégration des technologies et sur les moyens à mettre en place afin de réussir ce processus parfois complexe. De fait, la pénétration des outils technologiques dans les établissements scolaires a été exponentielle ces dernières années. Il est aujourd’hui nécessaire de comprendre selon quelles perspectives ces outils s’intègrent en salle de classe. Un exemple marquant est celui de la tablette tactile, récemment intégrée massivement dans les écoles d’Amérique du Nord et d’Europe. Cet outil, relativement récent dans la sphère scolaire, demande une réflexion précise vis-à-vis des pratiques pédagogiques des enseignants et des processus d’intégration inhérents. Afin de répondre à ces questionnements, nous avons élaboré une recherche en trois temps. Dans un premier temps, nous avons dressé un portrait exhaustif des pratiques pédagogiques des enseignants utilisant quotidiennement la tablette tactile en salle de classe. Ce portrait nous permet d’esquisser une synthèse des usages et réalités pédagogiques qui entourent cet outil. Dans un deuxième temps, nous avons répertorié, analysé et classifié les modèles d’intégration des TIC présents dans la littérature. L’analyse de ces modèles nous a permis d’en extraire les forces et les lacunes intrinsèques. Ensuite, nous avons créé un modèle synthèse rassemblant les réflexions issues de ces analyses. En parallèle, nous avons créé une typologie permettant d’identifier et de classifier ces modèles. Dans un troisième temps, nous sommes partis des pratiques pédagogiques des enseignants et du modèle général d’intégration des TIC que nous avons conçu afin de comprendre quel était le processus d’intégration de la tablette en salle de classe. Les résultats obtenus mettent en évidence que l’utilisation de la tablette induit des usages pédagogiques novateurs qui facilitent l’enseignement et qui favorisent l’apprentissage des élèves. Cependant, nous constatons que la tablette n’est pas utilisée à son plein potentiel et que certains usages devraient être envisagés selon une perspective plus efficiente et adaptée. En ce qui concerne les processus d’intégration, nous avons identifié plusieurs éléments indispensables: ces processus doivent être itératifs et constructifs, des facteurs internes et externes doivent être considérés et des niveaux d’intégration doivent être identifiés. Le modèle ainsi conçu spécifie le modèle à privilégier et les aboutissants à considérer. À la suite de cette étape, nous avons conçu un modèle d’intégration spécifiquement dédié à la tablette. Celui-ci met en évidence, au-delà des caractéristiques définies dans le modèle général, une nécessaire formation, une implication des acteurs, un ajustement constant des pratiques pédagogiques et une itération indispensable. À la suite de ces considérations, nous constatons que le processus d’appropriation de la tablette est en cours de construction et que les nouvelles implantations, comme les existantes, doivent procéder à une analyse minutieuse des tenants et aboutissants des pratiques médiées par l’intégration de l’outil. En fin de document, une synthèse des résultats et des recommandations est proposée afin de favoriser l’intégration de la tablette tactile - et des TIC en général – dans la salle de classe.
Resumo:
L’intégration des technologies de l’information et de la communication (TIC) en contexte éducatif représente un moyen concret d’action et de réflexion en sciences de l’éducation. Les scientifiques et les acteurs de terrain se questionnent sur l’intégration des technologies et sur les moyens à mettre en place afin de réussir ce processus parfois complexe. De fait, la pénétration des outils technologiques dans les établissements scolaires a été exponentielle ces dernières années. Il est aujourd’hui nécessaire de comprendre selon quelles perspectives ces outils s’intègrent en salle de classe. Un exemple marquant est celui de la tablette tactile, récemment intégrée massivement dans les écoles d’Amérique du Nord et d’Europe. Cet outil, relativement récent dans la sphère scolaire, demande une réflexion précise vis-à-vis des pratiques pédagogiques des enseignants et des processus d’intégration inhérents. Afin de répondre à ces questionnements, nous avons élaboré une recherche en trois temps. Dans un premier temps, nous avons dressé un portrait exhaustif des pratiques pédagogiques des enseignants utilisant quotidiennement la tablette tactile en salle de classe. Ce portrait nous permet d’esquisser une synthèse des usages et réalités pédagogiques qui entourent cet outil. Dans un deuxième temps, nous avons répertorié, analysé et classifié les modèles d’intégration des TIC présents dans la littérature. L’analyse de ces modèles nous a permis d’en extraire les forces et les lacunes intrinsèques. Ensuite, nous avons créé un modèle synthèse rassemblant les réflexions issues de ces analyses. En parallèle, nous avons créé une typologie permettant d’identifier et de classifier ces modèles. Dans un troisième temps, nous sommes partis des pratiques pédagogiques des enseignants et du modèle général d’intégration des TIC que nous avons conçu afin de comprendre quel était le processus d’intégration de la tablette en salle de classe. Les résultats obtenus mettent en évidence que l’utilisation de la tablette induit des usages pédagogiques novateurs qui facilitent l’enseignement et qui favorisent l’apprentissage des élèves. Cependant, nous constatons que la tablette n’est pas utilisée à son plein potentiel et que certains usages devraient être envisagés selon une perspective plus efficiente et adaptée. En ce qui concerne les processus d’intégration, nous avons identifié plusieurs éléments indispensables: ces processus doivent être itératifs et constructifs, des facteurs internes et externes doivent être considérés et des niveaux d’intégration doivent être identifiés. Le modèle ainsi conçu spécifie le modèle à privilégier et les aboutissants à considérer. À la suite de cette étape, nous avons conçu un modèle d’intégration spécifiquement dédié à la tablette. Celui-ci met en évidence, au-delà des caractéristiques définies dans le modèle général, une nécessaire formation, une implication des acteurs, un ajustement constant des pratiques pédagogiques et une itération indispensable. À la suite de ces considérations, nous constatons que le processus d’appropriation de la tablette est en cours de construction et que les nouvelles implantations, comme les existantes, doivent procéder à une analyse minutieuse des tenants et aboutissants des pratiques médiées par l’intégration de l’outil. En fin de document, une synthèse des résultats et des recommandations est proposée afin de favoriser l’intégration de la tablette tactile - et des TIC en général – dans la salle de classe.
Resumo:
Cette étude identifie les représentations du rôle professionnel d'éducatrice en éducation psychomotrice. Le rôle professionnel d'éducatrice se définit comme un processus de prise de décisions concernant l'enfant, l'organisation de l'environnement et le jeu. Les représentations sont constituées de deux systèmes : les croyances et les processus cognitifs. Trois étudiantes respectivement inscrites en première, en troisième et en cinquième session ont participé à une entrevue semi-dirigée portant sur le rôle professionnel d'éducatrice en éducation psychomotrice. Les modèles de rôles maternel, thérapeutique et instructionnel (Katz, 1970) sont à la base de l'analyse des croyances alors que le diagnostic, la conception, la planification et le guide identifient les quatre processus cognitifs du rôle professionnel d'éducatrice (Saracho, 1988). Une analyse qualitative des verbatims des entrevues a permis d'isoler les croyances et les processus cognitifs. Par la suite, les représentations du rôle professionnel d'éducatrice se sont précisées de la présence des modèles de rôles dans l'utilisation des processus cognitifs. Selon cette étude, les quatre processus cognitifs du rôle professionnel apparaissent chez chacun des sujets. Les sujets prennent principalement des décisions concernant l'enfant. Par contre, les décisions touchant l'organisation de l'environnement et le jeu sont peu présentes. Par ailleurs, les trois sujets appliquent les modèles de rôles maternel, instructionnel et thérapeutique dans chaque processus cognitif du rôle professionnel d'éducatrice. Toutefois, de façon générale, les sujets tendent vers l'orientation intellectuelle du modèle de rôle instructionnel dans le diagnostic, la conception et la planification. De plus, tous les sujets présentent l'orientation intellectuelle du modèle instructionnel dans le guide. Cependant, l'orientation académique du modèle instructionnel apparaît dans le diagnostic, la conception et la planification des sujets de troisième et de cinquième session. Cette étude ouvre la voie à la recherche sur l'enseignement et l'apprentissage des processus cognitifs et des croyances compatibles avec le rôle professionnel d'éducatrice. De plus, ces représentations devenant explicites permettent aux formatrices d'éducatrice de porter une évaluation diagnostique autant en formation initiale qu'en formation continue. Cette recherche contribue à définir un «corpus» de savoirs propre aux éducatrices en Techniques d'éducation en services de garde dans le cadre d'une pédagogie basée sur le cognitivisme.
Resumo:
R?SUM?: Ce m?moire a comme but la description de la mise en place de deux unit?s didactiques pour l?am?lioration de la comp?tence communicative orale en fran?ais d?un groupe d??l?ves de terminale d?un lyc?e de Cali. Ce travail s?inscrit dans la recherche action qui nous a permis de mener un processus de diagnostic, d?impl?mentation et d??valuation. Les techniques utilis?es ont ?t? les enqu?tes, entretiens aux ?l?ves et au professeur titulaire, observations de classes et enregistrements audio et vid?o. L?analyse de la phase d?impl?mentation s?est faite ? partir de trois grandes cat?gories qui rassemblent le sens de l?approche collaborative et la comp?tence communicative orale. Les r?sultats montrent que les ?l?ves ont am?lior? leur expression orale en fran?ais notamment l?enrichissement de vocabulaire et la fluidit?, ? travers des contenus proches de leur r?alit?. Nous montrons les b?n?fices de l?approche collaborative tels que le travail de groupe, le changement de r?les de l?enseignant et des ?l?ves et la possibilit? de co-?valuation du processus dans un cours de fran?ais langue ?trang?re.
Resumo:
1. Un premier apport de notre travail consiste à proposer un cadre théorique, analytique et conceptuel original, permettant d'approcher la notion de qualité des publications en SHS (sciences humaines et sociales) et en sciences de la communication de façon à la fois holistique et dynamique, en tant qu'elle fait l'objet de descriptions et de jugements multiples, émis par une diversité de parties prenantes, au sein et en dehors des milieux académiques. Pour ce faire, il s'agira de considérer la qualité dans ses différentes dimensions constitutives (approche holistique) tout en l'inscrivant dans le cadre d'évolutions tendancielles en matière de publication scientifique (approche dynamique) et en tenant compte de la qualité telle qu'elle est prescrite, souhaitée et mise en oeuvre par les différentes parties prenantes (chercheurs et entités prescriptrices, aux niveaux politique et managérial). En croisant de façon systématique ces trois approches - approche multidimensionnelle, rapport aux prescrits et aux souhaits, et étude des évolutions tendancielles -, il s’avérera possible d'évaluer l'incidence des différentes tendances en matière de publication scientifique – i.e. tendances à la massification, à l'internationalisation, à l' « exotérisation » (i.e. à l'ouverture vers le monde extérieur, au-delà des pairs), à la « gestionnarisation » (i.e. à l'usage des publications dans la gestion dela recherche et des chercheurs, en particulier en situation d'évaluation), à la commercialisation et à l' « enlignement » (i.e. à la mise en ligne, sur Internet) – ainsi que des prescriptions managériales et politiques qui les initient, les stimulent ou les prolongent à des degrés divers, sur la qualité de l'activité même de publier, et sur celle des différents types génériques et spécifiques d'objets publiés.2. En appliquant cette triple approche aux SHS et, plus particulièrement, au cas des sciences de la communication, nous montrerons comment la plupart des évolutions tendancielles qui sont discutées ici ainsi que des prescrits politiques et managériaux qui y affèrent aboutissent à valoriser principalement, en situation d'évaluation de la recherche et des chercheurs, la publication d'un grand nombre d'articles dans des revues savantes internationales de premier plan, destinés avant tout aux pairs, et à dévaloriser les publications, ouvertes à des publics plus locaux, rédigées en langue vernaculaire, ou qui se consacreraient à la résolution de problèmes de société. En particulier, à la faveur de la tendance à la « gestionnarisation » des publications, l'article de revue savante internationale de premier plan, ainsi que les citations qui lui sont faites par les seuls pairs, sont posés en indicateurs de performance de tout premier plan, « fixant » ainsi les pratiques de recherche et de publication des chercheurs. Cette « fixion » sera d'autant plus marquée que les indicateurs bibliométriques, à l'échelon national, seront intégrés à des processus de financement public de la recherche fondés sur les performances, et que, à l'échelon international, les indicateurs joueront un rôle prépondérant dans l'établissement des rankings des universités ainsi que des benchmarks des systèmes nationaux et régionaux de recherche. Pour autant, des prescriptions politiques sont également édictées, principalement au niveau européen, dans l'optique de la mise en oeuvre, au sein de l'Espace européen de la recherche et, dans une moindre mesure, de l'Espace européen de l'enseignement supérieur, d'une économie de la connaissance compétitive à l'échelon global et, plus particulièrement, d'un « mode 2 » de production des connaissances, qui insistent sur l'importance de davantage valoriser les résultats de la recherche, interdisciplinaire et coopérative, auprès de parties prenantes extra-académiques. En résulte une relation paradoxale entre la tendance à l'exotérisation de la recherche et des publications, et les prescrits de gestionnarisation des publications, ainsi qu'entre les prescriptions qui les sous-tendent respectivement.3. Or l'enquête que nous avons menée auprès des membres de trois sociétés savantes internationales en sciences de la communication montre combien les chercheurs de cette discipline ont désormais bien intégré les critères de qualité promus par les prescrits politiques et managériaux soutenant l'instauration d'une nouvelle « culture de la publication », à la croisée des tendances à la massification, à l'internationalisation et à la gestionnarisation des publications. Pour autant, des entretiens approfondis menés auprès de chercheurs en sciences de la communication actifs en Belgique francophone et néerlandophone n'en révèlent pas moins que ces derniers développent une attitude foncièrement ambivalente envers la culture du « publish or perish » et à l'égard de prescriptions qui sur-valorisent les revues savantes internationales de premier plan, en situation d'évaluation de la recherche et des chercheurs. D'une part, en effet, les chercheurs avec qui nous nous sommes entretenus estiment que la nouvelle culture de la publication joue un rôle bénéfique dans la professionnalisation et dans le développement d'une culture véritablement scientifique dans les sciences de la communication. Partant, la plupart d'entre eux développent des stratégies visant à aligner leurs pratiques de publication sur les prescrits. D'autre part, plusieurs répondants n'en regrettent pas moins le caractère réducteur de la survalorisation des revues savantes internationales de premier plan dans l'évaluation, et souhaitent qu'une plus grande diversité de types de publication soit prise en compte par les évaluateurs. Afin de concilier « qualité prescrite » et « qualité souhaitée » dans la qualité de leur activité effective de publication et dans celle des objets effectivement publiés (« qualité réelle »), il arrive dès lors à ces chercheurs de « bricoler » avec les prescriptions. Par ailleurs, la plupart des répondants, davantage cependant en FédérationWallonie-Bruxelles qu'en Flandre, où le financement public de la recherche est d'ores et déjà fondé en partie sur des indicateurs bibliométriques et revue-métriques, regrettent le manque d'explicite dans la formulation des prescriptions – ces dernières prenant régulièrement la forme de « scripts » plus indirects et/ou implicites, plutôt que de normes et de règles stricto sensu –, ainsi que l'absence de seuil quantitatif minimal à atteindre.4. Il nous semble par conséquent, dans une optique plus normative, que le dépôt systématique des différents types de publication produits par les chercheurs en SHS et en sciences de la communication sur des répertoires numériques institutionnels (Open Access Green) serait de nature à (contribuer à) résoudre le paradoxe des prescriptions en matière de « qualité prescrite », ainsi que l'ambivalence des perceptions des chercheurs en matière de « qualité souhaitée ». En effet, le dépôt des publications sur des répertoires institutionnels ouvre des opportunités inédites de renouveler la conversation savante qui se structure autour des objets publiés, au sein de la communauté argumentative (Kommunikationsgemeinschaft) des pairs, par le biais notamment de la revue par les pairs ouverte et grâce à la possibilité de commenter ad libitum les publications disséminées en Open Access. mais également en rendant les résultats de la recherche aisément accessibles et ré-utilisables par des parties prenantes extra-académiques. Les opportunités liées au dépôt des publications sur des répertoires Open Access (Green), en termes de qualité tant épistémique que pragmatiquede ces dernières, seront d'autant plus fécondes que le dépôt des travaux sur les répertoires institutionnels s'articulera à l'usage, par le chercheur, des instruments idoines, génériques ou dédiés, du Web participatif (Wikis, blogues, micro-blogues, réseaux sociaux, outils de partage de signets et de listes bibliographiques). Par ailleurs, les dépôts numériques fonctionnent désormais en tant qu'« outils de transparence », susceptibles de donner davantage de visibilité à des productions de recherche et des types de publication diversifiés. En situation d'évaluation de la recherche et des chercheurs, le recours aux dépôts institutionnels - pour autant qu'un mandat prescrive le dépôt de tous les travaux produits par les chercheurs de l'institution – permettrait aux évaluateurs de fonder leur jugement sur une gamme plus large et plus représentative de types de publication et de formes de communication en SHS et en sciences de la communication. De plus, grâce à la dissémination en Open Access, en conjonction avec l'usage d'une diversité d'outils du Web participatif, il devient mieux possible de soumettre les différents types de publication archivés et publiés en libre accès à des indicateurs de performance eux-mêmes diversifiés – bibliométriques, mais également « webométriques » et « altmétriques » -, fondés sur les articles plutôt que sur les revues et mieux adaptés à la diversité de leurs impacts, tant au sein qu'en dehors du cercle des pairs.5. Partant, l'Open Access (Green) nous apparaît in fine comme étant doté d'un potentiel important, en matière d'intégration de la recherche et des chercheurs en SHS et en sciences de la communication à la mise en place – au-delà d'une économie de la connaissance - d'une véritable société de la connaissance, ainsi qu'aux processus d'innovation techno-industrielle, sociale et intellectuelle qui la sous-tendent.