586 resultados para processus rédactionnels, écriture collaborative, didactique du FLE
Resumo:
Dans ce mémoire, nous présentons la notion de placage développée par DaryushShayegan. Le placage lie dans un espace interépistémique deux épistémès (tradition et modernité) hétéromorphes. Puisque les deux épistémès ne peuvent être mises en relation sans réduction, leur chevauchement aboutit à des distorsions. En adoptant une posture d’herméneute, nous mettons à nu les structures du texte qui définissent la notion de placage. Puis, nous nous interrogeons sur les « implications non claires », ces aprioris de l’auteur qui marquent le texte. Ce processus nous amène à définir la notion de paradigme (Kuhn), celle d’épistémè (Foucault) et de saisir quelle utilisation en fait DaryushShayegan dans la construction du placage. Dans la seconde partie, nous discutons la problématique de la hiérarchisation des épistémès. Alors que la position de DaryushShayegan comporte des relents de néo-orientalisme, nous voyons que les approches rhizomique et traditionaliste dissolvent la problématique en question.
Resumo:
En observant le foisonnement de métaphores de la lumière et de la vision dans l’œuvre de Reinaldo Arenas – l’accentuation de la couleur, l’éblouissement, la brûlure et le dédoublement – cette thèse s’interroge sur la vision de l’écriture formulée dans et à partir de ces images, et sur les implications de cette vision. Constatant à travers cette réflexion l’inscription à même le langage des images de la lumière et de la vision – de la réflexion à la clarté, en passant par l’image et la lucidité – cette thèse délibère, à travers l’œuvre de Reinaldo Arenas et celle de Jorge Luis Borges, sur une définition de l’écriture comme intensité, notion et image empruntées au registre du sensible par le détour de la physique. Le premier chapitre s’intéresse à la couleur comme phénomène de la vision, du sensible, de l’affect et de la nuance, ainsi qu’à la métaphore de la cécité abordée par Borges et par Paul de Man comme phénomène de la lecture, points d’entrée à une réflexion sur l’écriture. Le second chapitre aborde la notion d’éblouissement en tant qu’intensité de la lumière et temporalité de la prise de conscience lucide, définissant ainsi une vision du temps et les affinités entre la temporalité de l’écriture et celle de l’image poétique. Le troisième chapitre, réitérant la question de la relation au temps – historique et narratif –, réaffirme les inflexions du langage en fonction de la lumière, c’est-à-dire la relation entre l’aspect « lumineux » du langage, l’intensité de la lumière et l’intensité de l’écriture (entendue comme écriture littéraire), en explorant le seuil (la destruction par le feu) mis en lumière par l’image du phénix, figure mythique et littéraire de la transformation des images, selon la définition de l’imagination proposée par Gaston Bachelard. Enfin, la double conclusion (une conclusion en deux parties, ou deux conclusions réfléchies l’une dans l’autre), relie les images poétiques de la lumière évoquées et leurs implications en examinant la portée d’une vision de l’écriture comme intensité. Cette idée est élaborée à travers l’image finale du double, figure littéraire constitutive et omniprésente à la fois chez Arenas et chez Borges, image non seulement de la relation entre le personnage et son double (qui relève de l’hallucination ou de l’imagination, images, encore une fois, de la vision), mais aussi de la relation entre l’auteur et le texte, le lecteur et le texte, l’écriture et le temps. La double conclusion vise le dédoublement et redoublement comme figures de l’intensité dans l’écriture. Le lien entre la vision métaphorique et l’écriture comme intensité est donc articulé par la métaphore, telle qu’entendue par Borges, élargie à l’image poétique dans la perspective de Gaston Bachelard ; elle s’appuie sur la vision de la littérature pensée et écrite par Arenas. La réflexion est double : dans le texte et sur le texte, au plan poétique et au plan d’une réflexion sur l’écriture d’Arenas ; sur l’écriture et, implicitement, sur la littérature.
Resumo:
Le stéréotype, représentation caricaturale sur un groupe social, est dénoncé tout le temps mais présent partout. Les diverses productions culturelles auxquelles nous sommes quotidiennement confrontés, des émissions télévisées aux articles politiques, du discours quotidien aux films hollywoodiens, participent à reproduire ces représentations caricaturales. La persistance de certaines représentations, non perçues comme stéréotypées, participent à des processus de stéréotypification : par leur récurrence et leur évidence, elles sont posées comme allant de soi, comme le reflet objectif d’une réalité tangible. Sous cette catégorisation qui est parfois questionnée dans la sphère publique, ce n’est pas la validité d’existence de ce classement qui est remise en cause mais la volonté d’appréhender le caractère véritable des qualités essentialistes de ce que l’on regroupe sous une étiquette. Or, le stéréotype, malgré sa capacité à revendiquer une universalité, est le fruit d’un travail culturel, historiquement et politiquement construit. De fait, le stéréotype est un vecteur hégémonique qui peut traduire des tendances idéologiques dominantes sous-jacentes à son expression : il incarne la façon dont sont légitimées et naturalisées ces représentations à un moment donné et dans une conjoncture particulière. Je tenterai de définir théoriquement dans ce mémoire le stéréotype au sein du discours social et plus particulièrement au sein des mediacultures. J’investiguerai sa circulation, son caractère politique, son incidence normative et, par corrolaire, sa fonction hégémonique. Puis, à l’aide d’une analyse intertextuelle critique, je tenterai empiriquement de discerner les stéréotypes et les idéologies qui les sous-tendent au sein de trois comédies romantiques hollywoodiennes. A partir de l’observation de ces productions culturelles de divertissement, ce travail m’amènera à dégager deux idéologies prégnantes - l’idéologie capitaliste et l’idéologie patriarcale -; sous-tendues par un ensemble d’autres idéologies qui, d’une façon ou d’une autre, rejoignent les principales : idéologie de la masculinité, de l’hétérosexualité, d’un idéal socio-économique, etc.
Resumo:
À partir de courts récits, la narratrice reconstitue le passé d’une famille. Le personnage central, une petite fille, est la narratrice qui retrace les événements qui ont mené à l’éclatement de la cellule familiale. Cette histoire autobiographique est rédigée au « elle » dans un souci de se distancier de ce passé. La petite fille a grandi et la narratrice qu’elle est devenue se réapproprie son héritage : la possibilité d’écrire cette histoire. Dans l’œuvre de Marguerite Duras, les lieux sont souvent sollicités pour participer à la narration des événements. Dans La pute de la côte normande et Écrire, deux œuvres autobiographiques rédigées au « je », les lieux sont ceux du quotidien. Ceux-ci sont révélateurs de la psychologie de l’auteure et se mêlent à la préoccupation d’écrire. Ainsi, Marguerite Duras, ses lieux et son écriture se retrouvent-ils liés par le langage de l’auteure, lequel témoigne du vide laissé par la mort de son père.
Resumo:
En lien avec l’avancée rapide de la réduction de la taille des motifs en microfabrication, des processus physiques négligeables à plus grande échelle deviennent dominants lorsque cette taille s’approche de l’échelle nanométrique. L’identification et une meilleure compréhension de ces différents processus sont essentielles pour améliorer le contrôle des procédés et poursuivre la «nanométrisation» des composantes électroniques. Un simulateur cellulaire à l’échelle du motif en deux dimensions s’appuyant sur les méthodes Monte-Carlo a été développé pour étudier l’évolution du profil lors de procédés de microfabrication. Le domaine de gravure est discrétisé en cellules carrées représentant la géométrie initiale du système masque-substrat. On insère les particules neutres et ioniques à l’interface du domaine de simulation en prenant compte des fonctions de distribution en énergie et en angle respectives de chacune des espèces. Le transport des particules est effectué jusqu’à la surface en tenant compte des probabilités de réflexion des ions énergétiques sur les parois ou de la réémission des particules neutres. Le modèle d’interaction particule-surface tient compte des différents mécanismes de gravure sèche telle que la pulvérisation, la gravure chimique réactive et la gravure réactive ionique. Le transport des produits de gravure est pris en compte ainsi que le dépôt menant à la croissance d’une couche mince. La validité du simulateur est vérifiée par comparaison entre les profils simulés et les observations expérimentales issues de la gravure par pulvérisation du platine par une source de plasma d’argon.
Resumo:
Problématique : Implanté en 2004 au Bénin, le programme national de prévention de la transmission du VIH de la mère à l’enfant (PTME) semble globalement bien implanté. Toutefois une enquête, en 2005, révèle certaines difficultés, particulièrement au niveau de la couverture du programme: seulement 70 à 75 % des femmes enceintes vues en consultations prénatales ont été dépistées et 33 % des 1150 femmes dépistées séropositives ont accouché suivant le protocole de PTME. En outre, d’un site à un autre, on relève une grande variation dans la couverture en termes de dépistage et de suivi des femmes enceintes infectées. Cette faiblesse dans la couverture nous a amené à questionner le contexte organisationnel dans lequel le programme est implanté. Objectif : L’objectif général de cette thèse est d’analyser l'implantation de la PTME au Bénin. Le premier objectif spécifique consiste à identifier et comprendre les enjeux reliés à la façon de rejoindre les femmes enceintes dans le cadre du dépistage. Le second consiste à comprendre le contexte d’implantation et son influence sur la mise en œuvre de la PTME. Méthodologie : Cette recherche évaluative s’appuie sur une étude de cas. Six maternités ont été sélectionnées avec le souhait de représenter les différents contextes d’organisation des services. Les données ont été collectées par observation non participante, entrevues semi-dirigées (n=41) réalisées avec des prestataires de services, analyse documentaire des rapports d’activités des maternités et par questionnaires administrés aux femmes enceintes en consultations prénatales (n=371). Résultats : Le premier article a permis d'apprécier le caractère libre et éclairé du consentement au dépistage. Une majorité des femmes enceintes, suivies dans les centres privés, ont été dépistées sans être effectivement informées de la PTME alors que les femmes fréquentant les autres maternités connaissent mieux les composantes de la PTME. Le caractère volontaire du consentement des femmes est généralement respecté sur tous les sites. Le deuxième article porte sur l'analyse de la qualité du conseil pré-test. Seulement 54% des femmes enceintes ont participé à un conseil en groupe et 80% à un conseil individuel. Dans les centres où sont dispensées des séances d'information de groupe, la qualité est meilleure que dans les centres qui dispensent un conseil individuel exclusif. Le troisième article analyse l'influence du contexte d'implantation sur la mise en œuvre du programme. Parmi les facteurs qui contribuent favorablement à la mise en œuvre on relève la proximité d’un centre de référence et la coordination des activités de PTME dans une zone géographique, la responsabilisation du prestataire dédié à la PTME, la supervision formative régulière accompagnée de séances de discussion collective et l’implication des médiatrices dans la recherche active des perdues de vues. A l’opposé, la responsabilisation des médiatrices pour la réalisation du conseil individuel et du dépistage ne favorise pas une bonne mise en œuvre de la PTME. Conclusion : Nos résultats montrent qu'il est possible de jouer sur l'organisation des services de santé dans le cadre du programme du PTME pour améliorer la façon dont le programme est implanté tant dans les centres privés que publics, sans que cela ne représente un ajout net de ressources. C'est le cas de l’amélioration de la qualité du conseil et du dépistage, de l’implantation du processus interne d’apprentissage organisationnel et de la coordination des services.
Resumo:
Ce travail analyse les transformations du Graal en comparant sa représentation dans les romans médiévaux et dans trois textes de théâtre modernes. Le Graal, apparu dans la littérature au Moyen Âge, reste une source d'inspiration pour les écrivains modernes au point de gagner, avec le temps, un statut légendaire. L'objet de prédilection de la littérature arthurienne a évolué de façon significative dès le Moyen Âge, où il reste cependant confiné aux formes narratives. Après le « festival scénique sacré » (Bühnenweihfestspiel), Parsifal, de Wagner présenté en 1882 à Bayreuth, des œuvres plus récentes réactualisent le mythe en cherchant à l'adapter au théâtre. Jean Cocteau, en 1937, dans Les Chevaliers de la Table Ronde, présente un Graal inaccessible, immatériel. En 1948, Julien Gracq, dans Le Roi Pêcheur, inscrit le Graal dans l'opposition entre le profane et le sacré. Jacques Roubaud et Florence Delay, dans les éditions de 1977 et 2005 de Graal Théâtre, optent pour une récriture où les représentations du mythe se côtoient et se confrontent. Ces textes de théâtre modernes, où la représentation du Graal se situe au cœur du projet d'écriture, entrent ainsi en relation directe avec les œuvres médiévales. Ils s'inscrivent dans une redéfinition de l'objet qui se renouvelle sans cesse depuis Le Conte du Graal de Chrétien de Troyes. Dans les trois cas, la représentation du Graal entretient des relations contradictoires de filiation et de rupture avec la littérature arthurienne de l'époque médiévale. L'hypothèse principale de cette recherche se situe dans la problématique de la récriture comme transformation d'un héritage. Plus précisément, il sera question de comprendre comment la représentation du Graal dans les textes de théâtre pose problème et comment cette question est modulée, travaillée par les auteurs en termes rhétoriques, stylistiques et dramaturgiques. L'utilisation de la parodie, d'anachronismes et de voix dramatiques nouvelles, par exemple, permet aux auteurs modernes de revisiter et de changer le rapport à l'objet. Le Graal se redéfinit dans des contextes historiques et dans un genre distincts de leur source du Moyen Âge.
Resumo:
Depuis les années 2000, nous observons de plus en plus de pays en développement (PED) hôtes de mégaévénements. En accueillant un mégaévénement en leur sol, les PED espèrent améliorer leur cadre urbain et attirer des investissements étrangers. Ceci étant dit, les retards en termes d’infrastructures et d’équipements que connaissent ces pays et les stricts cadres normatifs imposés par des organismes internationaux comme la FIFA, nous amènent à questionner la possibilité d’intégrer les aménagements mégaévénementiels, à leur contexte local. En ce sens, le processus de planification, dans lequel les cadres normatifs externes et locaux sont négociés, peut être vu comme un moment charnière ayant une incidence sur le potentiel de reconversion. Dans le cadre de ce mémoire, nous avons entamé une réflexion à ce sujet en examinant le processus de planification d’un aménagement mégaévénementiel, le Green Point Urban Park (GPUP) à Cape Town, et son incidence sur son potentiel de reconversion. Plus précisément, nous allons, en premier lieu, décrire le processus de planification du site, nous allons par la suite évaluer son potentiel de reconversion, puis nous allons faire ressortir des liens entre le processus de planification et le potentiel de reconversion des aménagements mégaévénementiels. En somme, notre travail met en évidence une relation entre, d’une part, la prépondérance du cadre normatif imposé par l’organisme international et la dynamique du système d’acteurs au moment de la planification du GPUP et, d’autre part, la difficile reconversion de ce dernier après la Coupe du monde de 2010.
Resumo:
En rivière à lit de graviers, le transport des sédiments en charge de fond est un processus intermittent qui dépend de plusieurs variables du système fluvial dont la prédiction est encore aujourd’hui inexacte. Les modèles disponibles pour prédire le transport par charriage utilisent des variables d’écoulement moyen et la turbulence n’est généralement pas considérée malgré que les tourbillons contenus dans les écoulements possèdent une quantité d’énergie importante. L’utilisation de nouvelles approches pour étudier la problématique du transport par charriage pourrait nous permettre d’améliorer notre connaissance de ce processus déterminant en rivière alluviale. Dans ce mémoire, nous documentons ces composantes de la dynamique fluviale dans un cours d’eau graveleux en période de crue. Les objectifs du projet de recherche sont : 1) d’examiner l’effet du débit sur les variables turbulentes et les caractéristiques des structures turbulentes cohérentes, 2) d’investiguer l’effet du débit sur les caractéristiques des événements de transport de sédiments individuels détectés à l’aide d’un nouvel algorithme développé et testé et 3) de relier les caractéristiques de l’écoulement turbulent aux événements de transport de sédiments individuels. Les données de turbulence montrent qu’à haut niveau d’eau, l’écoulement décéléré est peu cohérent et a une turbulence plus isotrope où les structures turbulentes cohérentes sont de courte durée. Ces observations se distinguent de celles faites à faible niveau d’eau, en écoulement accéléré, où la plus grande cohérence de l’écoulement correspond à ce qui est généralement observé dans les écoulements uniformes en rivières graveleuses. Les distributions de fréquence des variables associées aux événements de transport individuel (intensité de transport moyenne, durée d’événement et intervalle entre événements successifs) ont des formes différentes pour chaque intensité de crue. À haut niveau d’eau, le transport est moins intermittent qu’à faible débit où les événements rares caractérisent davantage les distributions. L’accélération de l’écoulement à petite échelle de temps joue un rôle positif sur le transport, mais surtout lorsque la magnitude de la crue mobilisatrice est en dessous du niveau plein bord. Les résultats de l’étude montrent que les caractéristiques de la turbulence ainsi que les liens complexes entre l’écoulement et le transport par charriage sont fonction du débit.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Resumo:
VERSION ANGLAISE DISPONIBLE AU DÉPARTEMENT; THÈSE RÉALISÉE CONJOINTEMENT AVEC L'ÉCOLE DES SCIENCES DE LA COMMUNICATION DE L'UNIVERSITÉ MCGILL (DRS. K. STEINHAUER ET J.E. DRURY).
Resumo:
Les nanomatériaux sont de plus en plus présents dans les produits consommables du quotidien. L’argent est le métal le plus utilisé en nanotechnologie pour ses propriétés antimicrobiennes. Par différentes voies d’entrée, les nanoparticules d’argent (nAg) se retrouvent dans l’environnement en quantité significative, notamment dans les sols suite à la valorisation agricole des biosolides municipaux. Il est prévu qu’une interaction négative sur la communauté microbienne terrestre ait des répercussions sur la fertilité du sol et les processus biogéochimiques. Les mesures de l’activité enzymatique ont déjà montré leur efficacité et leur sensibilité dans la détection d’une perturbation physique et chimique du sol. Les effets potentiels des nAg sur l’écosystème terrestre ont été évalués en mesurant l’activité des enzymes β-D-glucosidase (EC 3.2.1.21), leucine-aminopeptidase (EC 3.4.11.1), phosphomonoesterase (EC 3.1.3) et arylsulfatase (EC 3.1.6.1) intervenant dans les cycles des éléments essentiels C, N, P et S, respectivement. L’activité enzymatique est mesurée à l’aide d’une technique basée sur la fluorescence qui requière des substrats synthétiques liés à un fluorophore. Un sol de type sableux a été échantillonné au Campus Macdonald de l’Université McGill (Sainte-Anne-de-Bellevue, Qc) puis exposé aux nAg (taille ~20 nm) ou à la forme ionique Ag+ (Ag-acetate) à des concentrations nominales de 1,25 × 10-3, 1,25 × 10-2, 0,125, 1,25, 6,25 et 31,25 mg Ag kg-1 sol. De plus, le rôle de la matière organique (MO) a été évalué en effectuant un amendement du sol avec un compost de feuilles. Pour mieux comprendre les effets observés, des analyses de spéciation de l’Ag ont été réalisées. Les concentrations en Ag dissous ont été déterminées après filtration à travers des membranes de 0,45 µm ou de 3 kDa (~1 nm, ultrafiltration) pour séparer la phase particulaire des ions dissous. De façon générale, une inhibition de l’activité enzymatique a été observée pour les 4 enzymes en fonction de l’augmentation de la concentration en Ag (totale et dissoute) mais elle est significativement moins importante avec l’ajout de la MO. Les résultats suggèrent que l’inhibition de l’activité des enzymes aux faibles expositions aux nAg est due aux nanoparticules puisqu’une très faible fraction des nAg est réellement dissoute et aucun effet significatif n’a été observé pour les sols traités à des concentrations similaires en Ag+. Par contre, les effets mesurés aux concentrations plus élevées en nAg sont semblables aux expositions à l’Ag+ et suggèrent un rôle de l’Ag colloïdale dans l’inhibition du processus enzymatique des sols.
Resumo:
L’innovation pédagogique pour elle-même s’avère parfois discutable, mais elle se justifie quand les enseignants se heurtent aux difficultés d’apprentissage de leurs étudiants. En particulier, certaines notions de physique sont réputées difficiles à appréhender par les étudiants, comme c’est le cas pour l’effet photoélectrique qui n’est pas souvent compris par les étudiants au niveau collégial. Cette recherche tente de déterminer si, dans le cadre d’un cours de physique, la simulation de l’effet photoélectrique et l’utilisation des dispositifs mobiles et en situation de collaboration favorisent une évolution des conceptions des étudiants au sujet de la lumière. Nous avons ainsi procédé à l’élaboration d’un scénario d’apprentissage collaboratif intégrant une simulation de l’effet photoélectrique sur un ordinateur de poche. La conception du scénario a d’abord été influencée par notre vision socioconstructiviste de l’apprentissage. Nous avons effectué deux études préliminaires afin de compléter notre scénario d’apprentissage et valider la plateforme MobileSim et l’interface du simulateur, que nous avons utilisées dans notre expérimentation : la première avec des ordinateurs de bureau et la seconde avec des ordinateurs de poche. Nous avons fait suivre à deux groupes d’étudiants deux cours différents, l’un portant sur une approche traditionnelle d’enseignement, l’autre basé sur le scénario d’apprentissage collaboratif élaboré. Nous leur avons fait passer un test évaluant l’évolution conceptuelle sur la nature de la lumière et sur le phénomène de l’effet photoélectrique et concepts connexes, à deux reprises : la première avant que les étudiants ne s’investissent dans le cours et la seconde après la réalisation des expérimentations. Nos résultats aux prétest et post-test sont complétés par des entrevues individuelles semi-dirigées avec tous les étudiants, par des enregistrements vidéo et par des traces récupérées des fichiers logs ou sur papier. Les étudiants du groupe expérimental ont obtenu de très bons résultats au post-test par rapport à ceux du groupe contrôle. Nous avons enregistré un gain moyen d’apprentissage qualifié de niveau modéré selon Hake (1998). Les résultats des entrevues ont permis de repérer quelques difficultés conceptuelles d’apprentissage chez les étudiants. L’analyse des données recueillies des enregistrements des séquences vidéo, des questionnaires et des traces récupérées nous a permis de mieux comprendre le processus d’apprentissage collaboratif et nous a dévoilé que le nombre et la durée des interactions entre les étudiants sont fortement corrélés avec le gain d’apprentissage. Ce projet de recherche est d’abord une réussite sur le plan de la conception d’un scénario d’apprentissage relatif à un phénomène aussi complexe que l’effet photoélectrique, tout en respectant de nombreux critères (collaboration, simulation, dispositifs mobiles) qui nous paraissaient extrêmement utopiques de réunir dans une situation d’apprentissage en classe. Ce scénario pourra être adapté pour l’apprentissage d’autres notions de la physique et pourra être considéré pour la conception des environnements collaboratifs d’apprentissage mobile innovants, centrés sur les besoins des apprenants et intégrant les technologies au bon moment et pour la bonne activité.
Resumo:
Lettre à l'éditeur / Letter to the Editor
Resumo:
Une équipe multidisciplinaire et intersectorielle a implanté en 2009 une recherche-intervention novatrice : Spot, un service de dépistage rapide du VIH en milieu communautaire offert aux hommes ayant des relations sexuelles avec d’autres hommes de Montréal. Une étude de cas a été menée afin de décrire le processus d’implantation de Spot et les facteurs contextuels qui l’ont affecté. L’analyse par théorisation ancrée des entrevues, l’observation participante et l’analyse documentaire ont permis d’identifier un processus d’implantation dynamique en plusieurs phases. Elles sont modulées par des facteurs liés aux motivations des acteurs à s’engager dans le projet, à la complexité des dynamiques partenariales et aux défis de la coordination en contexte d’équipe multidisciplinaire et intersectorielle et à d’autres facteurs ayant affecté l’organisation de l’équipe terrain et leurs pratiques au quotidien. Des motivations telles l’occasion unique de contribuer à la mise en place d’un projet de prévention novateur et pertinent, ont eu une influence favorable constante, ralliant les acteurs autour du projet et maintenant leur implication malgré les difficultés rencontrées. Sur le plan des dynamiques partenariales, une définition floue des rôles et tâches a ralenti l’implantation du projet, alors qu’une fois clarifiée, chacun a pu se sentir légitime et participer activement à la réussite de l’implantation. Des difficultés à la coordination du projet, entre autres concernant la gestion des fonds interinstitutionnels, sont un facteur ayant ralenti le processus d’implantation. Cette étude a permis de tirer des leçons sur l’implantation et la pérennisation d’un service de dépistage rapide du VIH en milieu communautaire gai.