20 resultados para Reference values construction
em Université de Montréal, Canada
Resumo:
Présentement, le diagnostic d’otite moyenne-interne chez le veau est basé sur la présence de signes cliniques appropriés ainsi que les tests diagnostiques tels que la radiographie et la tomodensitométrie. L’objectif de cette étude prospective était d’évaluer les valeurs prédictives de l’examen neurologique, l’examen otoscopique et le test des potentiels auditifs évoqués (PAE) dans le diagnostic d’otite moyenne-interne chez le veau, en utilisant la tomodensitométrie comme test standard. Le deuxième objectif était de définir les valeurs de référence pour le PAE chez le veau normal et d’en décrire les anomalies chez des veaux atteints d’otite moyenne-interne. Dix-sept veaux de race Holstein entre 5-7 semaines d’âge ont été inclus. Tous les veaux ont eu un examen neurologique, un examen otoscopique et une évaluation des PAEs. Les veaux ont été tranquillisés avec de la xylazine intraveineuse (0,05-0,15mg/kg) pour la tomodensitométrie des bulles tympaniques afin d’évaluer pour la présence d’otite moyenne-interne. Selon les résultats de la tomodensitométrie, 11 des 17 veaux étaient atteints avec otite moyenne, 4 de façon unilatérale et 7 bilatéralement. Cinq ondes ont été identifiées de façon constante sur les tracés des PAEs des 6 veaux normaux. Les valeurs positives prédictives pour le PAE, l’examen neurologique et l’examen otoscopique étaient 94,7%, 91,7% et 66,7% respectivement. D’un point de vue clinique, le test le plus fiable dans le diagnostic d’otite moyenne-interne chez le veau est le PAE. Les anomalies ont été observées au PAE avant le développement des signes neurologiques chez certains veaux.
Resumo:
La présente étude porte sur l’évaluation d’une méthode d’acquisition de la solution de sol présente à l’interface sol-racine, dans la rhizosphère. Cette interface constitue le lieu privilégié de prise en charge par les plantes des contaminants, tels que les métaux traces. Comme les plantes acquièrent ces éléments à partir de la phase liquide, la solution de sol de la rhizosphère est une composante clé pour déterminer la fraction de métaux traces biodisponibles. La microlysimétrie est la méthode in situ la plus appropriée pour aborder les difficultés liées à l’échelle microscopique de la rhizosphère. Ainsi, dans les études sur la biodisponibilité des métaux traces au niveau de la rhizosphère, les microlysimètres (Rhizon©) gagnent en popularité sans, toutefois, avoir fait l’objet d’études exhaustives. L’objectif de cette étude est donc d’évaluer la capacité de ces microlysimètres à préserver l’intégrité chimique de la solution, tout en optimisant leur utilisation. Pour ce faire, les microlysimètres ont été soumis à une série d’expériences en présence de solutions et de sols, où la quantité de solution prélevée et le comportement des métaux traces (Cd, Cu, Ni, Pb, Zn) ont été étudiés. Les résultats montrent que les microlysimètres fonctionnent de façon optimale lorsque le contenu en eau du sol est au-dessus de la capacité au champ et lorsqu’il y a peu de matière organique et d’argile. Les sols sableux ayant un faible contenu en C organique reproduisent mieux le volume prélevé et la solution sous la capacité au champ peut être récoltée. L’utilisation des microlysimètres dans ces sols est donc optimale. Dans les essais en solution, les microlysimètres ont atteint un équilibre avec la solution après 10 h de prélèvement. En respectant ce délai et les conditions optimales préalablement établies (pH acide et COD élevé), les microlysimètres préservent la composition chimique de la solution. Dans les essais en sol, cet équilibre n’a pas été atteint après dix jours et huit prélèvements. Le contenu en matière organique et l’activité microbienne semblent responsables de la modification des concentrations en métaux au cours de ces prélèvements, notamment, dans l’horizon FH où les microlysimètres performent très mal. En revanche, dans l’horizon B, les concentrations tendent à se stabiliser vers la fin de la série de prélèvements en se rapprochant des valeurs de référence. Bien que des valeurs plus élevées s’observent pour les microlysimètres, leurs concentrations en métaux sont comparables à celles des méthodes de référence (extrait à l’eau, lysimètres de terrain avec et sans tension). En somme, les microlysimètres se comportent généralement mieux dans l’horizon B. Même si leur utilisation est plus optimale dans un sol sableux, cet horizon est privilégié pour de futures études sur le terrain avec les microlysimètres.
Resumo:
L’effort physique a été reconnu comme l’un des déterminants majeurs qui affecte l’absorption pulmonaire et la cinétique des solvants industriels, composés volatils très répandus dans le milieu de travail. L’objectif global de ce projet était de caractériser la relation entre divers niveaux de charge de travail et les concentrations biologiques de l’acétone et du styrène ou de ses métabolites utilisés comme des indicateurs biologiques de l’exposition (IBEs) à ces solvants. Des modèles pharmacocinétiques à base physiologique ont été développés et validés afin de reproduire une exposition professionnelle à l’acétone et au styrène, individuellement et en combinaison, durant une semaine complète de travail (8h/jour, 5 jours). Les simulations ont été effectuées suivant une exposition aux valeurs limite d’exposition (500 ppm et 20 ppm, respectivement) et à des charges de travail de 12,5 W (repos), 25 W et 50 W. Les valeurs prédites par les modèles ont été comparées aux valeurs de référence des IBEs actuels. Le niveau d’acétone dans l’urine obtenu à la fin du dernier quart de travail était 3,5 fois supérieur à la valeur au repos (28 mg/L) pour un effort de 50 W, tandis que les niveaux de styrène dans le sang veineux et de ses métabolites dans l’urine ont augmenté d’un facteur d’environ 3,0 en comparaison avec les valeurs au repos, respectivement de 0,17 mg/L et 144 mg/g créatinine. Pour une co-exposition à des concentrations de 20 ppm de styrène et 200 ppm d’acétone et à une activité physique de 50 W, les simulations ont montré une augmentation de 10% du styrène sanguin et une faible diminution de ses métabolites dans l’urine. Les valeurs simulées par les modèles pour l’acétone ou le styrène montrent que des travailleurs dont la charge de travail équivaut à plus de 25 W sont susceptibles d’avoir des concentrations internes pouvant dépasser les valeurs de référence des IBEs respectifs de ces solvants et peuvent être à risque. Les résultats soulignent ainsi l’importance de tenir compte de la charge de travail dans la détermination d’une valeur de référence pour la surveillance biologique de l’acétone et du styrène.
Resumo:
Le potentiel acoustique évoqué (PAE) est influencé par l’âge dans de nombreuses espèces. Chez l’homme, l’augmentation de la fréquence de stimulation améliore la détection des anomalies du tronc cérébral. Son utilisation chez le poulain demeure anecdotique. Les buts de cette étude étaient: 1) de déterminer les valeurs de référence du PAE pour 3 différents protocoles de stimulation (11.33 Hz/70 dBNHL; 11.33 Hz/90 dBNHL; 90 Hz/70 dBNHL); 2) d’évaluer les effets de l’âge et de la fréquence de répétition de la stimulation acoustique sur les tracés du PAE chez le poulain de moins de 6 mois; 3) de comparer les données obtenues chez les poulains normaux à celles recueillies chez des poulains présentant des troubles neurologiques. Trente-neuf poulains normaux et 16 poulains avec des déficits neurologiques ont été inclus dans l’étude. Aucun effet de l’âge n’a été mis en évidence (p> 0,005). Aucune différence significative n’a été mise en évidence lorsque les latences absolues et relatives des poulains neurologiques ont été comparées à celles des poulains normaux (p>0,005). L’augmentation de la fréquence de stimulation acoustique n’a pas amélioré la détection d’anomalies sur les tracés de PAE chez les poulains neurologiques. Bien que toutes leurs valeurs de latences absolues et relatives soient demeurées à l’intérieur des valeurs de référence, 78,6% des poulains avec un déficit neurologique présentaient une asymétrie entre les tracés des deux oreilles. Cela démontre une différence de conduction de l’influx nerveux entre le côté droit et le côté gauche du tronc cérébral chez ces sujets. En conclusion, nous présentons ici les valeurs de référence du PAE chez le poulain de moins de 6 mois pour 3 protocoles de stimulation différents. D’autres études seraient nécessaire afin de déterminer si l’utilisation d’une fréquence de stimulation acoustique plus élevée est utile dans la détection d’anomalies du PAE chez les poulains souffrant de troubles neurologiques. La majorité des poulains avec des déficits neurologiques ont présenté des anomalies du PAE ce qui valide son utilisation pour le diagnostic de troubles neurologiques chez le poulain de moins de 6 mois.
Resumo:
Cette étude avait comme objectif d’évaluer la coagulation par l’utilisation de la thrombélastographie (TEG®) et de la génération de thrombine (GT) chez des beagles en santé recevant de la prednisone ainsi que chez des chiens atteints d’hyperadrénocorticisme (HAC). Dans un premier temps, six beagles adultes en santé ont été évalués dans une étude prospective longitudinale au courant de laquelle chaque individu recevait 1 mg/kg/jour de prednisone par la voie orale pendant 2 semaines. Après un arrêt de traitement d’une durée de 6 semaines, ils ont finalement reçu 4 mg/kg/jour de prednisone pour encore 2 semaines. Les tracés TEG® et les mesures de la GT ont été obtenus au temps 0, à la fin des 6 semaines d’interruption de traitement, ainsi qu’à la suite des 2 dosages de prednisone. Suite aux 2 traitements avec la prednisone, des résultats significatifs,lorsque comparés aux valeurs de base, ont été obtenus pour la cinétique du caillot (« clot kinetics » ou K), l’angle alpha (α) et l’amplitude maximale (« maximal amplitude » ou MA). La GT avait augmenté de manière significative mais seulement après la dose de 1 mg/kg/jour de prednisone. Dans un deuxième temps, 16 chiens atteints d’HAC ont été évalués avant l’initiation d’un traitement pour leur condition. Quinze chiens ont été évalués par TEG® et 15 par GT. Les données obtenues ont ensuite été comparées aux valeurs normales. L’analyse par TEG® a démontré que 12/15 chiens avaient au moins un paramètre suggérant un état d’hypercoagulabilité. L’analyse par GT a démontré que 4/15 chiens avaient des changements compatibles avec un état d’hypercoagulabilité. Un test t-pairé pour des valeurs de variance inégales a démontré que le groupe de chiens atteints d’HAC avait des tracés hypercoagulables et un potentiel endogène de thrombine (« endogenous thrombin potential » ou ETP) plus élevé, lorsque comparé à la population de référence.
Resumo:
"Thèse présentée à la Faculté des études supérieures En vue de l'obtention du grade de Docteur en droit"
Resumo:
Un fichier intitulé Charbonneau_Nathalie_2008_AnimationAnnexeT accompagne la thèse. Il contient une séquence animée démontrant le type de parcours pouvant être effectué au sein des environnements numériques développés. Il s'agit d'un fichier .wmv qui a été compressé.
Resumo:
Réalisées aux échelles internationales et nationales, les études de vulnérabilité aux changements et à la variabilité climatiques sont peu pertinentes dans un processus de prise de décisions à des échelles géographiques plus petites qui représentent les lieux d’implantation des stratégies de réponses envisagées. Les études de vulnérabilité aux changements et à la variabilité climatiques à des échelles géographiques relativement petites dans le secteur agricole sont généralement rares, voire inexistantes au Canada, notamment au Québec. Dans le souci de combler ce vide et de favoriser un processus décisionnel plus éclairé à l’échelle de la ferme, cette étude cherchait principalement à dresser un portrait de l’évolution de la vulnérabilité des fermes productrices de maïs-grain des régions de Montérégie-Ouest et du Lac-St-Jean-Est aux changements et à la variabilité climatiques dans un contexte de multiples sources de pression. Une méthodologie générale constituée d'une évaluation de la vulnérabilité globale à partir d’une combinaison de profils de vulnérabilité aux conditions climatiques et socio-économiques a été adoptée. Pour la période de référence (1985-2005), les profils de vulnérabilité ont été dressés à l’aide d’analyses des coefficients de variation des séries temporelles de rendements et de superficies en maïs-grain. Au moyen de méthodes ethnographiques associées à une technique d’analyse multicritère, le Processus d’analyse hiérarchique (PAH), des scénarios d’indicateurs de capacité adaptative du secteur agricole susmentionné ont été développés pour la période de référence. Ceux-ci ont ensuite servi de point de départ dans l’élaboration des indicateurs de capacité de réponses des producteurs agricoles pour la période future 2010-2039. Pour celle-ci, les deux profils de vulnérabilité sont issus d’une simplification du cadre théorique de « Intergovernmental Panel on Climate Change » (IPCC) relatif aux principales composantes du concept de vulnérabilité. Pour la dimension « sensibilité » du secteur des fermes productrices de maïs-grain des deux régions agricoles aux conditions climatiques, une série de données de rendements a été simulée pour la période future. Ces simulations ont été réalisées à l’aide d’un couplage de cinq scénarios climatiques et du modèle de culture CERES-Maize de « Decision Support System for Agrotechnology Transfer » (DSSAT), version 4.0.2.0. En ce qui concerne l’évaluation de la « capacité adaptative » au cours de la période future, la construction des scénarios d’indicateurs de cette composante a été effectuée selon l’influence potentielle des grandes orientations économiques et environnementales considérées dans l’élaboration des lignes directrices des deux familles d’émissions de gaz à effet de serre (GES) A2 et A1B. L’application de la démarche méthodologique préalablement mentionnée a conduit aux principaux résultats suivants. Au cours de la période de référence, la région agricole du Lac-St-Jean-Est semblait être plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. En effet, le coefficient de variation des rendements du maïs-grain pour la région du Lac-St-Jean-Est était évalué à 0,35; tandis que celui pour la région de Montérégie-Ouest n’était que de 0,23. Toutefois, par rapport aux conditions socio-économiques, la région de Montérégie-Ouest affichait une vulnérabilité plus élevée que celle du Lac-St-Jean-Est. Les valeurs des coefficients de variation pour les superficies en maïs-grain au cours de la période de référence pour la Montérégie-Ouest et le Lac-St-Jean-Est étaient de 0,66 et 0,48, respectivement. Au cours de la période future 2010-2039, la région du Lac-St-Jean-Est serait, dans l’ensemble, toujours plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. Les valeurs moyennes des coefficients de variation pour les rendements agricoles anticipés fluctuent entre 0,21 et 0,25 pour la région de Montérégie-Ouest et entre 0,31 et 0,50 pour la région du Lac-St-Jean-Est. Néanmoins, en matière de vulnérabilité future aux conditions socio-économiques, la position relative des deux régions serait fonction du scénario de capacité adaptative considéré. Avec les orientations économiques et environnementales considérées dans l’élaboration des lignes directrices de la famille d’émission de GES A2, les indicateurs de capacité adaptative du secteur à l’étude seraient respectivement de 0,13 et 0,08 pour la Montérégie-Ouest et le Lac-St-Jean-Est. D’autre part, en considérant les lignes directrices de la famille d’émission de GES A1B, la région agricole du Lac-St-Jean-Est aurait une capacité adaptative légèrement supérieure (0,07) à celle de la Montérégie-Ouest (0,06). De façon générale, au cours de la période future, la région du Lac-St-Jean-Est devrait posséder une vulnérabilité globale plus élevée que la région de Montérégie-Ouest. Cette situation s’expliquerait principalement par une plus grande vulnérabilité de la région du Lac-St-Jean-Est aux conditions climatiques. Les résultats de cette étude doivent être appréciés dans le contexte des postulats considérés, de la méthodologie suivie et des spécificités des deux régions agricoles examinées. Essentiellement, avec l’adoption d’une démarche méthodologique simple, cette étude a révélé les caractéristiques « dynamique et relative » du concept de vulnérabilité, l’importance de l’échelle géographique et de la prise en compte d’autres sources de pression et surtout de la considération d’une approche contraire à celle du « agriculteur réfractaire aux changements » dans les travaux d’évaluation de ce concept dans le secteur agricole. Finalement, elle a aussi présenté plusieurs pistes de recherche susceptibles de contribuer à une meilleure évaluation de la vulnérabilité des agriculteurs aux changements climatiques dans un contexte de multiples sources de pression.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
L’approche d’apprentissage par problèmes (APP) a vu le jour, dans sa forme contemporaine, à la Faculté de médecine de l’Université MacMaster en Ontario (Canada) à la fin des années 1960. Très rapidement cette nouvelle approche pédagogique active, centrée sur l’étudiant et basée sur les problèmes biomédicaux, va être adoptée par de nombreuses facultés de médecine de par le monde et gagner d’autres disciplines. Cependant, malgré ce succès apparent, l’APP est aussi une approche controversée, notamment en éducation médicale, où elle a été accusée de favoriser un apprentissage superficiel. Par ailleurs, les étudiants formés par cette approche réussiraient moins bien que les autres aux tests évaluant l’acquisition des concepts scientifiques de base, et il n’a jamais été prouvé que les médecins formés par l’APP seraient meilleurs que les autres. Pour mieux comprendre ces résultats, la présente recherche a voulu explorer l’apprentissage de ces concepts scientifiques, en tant que processus de construction, chez des étudiants formés par l’APP, à la Faculté de médecine de l’Université de Montréal, en nous appuyant sur le cadre théorique socioconstructivisme de Vygotski. Pour cet auteur, la formation des concepts est un processus complexe de construction de sens, en plusieurs étapes, qui ne peut se concevoir que dans le cadre d’une résolution de problèmes. Nous avons réalisé une étude de cas, multicas, intrasite, les cas étant deux groupes de neuf étudiants en médecine avec leur tuteur, que nous avons suivi pendant une session complète de la mi-novembre à la mi-décembre 2007. Deux grands objectifs étaient poursuivis: premièrement, fournir des analyses détaillées et des matériaux réflectifs et théoriques susceptibles de rendre compte du phénomène de construction des concepts scientifiques de base par des étudiants en médecine dans le contexte de l’APP. Deuxièmement, explorer, les approches de travail personnel des étudiants, lors de la phase de travail individuel, afin de répondre à la question de recherche suivante : Comment la dynamique pédagogique de l’APP en médecine permet-elle de rendre compte de l’apprentissage des concepts scientifiques de base? Il s’agissait d’une étude qualitative et les données ont été recueillies par différents moyens : observation non participante et enregistrement vidéo des tutoriaux d’APP, interview semi-structuré des étudiants, discussion avec les tuteurs et consultation de leurs manuels, puis traitées par diverses opérations: transcription des enregistrements, regroupement, classification. L’analyse a porté sur des collections de verbatim issus des transcriptions, sur le suivi de la construction des concepts à travers le temps et les sessions, sur le role du tuteur pour aider au développement de ces concepts Les analyses suggèrent que l’approche d’APP est, en général, bien accueillie, et les débats sont soutenus, avec en moyenne entre trois et quatre échanges par minute. Par rapport au premier objectif, nous avons effectivement fourni des explications détaillées sur la dynamique de construction des concepts qui s'étend lors des trois phases de l'APP, à savoir la phase aller, la phase de recherche individuelle et la phase retour. Pour chaque cas étudié, nous avons mis en évidence les représentations conceptuelles initiales à la phase aller, co-constructions des étudiants, sous la guidance du tuteur et nous avons suivi la transformation de ces concepts spontanés naïfs, lors des discussions de la phase retour. Le choix du cadre théorique socio constructiviste de Vygotski nous a permis de réfléchir sur le rôle de médiation joué par les composantes du système interactif de l'APP, que nous avons considéré comme une zone proximale de développement (ZPD) au sens élargi, qui sont le problème, le tuteur, l'étudiant et ses pairs, les ressources, notamment l'artefact graphique carte conceptuelle utilisée de façon intensive lors des tutoriaux aller et retour, pour arriver à la construction des concepts scientifiques. Notre recherche a montré qu'en revenant de leurs recherches, les étudiants avaient trois genres de représentations conceptuelles: des concepts corrects, des concepts incomplets et des concepts erronés. Il faut donc que les concepts scientifiques théoriques soient à leur tour confrontés au problème concret, dans l'interaction sociale pour une validation des attributs qui les caractérisent. Dans cette interaction, le tuteur joue un rôle clé complexe de facilitateur, de médiateur, essentiellement par le langage. L'analyse thématique de ses interventions a permis d'en distinguer cinq types: la gestion du groupe, l'argumentation, les questions de différents types, le modelling et les conclusions. Nous avons montré le lien entre les questions du tuteur et le type de réponses des étudiants, pour recommander un meilleur équilibre entre les différents types de questions. Les étudiants, également par les échanges verbaux, mais aussi par la construction collective des cartes conceptuelles initiales et définitives, participent à une co-construction de ces concepts. L'analyse de leurs interactions nous a permis de relever différentes fonctions du langage, pour souligner l'intérêt des interactions argumentatives, marqueurs d'un travail collaboratif en profondeur pour la co-construction des concepts Nous avons aussi montré l'intérêt des cartes conceptuelles non seulement pour visualiser les concepts, mais aussi en tant qu'artefact, outil de médiation psychique à double fonction communicative et sémiotique. Concernant le second objectif, l’exploration du travail personnel des étudiants, on constate que les étudiants de première année font un travail plus approfondi de recherche, et utilisent plus souvent des stratégies de lecture plus efficaces que leurs collègues de deuxième année. Ceux-ci se contentent, en général, des ouvrages de référence, font de simples lectures et s’appuient beaucoup sur les résumés faits par leurs prédécesseurs. Le recours aux ouvrages de référence essentiellement comme source d'information apporte une certaine pauvreté au débat à la phase retour avec peu d'échanges de type argumentatif, témoins d'un travail profond. Ainsi donc, par tout ce soutien qu'elle permet d'apporter aux étudiants pour la construction de leurs connaissances, pour le type d'apprentissage qu'elle offre, l’APP reste une approche unique, digne d’intérêt. Cependant, elle nécessite d'être améliorée par des interventions au niveau du tuteur et des étudiants.
Resumo:
Dans le contexte actuel de l’éducation au Québec où la réforme des programmes de formation des jeunes appelle un renouvellement des pratiques d’enseignement, notre recherche s’intéresse au développement de la dimension didactique de la pratique liée à l’enseignement des mathématiques qui est considéré comme l’un des éléments clés des nouvelles orientations. Nous abordons la question par le biais de la collaboration de formation initiale pour l’enseignement des mathématiques au primaire qui se vit en stage entre des praticiennes en exercice et en formation et une didacticienne des mathématiques. Cette rencontre sur le terrain des stages au primaire entre praticiennes et didacticienne, longtemps réclamée et rendue possible à l’UQAT , nous a amené à formuler une première question de recherche touchant ce qui se construit à travers les échanges de ces partenaires de la formation au cours des supervisions pédagogiques conjointes qui les réunissent en stage. Nous avons cadré ce questionnement à partir des balises théoriques de la didactique professionnelle qui proposent modèle et concepts pour expliciter l’activité professionnelle et traiter des phénomènes de développement des compétences professionnelles en contexte de travail et de formation. La didactique professionnelle attribue un rôle essentiel à la communauté de pratique et au processus d’analyse de l’expérience dans le développement professionnel des novices et dans l’explicitation d’un savoir d’action jugé pertinent et reconnu. Nous y faisons donc appel pour poser le potentiel que représentent les échanges issus de la collaboration quant à leur contribution à l’établissement d’un savoir de référence pour l’enseignement des mathématiques. La didactique professionnelle propose également le recours au concept de schème pour décrire l’activité professionnelle et à l’idée de concepts organisateurs comme élément central de l’activité et comme variable de la situation professionnelle concernée. Nous recourons à ces mêmes concepts pour expliciter le savoir de référence pour l’enseignement des mathématiques qui émerge à travers les échanges des partenaires de la formation. Dans le cadre d’une étude de cas, nous nous sommes intéressée aux échanges qui se déroulent entre une stagiaire qui effectue son troisième et avant dernier stage , l’enseignante-associée qui la reçoit et la chercheure-didacticienne qui emprunte le rôle de superviseure universitaire. Les échanges recueillis sont issus de trois cycles de supervision conjointe qui prennent la forme de rencontres de préparation des situations d’enseignement de mathématique; d’observation en classe des séances d’enseignement pilotées par la stagiaire auprès de ses élèves; et des rencontres consacrées à l’analyse des situations d’enseignement observées et de l’activité mise en œuvre par la stagiaire. Ainsi les objets de discussion relevés par les différents partenaires de la formation et la négociation de sens des situations professionnelles vécues et observées sont analysés de manière à rendre visibles les constituants de l’activité professionnelle qui sont jugés pertinents par la triade de formation. Dans un deuxième temps, en partant de cette première analyse, nous dégageons les concepts organisateurs des situations professionnelles liées à l’enseignement des mathématiques qui sont pris en compte par la triade de formation et qui constituent des variables de la situation professionnelle. Les constituants de l’activité et des situations professionnelles qui résultent de cette analyse sont envisagés en tant que représentations collectives qui se révèlent à travers les échanges de la triade de formation. Parce que ces représentations se sont trouvées partagées, négociées dans le cadre des supervisions pédagogiques, elles sont envisagées également en tant que savoir de référence pour cette triade de formation. Les échanges rendus possibles entre les praticiennes et la didacticienne placent ce savoir de référence dans une dynamique de double rationalité pratique et didactique. Enfin, partant de l’apport déterminant de la communauté de pratique et de formation de même que du savoir de référence que cette dernière reconnait comme pertinent dans le développement professionnel des novices, les résultats de cette recherches peuvent contribuer à réfléchir la formation des futures enseignantes en stage en ce qui a trait à l’enseignement des mathématiques au primaire.
Resumo:
Cette étude ethnographique porte sur le réseau social du tango argentin à Montréal, les valeurs esthétiques du tango, l’interprétation de l’expérience de la danse acquise au cours du processus de socialisation et les différents agents de socialisation. Dans un contexte de réappropriation et de déterritorialisation d’un savoir-faire comme le tango, les références symboliques relatives à son contexte d’origine, son imaginaire collectif et son contexte sociohistorique sont moins accessibles. Ceci semble appeler chez les danseurs montréalais une sorte de surdétermination de l’expérience immédiate, concrète et interactive de la danse dans la construction d’un sens collectif. Cette recherche s’intéresse plutôt à la transposition dans le réseau montréalais de certaines normes esthétiques en lien avec les modalités interactives de la danse. Ces normes esthétiques induisent une attention particulière portée à la qualité de l’expérience se reflétant dans les pratiques et les discours. Ces valeurs esthétiques remontent au contexte d’origine du tango et à la rencontre entre différents univers socialisateurs transnationaux à différentes étapes de son évolution. De ce type de rencontres «transesthétiques», s’est développé un dualisme entre le danser pour les autres et le danser pour soi, dans les représentations et la mise en forme d’une expérience dansée. À Montréal, c’est avec emphase qu’on observe la cohabitation de ces deux systèmes de valeurs en apparence antagonistes où, d’une part, est valorisé l’exhibition du soi et, d’autre part, sont priorisés l’intériorité et l’expérience subjective. En bref, ce mémoire explore les relations complexes qui existent entre les processus culturels et leurs produits, l’expérience et le sens, entre la subjectivité individuelle et la collectivité, et redéfinit l’agentivité des acteurs sociaux en étudiant les modes spécifiques de production du sens dans un art comme la danse.
Resumo:
Ce mémoire porte sur l’étude du développement d’un sentiment d’appartenance à l’échelle d’un quartier dans un contexte de croissance de la mobilité des individus. À travers ce travail, il s’agit d’observer les formes que prend ce sentiment alors que les limites du territoire quotidien ne cessent d’être repoussées et que les individus sont de moins en moins ancrés de façon permanente sur un territoire. Dès lors, la pertinence du quartier est remise en cause. L’étude a pris pour cadre d’analyse l’arrondissement Plateau-Mont-Royal en raison de son caractère atypique et exemplaire en matière de forte mobilité de ses résidants et de la perception d’un sentiment d’appartenance territoriale marqué. Afin d’alimenter la réflexion, des entretiens ont été réalisés auprès de dix résidants de l’arrondissement recrutés lors d’un rendez-vous citoyen. Ces rencontres ont permis de comprendre que la mobilité des résidants ne répond pas à la tangente de la croissance observée. La flexibilité et la liberté d’avoir le choix de quitter son lieu de résidence sont des aptitudes valorisées, mais l’ancrage demeure prisé. Cette divergence s’inscrit dans une démarche particulière; celle de vivre selon un mode de vie où l’espace du quartier est priorisé à travers la mobilité quotidienne. Dans ce contexte, le sentiment d’appartenance se développe en direction d’un mode de vie, honorant un ensemble de valeurs, plutôt qu’à un territoire. Selon cette approche, l’arrondissement Plateau-Mont-Royal joue le second rôle; il représente le catalyseur et la vitrine de ce mode de vie, facilitant ainsi le regroupement des individus sous des valeurs communes.
Resumo:
Les nouvelles technologies mobiles, Internet et les plateformes d’échanges réseautiques ont-ils un effet tangible sur les habitudes de travail des journalistes politiques de la presse écrite? Comment ces nouveaux outils participent-ils à la construction identitaire de ces journalistes? Dans le but de mieux comprendre leur contexte de travail et de (re)construction identitaire, nous avons choisi d’analyser le rôle qu’occupent les nouvelles technologies dans leur quotidien, tant du point de vue de leurs pratiques actuelles que du point de vue de leurs perceptions d’eux-mêmes et du métier. Dans cette étude qualitative, sept journalistes politiques francophones de médias traditionnels écrits ont été interviewés dans le but de nous aider à mieux cerner les libertés mais aussi les contraintes qui accompagnent l’adoption de nouveaux outils technologiques ainsi que les nouvelles pratiques qui y sont rattachées. Les nouvelles technologies et les plateformes réseautiques ne sont pas que de simples outils de travail, ils redéfinissent le rôle même du journaliste dans la société. Hormis les adaptations quotidiennes qu’elles supposent dans les changements de méthodes de travail, elles contribuent souvent à déstabiliser le journaliste dans ses valeurs traditionnelles les plus solidement ancrées. Ces nouveaux outils deviennent le lieu d’échanges accrus où le journaliste se retrouve, bien malgré lui, à devoir défendre un rôle qui lui était autrefois acquis. Vecteurs d’autovalorisation pour le public, ils sont plus souvent le lieu de résistance pour les journalistes.
Resumo:
Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne.