131 resultados para Environnement simulé (Méthode pédagogique)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L‟utilité de la théorie de la dissuasion est régulièrement remise en question pour expliquer la relation entre les peines et la criminalité puisque les propriétés objectives de la peine ne semblent pas affecter les taux de criminalité, les perceptions que s‟en font les individus et la récidive des délinquants. Trois limites conceptuelles des auteurs qui remettent en question la dissuasion sont soulevées. Premièrement, les unités spatiales utilisées sont des territoires sur lesquels plusieurs corps policiers sont en fonction. Il y a donc peu de chances que tous les citoyens présents soient exposés au même message pénal. Deuxièmement, les chercheurs ont mesuré le risque objectif d‟être arrêté à l‟aide d‟un ratio entre le nombre d‟arrestations et le nombre de crimes rapportés. Cette conceptualisation est problématique puisque les résultats d‟autres études suggèrent que les citoyens ont peu de connaissances des propriétés objectives et qu‟il serait, ainsi, intéressant de se référer aux stimuli dissuasifs pour conceptualiser la notion de risques. Troisièmement, pour plusieurs chercheurs, la délinquance est considérée comme une activité pour laquelle les délits impunis découlent du hasard. Pourtant, les délinquants utilisent fréquemment des stratégies pour éviter les autorités policières. Ils sont donc proactifs dans leur impunité. De ces limites découlent quatre propositions : 1) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les territoires utilisés dans les études doivent représenter des juridictions sur lesquelles un seul corps policier opère; 2) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les études doivent être effectuées avec des données provenant d‟une juridiction dans laquelle les activités de répression sont augmentées significativement par rapport à leur seuil antérieur et maintenue sur une période de temps suffisamment longue; 3) les stimuli dissuasifs observés doivent être considérés comme des expériences vicariantes ; 4) l‟impunité doit être définie comme étant une expérience recherchée par les délinquants. Deux études ont été réalisées dans le cadre de cette thèse. D‟abord, une étude a été réalisée à l‟aide de données issues des rapports policiers de collisions et des constats d‟infraction rendus. Les résultats montrent que l‟augmentation de la répression policière ii sur le territoire du Service de Police de la Ville de Montréal a fait diminuer le nombre de collisions. Au même moment, les collisions sont demeurées stables sur le territoire desservis par le Service de police de la Ville de Québec. Dans un deuxième temps, une étude perceptuelle a été réalisée avec un échantillon d‟étudiants universitaires. Les résultats démontrent des effets mitigés des stimuli dissuasifs sur les perceptions que se font les individus de leurs risques d‟être arrêté et sur leurs comportements délinquants. Chez les moins délinquants, les stimuli dissuasifs font augmenter la perception que les délinquants se font de leurs risques. Par contre, les plus motivés à commettre des délits de la route développent des stratégies en réaction aux opérations policières plutôt que d‟en craindre les représailles. Ces tactiques d‟évitement n‟assurent pas une impunité totale, ni une perception moins élevée des risques de recevoir une contravention, mais elles retardent le moment où le délinquant sera confronté à la punition.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Chaque année, un nombre considérable d’élèves récemment immigrés intègrent les écoles du Québec. Pour ces jeunes, les risques de faire face à des difficultés socioscolaires sont potentiellement élevés, en particulier chez ceux pour qui des facteurs tels que l’allophonie et la défavorisation s’additionnent. De nombreuses recherches soulignent la réussite de l’adaptation socioscolaire de plusieurs de ces élèves, mais il demeure que d’autres jeunes éprouvent des difficultés et il est capital de chercher à mieux comprendre comment les accompagner à travers ce processus. L’objectif général de cette recherche est de décrire le phénomène de la résilience scolaire chez des jeunes allophones du primaire récemment immigrés dans le but de savoir comment mieux soutenir leur intégration sociale ainsi que leur réussite scolaire. Le concept de la résilience a été employé comme cadre théorique afin de capter le caractère systémique de l’intégration socioscolaire de ces élèves immigrants qui, à leur arrivée, ne maîtrisent pas le français. Les résultats de l’analyse de nos données révèlent que les caractéristiques qui ont soutenu l’adaptation socioscolaire des jeunes que nous avons rencontrés appartiennent à quatre catégories : l’élève (motivation scolaire et importance accordée aux études en général, volonté d’apprentissage du français), son environnement familial (intérêt porté par les parents à l’éducation de l’enfant, discours positif du parent quant à l’éducation), son environnement extra-familial (lieux de culte et espaces d’épanouissement socioculturel pour le jeune, organismes communautaires, adultes significatifs qui peuvent soutenir la résilience du jeune) et son vécu scolaire (enseignants engagés, disponibles, qui inspirent confiance et qui sont outillés, climat psychosocial positif en classe et à l’école).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une nouvelle méthode d'extraction en phase solide (SPE) couplée à une technique d'analyse ultrarapide a été développée pour la détermination simultanée de neuf contaminants émergents (l'atrazine, le déséthylatrazine, le 17(béta)-estradiol, l'éthynylestradiol, la noréthindrone, la caféine, la carbamazépine, le diclofénac et le sulfaméthoxazole) provenant de différentes classes thérapeutiques et présents dans les eaux usées. La pré-concentration et la purification des échantillons a été réalisée avec une cartouche SPE en mode mixte (Strata ABW) ayant à la fois des propriétés échangeuses de cations et d'anions suivie d'une analyse par une désorption thermique par diode laser/ionisation chimique à pression atmosphérique couplée à la spectrométrie de masse en tandem (LDTD-APCI-MS/MS). La LDTD est une nouvelle méthode d'introduction d'échantillon qui réduit le temps total d'analyse à moins de 15 secondes par rapport à plusieurs minutes avec la chromatographie liquide couplée à la spectrométrie de masse en tandem traditionnelle (LC-MS/MS). Plusieurs paramètres SPE ont été évalués dans le but d'optimiser l'efficacité de récupération lors de l'extraction des analytes provenant des eaux usées, tels que la nature de la phase stationnaire, le débit de chargement, le pH d'extraction, le volume et la composition de la solution de lavage et le volume de l'échantillon initial. Cette nouvelle méthode a été appliquée avec succès à de vrais échantillons d'eaux usées provenant d'un réservoir de décantation primaire. Le recouvrement des composés ciblés provenant des eaux usées a été de 78 à 106%, la limite de détection a été de 30 à 122 ng L-1, alors que la limite de quantification a été de 88 à 370 ng L-1. Les courbes d'étalonnage dans les matrices d'eaux usées ont montré une bonne linéarité (R2 > 0,991) pour les analytes cibles ainsi qu’une précision avec un coefficient de variance inférieure à 15%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce travail se veut d’un rapprochement aux pratiques et savoirs des peuples amazoniens à partir de discours produits par ces nations. Nous y interpréterons des chants sacrés, des narrations ancestrales et des textes académiques de penseurs autochtones. Ce travail indique que les pratiques amazoniennes s’inscrivent dans un contexte de significations qui considèrent que tout être vivant possède des pensées et un esprit; qu’il existe des êtres spirituels qui défendent ces êtres vivants contre les abus possibles. Les êtres humains doivent transcender leur état de conscience, se déplacer vers les mondes invisibles et initier la communication avec ces esprits, pour ainsi maintenir l’équilibre existentiel. Selon les pensées de l’Amazonie, les communautés humaines ne peuvent pas se concevoir comme autosuffisantes; elles doivent plutôt maintenir de constantes relations avec les multiples êtres qui peuplent leur environnement visible et les mondes invisibles. Les trois concepts clés qui permettent de rendre compte des pratiques des peuples amazoniens sont la déprédation, la transformation et l’équilibre. Par déprédation, nous entendons les pratiques amazoniennes qui impliquent une destruction des autres êtres afin de sustenter la vie de la communauté. Selon les pensées de l’Amazonie, cette déprédation devrait être mesurée, dans le but de ne pas tuer plus que nécessaire à la survie. La déprédation est régulée par les êtres spirituels. Les pratiques amazoniennes de transformation sont destinées à la sauvegarde des liens de la communauté, en transfigurant tout ce qui entre ou sort de cette dernière, de manière à ce qu’aucun agent externe ne mette en péril les liens affectifs. Les pratiques de déprédation et de transformation sont complémentaires et elles requièrent toutes les deux de se produire de manière équilibrée, en respectant les savoirs ancestraux et les lois cosmiques établies par les esprits supérieurs. En ce qui a trait à la méthode d’analyse, nous aborderons les discours de l’Amazonie à partir leur propre logique culturelle, sans imposer des méthodologies préétablies, ce qui donne comme résultat un travail académique qui approfondie la production intellectuelle interculturelle, puisque ce sont les voix indigènes qui expriment elles-mêmes leurs conceptions et le sens de leurs pratiques. Dans son ensemble, le travail engage un dialogue critique avec son champ d’étude en discutant ou en approfondissant certaines conceptions forgées par la littérature anthropologique consacrée à l’étude de la région, à partir des savoirs ancestraux amazoniens qui nourrissent les pratiques de ces nations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le design pédagogique dans les jeux vidéo non éducatifs est une discipline en mal de définitions et de méthodes. Contrairement à celui que l’on trouve dans les écoles ou autres institutions de formation, le design pédagogique pour les jeux vidéo non éducatifs est fait par des designers de jeux qui n’ont souvent aucune formation en enseignement. Un modèle de design pédagogique pour les jeux vidéo non éducatifs est donc développé dans ce mémoire, à partir d’une recherche exploratoire utilisant l’analyse de contenu de jeux vidéo et les théories de la science de l’éducation. Étant donné les ressources limitées disponibles pour le développement du modèle, la présente recherche pourra servir de base à la construction d’un modèle plus élaboré sur un sujet semblable, offrira des pistes intéressantes de recherche sur l’enseignement par le jeu et pourra soutenir les designers de jeu lors de la planification du design pédagogique dans leurs jeux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis la mise en place de la réforme, il y a plus de dix ans, les directions d’établissement sont tenues de trouver des solutions alternatives au redoublement, afin d’aider les élèves en difficulté à rattraper leur retard. C’est afin de répondre à cet impératif que la classe de prolongation de cycle a été mise en place dans les écoles secondaires. Des élèves en fin de 1er cycle, jugés incapables de poursuivre au cycle supérieur, y sont regroupés et pendant une année, ils bénéficient de mesures de soutien afin d’atteindre le niveau de compétence attendu (plus précisément en français en en mathématiques) pour pouvoir vivre un passage réussi au second cycle. Peu de résultats de recherches sont toutefois disponibles quant à l’efficacité de cette modalité. La présente étude vise donc à estimer l’incidence de deux modèles de prolongation de cycle (co-enseignement et avec enseignant unique), sur la motivation et l’adaptation psychosociale des élèves. Ainsi, les élèves qui expérimentent un modèle de co-enseignement demeurent en groupe fermé et sont accompagnés par trois enseignants titulaires qui se partagent la responsabilité de la quasi-totalité des composantes du programme de formation. Les élèves qui expérimentent un modèle avec enseignant unique demeurent eux aussi en groupe fermé, mais sont encadrés par une seule enseignante titulaire qui assume la responsabilité des enseignements en français et en mathématiques. Les autres matières sont enseignées par des spécialistes. Cent trente-quatre élèves au total, fréquentant trois écoles secondaires francophones montréalaises situées en milieu défavorisé, ont donc formé les groupes expérimentaux et témoins. En début et en fin d’année, les participants ont répondu à un questionnaire d’enquête mesurant l’évolution de leur motivation générale pour les apprentissages, de leur motivation spécifique aux disciplines, de leur adaptation psychosociale, de même que certaines facettes de leurs relations avec leurs pairs, leurs enseignants et leurs parents. Les résultats d’analyses de variance multivariées à mesures répétées (MANOVA) et des tests univariés subséquents permettent d’observer, chez les élèves qui ont expérimenté la prolongation de cycle en co-enseignement, une augmentation de leur sentiment de compétence général vis-à-vis l’école. De plus, leurs buts de performance-évitement et leur anxiété sociale ont diminué. Chez les élèves qui ont expérimenté la prolongation de cycle avec enseignant unique, ce même sentiment de compétence vis-à-vis l’école et celui spécifique au français ont augmenté. En revanche, ces derniers s’expriment plus négativement que leurs homologues en ce qui concerne leur intérêt général envers l’école, leur sentiment d’appartenance à leur école et leurs relations avec leurs pairs. Ces résultats indiquent donc que cette mesure a un effet mitigé sur la motivation et l’adaptation psychosociale des élèves. De plus, les quelques bénéfices perçus peuvent être la conséquence du fait de se retrouver dans un environnement scolaire moins compétitif. Cela dit, il apparaît important de préciser que les enseignants qui ont testé le modèle de co-enseignement en étaient à une première expérience. Leurs pratiques sont susceptibles de se bonifier, ce qui laisse croire que des résultats plus disparates pourraient éventuellement être observés entre ces deux modèles de prolongation. Par ailleurs, la pérennité des gains observés est inconnue. En conséquence, il conviendrait de poursuivre cette étude pour être en mesure de déterminer si ceux-ci sont durables dans le temps et afin de constater la pleine mesure de l’efficacité du modèle de prolongation de co-enseignement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Peu d’études ont évalué les caractéristiques des parcs pouvant encourager l’activité physique spécifiquement chez les jeunes. Cette étude vise à estimer la fiabilité d’un outil d’observation des parcs orienté vers les jeunes, à identifier les domaines conceptuels des parcs capturés par cet outil à l’aide d’une opérationnalisation du modèle conceptuel des parcs et de l’activité physique et à identifier différents types de parcs. Un total de 576 parcs ont été évalués en utilisant un outil d’évaluation des parcs. La fiabilité intra-juges et la fiabilité inter-juges de cet outil ont été estimées. Une analyse exploratoire par composantes principales (ACP) a été effectuée en utilisant une rotation orthogonale varimax et les variables étaient retenues si elles saturaient à ≥0.3 sur une composante. Une analyse par grappes (AG) à l’aide de la méthode de Ward a ensuite été réalisée en utilisant les composantes principales et une mesure de l’aire des parcs. L’outil était généralement fiable et l’ACP a permis d'identifier dix composantes principales qui expliquaient 60% de la variance totale. L’AG a donné un résultat de neuf grappes qui expliquaient 40% de la variance totale. Les méthodes de l’ACP et l’AG sont donc faisables avec des données de parcs. Les résultats ont été interprétés en utilisant l’opérationnalisation du modèle conceptuel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La régulation transcriptionnelle des gènes est un processus indispensable sans lequel la diversité phénotypique des cellules ainsi que l’adaptation à leur environnement serait inexistant. L’identification des éléments de régulation dans le génome est d’une importance capitale afin de comprendre les mécanismes gouvernant l’expression des gènes spécifiques à un type cellulaire donné. Ainsi, suite au pic de LH, le follicule ovarien entre dans un programme intensif de différentiation cellulaire, orchestré par des modifications majeures du profile transcriptionnel des cellules de granulosa, déclenchant ultimement l’ovulation et la lutéinisation, processus indispensables à la fertilité femelle. L’hypothèse supportée par cette étude stipule qu’une réorganisation de la structure chromatinienne survient aux régions régulatrices d’une panoplie de gènes dans les heures suivant le pic de LH et qu’en isolant et identifiant ces régions, il serait possible de retrouver des éléments essentiels aux processus d’ovulation et de lutéinisation. Ainsi, en utilisant un protocole standard de superovulation chez la souris, les éléments de régulation se modifiant 4h suivant l’administration de hCG ont été isolés et identifiés dans les cellules de granulosa en utilisant la méthode FAIRE (Formaldehyde-Assisted Isolation of Regulatory Elements) combinée à un séquençage haut débit. Cette étude a démontré que suite au stimulus ovulatoire, les cellules de granulosa subissent une reprogrammation majeure des éléments de régulation, qui est corrélée avec une modification drastique de leurs fonctions biologiques. De plus, cette étude a mis en évidence une association majoritaire des éléments de régulation à des régions intergéniques distales et à des introns, indiquant que ces régions ont une importance capitale dans la régulation transcriptionnelle dans les cellules de granulosa. Cette étude a également permis d’identifier une panoplie de régulateurs transcriptionnels reconnus pour être essentiels à la fonction ovarienne, ainsi que leur sites de liaison dans le génome, démontrant que la méthode FAIRE est une méthode assez puissante pour permettre la prédiction d’événements moléculaires précis ayant un sens physiologique réel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’instrument le plus fréquemment utilisé pour la mesure de l’amplitude de mouvement du coude est le goniomètre universel. Or celui-ci ne fait pas l’unanimité : plusieurs auteurs remettent en question sa fiabilité et validité. Cette étude détaille donc, en trois étapes, une alternative beaucoup plus précise et exacte : une méthode radiographique de mesure. Une étude de modélisation a d’abord permis de repérer les sources d’erreur potentielles de cette méthode radiographique, à ce jour jamais utilisée pour le coude. La méthode a ensuite servi à évaluer la validité du goniomètre. À cette fin, 51 volontaires ont participé à une étude clinique où les deux méthodes ont été confrontées. Finalement, la mesure radiographique a permis de lever le voile sur l’influence que peuvent avoir différents facteurs démographiques sur l’amplitude de mouvement du coude. La méthode radiographique s’est montrée robuste et certaines sources d’erreurs facilement évitables ont été identifiées. En ce qui concerne l’étude clinique, l’erreur de mesure attribuable au goniomètre était de ±10,3° lors de la mesure du coude en extension et de ±7,0° en flexion. L’étude a également révélé une association entre l’amplitude de mouvement et différents facteurs, dont les plus importants sont l’âge, le sexe, l’IMC et la circonférence du bras et de l’avant-bras. En conclusion, l’erreur du goniomètre peut être tolérée en clinique, mais son utilisation est cependant déconseillée en recherche, où une erreur de mesure de l’ordre de 10° est inacceptable. La méthode radiographique, étant plus précise et exacte, représente alors une bien meilleure alternative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La complexité de la tâche qu’est la lecture du français en interaction avec les caractéristiques de la personne qui a un retard de deux ans en lecture, la population cible de cette recherche, place cette dernière en situation d’échec. Tous les processus impliqués dans l’acte de lire en interaction avec ces caractéristiques induisent des échecs et des retards d’apprentissage de la lecture. L’enseignant, qui souhaite utiliser un manuel scolaire tout en intégrant un élève de 3e année ne sachant toujours pas lire, a deux choix : lui offrir un manuel de 1re année, un manuel de 3e année ou adapter lui-même son matériel. Si l’enseignant lui remet un manuel de 1re année, l’élève vit des réussites, mais les thèmes sont infantilisants. Si l’enseignant remet un manuel de 3e année à ce même élève, les thèmes ne sont pas infantilisants, mais le niveau en lecture place ce dernier systématiquement en situation d’échec. Si l’enseignant adapte lui-même le matériel, l’entreprise est grande en charge de travail pour ce dernier. En réponse à ce dilemme, le Groupe DÉFI Accessibilité (GDA) a conçu des manuels scolaires adaptés. Ils sont, à première vue, identiques à la version originale Signet (3e année), mêmes thèmes, mêmes titres, mêmes numéros de pages, mêmes illustrations et mêmes réponses aux deux premières questions de chaque page, mais les textes sont simplifiés afin de permettre la lecture à l’élève de 3e année qui a deux ans de retard dans cette matière. En accord avec une stratégie de design inclusif, la simplification des manuels par le GDA a été réalisée en fonction des caractéristiques d’un groupe de référence reconnu pour avoir de grandes difficultés d’apprentissage de la lecture, soit des élèves qui ont des incapacités intellectuelles (Langevin, Rocque, Ngongang et Chaghoumi, 2012). L’objet de cette thèse est le calcul de la productivité et de l’efficience de ces manuels scolaires adaptés auprès d’élèves qui ont deux années de retard en lecture, la population cible. La méthodologie utilisée pour cette recherche est l’analyse de la valeur pédagogique, une méthode systématique de développement et d’évaluation de produits, procédés ou services, adaptée de l’ingénierie. Cette recherche a pour objet la troisième et dernière phase de l’analyse de la valeur pédagogique, soit l’évaluation des manuels scolaires adaptés. En analyse de la valeur pédagogique, comme pour cette recherche, la mise à l’essai a deux objectifs : comparer le prototype créé au cahier des charges fonctionnel regroupant toutes les fonctions que devrait remplir le produit pour répondre aux besoins de ses utilisateurs potentiels et calculer la productivité/efficience. Puisqu’il s’agit d’une première mise à l’essai, un troisième objectif est ajouté, soit la proposition de pistes d’amélioration au prototype de manuels scolaires adaptés. La mise à l’essai s’est échelonnée sur six mois. L’échantillon regroupe quatre enseignantes de 3e année, deux en classes spéciales et deux en classes régulières. Ces dernières enseignent à 32 élèves utilisateurs des manuels scolaires adaptés : six sont dyslexiques, quatre ont une connaissance insuffisante de la langue française, un a un trouble envahissant du développement avec incapacités intellectuelles et 21 ont des incapacités intellectuelles légères. Les résultats sont présentés sous la forme de trois articles. Les quatre enseignantes ont confirmé la réponse des manuels scolaires adaptés au cahier des charges fonctionnel. De plus, la phase de conception a été jugée efficiente et la phase d’utilisation productive. Il n’y a pas de modification à faire aux manuels scolaires adaptés. Par contre, le guide d’utilisateur doit être modifié, puisque l’outil n’a pas été utilisé tel qu’il était prévu par l’équipe de conception.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente recherche vise à décrire les pratiques d’enseignement de la littératie au premier cycle du primaire en contexte montréalais d’enseignants considérés experts. Plus précisément, les trois objectifs de recherche consistent à décrire les pratiques d’enseignement de la langue écrite au premier cycle du primaire en contexte montréalais privilégiées par certains enseignants considérés experts (N=6) (objectif 1); à décrire les différentes formes de différenciation pédagogique privilégiées pour l’enseignement de la lecture et de l’écriture en contexte montréalais de certains enseignants considérés experts afin de répondre aux besoins variés de tous leurs élèves (objectif 2) et à étudier les liens possibles entre les pratiques d’enseignement de la langue écrite d’enseignants considérés experts et la progression de leurs élèves (N=100) du premier cycle du primaire en contexte montréalais, au regard de leur connaissance des correspondances phonographiques et de la norme orthographique (objectif 3). Afin de répondre aux objectifs, deux entretiens ont été menés auprès des enseignantes, de même que deux observations en classe, une à l’automne et une au printemps. Pour leur part, les élèves ont été soumis à deux tâches d’écriture à deux reprises durant l’année (une tâche de production de mots et une tâche de production de texte) permettant de mesurer leur progression en cours d’année relativement à leurs connaissances des correspondances phonographiques et de la norme orthographique. Nos résultats nous ont permis de recueillir des pratiques très diversifiées et conduites avec une fréquence fort différente d’une enseignante à l’autre. La densité des contenus abordés en classe diffère également beaucoup entre les enseignantes. En lien avec le modèle du multi-agenda de Bucheton et Soulé (2009), les cinq composantes constituant la matrice de l’activité de l’enseignant se retrouvent dans toutes les classes, mais ces préoccupations n’occupent pas toutes la même place dans les pratiques des enseignantes de la recherche. Nos résultats indiquent aussi que toutes les enseignantes différencient leur enseignement, mais de façon variable. Il semble que ce soit la différenciation des processus, des contenus et des structures qui soit la plus aisée à mettre en place en classe. En lien avec notre adaptation du modèle de différenciation pédagogique de Caron (2008), il semble que ce soit la diversification et l’offre de choix qui sont mobilisées le plus fréquemment. Les mesures d’adaptation sont rarement mises en avant dans les pratiques de classe, tandis que les mesures d’individualisation n’ont pas été constatées. En ce qui a trait aux résultats des élèves aux tâches en écriture, nos résultats indiquent que deux groupes se démarquent parmi les six. En effet, c’est dans ces deux classes que la plus forte progression est constatée. Les pratiques des enseignantes de ces deux classes sont très diversifiées et elles sont les seules à mettre en avant dans leurs pratiques tous les dispositifs dont il est question en entretiens. De plus, les contenus enseignés sont denses, ce qui est réputé pour caractériser les pratiques des enseignants efficaces (Hall, 2003). De même, ces deux enseignantes offrent un étayage de grande qualité à leurs élèves et maîtrisent parfaitement le pilotage des tâches. La présente recherche peut servir à apporter un éclairage nouveau sur les pratiques de littératie des enseignants considérés experts afin de mieux comprendre leurs pratiques, de même que la place qu’ils accordent à la différenciation pédagogique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte : Un accès adéquat aux aliments sains dans les environnements résidentiels peut contribuer aux saines habitudes alimentaires. Un tel accès est d’autant plus important pour les personnes âgées, où les changements associés au vieillissement peuvent accentuer leur dépendance aux ressources disponibles dans le voisinage. Cependant, cette relation n’a pas encore été établie chez les aînés. Objectifs : La présente thèse vise à quantifier les associations entre l’environnement alimentaire local et les habitudes alimentaires de personnes âgées vivant à domicile en milieu urbain. La thèse s’est insérée dans un projet plus large qui a apparié les données provenant d’une cohorte d’aînés québécois vivant dans la région métropolitaine montréalaise avec des données provenant d’un système d’information géographique. Trois études répondent aux objectifs spécifiques suivants : (1) développer des indices relatifs de mixité alimentaire pour qualifier l’offre d’aliments sains dans les magasins d’alimentation et l’offre de restaurants situés dans les quartiers faisant partie du territoire à l’étude et en examiner la validité; (2) quantifier les associations entre la disponibilité relative de magasins d’alimentation et de restaurants près du domicile et les habitudes alimentaires des aînés; (3) examiner l’influence des connaissances subjectives en nutrition dans la relation entre l’environnement alimentaire près du domicile et les habitudes alimentaires chez les hommes et les femmes âgés. Méthodes : Le devis consiste en une analyse secondaire de données transversales provenant de trois sources : les données du cycle 1 pour 848 participants de l’Étude longitudinale québécoise « La nutrition comme déterminant d’un vieillissement réussi » (2003-2008), le Recensement de 2001 de Statistique Canada et un registre privé de commerces et services (2005), ces derniers regroupés dans un système d’information géographique nommé Mégaphone. Des analyses bivariées non paramétriques ont été appliquées pour répondre à l’objectif 1. Les associations entre l’exposition aux commerces alimentaires dans le voisinage et les habitudes alimentaires (objectif 2), ainsi que l’influence des connaissances subjectives en nutrition dans cette relation (objectif 3), ont été vérifiées au moyen d’analyses de régression linéaires. Résultats : Les analyses ont révélé trois résultats importants. Premièrement, l’utilisation d’indices relatifs pour caractériser l’offre alimentaire s’avère pertinente pour l’étude des habitudes alimentaires, plus particulièrement pour l’offre de restaurants-minute. Deuxièmement, l’omniprésence d’aspects défavorables dans l’environnement, caractérisé par une offre relativement plus élevée de restaurants-minute, semble nuire davantage aux saines habitudes alimentaires que la présence d’opportunités d’achats d’aliments sains dans les magasins d’alimentation. Troisièmement, un environnement alimentaire plus favorable aux saines habitudes pourrait réduire les écarts quant à la qualité de l’alimentation chez les femmes ayant de plus faibles connaissances subjectives en nutrition par rapport aux femmes mieux informées. Conclusion : Ces résultats mettent en relief la complexité des liens entre l’environnement local et l’alimentation. Dans l’éventualité où ces résultats seraient reproduits dans des recherches futures, des stratégies populationnelles visant à résoudre un déséquilibre entre l’accès aux sources d’aliments sains par rapport aux aliments peu nutritifs semblent prometteuses.