790 resultados para Place du joueur
Resumo:
R?SUM?: Ce m?moire a comme but la description de la mise en place de deux unit?s didactiques pour l?am?lioration de la comp?tence communicative orale en fran?ais d?un groupe d??l?ves de terminale d?un lyc?e de Cali. Ce travail s?inscrit dans la recherche action qui nous a permis de mener un processus de diagnostic, d?impl?mentation et d??valuation. Les techniques utilis?es ont ?t? les enqu?tes, entretiens aux ?l?ves et au professeur titulaire, observations de classes et enregistrements audio et vid?o. L?analyse de la phase d?impl?mentation s?est faite ? partir de trois grandes cat?gories qui rassemblent le sens de l?approche collaborative et la comp?tence communicative orale. Les r?sultats montrent que les ?l?ves ont am?lior? leur expression orale en fran?ais notamment l?enrichissement de vocabulaire et la fluidit?, ? travers des contenus proches de leur r?alit?. Nous montrons les b?n?fices de l?approche collaborative tels que le travail de groupe, le changement de r?les de l?enseignant et des ?l?ves et la possibilit? de co-?valuation du processus dans un cours de fran?ais langue ?trang?re.
Resumo:
Au travers de cette étude, nous proposons de mettre en place un système d’information géographique (SIG) prédictif afin d’obtenir le classement des pays vulnérables à la brusque variation des prix du maïs. L'élément déclencheur de cette variation sera un aléa climatique sur la zone de culture américaine, premier pays producteur. Afin d'analyser les conséquences d'une catastrophe naturelle, il fut nécessaire de construire un indice final de vulnérabilité par le regroupement de plusieurs thématiques (agricole, économique et socio politique). Les données des différentes thématiques ainsi que les résultats sont intégrés dans une base de données à référence spatiale pour permettre la restitution des résultats dans un SIG web.
Resumo:
En 2008, le Québec fait son entrée dans le marché du livre numérique. Cette année-là, l’Association nationale des éditeurs de livres du Québec (ANEL) s’associe avec l’entreprise De Marque pour créer l’Entrepôt numérique (www.entrepotnumerique.com), une plateforme de diffusion et de distribution de livres numériques québécois. Sa structure permet de stocker et de gérer les fichiers numériques, tout en offrant aux éditeurs une interface personnalisée afin que chacun puisse commercialiser ses titres en quelques étapes simples. Dès le départ, les instigateurs de ce projet font le pari de mettre en place une infrastructure de diffusion-distribution propre aux Québécois et qui répond à l’internationalisation du marché du livre. Mais les enjeux sont nombreux pour les professionnels du système-livre du Québec qui tentent de s’adapter aux nouvelles structures et de se frayer un chemin dans la sphère numérique. À la fois d’ordre technologique, économique et culturel, ces enjeux posent la double question de la commercialisation d’une nouvelle forme de livre et de la présence de la culture québécoise sur le web. En effet, face à la multiplication des titres et devant l’espace infini de la Toile, comment assurer la circulation et la promotion du livre numérique ? Comment adapter les circuits traditionnels à un nouveau format de livre qui se distingue de la forme fixe du livre imprimé que l’on connaît ? Et comment, surtout, la culture québécoise peut-elle prendre place auprès de géants internationaux comme Amazon, Google ou Apple ? Ayant précisément pour mandat d’offrir une solution de diffusion numérique simple et efficace aux éditeurs québécois et canadiens-français, l’Entrepôt numérique distribue la production de 148 éditeurs, donnant ainsi aux lecteurs un accès à un catalogue mutualisé comptant 17 144 publications. Plus de 750 000 livres numériques ont été vendus depuis 2009 et de nombreuses ententes de partenariat ont été signées avec 194 revendeurs provenant de 58 pays. Or, en assurant la circulation et la commercialisation des titres dans l’espace numérique, l’Entrepôt numérique participe à la mutation du secteur de la diffusion-distribution au Québec. Il illustre ainsi les évolutions techniques, économiques et structurelles du marché. S’intéresser à l’Entrepôt numérique comme objet d’étude, c’est donc s’intéresser aux enjeux (technologiques, culturels, économiques) pouvant se dégager des nouvelles stratégies de circulation et de commercialisation du livre numérique implantées au sein de la filière québécoise. Trois chapitres composent ce mémoire. Le premier propose un historique de l’Entrepôt numérique. En décrivant à la fois les enjeux de départ, les acteurs impliqués et l’évolution de la plateforme, il permet de situer les conditions culturelles, commerciales et éditoriales ayant permis le développement de cette plateforme. Le deuxième chapitre, qui examine les mécanismes de distribution via l’Entrepôt numérique, met en lumière les différents jalons qui marquent le passage de la distribution traditionnelle à la distribution du livre numérique. Enfin, le troisième chapitre porte sur les mécanismes de diffusion du livre numérique de la plateforme et illustre ainsi les nouvelles conditions de promotion du livre dans la sphère numérique. En somme, la présentation de l’historique de l’Entrepôt numérique et l’examen des mécanismes de diffusion et de distribution de la plateforme permettent d’offrir une meilleure préhension des transformations et enjeux émanant de l’industrie du livre numérique au Québec, entre 2007 et 2015.
Resumo:
Les changements climatiques observés depuis les dernières années semblent avoir un impact sur la distribution et l’abondance des espèces dans plusieurs régions du monde. Cette évolution du climat peut représenter un risque pour la survie de certaines espèces car elle peut impliquer leur migration vers une niche écologique leur étant plus favorable. Ce déplacement est possible si l’espèce possède une forte capacité de dispersion et si le territoire sur lequel elle se déplace n’est pas fragmenté. La modélisation de la distribution d’espèces et de niches écologiques, prenant en compte l’évolution des variables environnementales, permet de connaître la distribution potentielle des espèces à la période actuelle et à des périodes futures selon différents scénarios. Au Québec, ces modélisations de distributions de niches écologiques potentielles constituent une source d’information très utile pour les gestionnaires du territoire, en particulier des aires protégées. Ces données permettent notamment d’anticiper la migration des espèces, influencée par les changements climatiques, afin d’identifier les défis de conservation à venir et de poser une réflexion sur le rôle des aires protégées dans ce contexte. L’objectif général de cet essai vise à étudier la migration potentielle des niches écologiques liée aux changements climatiques sur le territoire des parcs nationaux de Frontenac, du Mont-Mégantic et de leur périphérie. Les changements de répartition et de richesse spécifique de plus de 600 niches écologiques dans ce secteur ont été étudiés ainsi que leur implication en lien avec la fragmentation du territoire. Deux échelles de travail (locale et régionale) ont été considérées et des indices spatiaux de changement de répartition et de diversité des niches écologiques ont été calculés pour ces deux échelles de travail, selon deux modes de dispersion (absence de dispersion et dispersion illimitée) et deux horizons futurs (2050 et 2080). Ces indices ont révélé majoritairement une augmentation des niches écologiques apparaissant sur le territoire et une hausse de la diversité de niches écologiques sur l’ensemble du territoire en cas de dispersion illimitée, phénomène accentué à l’horizon 2080. Par contre, en cas d’absence de dispersion, une disparition importante de niches écologiques ainsi qu’une perte de diversité sont à anticiper sur le territoire, phénomène également accentué à l’horizon 2080. L’étude de la fragmentation révèle un territoire relativement fragmenté par les routes, mais présentant majoritairement une faible résistance au déplacement des espèces, malgré la présence de quelques pôles urbains de moyenne importance. Cette étude se base sur des résultats de modélisation de niches écologiques déjà effectués pour l’ensemble du Québec et pourrait ainsi être appliquée à d’autres territoires. Les résultats montrent d’importants changements à venir et les gestionnaires et scientifiques travaillant sur ce territoire pourront utiliser les résultats obtenus pour réfléchir à la mise en place de mesures adaptées aux déplacements potentiels.
Resumo:
Résumé : Le nucléole est considéré comme étant une « usine » à produire des ribosomes. Cette production est la fonction la plus énergivore de la cellule. Elle met en jeu les trois ARN polymérases et représente 80% de l’activité de transcription au sein d’une cellule. Les trois quarts de cette activité de transcription correspondent à la synthèse des ARNr par l’ARN polymérase I (ARNPI). Ainsi mieux comprendre les mécanismes cellulaires se déroulant à l’intérieur de ce compartiment permettra le développement de nouveaux traitements contre le cancer. La synthèse d’ARNr par l’ARNPI est régulée à trois niveaux : l’initiation de la transcription, l’élongation et le nombre de gènes de l’ARNr en transcription. La plupart des travaux qui se sont intéressés à ces niveaux de régulation ont été réalisés avec des cellules en phase exponentielle de croissance. Au cours de mes travaux, je me suis attardé sur la régulation de la transcription par l’ARNPI au cours de la phase G1 du cycle cellulaire et au début de la phase S. Ainsi mes résultats ont montré que si la chromatine des gènes de l’ARNr est essentiellement dépourvue de nucléosomes, la régulation de l’ARNPI diffère dans des cellules en G1 et au début de la phase S. J’ai pu de ce fait observer qu’en G1, la transcription de l’ARNPI se concentre sur un nombre réduit de gènes en transcription. Dans des cellules arrêtées au début de la phase S avec de l’hydroxyurée, la transcription de l’ARNPI est perturbée par un défaut de maturation de l’ARNR. Fort de ces résultats sur la nature des gènes ribosomaux en phase G1, je me suis attardé à la réparation de ces gènes lors de cette phase. Alors que dans des cellules en phase exponentielle de croissance irradiées avec des UVC, la chromatine des gènes de l’ARNr se ferme ; je n’ai pas observé la formation de nucléosomes suite à l’irradiation de cellules synchronisée en G1. Mes résultats montrent également que la réparation est plus efficace. Parallèlement, j’ai exploré l’assemblage du complexe de réparation par excision de nucléotides. Toutefois, les résultats obtenus sont peu concluants.
Resumo:
Le laboratoire DOMUS développe des applications pour assister les personnes en perte d'autonomie et les personnes avec des troubles cognitifs. Chaque application est ou a déjà été le sujet de plusieurs études d'utilisabilité qui permettent de les améliorer. Ces études prennent beaucoup de temps à mettre en place, car l'on rencontre souvent des problèmes de logistique (format et sensibilité des données, chercheurs répartis sur une grande aire géographique). C'est pourquoi un outil appelé GEDOPAL a été développé. Il permet de partager entre chercheurs de différents centres les données créées et utilisées lors de la mise en place des études d'utilisabilité. La conception et la réalisation de cet outil ont nécessité une réflexion en amont sur la nature et la sensibilité de ces données. Cette réflexion est l'objet du Chapitre 3. Ces études prennent aussi beaucoup de temps lors de l'analyse des résultats. De plus, certaines données créées lors de ces études, telles que les traces d'utilisation ont des volumétries trop importantes pour être analysées manuellement. C'est pourquoi nous avons créé un processus permettant d'analyser ces traces d'utilisation pour y détecter les erreurs utilisateurs dans l'espoir de les relier à des problèmes d'utilisabilité. Ce processus se compose de deux parties : la première est une analyse formelle de l'application, qui sera présentée au Chapitre 4, et la seconde l'application d'un outil d'apprentissage automatique aux traces d'utilisation pour y détecter les erreurs utilisateurs. Cet outil est présenté au Chapitre 5.
Resumo:
Résumé : Dans les couverts forestiers, le suivi de l’humidité du sol permet de prévenir plusieurs désastres tels que la paludification, les incendies et les inondations. Comme ce paramètre est très dynamique dans l’espace et dans le temps, son estimation à grande échelle présente un grand défi, d’où le recours à la télédétection radar. Le capteur radar à synthèse d’ouverture (RSO) est couramment utilisé grâce à sa vaste couverture et sa résolution spatiale élevée. Contrairement aux sols nus et aux zones agricoles, le suivi de l’humidité du sol en zone forestière est très peu étudié à cause de la complexité des processus de diffusion dans ce type de milieu. En effet, la forte atténuation de la contribution du sol par la végétation et la forte contribution de volume issue de la végétation réduisent énormément la sensibilité du signal radar à l’humidité du sol. Des études portées sur des couverts forestiers ont montré que le signal radar en bande C provient principalement de la couche supérieure et sature vite avec la densité de la végétation. Cependant, très peu d’études ont exploré le potentiel des paramètres polarimétriques, dérivés d’un capteur polarimétrique comme RADARSAT-2, pour suivre l’humidité du sol sur les couverts forestiers. L’effet du couvert végétal est moins important avec la bande L en raison de son importante profondeur de pénétration qui permet de mieux informer sur l’humidité du sol. L’objectif principal de ce projet est de suivre l’humidité du sol à partir de données radar entièrement polarimétriques en bandes C et L sur des sites forestiers. Les données utilisées sont celles de la campagne terrain Soil Moisture Active Passive Validation EXperiment 2012 (SMAPVEX12) tenue du 6 juin au 17 juillet 2012 au Manitoba (Canada). Quatre sites forestiers de feuillus ont été échantillonnés. L’espèce majoritaire présente est le peuplier faux-tremble. Les données utilisées incluent des mesures de l’humidité du sol, de la rugosité de surface du sol, des caractéristiques des sites forestiers (arbres, sous-bois, litières…) et des données radar entièrement polarimétriques aéroportées et satellitaires acquises respectivement, en bande L (UAVSAR) à 30˚ et 40˚ et en bande C (RADARSAT-2) entre 20˚ et 30˚. Plusieurs paramètres polarimétriques ont été dérivés des données UAVSAR et RADARSAT-2 : les coefficients de corrélation (ρHHVV, φHHVV, etc); la hauteur du socle; l’entropie (H), l’anisotropie (A) et l’angle alpha extraits de la décomposition de Cloude-Pottier; les puissances de diffusion de surface (Ps), de double bond (Pd) extraites de la décomposition de Freeman-Durden, etc. Des relations entre les données radar (coefficients de rétrodiffusion multifréquences et multipolarisations (linéaires et circulaires) et les paramètres polarimétriques) et l’humidité du sol ont été développées et analysées. Les résultats ont montré que 1) En bande L, plusieurs paramètres optimaux permettent le suivi de l’humidité du sol en zone forestière avec un coefficient de corrélation significatif (p-value < 0,05): σ[indice supérieur 0] linéaire et σ[indice supérieur 0] circulaire (le coefficient de corrélation, r, varie entre 0,60 et 0,96), Ps (r entre 0,59 et 0,84), Pd (r entre 0,6 et 0,82), ρHHHV_30˚, ρVVHV_30˚, φHHHV_30˚ and φHHVV_30˚ (r entre 0,56 et 0,81) alors qu’en bande C, ils sont réduits à φHHHV, φVVHV et φHHVV (r est autour de 0,90). 2) En bande L, les paramètres polarimétriques n’ont pas montré de valeur ajoutée par rapport aux signaux conventionnels multipolarisés d’amplitude, pour le suivi de l’humidité du sol sur les sites forestiers. En revanche, en bande C, certains paramètres polarimétriques ont montré de meilleures relations significatives avec l’humidité du sol que les signaux conventionnels multipolarisés d’amplitude.
Resumo:
Ce mémoire est constitué de trois volets. Tout d'abord, on y présente une création littéraire, court recueil de nouvelles intitulé Les regards traîtres. Celui-ci est suivi d'un essai portant sur le sous-genre fantastique, qui dans sa forme canonique offre une place prépondérante aux motifs littéraires. Suit une courte revue du motif du mauvais œil et une analyse détaillée d'un corpus de nouvelles de l'auteur québécois Bertrand Bergeron. Celles-ci ont été sélectionnées parmi les ouvrages de l'auteur afin de mettre en lumière la transformation et la refonte du motif littéraire du mauvais œil dans l'écriture néo-fantastique contemporaine. Enfin, le dernier volet consiste en un retour réflexif ayant pour but de démontrer les mécanismes à l’œuvre dans ma création afin d'illustrer les questions étudiés dans le mémoire. Il s'agit donc ici, tant dans l'étude des théories et dans celle du corpus de Bergeron que dans la création inédite, d'explorer non seulement les constituants du sous-genre fantastique et la présence du motif à l'étude, mais bien de cerner l'actualisation de ce motif dans l’œuvre de Bergeron, d'en démontrer la forme, renouvelée ou pas, et finalement de procéder à la mise en scène dans mes propres nouvelles de cette actualisation. Les résultats obtenus à la suite de ces exercices démontrent que le motif littéraire du mauvais œil, bien qu'utilisé de manière différente, subsiste dans une forme revisitée sous la plume d'un auteur de néo-fantastique tel que Bertrand Bergeron. Les nouvelles du recueil Les regards traîtres concrétisent, quant à elles, la possibilité de faire vivre ce motif, voire d'en faire le moteur de mes intrigues.
Resumo:
La construction des biosystèmes d’oxydation passive du méthane (BOPM) est une option économique et durable pour réduire les émissions de méthane des sites d’enfouissement de déchets et des effets subséquents du réchauffement climatique. Les BOPM sont constitués de deux couches principales: la couche d'oxydation du méthane (MOL) et la couche de distribution du gaz (GDL). L'oxydation du méthane se produit dans la MOL par les réactions biochimiques des bactéries méthanotrophes, et la GDL est construite sous la MOL pour intercepter et distribuer les émissions fugitives de biogaz à la base de la MOL. Fondamentalement, l'efficacité d'un BOPM est définie en fonction de l'efficacité d'oxydation du méthane dans la MOL. Par conséquent, il est indispensable de fournir des conditions adéquates pour les activités bactériennes des méthanotrophes. En plus des paramètres environnementaux, l'intensité et la distribution du biogaz influencent l'efficacité des BOPM, et ils peuvent rendre le matériau de la MOL - avec une grande capacité d'accueillir les activités bactériennes - inutilisables en termes d'oxydation du méthane sur place. L'effet de barrière capillaire le long de l'interface entre la GDL et la MOL peut provoquer des émissions localisées de méthane, due à la restriction ou la distribution non uniforme de l’écoulement ascendant du biogaz à la base de la MOL. L'objectif principal de cette étude est d'incorporer le comportement hydraulique non saturé des BOPM dans la conception des BOPM, afin d’assurer la facilité et la distribution adéquates de l'écoulement du biogaz à la base de la MOL. Les fonctions de perméabilité à l'air des matériaux utilisés pour construire la MOL des BOPM expérimentaux au site d’enfouissement des déchets de St Nicéphore (Québec, Canada), ainsi que celles d'autres de la littérature technique, ont été étudiés pour évaluer le comportement d'écoulement non saturé du gaz dans les matériaux et pour identifier le seuil de migration sans restriction du gaz. Ce dernier seuil a été introduit en tant que un paramètre de conception avec lequel le critère de conception recommandé ici, c’est à dire la longueur de la migration sans restriction de gaz (LMSG), a été défini. La LMSG est considérée comme la longueur le long de l'interface entre la GDL et la MOL où le biogaz peut migrer à travers la MOL sans restriction. En réalisant des simulations numériques avec SEEP/W, les effets de la pente de l'interface, des paramètres définissant la courbe de rétention d'eau, de la fonction de la conductivité hydraulique du matériau de la MOL sur la valeur de la LMSG (représentant la facilité d'écoulement du biogaz à l'interface) et de la distribution de l'humidité (et par conséquent celle du biogaz) ont été évalués. Selon les résultats des simulations, la conductivité hydraulique saturée et la distribution des tailles de pores du matériau de la MOL sont les paramètres les plus importants sur la distribution de l'humidité le long de l'interface. Ce dernier paramètre influe également sur la valeur du degré de saturation et donc la facilité du biogaz à la base de la MOL. La densité sèche du matériau de MOL est un autre paramètre qui contrôle la facilité d'écoulement ascendant du biogaz. Les limitations principales de la présente étude sont associées au nombre de matériaux de MOL testés et à l'incapacité de SEEP/W de considérer l'évapotranspiration. Toutefois, compte tenu des hypothèses raisonnables dans les simulations et en utilisant les données de la littérature, on a essayé de réduire ces limitations. En utilisant les résultats des expériences et des simulations numériques, des étapes et des considérations de conception pour la sélection du matériau de MOL et de la pente d'interface ont été proposées. En effet,le comportement hydraulique non saturé des matériaux serait intégré dans les nécessités de conception pour un BOPM efficace, de sorte que la capacité maximale possible d'oxydation du méthane du matériau de la MOL soit exploitée.
Resumo:
L’objectif de cet essai est d’analyser et d’évaluer les documents en lien avec l’aménagement du territoire et la gestion de l’eau (lois, plans et politiques et règlements) afin de déterminer dans quelle mesure le partage des compétences favorise (ou non) la gestion de l’eau intégrée au développement du territoire au Québec. L’aménagement du territoire est implicitement lié à la gestion de l’eau. Cette dernière doit se faire de façon intégrée à l’environnement qui l’entoure afin d’optimiser la ressource ainsi que sa protection. Cela assure un développement efficient fait en parallèle avec les instances et dans le respect des sphères économique, sociale et environnementale. Pourtant, malgré toutes les dispositions mises en place et la conscientisation exprimée par les autorités et la population, le Québec se retrouve au sein d’une situation complexe où le partage de compétences et l’aménagement du territoire ne semblent pas répondre adéquatement aux dispositions nécessaires à une gestion de l’eau intégrée. Les conclusions de l’analyse démontrent que le partage actuel des compétences au sein de la province n’est pas optimal afin d’assurer une intégration des ressources en eaux au sein de l’aménagement du territoire. Il a des forces et des faiblesses au sein de chacun de documents analysés et les recommandations établies ont pour objectif de s’approcher d’une gestion de l’eau intégrée répondant aux besoins de la province en aménagement du territoire, mais aussi en terme de protection de l’environnement et de la ressource. On note, dans cette situation particulière au Québec, que, dans la majorité des situations, la gestion de l’eau n’est pas du tout adaptée. Certaines municipalités régionales de comté sont très avancées et proactives alors que d’autres se laissent porter par le courant. Le rôle du gouvernement et la prépondérance de ses outils se doivent d’être optimisés afin que les paliers de gouvernance inférieurs soient en mesure de se doter des instruments nécessaire à une gestion de l’eau intégrée à l’aménagement du territoire. Les éléments d’analyse, les constats et les recommandations qui ont été établis ont été repris et exposé dans un exemple concret présentant la situation de cette ville albertaine où la gestion de l’eau a été intégrée de façon dynamique à l’aménagement du territoire, faisant de cette municipalité une pionnière dans le domaine.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Cette recherche s’intéresse à l’évolution de la conception des stratégies d’apprentissage d’étudiants ou d’étudiantes de niveau collégial présentant un trouble du spectre de l’autisme (TSA). Nous souhaitons analyser la perception que ces étudiants ont de ces stratégies avant notre intervention proprement dite et à la suite de celle-ci, c’est-à-dire de suivre son évolution. Si notre hypothèse de travail se vérifie, l’étudiant ou l’étudiante aux prises avec cette condition devrait se responsabiliser et modifier ses stratégies en fonction des informations que nous lui fournirons. C’est dans le cadre d’interventions éducatives formelles avec l’étudiante ou l’étudiant que nous agirons sur la prise de conscience d’abord, puis sur la modification de ses habitudes et de ses croyances en matière d’apprentissage. Nos interventions prendront la forme d’ateliers individualisés basés sur certains concepts béhavioraux et des théories du courant constructiviste qui tiendront compte, bien entendu, des caractéristiques de la personne ayant un TSA. Dans la présente étude, nous explorerons les stratégies que les étudiants ou les étudiantes présentant un TSA utilisent lors des rédactions dans leurs cours de français, langue d’enseignement et littérature. Nous avons recensé des auteurs pour qui les stratégies d’apprentissage prennent la forme d’actions que l’étudiant ou l’étudiante autiste sera capable de reconnaitre. Nous aimerions savoir si une intervention sur la métacognition auprès d’étudiants ou d’étudiantes ayant un TSA favoriserait chez eux la mise en place de stratégies d’apprentissage efficaces pour la rédaction de l’analyse littéraire, la compétence demandée au terme du premier cours de la séquence des cours de français, langue d’enseignement et littérature. Afin de répondre à cette interrogation, notre recherche vise les objectifs suivants: 1) inventorier les stratégies d’apprentissage utilisées lors de la phase du travail individuel; 2) informer l’étudiant ou l’étudiante du profil d’apprentissage élaboré pour lui ou pour elle par le logiciel Étudiant Plus et ainsi l’aider à prendre conscience de ses stratégies; 3) selon les stratégies identifiées par le questionnaire Étudiant Plus, élaborer deux ou trois ateliers qui tiennent compte des pratiques à modifier lors du travail individuel; 4) appliquer le processus d’encadrement auprès de tous lors de la phase du travail individuel; 5) évaluer les effets de l’expérimentation du processus d’encadrement sur les stratégies d’apprentissage en fonction des changements apportés. Cette recherche est réalisée auprès de trois étudiants. Elle propose une approche méthodologique qui réunit le rôle de la chercheuse et des participants ou des participantes à la recherche. L’analyse des données met en valeur les stratégies d’apprentissage communes utilisées par les étudiants et les étudiantes présentant un TSA. Cette recherche soutient l'adoption d’un processus d’encadrement auprès des étudiants ou des étudiantes ayant un TSA. Notre étude ne vise pas à généraliser les résultats, mais elle favorise une approche éducative centrée sur les besoins d’apprentissage des étudiants ou des étudiantes présentant un TSA.
Resumo:
Centrée essentiellement autour de la parole épiscopale congolaise, la présente recherche porte sur les articulations de la religion et du politique dans une perspective limitée au catholicisme en RDC. En prenant pour base empirique la ville de Kinshasa, elle thématise les effets des dynamiques religieuses sur les fermentations sociales et les changements politiques dans un contexte d’autoritarisme. Celui-ci est, dans ce travail, problématisé comme le fait conjoint de l’institution étatique et de l’organisation religieuse catholique. Le choix de cette approche relationnelle basée sur les interactions entre religion et politique, permet d’inscrire ce travail dans le champ d’études des sciences des religions. L’approche retenue s’appuie également sur les avancées de la sociologie politique et éclaire la régulation religieuse du politique, rarement étudiée par les sciences humaines. Cette recherche s’inscrit donc à l’intersection entre l’histoire, la sociologie, les sciences politiques, l’anthropologie, l’analyse du discours, la philosophie et la théologie. Sa thèse centrale est organisée autour d’une question principale : comment la religion participe-t-elle à la régulation du politique dans le contexte d’autoritarisme caractéristique de la RDC ? La réponse à cette question croise l’approche fonctionnelle de la religion et l’analyse des déclarations institutionnelles de l’épiscopat congolais. Elle esquisse les relations entre, d’une part, contextes et événements sociopolitiques et d’autre part, discours et pratiques religieuses. Elle construit la scène religieuse à partir de la trajectoire sociopolitique, économique et culturelle de la RDC entre 1990 et 2015, sous les Présidents J.-D. Mobutu, L.-D. Kabila et J. Kabila. Elle étudie l'offre normative de sens de leurs éminences J.-A. Malula, F. Etsou et L. Monsengwo. L’analyse de la rhétorique de l’épiscopat sur les élections vérifie la plausibilité sociale et l’efficience politique de la parole épiscopale congolaise. Elle se ressource dans la pragmatique de la communication telle que mise en œuvre dans l’analyse argumentative du discours de R. Amossy et dans celle du discours politique de P. Charaudeau. En mettant la focale sur l’objet linguistique « vérité des urnes », la recherche pose au niveau normatif, juridique et éthique, le problème de l’institutionnalisation d’un État de droit en RDC. Les élaborations sur ce dernier niveau s’articulent autour de l’inscription de l’éthique dans l’agir politique. L’examen des modes conventionnels d’action des chrétiens (élections de 2006 et 2011) et non conventionnels (marche des chrétiens de 1992 et 2012) conduit à éclairer les modes de reproduction ou de contestation de l’autoritarisme étatique par l’organisation religieuse. Il permet de promouvoir une démocratie des valeurs et d’action adossée à la parrhêsia. L’introduction de l’aléthique dans la vie publique donne à voir la parole épiscopale congolaise comme un discours ethopoïétique. C’est sur ce point précis que les élaborations de M. Foucault sur la parrhêsia aident à thématiser la capacité de la religion à informer et à influencer la démocratisation de la RDC. De là, la requête formulée pour un nouveau système d’action institutionnelle de l’organisation religieuse, susceptible de promouvoir le courage de la vérité en situation autoritaire. Cette innovation permet de tenir ensemble les valeurs démocratiques et les valeurs de l’Évangile, en les corrélant à la cohérence axiologique, à la probité morale et à l’intégrité existentielle des protagonistes de la démocratisation de la RDC.
Resumo:
Depuis 1992, la surveillance de la santé des mollusques marins du littoral français est assurée par le réseau de Pathologie des Mollusques (Repamo). Ses activités s’inscrivent dans le cadre de la Directive Européenne 2006/88/CE. Depuis son évaluation par la plateforme nationale d’épidémiosurveillance en santé animale en 2012, l’objectif de surveillance est la détection précoce des infections dues à des organismes pathogènes exotiques et émergents affectant les mollusques marins sauvages et d’élevage. L’année 2015 est la première année de transition pour laquelle un début d’évolution des modalités de surveillance de la santé des mollusques marins animées par l’Ifremer a été amorcé. Un dispositif hybride de surveillance a été mis en place, s’appuyant sur l’existant et intégrant des débuts d’évolution. La surveillance événementielle a constitué l’activité principale du dispositif en 2015 et s’est appuyée sur des réseaux existants : (1) la surveillance des mortalités observées sur des animaux sentinelles déployés sur les sites ateliers des réseaux Ifremer RESCO 2 (12 sites) pour l’huître creuse Crassostrea gigas et MYTILOBS 2 (8 sites) pour la moule bleue Mytilus edulis. Pour l’huître creuse Crassostrea gigas, la mortalité cumulée moyenne était de 50,3% (écart-type 10,9%) pour le naissain standardisé Ifremer (NSI), de 11,0% (écart-type 9,1%) pour les huîtres de 18 mois et de 7,3% (écart-type 5,6%) pour les huîtres de 30 mois. Les mortalités ont été observées principalement entre le début du mois de mai et la mi-juillet. Lors de ces épisodes de mortalité, des prélèvements d’animaux ont été réalisés en vue d’analyses diagnostiques : 7 prélèvements pour le NSI, 2 pour les huîtres de 18 mois et 1 pour les huîtres de 30 mois. Aucun agent réglementé n’a été détecté dans les échantillons d’huîtres creuses prélevés et analysés. Le virus OsHV-1 a été détecté dans les 7 échantillons analysés de NSI, dans 2 échantillons analysés d’huîtres de 18 mois et dans 1 échantillon analysé d’huîtres de 30 mois. La bactérie Vibrio aestuarianus a été détectée dans 5 échantillons analysés de NSI, dans 1 échantillon d’huîtres de 18 mois et dans 1’échantillon d’huîtres de 30 mois. Pour la moule bleue Mytilus edulis, des mortalités cumulées variant de 9% sur le site du Vivier à 51% sur le site des filières du Pertuis Breton ont été estimées. Les mortalités ont été observées au printemps sur des moules âgées d’une année et en automne sur des moules plus jeunes. Lors de ces épisodes de mortalités, des prélèvements d’animaux ont été réalisés en vue d’analyses diagnostiques : 2 prélèvements pour les moules d’une année et 1 pour les jeunes moules. Ces prélèvements ont eu lieu dans le Pertuis Breton. Aucun agent réglementé n’a été détecté dans les échantillons de moules prélevés et analysés. Des bactéries du groupe Splendidus ont été détectées dans les 3 échantillons de moules analysés. (2) la surveillance s’appuyant sur les déclarations de mortalités de mollusques par les conchyliculteurs et pêcheurs à pied professionnels auprès des Directions départementales des territoires et de la mer (DDTM). Cette modalité s’applique aux huîtres creuses et aux moules bleues lorsqu’il n’existe pas de site atelier RESCO 2 ou MYTILOBS 2 dans la zone où des mortalités sont déclarées par les conchyliculteurs ou pêcheurs à pied. Le réseau REPAMO 2 a réalisé 22 interventions, dont 15 pour les moules Mytilus edulis, 4 pour les coques Cerastoderma edule, 2 pour les palourdes Ruditapes sp. et 1pour les coquilles saint Jacques Pecten maximus. La recherche d’agents infectieux dans ces espèces de mollusques prélevés lors de hausse de mortalité a permis de mettre en évidence les parasites réglementés Perkinsus olseni dans 1 lot de palourdes, et Marteilia refringens dans 4 lots de moules, ainsi que le virus OsHV-1 dans 1 lot de palourdes et 1 lot de coques, la bactérie Vibrio aestuarianus dans 3 lots de coques, et des bactéries du groupe Splendidus dans 3 lots de coques et dans 13 lots de moules. L’année 2015 a également permis la démonstration sur un site atelier d’un exercice de surveillance programmée, ciblée et fondée sur les risques d’introduction et d’installation d’un organisme pathogène exotique. Elle a concerné le parasite Mikrocytos mackini de l’huître creuse Crassostrea gigas, sur un site atelier de la Charente-Maritime, suivi par le réseau RESCO 2. Le parasite Mikrocytos mackini n’a pas été détecté. En revanche, le parasite Marteilia refringens a été détecté dans ¾ des prélèvements d’huîtres réalisés. Dans le cadre du soutien scientifique et technique de l’évolution de la surveillance événementielle, l’année 2015 a également permis de poursuivre la démarche relative aux développements méthodologiques en lien avec la surveillance événementielle des mortalités de mollusques marins. Une étude de faisabilité de la recherche prospective de regroupements spatio-temporels d’événements de mortalités d’huîtres creuses a été préparée en collaboration avec tous les acteurs de la santé des mollusques marins en Normandie. Un outil de collecte et d’analyse des données de signalements des mortalités, automatisé, simple d’utilisation et flexible, a été élaboré.
Resumo:
Le présent essai explique la conception d’un dispositif d’autoformation visant à améliorer le développement de la compétence de mise à jour continue des savoirs chez les étudiantes et les étudiants du programme Techniques d’intégration multimédia. L’idée de ce dispositif prend racine dans des préoccupations en lien avec le développement des compétences du 21e siècle et la mise en place de plans de littératie numérique à travers le monde afin de relever les compétences chez la citoyenne et le citoyen à qui on demande de s’adapter, apprendre et maîtriser les changements de manière rapide et efficiente (OCDE, 2000). La littératie numérique regroupe les compétences associées aux savoir-faire reliés à l’utilisation des technologies, mais aussi aux savoir-être nécessaires à leur utilisation critique et éthique, en plus de savoir-apprendre nécessaires à une utilisation innovante et créative de ces mêmes technologies. C’est ce savoir apprendre qui nous intéresse particulièrement dans le contexte où les étudiantes et les étudiants du programme Techniques d’intégration multimédia sont confrontés à des exigences élevées et constantes de mise à jour continue de leurs savoirs. Le cadre de référence de notre essai permet d’identifier les compétences et les habiletés qui sont en lien avec le développement de la compétence de mise à jour continue des savoirs dans quatre plans de littératie numérique internationaux et nationaux, dont Le profil TIC des étudiants du collégial proposé par le Réseau REPTIC (2015). Nous étayons ensuite la définition de la mise à jour continue des savoirs grâce aux travaux fondateurs de Knoles (1975), Straka (1997a), Carré (1997), Long (1988), Foucher (2000) et Tremblay (2003) qui s’intéressent aux concepts de l’« apprentissage autodirigé » et de l’« autoformation ». De ces deux concepts, nous dégageons trois dimensions principales à considérer afin d’améliorer le développement de la mise à jour continue des savoirs: la dimension sociale, la dimension psychologique et la dimension pédagogique. Premièrement, pour la dimension sociale, nous référons aux enjeux contemporains du développement de la littératie numérique et au concept de sujet social apprenant supporté par les travaux de Roger (2010) et de Piguet (2013). Deuxièmement, la dimension psychologique renvoie aux aspects motivationnels appuyés par la théorie de l’autodétermination de Deci et Ryan (2000) et aux aspects volitionnels supportés par la théorie de l’autorégulation de Zimmerman (1989). Finalement, pour la dimension pédagogique nous présentons la théorie du socioconstructivisme, la perspective pédagogique du connectivisme (Siemens, 2005) et la classification des stratégies d’apprentissage proposée par Boulet, Savoie-Zajc et Chevrier (1996). Nous poursuivons notre réflexion théorique en considérant divers modes d’apprentissage à l’aide des outils du Web 2.0 dont les blogues, les communautés et l’apprentissage en réseau. Nous concluons notre cadre de référence par la présentation du système d’apprentissage de Paquette (2002), du modèle des sept piliers de l’autoformation de Carré (1992, 2005) auxquels nous superposons les recommandations de Debon (2002) et finalement la présentation du modèle d’ingénierie pédagogique ADDIE de Lebrun (2007), tous quatre utiles à l’application d’un processus systémique de développement de notre dispositif d’autoformation. Notre recherche développement s’inscrit dans un paradigme interprétatif avec une méthodologie qualitative. Les collectes de données ont été effectuées auprès d’étudiantes et d’étudiants du programme Techniques d’intégration multimédia. Ces participantes et participants volontaires ont été utiles à la tenue d’un groupe de discussion en cours d’implantation et d’un questionnaire électronique utile à l’évaluation du dispositif d’autoformation. À la lumière de nos résultats, nous pensons que notre dispositif d’autoformation permet d’atteindre son objectif d’améliorer le développement de la compétence de mise à jour continue des savoirs des étudiantes et des étudiants du programme Techniques d’intégration multimédia. L’interprétation de nos résultats permet d’affirmer que notre dispositif d’autoformation, conçu par l’application d’un processus systémique fidèle aux constats dégagés par notre cadre de référence, permet de couvrir les trois dimensions que nous avons identifiées comme essentielles à l’autoformation, soit la dimension sociale, la dimension psychologique et la dimension pédagogique, mais surtout de confirmer leur réelle importance dans le développement de la compétence de la mise à jour continue des savoirs. Tel que nous le présentons dans notre cadre de référence, nous constatons que la dimension sociale déclenche les processus motivationnels et volitionnels qui sont propres à la dimension psychologique de l’apprentissage autodirigé ou de l’autoformation. Nous sommes à même de constater qu’il existe en effet un lien entre la dimension sociale et la théorie de la motivation autodéterminée qui accorde une importance aux facteurs sociaux qui facilitent la motivation en répondant à des besoins psychologiques fondamentaux. De plus, nous constatons que les outils développés dans le cadre de notre essai, tels que le plan de travail et le rapport de temps, jouent un rôle d’autorégulation crucial pour les étudiantes et les étudiants dans leur processus de surveillance et d’ajustement cognitif tel par la fixation d’objectifs, l’auto-évaluation, l’ajustement stratégique de ses méthodes d’apprentissage et la gestion du temps qu’ils permettent. Nous pensons que notre essai présente des retombées pour le programme Techniques d’intégration multimédia principalement en lien avec des pistes concrètes d’amélioration de la compétence de mise à jour continue des savoirs pour les étudiantes et les étudiants du programme et le développement d’une expertise dans l’application rigoureuse d’une ingénierie pédagogique pour le développement futur de différents dispositifs d’apprentissage. Nous identifions deux perspectives de recherches futures en lien avec notre essai. Premièrement, nous pensons qu’il serait intéressant d’explorer la capacité heuristique de l’apprentissage en réseau dans une perspective sociale, psychologique et pédagogique de l’autoformation, à l’instar des travaux de Henri et Jeunesse (2013). Deuxièmement, nous pensons qu’il serait intéressant d’améliorer le développement de la littératie numérique sous ses aspects de créativité et d’innovation dans un contexte où notre programme d’enseignement outille nos étudiantes et nos étudiants à une utilisation experte des technologies, leur permettant ainsi de mettre ces compétences à contribution dans une exploitation créative et innovante des technologies.