14 resultados para Ressources en eau--Exploitation--France

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cet essai est d’analyser et d’évaluer les documents en lien avec l’aménagement du territoire et la gestion de l’eau (lois, plans et politiques et règlements) afin de déterminer dans quelle mesure le partage des compétences favorise (ou non) la gestion de l’eau intégrée au développement du territoire au Québec. L’aménagement du territoire est implicitement lié à la gestion de l’eau. Cette dernière doit se faire de façon intégrée à l’environnement qui l’entoure afin d’optimiser la ressource ainsi que sa protection. Cela assure un développement efficient fait en parallèle avec les instances et dans le respect des sphères économique, sociale et environnementale. Pourtant, malgré toutes les dispositions mises en place et la conscientisation exprimée par les autorités et la population, le Québec se retrouve au sein d’une situation complexe où le partage de compétences et l’aménagement du territoire ne semblent pas répondre adéquatement aux dispositions nécessaires à une gestion de l’eau intégrée. Les conclusions de l’analyse démontrent que le partage actuel des compétences au sein de la province n’est pas optimal afin d’assurer une intégration des ressources en eaux au sein de l’aménagement du territoire. Il a des forces et des faiblesses au sein de chacun de documents analysés et les recommandations établies ont pour objectif de s’approcher d’une gestion de l’eau intégrée répondant aux besoins de la province en aménagement du territoire, mais aussi en terme de protection de l’environnement et de la ressource. On note, dans cette situation particulière au Québec, que, dans la majorité des situations, la gestion de l’eau n’est pas du tout adaptée. Certaines municipalités régionales de comté sont très avancées et proactives alors que d’autres se laissent porter par le courant. Le rôle du gouvernement et la prépondérance de ses outils se doivent d’être optimisés afin que les paliers de gouvernance inférieurs soient en mesure de se doter des instruments nécessaire à une gestion de l’eau intégrée à l’aménagement du territoire. Les éléments d’analyse, les constats et les recommandations qui ont été établis ont été repris et exposé dans un exemple concret présentant la situation de cette ville albertaine où la gestion de l’eau a été intégrée de façon dynamique à l’aménagement du territoire, faisant de cette municipalité une pionnière dans le domaine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’industrie des biocarburants de deuxième génération utilise, entre autre, la biomasse lignocellulosique issue de résidus forestiers et agricoles et celle issue de cultures énergétiques. Le sorgho sucré [Sorghum bicolor (L.) Moench] fait partie de ces cultures énergétiques. L’intérêt croissant de l’industrie agroalimentaire et des biocarburants pour cette plante est dû à sa haute teneur en sucres (jusqu’à 60% en masse sèche). En plus de se développer rapidement (en 5-6 mois), le sorgho sucré a l’avantage de pouvoir croître sur des sols pauvres en nutriments et dans des conditions de faibles apports en eau, ce qui en fait une matière première intéressante pour l’industrie, notamment pour la production de bioéthanol. Le concept de bioraffinerie alliant la production de biocarburants à celle de bioénergies ou de bioproduits est de plus en plus étudié afin de valoriser la production des biocarburants. Dans le contexte d’une bioraffinerie exploitant la biomasse lignocellulosique, il est nécessaire de s’intéresser aux différents métabolites extractibles en plus des macromolécules permettant la fabrication de biocarburants et de biocommodités. Ceux-ci pouvant avoir une haute valeur ajoutée et intéresser l’industrie pharmaceutique ou cosmétique par exemple. Les techniques classiques pour extraire ces métabolites sont notamment l’extraction au Soxhlet et par macération ou percolation, qui sont longues et coûteuses en énergie. Ce projet s’intéresse donc à une méthode d’extraction des métabolites primaires et secondaires du sorgho sucré, moins coûteuse et plus courte, permettant de valoriser économiquement l’exploitation industrielle du de cette culture énergétique. Ce travail au sein de la CRIEC-B a porté spécifiquement sur l’utilisation d’une émulsion ultrasonique eau/carbonate de diméthyle permettant de diminuer les temps d’opération (passant à moins d’une heure au lieu de plusieurs heures) et les quantités de solvants mis en jeu dans le procédé d’extraction. Cette émulsion extractive permet ainsi de solubiliser à la fois les métabolites hydrophiles et ceux hydrophobes. De plus, l’impact environnemental est limité par l’utilisation de solvants respectueux de l’environnement (80 % d’eau et 20 % de carbonate de diméthyle). L’utilisation de deux systèmes d’extraction a été étudiée. L’un consiste en la recirculation de l’émulsion, en continu, au travers du lit de biomasse; le deuxième permet la mise en contact de la biomasse et des solvants avec la sonde à ultrasons, créant l’émulsion et favorisant la sonolyse de la biomasse. Ainsi, en réacteur « batch » avec recirculation de l’émulsion eau/DMC, à 370 mL.min[indice supérieur -1], au sein du lit de biomasse, l’extraction est de 37,91 % en 5 minutes, ce qui est supérieur à la méthode ASTM D1105-96 (34,01 % en 11h). De plus, en réacteur « batch – piston », où la biomasse est en contact direct avec les ultrasons et l’émulsion eau/DMC, les meilleurs rendements sont de 35,39 % en 17,5 minutes, avec 15 psig de pression et 70 % d’amplitude des ultrasons. Des tests effectués sur des particules de sorgho grossières ont donné des résultats similaires avec 30,23 % d’extraits en réacteur « batch » avec recirculation de l’émulsion (5 min, 370 mL.min[indice supérieur -1]) et 34,66 % avec le réacteur « batch-piston » (30 psig, 30 minutes, 95 % d’amplitude).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : Les eaux souterraines ont un impact majeur sur la vie terrestre, les besoins domestiques et le climat. Elles sont aussi un maillon essentiel du cycle hydrologique. Au Canada par exemple, plus de 30 % de la population est tributaire des eaux souterraines pour leur alimentation en eau potable. Ces ressources subissent de nombreuses pressions sous l’influence de certains facteurs comme la salinisation, la contamination et l’épuisement. La variabilité du climat et la demande croissante sur ces ressources imposent l'amélioration de nos connaissances sur les eaux souterraines. L’objectif principal du projet de recherche est d’exploiter les données d’anomalies (TWS) de la mission Gravity Recovery And Climate Experiment (GRACE) pour localiser, quantifier et analyser les variations des eaux souterraines à travers les bassins versants du Bas-Mackenzie, du Saint-Laurent, du Nord-Québec et du Labrador. Il s’agit aussi d’analyser l’influence des cycles d’accumulation et de fonte de neige sur les variations du niveau des eaux souterraines. Pour estimer les variations des eaux souterraines, la connaissance des autres paramètres du bilan hydrologique est nécessaire. Ces paramètres sont estimés à l’aide des sorties du modèles de surface CLM du Système Global d’Assimilation des Données de la Terre (GLDAS). Les données GRACE qui ont été utilisées sont celles acquises durant la période allant de mars 2002 à août 2012. Les résultats ont été évalués à partir d’enregistrements de niveaux piézométriques provenant de 1841 puits localisés dans les aquifères libres du bassin des réseaux de suivi des eaux souterraines au Canada. Les valeurs de rendements spécifiques des différents types d’aquifères de chaque puits et celles des variations mensuelles du niveau d’eau dans ces puits ont été utilisées pour estimer les variations des anomalies des eaux souterraines in-situ. L’étude de corrélation entre les variations des anomalies des eaux souterraines estimées à partir de la combinaison GRACE-GLDAS et celles issues de données in-situ révèle des concordances significatives avec des valeurs de

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract : Although concrete is a relatively green material, the astronomical volume of concrete produced worldwide annually places the concrete construction sector among the noticeable contributors to the global warming. The most polluting constituent of concrete is cement due to its production process which releases, on average, 0.83 kg CO[subscript 2] per kg of cement. Self-consolidating concrete (SCC), a type of concrete that can fill in the formwork without external vibration, is a technology that can offer a solution to the sustainability issues of concrete industry. However, all of the workability requirements of SCC originate from a higher powder content (compared to conventional concrete) which can increase both the cost of construction and the environmental impact of SCC for some applications. Ecological SCC, Eco-SCC, is a recent development combing the advantages of SCC and a significantly lower powder content. The maximum powder content of this concrete, intended for building and commercial construction, is limited to 315 kg/m[superscript 3]. Nevertheless, designing Eco-SCC can be challenging since a delicate balance between different ingredients of this concrete is required to secure a satisfactory mixture. In this Ph.D. program, the principal objective is to develop a systematic design method to produce Eco-SCC. Since the particle lattice effect (PLE) is a key parameter to design stable Eco-SCC mixtures and is not well understood, in the first phase of this research, this phenomenon is studied. The focus in this phase is on the effect of particle-size distribution (PSD) on the PLE and stability of model mixtures as well as SCC. In the second phase, the design protocol is developed, and the properties of obtained Eco-SCC mixtures in both fresh and hardened states are evaluated. Since the assessment of robustness is crucial for successful production of concrete on large-scale, in the final phase of this work, the robustness of one the best-performing mixtures of Phase II is examined. It was found that increasing the volume fraction of a stable size-class results in an increase in the stability of that class, which in turn contributes to a higher PLE of the granular skeleton and better stability of the system. It was shown that a continuous PSD in which the volume fraction of each size class is larger than the consecutive coarser class can increase the PLE. Using such PSD was shown to allow for a substantial increase in the fluidity of SCC mixture without compromising the segregation resistance. An index to predict the segregation potential of a suspension of particles in a yield stress fluid was proposed. In the second phase of the dissertation, a five-step design method for Eco-SCC was established. The design protocol started with the determination of powder and water contents followed by the optimization of sand and coarse aggregate volume fractions according to an ideal PSD model (Funk and Dinger). The powder composition was optimized in the third step to minimize the water demand while securing adequate performance in the hardened state. The superplasticizer (SP) content of the mixtures was determined in next step. The last step dealt with the assessment of the global warming potential of the formulated Eco-SCC mixtures. The optimized Eco-SCC mixtures met all the requirements of self-consolidation in the fresh state. The 28-day compressive strength of such mixtures complied with the target range of 25 to 35 MPa. In addition, the mixtures showed sufficient performance in terms of drying shrinkage, electrical resistivity, and frost durability for the intended applications. The eco-performance of the developed mixtures was satisfactory as well. It was demonstrated in the last phase that the robustness of Eco-SCC is generally good with regards to water content variations and coarse aggregate characteristics alterations. Special attention must be paid to the dosage of SP during batching.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cet essai est de formuler des recommandations afin de diminuer le gaspillage alimentaire dans les épiceries québécoises. Le gaspillage alimentaire est une problématique mondiale de plus en plus considérée comme une préoccupation prioritaire par le public, les entreprises et les instances nationales et internationales. Les causes du gaspillage alimentaire sont multiples et le phénomène se produit dans toutes les régions du monde, à toutes les étapes de la chaîne agroalimentaire, de la production agricole à la consommation. Le gaspillage alimentaire engendre de lourdes conséquences environnementales, économiques et sociales. Il participe à l’insécurité alimentaire et contribue aux changements climatiques et à l’épuisement des ressources, en plus de générer des coûts économiques pour la production d’aliments qui ne seront pas consommés. S’attaquer à la problématique du gaspillage alimentaire signifie donc s’attaquer à tous ces impacts négatifs. Au Québec, l’intérêt envers le phénomène du gaspillage alimentaire s’accroît, mais les solutions structurées tardent à se mettre en place. Les épiceries ont un important rôle à jouer dans la réduction du gaspillage alimentaire puisqu’elles influencent, en amont et en aval, tous les acteurs de la chaîne agroalimentaire. L’étude du marché agroalimentaire québécois et des différentes initiatives locales et étrangères de lutte au gaspillage alimentaire met en évidence trois grandes solutions structurées de réduction du gaspillage dans les épiceries : le don alimentaire, la vente de produits déclassés et la révision du système de dates de péremption des aliments. L’analyse du fonctionnement de ces solutions et de leur mise en œuvre dans le contexte des épiceries québécoises permet d’identifier les contraintes et les éléments à considérer pour réduire le gaspillage alimentaire de façon concrète et efficace. Ainsi, en respect d’une hiérarchie des modes de gestion des aliments qui favorise la réduction à la source et le détournement avant l’élimination, les recommandations formulées suggèrent de : réviser le système des dates de péremption pour améliorer la distinction entre les notions de fraîcheur et de salubrité des aliments; promouvoir et faciliter la vente de fruits et légumes déclassés dans les épiceries en diminuant les critères esthétiques exigés qui conduisent à un important gaspillage de denrées comestibles; mettre en place des incitatifs économiques pour réduire les contraintes financières et logistiques reliées au don alimentaire pour les épiceries et les organismes de redistribution; et valoriser les résidus alimentaires par la biométhanisation ou le compostage pour limiter les impacts environnementaux du gaspillage alimentaire. Les recommandations soulignent également l’importance d’étudier le phénomène et de documenter la problématique, afin de suggérer des solutions toujours plus efficaces et adaptées à chaque groupe d’acteurs et chaque étape de la chaîne agroalimentaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La pollution diffuse provenant des milieux agricoles a une influence majeure sur la qualité de l’eau. Le transport de sédiments et de nutriments, tels que le phosphore et l’azote, est particulièrement préoccupant. Les changements climatiques anticipés modifieront le régime hydrologique des rivières, ce qui entraînera des conséquences difficiles à anticiper, notamment sur la qualité de l’eau. Le site à l’étude est le bassin versant de la rivière Tomifobia, situé au sud-ouest du Québec, qui possède une superficie de 436 km² et qui comporte une forte activité agricole. Il a un impact important sur la qualité de l’eau du lac Massawippi puisqu’il draine 70% de son bassin versant. Le modèle hydrologique spatialisé Soil and Water Assessment Tool (SWAT) a été utilisé pour effectuer l’évaluation quantitative et qualitative de l’apport en eau à la rivière. Les activités agricoles ont été représentées dans le modèle selon un calendrier typique pour chacune des différentes cultures. Le calage et la validation du modèle pour le débit de la rivière Tomifobia ont été effectués à l’aide de la reconstitution des apports au lac Massawippi. Pour la qualité de l’eau, les données provenant de l’Institut de recherche et de développement en agroenvironnement (IRDA), du Comité de gestion du bassin versant de la rivière Saint-François (COGESAF) et la campagne d’échantillonnage du Groupe de recherche sur l’eau de l’Université de Sherbrooke (GREAUS) ont été utilisées. Les éléments analysés par rapport à la qualité de l’eau sont les sédiments, le phosphore et les nitrates. Différentes projections climatiques ont été entrées dans le modèle dans le but de déterminer les tendances hydrologiques futures. L’impact des changements climatiques sur le régime hydrologique se traduit principalement par une augmentation des débits hivernaux et une diminution des débits printaniers. Aucune tendance statistiquement significative n’a été observée pour la période estivale et automnale. L’effet des changements climatiques sur les exportations de nitrates est similaire à celui sur le débit. Pour les exportations de sédiments et de phosphore, on note une hausse à l’hiver, une baisse au printemps et une hausse pour l’été et l’automne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La réalisation de l’évaluation environnementale, en France, est encouragée par l’existence de règlements, lois, directives et normes Européennes (notamment la Directive 2001/42/CE du Parlement européen et du Conseil du 27 juin 2001 relative à l'évaluation des incidences de certains plans et programmes sur l'environnement et la Loi n° 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte). La compréhension du cadre Drivers – Pressures – State – Impacts – Responses permet de replacer les différentes méthodologies dans un cadre conceptuel plus large. Les méthodes d’analyse de flux de matières (Pressures) et d’analyse de cycle de vie (Impacts) sont les deux familles d’évaluation environnementale considérées dans ce travail. C’est plus précisément l’analyse de flux de matières selon Eurostat et l’analyse de cycle de vie territoriale qui ont été appliquées au territoire métropolitain d’Aix-Marseille-Provence. Un état de l’art relevant les études dans lesquelles sont réalisées des analyses de flux de matières a pu montrer que cette famille de méthodes informe sur le métabolisme des territoires à partir de différents types de flux. L’importance des flux indirects et des ressources minérales dans les métabolismes a ainsi été démontrée. Du côté des études analysant les cycles de vie sur les territoires, comme c’est le cas dans l’analyse de cycle de vie territoriale, la distinction faite entre les impacts et dommages, directs ou globaux, permet d’offrir des recommandations ciblées, améliorant la qualité de vie des citoyens. La mise en œuvre de ces deux méthodes sur le territoire métropolitain a mis en évidence l’importance dominante des flux indirects liés aux importations et exportations que génèrent les activités du territoire, elles-mêmes fortement influencées par la présence du port de Marseille-Fos. L’activité pétrochimique, qui caractérise elle aussi la métropole, est une grande consommatrice de combustibles fossiles, ce qui se reflète dans les volumes de flux calculés et leurs impacts associés. Les deux méthodologies s’avèrent complémentaires, chacune ayant ses forces et faiblesses respectives. Pour l’analyse de cycle de vie, la pensée cycle de vie et la prise en compte de la qualité de la matière, d’une part, et la facilité d’application et la marge d’erreur réduite de l’analyse de flux de matières, d’autre part, en plus de leurs résultats complémentaires, justifient un usage hybride pour la prise d’actions ciblées. En effet, la collecte commune des données rend intéressante leur exploitation et l’interprétation croisée de leurs résultats.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En France, l'éducation à la biodiversité est devenue une priorité au regard de la dégradation de la diversité biologique. À l'école primaire, elle est rattachée à la fois aux disciplines scientifiques et au développement durable. Les apprentissages attendus suivent essentiellement deux dimensions : les savoirs bioécologiques et les comportements escomptés reliés à ces savoirs. Cependant, de nombreuses recherches font apparaître l'importance de la dimension affective dans ces apprentissages notamment au regard du rapport émotionnel entretenu avec les objets d'étude. Dans ce contexte, cette thèse explore les dimensions cognitive, affective et comportementale des apprentissages en éducation à la biodiversité. Le champ de recherche est restreint à l'étude d'arthropodes à l'école primaire. Quels sont les apprentissages d'élèves du primaire en éducation à la biodiversité dans le cas de l'étude d'arthropodes, selon la description, l'analyse et l'articulation de trois dimensions : savoir, affectivité et comportements ? Pour répondre à cette question, le cadre conceptuel s'appuie sur l'analyse des savoirs, sur le modèle de la maturité affective vis-à-vis des objets étudiés et sur l'opérationnalisation des comportements par les prises de position et intentions d'agir. Quatre objectifs sont poursuivis pour répondre à cette question : a) décrire et analyser chacune des trois dimensions, b) dégager les corrélations éventuelles entre les trois dimensions, c) identifier des profils particuliers d'apprenants, d) vérifier les effets d'une étude des arthropodes sur les apprentissages selon ces trois dimensions. La méthodologie utilisée suit deux perspectives : quantitative par une analyse multivariée des réponses à un questionnaire et qualitative par une analyse de réponses à la suite d'entretiens semi-dirigés. Les résultats obtenus ont permis de clarifier les trois dimensions considérées et d'éclairer leur articulation. La mesure et l'analyse de chaque dimension ont montré des différences significatives en fonction du type d'enseignement reçu en classe. Entre les dimensions analysées il existe des corrélations remarquables entre les savoirs, la maturité affective et les comportements. Des profils particuliers d'apprenants interreliant savoirs et affectivité ont pu être identifiés, ainsi que des profils généraux impliquant les trois dimensions. Nous avons pu constater l'importance de la relation affective avec les objets d'apprentissage qui, loin de perturber l'appropriation des savoirs aurait au contraire tendance à les renforcer tout en contribuant à construire des comportements citoyens et responsables.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Qu'on le déplore ou que l'on s'en félicite, la statistique est présente dans notre vie de tous les jours. Paradoxalement, les compétences pour l'appréhender semblent faire défaut, à tel point que plus d'un militent pour que la statistique fasse partie des compétences minimales de tout citoyen (statistical literacy). Mais au niveau de l'enseignement, de nombreux obstacles apparaissent quant à l'acquisition de ces compétences : ainsi, de multiples recherches ont-elles identifié maints obstacles, que ceux-ci soient d'ordre affectif ou cognitif. Toutefois ces recherches adoptent le point de vue de l'enseignant ou du chercheur et il n'en existe que peu qui se sont interrogées sur la représentation que les étudiants ont de la statistique. Tel est l'objectif général de la présente recherche. Après avoir caractérisé ce qu'est une représentation sociale et abouti à poser "qu'est statistique ce que l'on se donne comme étant statistique", une enquête a été menée en France auprès de 614 étudiants de différentes sections en Sciences humaines et sociales. Il s'en dégage qu'une vingtaine de mots rend compte de la statistique, tels mathématiques, pourcentages, chiffrs et calculs. Cependant, au-delà de ce discours commun, des différences apparaissent entre les sections quant aux mots utilisés pour caractériser la statistique : pour certains, les mots utilisés, peu nombreux, assimilent la statistique aux statistiques ; pour d'autres, elle est conçue comme des mathématiques utilisées dans le cadre d'études, de recherches. D'autres discours se distinguent soit par la proximité de la statistique avec la méthodologie du questionnaire, soit par son utilisation professionnelle : la référence aux mathématiques y est alors nettement atténuée. De ces résultats se dégagent des prolongements en termes de recherche (étude longitudinale de la représentation sociale de la statistique), en termes de pédagogie (conditions propices à la problématisation) et en termes de rapport au savoir (thêmata). Cette recherche invite les formateurs et les chercheurs en didactique à faire un pas de côté par rapport à leur propre représentation et à envisager celle potentiellement différente des apprenants ; à côté des chiffrs, il y a aussi des êtres.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les plus récentes études sur l'auteur se sont intéressées à plusieurs aspects de sa figure. Elles ont questionné ses représentations dans la fiction. Elles l'ont étudiée comme une fabrication du champ littéraire. Elles ont réfléchi aux croyances et aux mythes dont cette image est porteuse. Elles se sont penchées sur le rapport que les lecteurs entretiennent avec la biographie de l'auteur. Elles ont même cherché à comprendre à quelles conditions un individu en arrive à se dire écrivain. Aucune étude ne s'est toutefois intéressée à la conservation posthume des figures d'auteur par ces fascinants musées que constitue leur maison personnelle, lorsqu'elle est ouverte au public.Dans une perspective chronologique, le premier objectif de la Thèse consiste à situer et à comparer les maisons d'écrivains en France et au Québec. Dans une perspective synchronique, le deuxième objectif est d'étudier les représentations des écrivains que les maisons-musées véhiculent.L'ouverture des premières maisons d'hommes célèbres en Europe à la fin du XIXe siècle est tributaire du culte des grands hommes. La première partie de la Thèse est consacrée à ce phénomène, notamment étudié par Jean-Claude Bonnet. En France, les maisons-musées gagnent en popularité tout au long du XXe siècle et connaissent un âge d'or dans les années 1980 et 1990, sous le coup de politiques gouvernementales qui témoignent désormais d'une conception élargie de la culture. Au Québec, l'émergence du phénomène n'est pas beaucoup plus tardive, mais connait une expansion beaucoup moins importante. La deuxième partie de la Thèse s'intéresse aux politiques culturelles qui favorisent l'ouverture au public de maisons d'écrivains dans ces pays de la Francophonie. Elle présente également les monographies des six maisons d'écrivains qui composent le corpus restreint de la Thèse : en France, la Maison de Balzac à Paris, la Maison de Tante Léonie-Musée Marcel-Proust à Illiers-Combray et la Maison Elsa-Triolet-Aragon à Saint-Amoult-en-Yvelines; au Québec, la Maison Samuel-Bédard-Musée Louis-Hémon à Péribonka, l'Espace Félix-Leclerc à l'île d'Orléans et l'Espace Claude-Henri-Grignon à Saint-Jérome. Enfin, la troisième partie de la Thèse porte sur les représentations des écrivains dans les maisons d'écrivains, en s'intéressant à une particularité importante de ces lieux semi-privés et semi-publics : l'opposition entre familiarité et grandeur sur laquelle ils reposent.