709 resultados para Classification de l’occupation du sol
Resumo:
Dans les sols infestés avec Macrophomina phaseolina les semences de niébé ne germent pas ou bien la plantule est détruite plus ou moins rapidement après la germination. Clonostachys rosea est un champignon commun du sol reconnu comme un saprophyte avec une haute capacité de compétition sur les racines et dans le sol. Notre étude a pour objectif d’évaluer l’effet de C. rosea en traitement de semences du niébé conservées à 40°C sur le développement de la pourriture charbonneuse. L’effet de la durée de conservation sur la viabilité des spores et le pouvoir antagonique du bioagent a également été étudié dans les conditions semi contrôlé et au champ. Les isolats de C. rosea proviennent de la collection du laboratoire de phytopathologie de AGRHYMET. La production des spores a été effectuée sur le milieu PDA pendant 4 semaines. Les semences du niébé ont été traitées avec une suspension de spores à la concentration de 108 spores / ml à raison de 5 ml de suspension par kg de semences. Les semences traitées ont été séchées sous la hotte à flux laminaire pendant 2 h avant d’être semées ou conservées à 40°C. Des tests de viabilité des spores de C. rosea sur le milieu de culture PDA ont été effectués au laboratoire tous les 15 jours de conservation. Le taux de germination des semences sur papier buvard, évalué au cinquième jour après semis au laboratoire a été de 99 %. La forte moyenne de spores viables au jour de l’enrobage (J0) (>4,5 105), a chuté à 1700 spores par graines après 75 jours de conservation. En serre, le niveau de colonisation des tissus des plants de niébé se développant sur le sol infesté a été significativement plus faible chez les plants issus de graines enrobées (1009 microsclérotes/g tissus) que chez ceux issus de graines non enrobées (2356 microsclérotes/g tissus). Par rapport a la sévérité de la maladie, exprimée sur une échelle de 1-5, ont été notées une forte infection des plants du témoin Macrophomina (graines non traitées semées dans un sol infesté) et des attaques moins sévères sur les traitements G3M et G4M (graines traitées semées dans un sol infesté). Au champ dans l’essai semé avec des graines enrobées mais non conservées, l’association des isolats G3 et G4 a été nettement supérieure aux autres traitements par rapport aux rendements en fane et en graines. Par contre, par rapport au rendement, aucun effet des traitements n’a été observé dans l’essai semé avec les graines conservées pendant 30 jours.
Resumo:
Les bénéfices et les risques environnementaux du blé de printemps génétiquement modifié (GM), plus résistant à l'oïdium, ont été étudiés sur deux sites en plein champ de 2008 à 2010, dans le cadre d'un réseau de groupes de recherche suisses. Les lignées de blé GM, possédant une résistance spécifique à l'oïdium et aux maladies fongiques en général, ont été comparées à des variétés de blé commercialisées, à des lignées témoins ainsi qu'à de l'orge et du triticale. Outre la résistance à l'oïdium, l'étude a également porté sur les répercussions sur les insectes et les organismes du sol (bactéries, champignons mycorhiziens, faune du sol) ainsi que sur les croisements fortuits du blé. Plusieurs lignées de blé GM étaient nettement plus résistantes à l'oïdium que les témoins. Aucun impact significatif sur les organismes non-cibles n'a été constaté, sur leur biodiversité ou sur certaines fonctions sélectionnées des écosystèmes. Dans l'ensemble, les différences entre le blé GM et les lignées témoins étaient moindres qu'entre les variétés de blé commerciales ou les autres espèces de céréales. Les cas de croisement fortuits étaient rares et n'ont été trouvés qu'à faible distance des plantes GM de l'essai.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
La présente étude porte sur l’évaluation d’une méthode d’acquisition de la solution de sol présente à l’interface sol-racine, dans la rhizosphère. Cette interface constitue le lieu privilégié de prise en charge par les plantes des contaminants, tels que les métaux traces. Comme les plantes acquièrent ces éléments à partir de la phase liquide, la solution de sol de la rhizosphère est une composante clé pour déterminer la fraction de métaux traces biodisponibles. La microlysimétrie est la méthode in situ la plus appropriée pour aborder les difficultés liées à l’échelle microscopique de la rhizosphère. Ainsi, dans les études sur la biodisponibilité des métaux traces au niveau de la rhizosphère, les microlysimètres (Rhizon©) gagnent en popularité sans, toutefois, avoir fait l’objet d’études exhaustives. L’objectif de cette étude est donc d’évaluer la capacité de ces microlysimètres à préserver l’intégrité chimique de la solution, tout en optimisant leur utilisation. Pour ce faire, les microlysimètres ont été soumis à une série d’expériences en présence de solutions et de sols, où la quantité de solution prélevée et le comportement des métaux traces (Cd, Cu, Ni, Pb, Zn) ont été étudiés. Les résultats montrent que les microlysimètres fonctionnent de façon optimale lorsque le contenu en eau du sol est au-dessus de la capacité au champ et lorsqu’il y a peu de matière organique et d’argile. Les sols sableux ayant un faible contenu en C organique reproduisent mieux le volume prélevé et la solution sous la capacité au champ peut être récoltée. L’utilisation des microlysimètres dans ces sols est donc optimale. Dans les essais en solution, les microlysimètres ont atteint un équilibre avec la solution après 10 h de prélèvement. En respectant ce délai et les conditions optimales préalablement établies (pH acide et COD élevé), les microlysimètres préservent la composition chimique de la solution. Dans les essais en sol, cet équilibre n’a pas été atteint après dix jours et huit prélèvements. Le contenu en matière organique et l’activité microbienne semblent responsables de la modification des concentrations en métaux au cours de ces prélèvements, notamment, dans l’horizon FH où les microlysimètres performent très mal. En revanche, dans l’horizon B, les concentrations tendent à se stabiliser vers la fin de la série de prélèvements en se rapprochant des valeurs de référence. Bien que des valeurs plus élevées s’observent pour les microlysimètres, leurs concentrations en métaux sont comparables à celles des méthodes de référence (extrait à l’eau, lysimètres de terrain avec et sans tension). En somme, les microlysimètres se comportent généralement mieux dans l’horizon B. Même si leur utilisation est plus optimale dans un sol sableux, cet horizon est privilégié pour de futures études sur le terrain avec les microlysimètres.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
Réalisé en cotutellle avec Gaétan Bourgeois et avec la participation de Guy Boivin, d'Agriculture et Agroalimentaire Canada, du Centre de Recherche et Développement en Horticulture à Saint-Jean-sur-Richelieu, QC J3B 3E6, Canada
Resumo:
réalisé en cotutelle avec la Faculté des Sciences de Tunis, Université Tunis El Manar.
Resumo:
Les sols forestiers constituent un réservoir considérable d’éléments nutritifs disponibles pour soutenir la productivité forestière. Ces sols contiennent aussi une quantité, encore inconnue à ce jour, d’éléments traces biodisponibles provenant de sources anthropiques ou naturelles. Or, plusieurs de ces éléments recèlent un potentiel toxique pour les organismes vivants. Ainsi, la quantification de la concentration et du contenu total en éléments traces des sols forestiers s’avère nécessaire afin d’évaluer les impacts des perturbations sur la qualité des sols. Les objectifs de ce projet de recherche sont: 1) de mesurer le contenu total en éléments traces en phase solide (Ag, As, Ba, Cd, Ce, Co, Cr, Cu, Mn, Ni, Pb, Rb, Se, Sr, Tl, V, Y, Zn) des divers horizons de sols d’écosystèmes forestiers du Québec méridional; 2) d’établir des liens significatifs entre la fraction soluble dans l’eau des éléments traces et les propriétés des horizons de sols et; 3) d’évaluer le rôle de la proximité d’un centre urbain sur les contenus en éléments traces. Pour répondre à ces objectifs, quatre profils de sols situés dans la région de St-Hippolyte et deux situés dans la région de Montréal furent échantillonnés jusqu'à l'atteinte du matériel parental. Les résultats de ce projet de recherche ont révélé que le contenu total en éléments traces présents dans les profils de sols se retrouve en grande partie dans les fragments grossiers du sol. Il a été démontré que la teneur en carbone organique, les complexes organométalliques et les oxydes de fer et d’aluminium dictent la distribution en profil de la majorité des éléments traces étudiés. Finalement, il fut prouvé que la région de Montréal présente des niveaux de contamination en éléments traces (Ag, As, Ba, Cu, Mn, Pb, Rb, Se, Sr, Tl et Zn) supérieurs à ceux rencontrés dans les Laurentides.
Resumo:
Les changements climatiques mesurés dans le Nord-ouest canadien au cours du XXIe siècle entraînent une dégradation du pergélisol. Certaines des principales conséquences physiques sont la fonte de la glace interstitielle lors du dégel du pergélisol, l’affaissement du sol et la réorganisation des réseaux de drainage. L’effet est particulièrement marqué pour les routes bâties sur le pergélisol, où des dépressions et des fentes se créent de façon récurrente, rendant la conduite dangereuse. Des observations et mesures de terrain effectuées à Beaver Creek (Yukon) entre 2008 et 2011 ont démontré qu’un autre processus très peu étudié et quantifié dégradait le pergélisol de façon rapide, soit la chaleur transmise au pergélisol par l’écoulement souterrain. Suite aux mesures de terrain effectuées (relevé topographique, étude géotechnique du sol, détermination de la hauteur de la nappe phréatique et des chenaux d’écoulement préférentiels, température de l’eau et du sol, profondeur du pergélisol et de la couche active), des modèles de transfert de chaleur par conduction et par advection ont été produits. Les résultats démontrent que l’écoulement souterrain dans la couche active et les zones de talik contribue à la détérioration du pergélisol via différents processus de transfert de chaleur conducto-convectifs. L’écoulement souterrain devrait être pris en considération dans tous les modèles et scénarios de dégradation du pergélisol. Avec une bonne caractérisation de l’environnement, le modèle de transfert de chaleur élaboré au cours de la présente recherche est applicable dans d’autres zones de pergélisol discontinu.
Resumo:
Le cycle du carbone (C) est, depuis la révolution industrielle, déstabilisé par l’introduction dans l’atmosphère de C autrefois fossilisé. Certaines mesures de mitigation prometteuses impliquent la séquestration accrue du CO2 atmosphérique dans les sols via le développement du réseau racinaire des arbres. Ce projet de recherche visait à : 1) quantifier la biomasse racinaire ligneuse produite annuellement par unité de surface par le Salix miyabeana cultivé en régie intensive à courtes rotations, 2) doser la concentration en C et en N des racines de saule en fonction de leur profondeur et de leur diamètre et 3) déterminer l’influence des propriétés pédoclimatiques du milieu sur la séquestration du carbone organique (Corg) par les racines. Pour y arriver, six souches de saules ont été excavées à partir de huit sites (n=48) et neuf carottes de recolonisation ont été implantées à cinq sites (n=45) pour évaluer la productivité racinaire fine. Les échantillons séchés ont été pesés pour quantifier la biomasse racinaire produite, et ont été analysés pour le C et le N. La productivité en biomasse racinaire ligneuse du saule en plantation pour tout le réseau d'échantillonnage varie de 0,7 – 1,8 Mg/ha/an. La proportion de C dans la biomasse racinaire s’étend de 31,3% à 50,4% et sa variance dans les tissus est expliquée par le diamètre racinaire et par les conditions environnementales des sites de provenance. Les conditions climatiques constituent la principale influence sur la production de biomasse racinaire. La variance de la biomasse racinaire est significativement contrôlée (p :0,004) par la quantité de précipitation de l’été et de l’année qui contrôlent ensemble 83,4 % du r2 ajusté. La précipitation de l’été est inversement liée à la productivité racinaire puisque les protéines expansines des racines sont stimulées par les carences hydriques du sol. La production de racines fines des plantations (1,2 à 2,4 Mg/ha/an) est, elle, plus fortement contrôlée par les conditions pédologiques du site qui expliquent 36,5% de la variance de productivité des racines fines contre 37,5% de la variance expliquée par les facteurs pédoclimatiques. Le P et le N du sol ont des rôles prépondérants sur la production de racines fines. Une disponibilité en P accrue dans le sol stimule la biomasse racinaire fine alors qu’une quantité supérieure de N dans le sol limite la croissance racinaire tout en favorisant la croissance des parties aériennes de la plante. Ce projet a permis d’améliorer notre compréhension des conditions pédologiques et climatiques qui engendrent, au Québec méridional, une productivité et une séquestration en Corg accrue dans le réseau racinaire du saule.
Resumo:
Comme la plupart des villes en Afrique subsaharienne, Ouagadougou, capitale du Burkina Faso, a connu au cours de ces dernières décennies une croissance démographique rapide. Cette situation pose de nombreux problèmes d’ordre sanitaire et environnemental. Pourtant, les liens entre la santé et l’environnement immédiat sont encore faiblement étudiés du fait de la qualité des données qui, lorsqu’elles existent, se révèlent peu appropriées. La présente thèse vise à analyser les liens entre l’environnement immédiat et certains symptômes de maladies, plus spécifiquement la fièvre et la diarrhée ; deux problèmes majeurs de santé liés à l’environnement chez les enfants de moins de 5 ans dans les villes d’Afrique subsaharienne. Cette étude se base sur des données de l’Observatoire de population de Ouagadougou (OPO) recueillies entre 2009 et 2010 dans l’objectif d’étudier les inégalités de santé en milieu urbain (notamment les données de l’enquête santé portant sur 950 enfants de moins de 5 ans recueillies en 2010). La thèse décrit d’abord la santé environnementale en milieu urbain en dépassant l’opposition classique quartiers lotis/quartiers non lotis (zones d’habitation formelles/zones d’habitation informelles). Elle s’intéresse ensuite à l’évaluation plus fine des liens entre l’environnement immédiat et la fièvre en tenant compte des facteurs démographiques et socio-économiques pertinents dans l’estimation. Enfin, la thèse approfondit les analyses sur la co-occurrence de la diarrhée et de la fièvre en mettant en évidence les effets conjoints des facteurs environnementaux et démographiques. À l’aide des analyses spatiales basées sur la distance euclidienne, des analyses factorielles et de classification, cette étude décrit le contexte sanitaire des quartiers formels et informels et analyse la pertinence de la dichotomie entre les quartiers lotis et les quartiers non lotis dans les zones suivies par l’OPO. L’étude effectue également des analyses multivariées en recourant respectivement aux modèles logit simple et ordonné pour estimer les effets propres de l’environnement immédiat sur la fièvre et la co-occurrence de la diarrhée et de la fièvre chez les enfants. Les résultats de l’étude montrent que les risques environnementaux sont variables d’un quartier à l’autre, et que les quartiers lotis bien qu’étant les plus pourvus en services urbains de base sont les plus exposés aux dangers environnementaux. Néanmoins, ce constat ne suffit pas pour rendre compte de la vulnérabilité des enfants dans les quartiers lotis que dans les quartiers non lotis, puisque l’accès à l’eau, l’assainissement, la nature du sol, et le niveau d’éducation de la mère sont des facteurs clés dans l’occurrence des symptômes liés à l’environnement immédiat. On note également une hétérogénéité concernant la santé environnementale, notamment dans les zones non loties. En considérant les effets de l’environnement immédiat sur la fièvre chez les enfants, les résultats montrent que ces effets baissent après la prise en compte des variables démographiques, socio-économiques et du quartier de résidence. Les facteurs de l’environnement tels que la gestion des ordures ménagères et celle des eaux usées discriminent significativement la fièvre. Les enfants à Nioko 2 (quartier non loti), par exemple, ont deux fois plus de risque d’avoir eu de la fièvre par rapport à Kilwin (quartier loti). Les effets conjoints des facteurs environnementaux et démographiques sont également mis en exergue dans la co-occurrence de la diarrhée et de la fièvre, même si ces effets diminuent régulièrement avec le nombre des symptômes chez les enfants. Le fait d’être dans un ménage insalubre ou d’avoir le sol extérieur en terre augmente la propension de co-occurrence de la diarrhée et de la fièvre. En revanche, cette co-occurrence chez les enfants diminue significativement avec l’âge. Les effets de l’environnement sur l’occurrence ou la co-occurrence des symptômes existent, quand bien même ces effets diminuent avec la prise en compte des facteurs démographiques et socio-économiques et du quartier de résidence. Les résultats de la thèse plaident pour un effort méthodologique, afin d’affiner la définition des variables de l’environnement en milieu urbain.
Resumo:
L’objectif de ce mémoire est d’acquérir une connaissance détaillée sur l’évolution spatiale de la température de surface du sol (GST) au mont Jacques-Cartier et sur la réponse thermique de son îlot de pergélisol alpin aux changements climatiques passés et futurs. L’étude est basée sur un ensemble de mesures de température (GST, sous-sol) et de neige, ainsi que des modèles spatiaux de distribution potentielle de la GST et des simulations numériques du régime thermique du sol. Les résultats montrent que la distribution de la GST sur le plateau est principalement corrélée avec la répartition du couvert nival. Au-dessus de la limite de la végétation, le plateau est caractérisé par un couvert de neige peu épais et discontinu en hiver en raison de la topographie du site et l’action des forts vents. La GST est alors couplée avec les températures de l’air amenant des conditions froides en surface. Dans les îlots de krummholz et les dépressions topographiques sur les versants SE sous le vent, la neige soufflée du plateau s’accumule en un couvert très épais induisant des conditions de surface beaucoup plus chaude que sur le plateau dû à l’effet isolant de la neige. En raison de la quasi-absence de neige en hiver et de la nature du substrat, la réponse du pergélisol du sommet du mont Jacques-Cartier au signal climatique est très rapide. De 1978 à 2014, la température du sol a augmenté à toutes les profondeurs au niveau du forage suivant la même tendance que les températures de l’air. Si la tendance au réchauffement se poursuit telle que prévue par les simulations climatiques produites par le consortium Ouranos, le pergélisol pourrait disparaître d’ici à 2040-2050.
Resumo:
Incluye Bibliografía
Resumo:
Le relief accidenté, le climat agressif favorisé par l’Alizé, ainsi que l’étroite dépendance de la population de l’exploitation forestière et de l’exploitation agricole sans dispositifs de protection antiérosifs, sont les contextes qui permettent de dire que la région de Mandraka est sujette au problème d’érosion. L’étude a pour objectif de déterminer les relations entre les caractéristiques du sol, son mode d’occupation, les précipitations ainsi que l’érosion dans la région de Mandraka et ce en vue d’un aménagement rationnel. Des dispositifs pour la mesure de pertes en terre et de ruissellement ont été matérialisés sur des parcelles d’expérimentation. A cet effet, le choix de ces parcelles a porté sur le mode d’occupation du sol (sous terrains aménagés, sous « tavy », sous « savoka », et sous forêt naturelle), sur la similitude des pentes et sur leur localisation de manière à ce qu’elles soient situées sur les mi-versants. Les résultats ont montré que le sol dans cette région contient un taux de matière organique satisfaisant à élevé (2,41 à 3,74% de MO), lui permettant une bonne stabilité structurale (Is = 0,85 et K = 0,08). Les pertes en terre (0,13 à 20,93t/ha/an) et les ruissellements (0,3 à 5%) obtenus indiquent que l’érosion est faible à accélérée suivant le mode d’occupation du sol. En deux ans d’aménagement, les terrasses se sont stabilisées et les racines de Vetiveria zizanoides peuvent remplacer les fascines initialement installées pour tenir les talus. Toutefois, l’exposition du sol à la battance de la pluie et la mauvaise infiltration d’eau de ruissellement dans le sol accélèrent le phénomène d’érosion. Par ailleurs, il y a l’efficacité de la SCV sans brûlis bien qu’il s’agit de la première année d’expérience. Dans ces conditions, un plan d’aménagement simplifié a été proposé en vue (i) de protéger le sol contre la battance de la pluie, (ii) de réduire les transports solides par l’érosion et (iii) d’améliorer l’infiltration d’eau du sol.