579 resultados para Température de surface du sol
Resumo:
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).
Resumo:
[1. ptie.] Les poètes.--[2. ptie.] Les militaires. [t.1.] Depuis le commencement du Comte de Foix jusqu'à la Révolution française. [t.2.] Depuis la Révolution française jusqu'à nos jours.--[3. ptie.] Administrateurs et hommes scientifiques.--[4. ptie.] Archéologues. t.1. Descripteurs du sol, géologues, historiens. t.2. Suite des hommes scientifiques, orateurs, moralistes, pédagogues, publicistes, etc. t.3. suite et fin des hommes scientifiques. Compléments sur les hommes et les choses.
Resumo:
Series title also at head of t.-p.
Resumo:
Earlier work on the terraced settlements of the Bokoni area (16th to 19th century, Mpumalanga province, South Africa) focussed on the homesteads, their contents, layout and chronology. This paper suggests a terminology and typology of agrarian structures in Bokoni in order to improve comparative approaches in Africa and beyond. The typology and an excavation of the terracing have made possible preliminary conclusions relevant for the further analysis of the terracing and stone-walling in Bokoni. The terracing developed incrementally, whereby cultivation, stone-clearing and terracing were intermixed processes. This is supported both by the organic content in a section of a terrace and by a phytolith analysis. The phytolith analysis furthermore indicated that maize was cultivated on the terraces, but this should be seen as a pilot study only, and presence of maize in Bokoni must be tested with other archaeobotanical methods.
Resumo:
Ce mémoire visait à déterminer les pratiques et les facteurs favorables au succès des réintroductions du carex faux-lupulina (Carex lupuliformis), une espèce vivace menacée poussant dans divers types de milieux humides ouverts du nord-est de l’Amérique du Nord. Pour répondre à cet objectif, des expériences de germination en serres ont été réalisées, et la survie, la vigueur et le microhabitat de chaque plant de carex faux-lupulina connu au Québec (sauvage ou réintroduit) ont été mesurés. Nos résultats montrent que le carex faux-lupulina est une espèce facile à propager ex situ. Une stratification froide (4°C) des semences dans du sable humide pendant un mois induit des taux de germination élevés. Nos résultats montrent également que des pucerons exotiques, ainsi qu’une transplantation dans des habitats inadaptés aux besoins de l’espèce en termes d’humidité du sol et de lumière disponible, ont causé la mort prématurée d’un grand nombre de transplants. Notre programme de réintroduction a permis d’établir une nouvelle population de l’espèce au Québec, et a potentiellement permis de sextupler la taille des populations de la province. Globalement, cette étude a permis de mieux comprendre l’écologie du carex faux-lupulina, et ainsi de faciliter la restauration de ses populations.
Resumo:
La conception de la structure d’une chaussée dépend en grande partie des caractéristiques du sol qui constituera l’infrastructure, telles que ses propriétés mécaniques réversibles et sa sensibilité à l’eau et au gel. Ces paramètres peuvent être mesurés en laboratoire grâce à l’exécution d’essais très fiables, mais laborieux et dispendieux comme par exemple les essais en cellule triaxiale et celui du potentiel de ségrégation en cellule de gel. L’utilisation des équipements portatifs, comme le déflectomètre LWD et le Percomètre®, permet d’effectuer une évaluation des propriétés du sol. Dix types de sols d’infrastructure ont été testés en laboratoire; les résultats ont été validés avec des essais in situ et corrélés avec les modules réversibles et les potentiels de ségrégation obtenus en laboratoire. Des modèles mathématiques ont été développés permettant une quantification adéquate du module réversible et du potentiel de ségrégation en fonction des propriétés géotechniques du sol.
Resumo:
Les villes d’Afrique subsaharienne devront faire face à de grands phénomènes complexes dans les prochaines décennies : une forte croissance démographique, une demande alimentaire croissante, des impacts des changements climatiques, une augmentation des problématiques environnementales dues aux activités humaines en développement. Les difficultés de gestion de ces grands phénomènes s’ajouteront aux problématiques économiques, politiques, alimentaires, législatives, sanitaires et sociales déjà omniprésentes à différentes échelles dans les villes d’Afrique subsaharienne. L’ensemble de ces défis et ces contraintes nuit au développement des activités agricoles urbaines et périurbaines qui ont peu d’options à leur disposition pour bâtir des systèmes efficaces et productifs dans ces milieux denses et perturbés. Les préoccupations de durabilité et de santé peuvent alors souvent se trouver au bas de la liste de priorité des producteurs. L’agriculture maraîchère urbaine et périurbaine peut cependant offrir plusieurs bénéfices importants pour les citoyens et la gestion écologiques des villes. Elle participe d’une part à l’approvisionnement en aliments frais localement produits pour les citoyens urbains de diverses classes sociales. Elle a des impacts positifs sur la sécurité alimentaire et nutritionnelle ainsi que sur les conditions économiques des ménages à faible revenu. La proximité des marchés et des services urbains offrent aussi des avantages intéressants pour les producteurs qui peuvent écouler leur marchandise hautement périssable sur les marchés urbains et s’approvisionner en intrants dans les commerces et les industries urbaines. Les activités agricoles urbaines et périurbaines présentent cependant des risques pour la santé et la qualité de l’environnement urbain et périurbain puisqu’elles utilisent parfois de grandes quantités d’intrants synthétiques ou des sources de fertilisation inappropriée pour la culture des fruits et légumes. Les dernières décennies de domination d’agriculture conventionnelle nous ont permis d’apprendre que les pratiques tels que l’usage abondant d’intrants chimiques et synthétiques, le lourd travail des sols, l’utilisation d’une faible diversité de cultivars à haut rendement et les techniques d’irrigation inadaptée aux conditions locales engendrent des impacts négatifs importants sur le plan environnemental et écologique. Aujourd’hui, de nombreuses solutions de rechange sont proposées pour remplacer le modèle agricole conventionnel mondial. L’agroécologie fait partie de ces solutions de rechange et propose une vision plus intégrative de l’agriculture. Elle propose une vision des systèmes alimentaires en entier plutôt que des paramètres agricoles qui permettent d’augmenter la production alimentaire. Cet essai explore la possibilité de pratiquer une agriculture urbaine et périurbaine basée selon les principes de cette vision agroécologique dans les villes d’Afrique subsaharienne. Cet essai explore aussi de façon complémentaire l’opportunité que représente cette avenue pour répondre aux besoins alimentaires des villes d’Afrique subsaharienne. Les pratiques agroécologiques proposées et décrites offrent des possibilités différentes de travailler sur les principaux éléments agricoles d’une exploitation urbaine ou périurbaine (e.g. travail du sol, fertilisation, irrigation, protection des cultures, organisation des cultures et du paysage). Les pratiques agroécologiques présentent des possibilités variables de transformer les agroécosystèmes urbains en systèmes durables, équitables, socialement et culturellement sensibles ainsi qu’économiquement viables. Pour évaluer si les pratiques agroécologiques ont un bon potentiel d’application dans un lieu donné, il faut regarder si elles offrent la possibilité de répondre aux besoins et aux contraintes du type de production agricole concerné, des acteurs impliqués et des caractéristiques agroécologiques et environnementales du site d’exploitation. Si ces éléments ne sont pas tenus en compte, les agroécosystèmes ne pourront pas tirer profit au maximum des avantages que représente l’approche agroécologique. L’implication des autorités nationales et internationales, ainsi que des investissements dans le domaine de la recherche et du développement sont essentiels pour arriver à une plus grande adoption de pratiques agroécologiques dans les milieux urbains et périurbains.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
La présente recherche couvre les premiers essais d’une nouvelle méthode de fonctionnalisation chimique de surfaces hydroxylées. La méthode consiste à faire réagir ladite surface avec un réactif en excès, le tétrachlorure de silicium (SiCl4), rendant celle-ci chimiquement réactive à n’importe quel alcool externe ajouté par la suite au milieu. L’alcool externe modifie les propriétés de surface du substrat dépendamment de sa composition. Une multitude de fonctionnalités chimiques peuvent être présentes sur l’alcool externe et ce sont elles qui dictent les nouvelles propriétés de surface. Dans l’étude présente, les substrats étudiés ont été la cellulose microcristalline commerciale (MCC), la fibre de chanvre délignifiée et la corde de lin. La MCC est une cellulose fortement hydrolysée et purifiée ayant une structure cristalline la rendant insoluble. L’absence d’impuretés pouvant engendrer des interférences est la raison majeure pour laquelle ce substrat a été employé en premier. Avec des alcools tels que le 1-décanol, le 10-undécènol et le PEG-400, les propriétés de surfaces ont été ajustées et ont permis les premières applications comme substrat fibreux dans des composites de LDPE et de PLA. Une fois modifiés avec le 1-décanol et le 10-undécènol, les substrats ont montré des propriétés surfaciques hydrophobes n’absorbant plus l’eau et montrant des angles de contacts supérieurs à 90o avec celle-ci. Des mélanges à 17 et à 50 % massiques de ces substrats modifiés ont donc été faits avec le LDPE et une caractérisation complète des composites a été effectuée. Les tests mécaniques des composites modifiés de 17 % massique de MCC et de corde ont démontré une claire adhésion substrat-matrice par l’augmentation de la contrainte maximale ainsi que de l’élongation à la rupture. Pour ce qui est des substrats avec PEG-400, la fonctionnalisation a été démontrée et des composites MCC-PLA ont été faits. La modification de la MCC a engendré un changement des propriétés mécaniques sans toutefois surpasser le PLA de départ. Néanmoins, dans tous les cas, l’adhésion substrat-matrice a été améliorée par la réaction et a pu être démontrée par l’étude des fractures et des coupes microtomes au MEB. Finalement, la dispersion et les interactions à l’intérieur des composites de MCC à 17 et à 50 % ont été observées par rhéologie. Les composites modifiés ont montré une meilleure dispersion comparativement aux composites de MCC qui eux engendrent même la formation de réseau substrat-substrat.
Resumo:
L’imagerie hyperspectrale (HSI) fournit de l’information spatiale et spectrale concernant l’émissivité de la surface des matériaux, ce qui peut être utilisée pour l’identification des minéraux. Pour cela, un matériel de référence ou endmember, qui en minéralogie est la forme la plus pure d’un minéral, est nécessaire. L’objectif principal de ce projet est l’identification des minéraux par imagerie hyperspectrale. Les informations de l’imagerie hyperspectrale ont été enregistrées à partir de l’énergie réfléchie de la surface du minéral. L’énergie solaire est la source d’énergie dans l’imagerie hyperspectrale de télédétection, alors qu’un élément chauffant est la source d’énergie utilisée dans les expériences de laboratoire. Dans la première étape de ce travail, les signatures spectrales des minéraux purs sont obtenues avec la caméra hyperspectrale, qui mesure le rayonnement réfléchi par la surface des minéraux. Dans ce projet, deux séries d’expériences ont été menées dans différentes plages de longueurs d’onde (0,4 à 1 µm et 7,7 à 11,8 µm). Dans la deuxième partie de ce projet, les signatures spectrales obtenues des échantillons individuels sont comparées avec des signatures spectrales de la bibliothèque hyperspectrale de l’ASTER. Dans la troisième partie, trois méthodes différentes de classification hyperspectrale sont considérées pour la classification. Spectral Angle Mapper (SAM), Spectral Information Divergence (SID), et Intercorrélation normalisée (NCC). Enfin, un système d’apprentissage automatique, Extreme Learning Machine (ELM), est utilisé pour identifier les minéraux. Deux types d’échantillons ont été utilisés dans ce projet. Le système d’ELM est divisé en deux parties, la phase d’entraînement et la phase de test du système. Dans la phase d’entraînement, la signature d’un seul échantillon minéral est entrée dans le système, et dans la phase du test, les signatures spectrales des différents minéraux, qui sont entrées dans la phase d’entraînement, sont comparées par rapport à des échantillons de minéraux mixtes afin de les identifier.
Resumo:
Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.
Resumo:
Résumé : L'organisation de l'espace basilien est le reflet culturel de ses habitants. Le paysage humanisé actuel est la résultante de divers artefacts culturels. Pour mieux comprendre l'occupation du sol basilien, il convient de percevoir le milieu physique et humain dans son ensemble, d'examiner à fond les séquences de l'établissement humain et d'identifier les déséquilibres spatiaux temporels qui compromettent l'évolution rationnelle du territoire. L'identification des contraintes et des potentiels du territoire favorise l'élaboration et la conceptualisation d'un plan d'aménagement du territoire équilibré, qui met en valeur l'intégrité de la composante culturelle basilienne. En outre, cette recherche tente d'élucider et de corriger certaines lacunes perceptibles dans le territoire de la municipalité de Saint-Basile.||Abstract : The built up area of Saint-Basile represents the cultural iconography of his inhabitants. Apparently, the cultural landscape is set up from former man made modifications. For a better understanding of the Saint-Basile urban land use, it is a must to perceive and recognize distincly the physical and the human factors abroad; to scrutinize the human settlements sequences since the colonization and to identify the internal land use patterns components who jeopardize the rational developpment of the community. The establishement and the identification of the restreints and the potentiels within the town of Saint-Basile will lead to a design and a better urban land use planning which will preserved the cultural identity of his inhabitants. Therefore, the research tends to light up and rectify some visibles linkages of the Saint-Basile urban land use.
Resumo:
Face à l’augmentation observée des accidents de régénération en forêt boréale et leur impact sur la productivité et la résilience des peuplements denses d’épinette noire, une meilleure compréhension des mécanismes de résilience et une surveillance des risques d’accident de régénération sont nécessaires. L’objectif principal de cette étude visait donc le développement de modèles prédictifs et spatialement explicites de la régénération de l’épinette noire. Plus particulièrement, deux modèles ont été développés soit (1) un modèle théorique, développé à l’aide de données in situ et de données spatiales et (2) un modèle cartographique, utilisant uniquement des données spatiales accessibles telles que les inventaires forestiers provinciaux et l’indice spectral de sévérité des feux « differenced Normalized Burn Ratio » (dNBR). Les résultats obtenus ont permis de constater que la succession rapprochée (< 55 ans) d’une coupe et d’un feu n’entraîne pas automatiquement une ouverture des peuplements d’épinette noire. Tout d’abord, les peuplements affectés par la coupe de récupération de brûlis (1963), immatures lors du feu de 2005, sont caractérisés par une faible régénération. En contrepartie, la régénération à la suite du feu de 2005, observé dans les peuplements coupés entre 1948 et 1967, est similaire à celle observée dans les peuplements non perturbés dans les 60 années précédant le feu. Le modèle théorique sélectionné à l’aide des critères d’information d’Akaike a, quant à lui, permis d'identifier trois variables déterminantes dans le succès ou l’échec de la régénération de l’épinette noire soit (1) la végétation potentielle, (2) le pourcentage de recouvrement du sol par les sphaignes et (3) la sévérité du feu évaluée à l’aide du dNBR. Des validations bootstrap et croisée ont permis de mettre en évidence qu’un modèle utilisant ces trois variables explique 59 % de la variabilité de la régénération observée dans le territoire d’étude., Quant à lui, le modèle cartographique qui utilise uniquement les variables végétation potentielle et dNBR explique 32 % de la variabilité. Finalement ce modèle a permis la création d’une carte de risque d’accident de régénération. Basée sur la précision du modèle, cette carte offre un potentiel intéressant afin de cibler les secteurs les plus à risque et ainsi appuyer les décisions relatives aux reboisements dans les zones incendiées.
Resumo:
La tendance internationale du commerce est actuellement basée sur une libéralisation et une ouverture des échanges entre les États. Pour faire suite à cette ouverture commerciale des frontières, plusieurs centaines d’accords de libre-échange sont ratifiés afin de réduire davantage les différents obstacles au commerce dans tous les secteurs. L’étude présente a pour objectif d’évaluer le libre-échange et plus particulièrement l’Accord de libre-échange nord-américain (ALENA) pour déterminer si les ententes commerciales sont de facto compatibles avec les objectifs environnementaux du développement durable, tout particulièrement dans le secteur agricole. L’analyse des théories du libre-échange démontre que la libéralisation du commerce mène généralement à la spécialisation et à un changement dans la composition des activités d’un pays. Cette hypothèse se concrétise dans le secteur agricole par une transition vers de grandes cultures d’une seule espèce, hautement mécanisées et dépendantes en intrants chimiques. Il résulte de ce changement de pratiques de multiples impacts environnementaux tels que la pollution de l’eau, de l’air et des sols, la perte de biodiversité, la propagation de ravageurs ainsi que la détérioration de la qualité du sol. Tous ces impacts environnementaux négatifs indiquent le manque de soutenabilité de ce modèle agricole. L’étude de cas de l’ALENA, un accord particulièrement intéressant à étudier vu son rôle décisif sur la scène des ententes commerciales, confirme ces résultats. Malgré les intentions louables d’intégrer un accord environnemental parallèle, les clauses établies ne sont pas suffisantes pour contrer les problématiques environnementales que la libéralisation des échanges a engendrées. En effet, un déplacement majeur de la production du Mexique vers les États-Unis a été constaté. Cela a entraîné une transition vers une production industrielle plus polluante. De multiples causes sont à la source de ce changement dans la production agricole, tel que le non-respect des clauses, l’asymétrie du pouvoir entre les membres, la privatisation et le pouvoir des lobbys, ainsi que le manque de pouvoir discrétionnaire des clauses environnementales. À partir de l’analyse de l’ALENA, des recommandations ont finalement été formulées afin d’offrir des pistes de solutions pour les prochains accords qui entreront en vigueur. D’abord, il est conseillé d’encourager la participation citoyenne dans le processus de négociation des accords. Ensuite, le processus d’évaluation des répercussions des accords pourrait être révisé pour obtenir des études plus détaillées. Il est aussi suggéré que le gouvernement porte une attention particulière à la production agricole de subsistance. Il est de plus proposé de se questionner collectivement sur la vision à long terme et sur le modèle de développement agricole désiré. Ensuite, il est suggéré d’analyser plus en profondeur la place du libre-échange particulièrement dans le secteur agricole. Finalement, il serait pertinent d’étudier des alternatives telles que l’économie écologique et le coopérativisme.
Resumo:
L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.