934 resultados para Analyse du profil de texture
Resumo:
Les expériences des dernières années, dans le domaine de l'apprentissage précoce de la lecture, ont entraîné la remise en question de positions longtemps considérées comme définitives en rapport notamment avec l'âge optimal pour débuter la scolarisation et la pertinence de même que l'intérêt d'aborder à la maison des apprentissages normalement laissés à la compétence des professionnels de l'enseignement. Intéressée par ce phénomène de la rencontre précoce avec l'écrit, nous avons profité de notre double condition d'orthopédagogue et de mère de deux enfants, pour tenter d'entreprendre un processus d'apprentissage précoce de la lecture tout en conservant le recul nécessaire pour jeter un regard critique sur notre démarche. Le présent travail vise à faire le point sur ces années d'exploration en en dégageant les observations les plus significatives. Le premier chapitre contient un exposé théorique en trois volets destiné à faire ressortir les données disponibles de même que les interrogations qui demeurent en rapport avec l’apprentissage précoce de la lecture: on y retrouve un survol historique de l'évolution des positions face au développement du potentiel cognitif, une présentation des méthodes conventionnelles d'apprentissage de la lecture ainsi que des adaptations élaborées en fonction de l'apprentissage précoce, et un relevé des sources de controverses issues des premières explorations. Il se termine par la constatation que de nombreuses questions demeurent ouvertes tant sur le plan de l'approche à privilégier que sur celui des conséquences à court et à long termes. Le second chapitre comporte une présentation des sujets en cause, des éléments méthodologiques retenus et de la démarche d'objectivation des acquisitions. Le troisième chapitre est consacré à une présentation heuristique du processus d'apprentissage de la lecture; il comprend quelques précisions sur l'approche heuristique et une description détaillée du cheminement ayant conduit à la finalisation de l'apprentissage, incluant les réflexions, interrogations et modifications qui l'ont ponctuée. Le quatrième chapitre donne accès aux résultats obtenus au terme du processus d'apprentissage, leur présentation étant suivie d'une discussion générale où sont reprises les interrogations en rapport avec le potentiel d'apprentissage de l'enfant, la méthode ou plutôt, dans notre cas, l'approche la plus susceptible de permettre une intégration harmonieuse de l'écrit, la compétence des parents et les effets de l'apprentissage précoce de la lecture sur les plans cognitif et affectif. La conclusion propose certaines réflexions sur le sens et la contribution de notre démarche au-delà des aménagements techniques suggérés.
Resumo:
En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.
Resumo:
Les activités de la petite pêche et de la pêche côtière en Guyane ne sont pas encore assez bien organisées pour permettre un suivi rigoureux. On sait surtout qu'il s'agit d'une activité en baisse et le déclin amorcé au début des années 80 n'a fait que se confirmer dans les années récentes. Alors que le nombre de bateaux pratiquant de façon régulière la petite pêche avoisinait les 150 en 1985, en 1998, la flottille était réduite à 65 unités. Un chiffre fera mieux comprendre cette évolution: dans les années 80, il y a eu jusqu'à 12 tapouilles à Cayenne, alors qu'à la fin 1998, il en restait 4. On peut espérer qu'en 1999, 2 tapouilles supplémentaires et les 3 navires expérimentaux construits par la Région Guyane viendront s'ajouter à cette flottille et permettront d'améliorer le suivi des captures et de l'effort. La perspective du Marché d'Intérêt Régional abritant une criée stimulera le passage des captures sous la halle à marée et favorisera la tenue de statistiques de débarquements. L'activité de cette flottille est difficile à cerner, car seules les tapouilles dont les captures sont importantes en raison de la durée de leurs sorties peuvent donner lieu à des statistiques sinon précises du moins régulières dans le temps. Quelques doris et canots créoles sont également dans ce cas et ont permis des comparaisons inter flottilles. Pendant la période sèche, d'août à novembre, tous les bateaux sont actifs. Pendant la saison des pluies, de décembre à juillet, en raison de la houle, les tapouilles réduisent leurs sorties et la plupart des pirogues de mer et des canots créoles opèrent dans les estuaires.
Resumo:
Résumé : Ce document examine l'effet de la dette publique et du développement monétaire étranger (taux de change et taux d'intérêt étranger) sur la demande de monnaie de long-terme. Le déficit budgétaire est utilisé comme mesure de la dette publique. Cette étude est menée sur cinq pays industrialisés: le Canada, les États-Unis, l'Allemagne, le Royaume-Uni et la France. Le modèle multivarié de cointégration de Johansen & Juselius (1990) est utilisé pour établir le lien entre ces trois variables et la demande de monnaie. Ce modèle examine indirectement deux effets: les effets du déficit budgétaire sur le taux d'intérêt et du développement monétaire étranger sur le taux d'intérêt, à travers la demande de monnaie. L'évidence d'une relation de cointégration entre la demande de monnaie et les dites variables est vérifiée pour la plupart de ces pays. Le test d'exclusion des variables de la relation de long-terme nous révèle que toutes ces variables entrent de façon significative dans la relation de cointégration. Ces résultats suggèrent donc aux autorités monétaires, l'importance de tenir compte à la fois du déficit bugétaire et du développement monétaire étranger dans la formulation de la politique monétaire.||Abstract : This paper examines the impact of both public debt and foreign monetary developments (exchange rate and interest rate) on the long-run money demand. The budget déficit is used as a measure of public debt. Five industrial countries are considered, Canada, the United States, Germany, the United Kingdom and France. The multivariate cointegration model of Johansen & Juselius (1990) is used to establish the relationship between this tree variables and the money demand. This model indirectly examines two effects, the effect of budget déficits on interest rates and the effect of foreign monetary developments on the interest rates, both through money demand. Evidence of long-run relationship between the money demand and the defined variables are found for almost every country. The long-run exclusion test shows that ail these variables significantly enter into the cointegration relation. This suggests that, in formulating monetary policies, policy makers should take into account the influence of both budget déficit and foreign monetary developments on the money demand.
Resumo:
This work aims to define a typology of trawler f1eet in Sète, the main fishing harbour along the French Mediterranean coast, using several multivariate analysis methods. The fishing ships taken to account are represented by annual profiles of landing specific compositions. Five fishing strategies have been identified. A segmentation method using symbolic objects allows a formaI characterisation of the different strategies. These strategies are studied according to several general characteristics usually used for management rules elaboration (power, length, ship age). The typological analysis allows to characterise two main exploitation ways, one directed to the catch of a few species (Engraulis encrasicolus, Sardina pilchardus), the other characterised by the exploitation of a great diversity of species. By this way, it is possible to estimate how the catch of low represented species can significantly contribute to the exploitation of a resource.
Resumo:
Dans ses champs de recherches ou d'application scientifiques, la géographie se situe au carrefour de nombreuses autres sciences. Tout au cours de son évolution, ce voisinage l'a amené à s'interroger sur le bien-fondé de ses propres assises scientifiques. Bénéficiant, d'une part, de l'apport de d'autres disciplines et donnant naissance, d'autre part, à des sciences autonomes (sociologie, géomorphologie), elle conserve son approche globale et ses applications concrètes. En respectant cette dualité, mon intérêt m'a porté à aborder à la fois la problématique liée aux programmes d'amélioration de quartier et leurs impacts sur les villes moyennes du Québec. Ces petites villes constituent un champ d'investigation encore peu explorée. Cette étude est d'autant plus pertinente que le département de géographie et le centre de recherche en aménagement régional de l'Université de Sherbrooke y ont trouvé leur vocation particulière. Le choix des villes repose sur deux (2) raisons: elles devaient faire l'objet d'un P.A.Q., posséder des caractéristiques particulières dues à son rôle et à sa localisation; six (6) centres urbaines ont été retenus sur cette base : Hull, ville administrative et pôle administratif dans la région de l'Outaouais ; St-Hyacinthe, ville satellite faisant partie des sept (7) villes de la couronne montréalaise ; Longueuil, ville banlieue en expansion accélérée ; Lachine, ville historique située sur l'Île de Montréal ; Sherbrooke, ville à caractère manufacturier et pôle régional dans l’Estrie ; Drummondville, ville à caractère manufacturier et pôle régional dans la région centre du Québec. Notre démarche est relativement simple. Afin de vérifier si les objectifs des P.A.Q. et les solutions véhiculées dans les programmes de même nature correspondent aux situations que nous aurons nous-mêmes observées, il nous faut analyser tout d'abord les caractéristiques physiques et socio-économiques des quartiers centraux, leur structure et leurs relations avec l'ensemble de leur agglomération respective. Cette description fera l'objet des premier et deuxième chapitres. Pour compléter cette analyse, nous croyons qu'il est nécessaire de composer une seule image avec l'ensemble de ces quartiers pour obtenir l'approche globale que nous désirons. Nous utiliserons l'analyse factorielle pour obtenir une définition de ces quartiers. Nous pourrons ainsi vérifier si elle est contenue dans problématique liée aux programmes de rénovation urbaine. Cette redéfinition constitue la démarche principale du troisième chapitre […].
Resumo:
Le projet de recherche a été réalisé dans le but premier de mettre à niveau, d’adapter et de rendre opérationnelle la méthode de Newmark pour les types de barrages et les types de séismes habituellement rencontrés au Québec. Pour ce faire, une Banque de Signaux Sismiques pour l’Est du Canada (BDSSEC), contenant 451 accélérogrammes, a été produite de même qu’un code de calcul permettant de calculer les déplacements permanents, par double intégration numérique, selon la méthode de Newmark. À partir d’analyses statistiques, des modèles prédictifs applicables au contexte sismologique de l’Est canadien ont été développés en considérant un comportement rigide-plastique (méthode dite du « bloc rigide ») et un comportement viscoélastique linéaire équivalent (méthode dite « flexible »). La comparaison entre le nouveau modèle rigide-plastique pour l’Est avec ceux existants développés à partir de signaux de l’Ouest américain a montré que les déplacements permanents évalués pour l’Est peuvent être significativement inférieurs à ceux de l’Ouest pour des magnitudes et des distances épicentrales comparables compte tenu de leur contenu fréquentiel plus fort en hautes fréquences. Le modèle prédictif flexible a montré qu’il pouvait prédire des déplacements permanents du même ordre de grandeur que Makdisi et Seed (1977) et de Rathje et Antonakos (2011). Les déplacements permanents sont amplifiés par la méthode flexible comparativement à la méthode rigide principalement lorsque le ratio entre la période prédominante de l’ouvrage et la période moyenne de la sollicitation se situe autour de 1. Le second but consistait à tester l’applicabilité de la méthode du bruit de fond ambiant (H/V) comme outil expérimental pour estimer la période prédominante des barrages en remblai et en enrochement (Tp). Les études comparatives ont montré, de façon générale, une bonne concordance entre les calculs analytiques et les mesures expérimentales tant et aussi longtemps que les hypothèses à la base des modèles sont respectées.
Resumo:
Cet essai est le fruit d'une recherche-action s'étendant sur plus de 24 mois. Le propos porte sur l'élaboration, la mise en application et la critique d'un plan de développement triennal d'une fédération de coopératives, nouvellement fondée, en occurrence la Fédération des Coopératives Québécoises en Milieu Scolaire (FCQMS). Dans ce cadre, les deux auteurs ont joué successivement les rôles de responsables d'exécution (contractuels pour la réalisation du plan de développement), d'observateurs extérieurs, d'employés (pour la mise au point d'un programme de formation) et à nouveau, d'analystes externes.
Resumo:
Comment expliquer que les coopératives et le développement régional soient si naturellement associés comme les éléments d'une même stratégie de développement? Idéologie, réflexe naturel, artifice du discours? Bien malin qui peut répondre de manière catégorique. Certes, il s'en trouve encore quelques-uns pour soutenir que les régions constituent, grâce à leur tissu social homogène, un terreau propice à l'émergence des coopératives. Mais l'explication la plus répandue insiste plutôt sur la capacité qu'auraient les coopératives de répondre directement et efficacement aux besoins de la communauté et de devenir, par effet d'entraînement, des forces économiques toutes désignées pour le développement par la base de la communauté, et progressivement, des régions. Malheureusement, force est de constater que cette supposée affinité entre les coopératives et le développement régional n'a pas su garantir à elle seule l'essor d'une dynamique de développement des régions par les coopératives. De fait, la répartition des coopératives sur l'ensemble du territoire des régions du Québec n'a pas empêché l’émergence des problèmes de développement que connaissent plusieurs régions périphériques. L'objectif de cet essai consiste à cerner l'état de l'analyse et du discours sur les coopératives et le développement régional. Notre réflexion est le résultat d'une recherche bibliographique exhaustive sur ce sujet et de quatre entrevues semi-directives conduites auprès de hauts fonctionnaires de la Direction des coopératives du ministère de l'Industrie, du Commerce et de la Technologie (MICT), au mois de mai 1990. Dans un premier temps, nous ferons un rappel historique des principaux courants théoriques qui ont guidé l'évolution du concept de développement régional. Dans un deuxième temps, à l'aide des éléments dégagés dans notre premier chapitre, nous tenterons de cerner l'état de l'analyse sur le rôle des coopératives dans le développement des régions. Puis enfin, dans notre dernier chapitre, nous analyserons la philosophie d'intervention de l'État concernant le rôle des coopératives en région. Pourquoi l'État? Parce que l'État, via ses dirigeants politiques et son appareil public, a fortement contribué à l'évolution de l'analyse et du discours à ce sujet. Les praticiens sont absents de cette démarche. Pourquoi? Mener l'enquête-terrain qu'aurait nécessitée l'analyse de la conception que les coopérateurs nourrissent à l'égard de leur rôle dans les régions aurait dépassé de loin l'objectif et les conditions de travail requis par cet essai. De plus, notre objectif de recherche s'en tient uniquement au rôle attribué aux coopératives en région par les chercheurs et les dirigeants politiques, et non pas à leur rôle effectif dans ces régions.
Resumo:
Les entreprises coopératives constituent non seulement un partenaire privilégié de développement des milieux locaux, mais aussi un support nécessaire à l'apprentissage de la démocratie dans les pays en voie de développement. Pour parvenir à jouer adéquatement leur rôle, elles ont besoin d'un environnement favorable à leur développement en tant qu'entreprises viables et économiquement efficaces. D'où, l'impérieuse nécessité d'une bonne réforme susceptible non seulement de leur conférer une reconnaissance et une protection juridiques, mais aussi d'encadrer leurs activités. Car, la coopération étant « la chose du monde la mieux partagée » (DESCARTES), « elle ne doit toutefois pas être considérée comme une formule magique. Elle doit être utilisée avec une excellente préparation et un grand esprit réaliste. Un mauvais usage de la coopération conduit à l'échec et les échecs multipliés feront perdre confiance en la coopération et ce serait très préjudiciable » (Rosario TREMBLAY).
Resumo:
Cette recherche a pour objectif de mesurer la valeur marginale estimée par les investisseurs canadiens à la suite de l’ajout de 1 dollar d’encaisse, pour la période trimestrielle s’étalant de 2001 à 2013. Autrement dit, nous tentons d’évaluer si l’investisseur déprécie, estime à sa juste valeur nominale ou apprécie la valeur de 1 dollar de trésorerie, et ce à travers son impact sur la valeur marchande de l’équité. Parallèlement, nous tentons d’analyser l’influence des variables liées à la rentabilité, le financement, la croissance et le risque sur la valeur que place l’investisseur à l’ajout de 1 dollar d’encaisse. L’effet sectoriel sera notamment exploré sur l’ensemble de ces périodes. Des études passées ont démontré qu’il existe une asymétrie entre la valeur nominale de 1 dollar d’encaisse et celle estimée par les investisseurs. Plus précisément que l’ajout de 1 dollar de liquidité est évalué à prime. Somme toute, ces analyses affinent leurs résultats en tenant compte de l’influence des autres variables telles que mentionnées plus haut, afin de déterminer celles qui entraînent une appréciation de l’encaisse de celles qui conduisent à sa dépréciation. Nous avons conclu qu’en moyenne la valeur marginale de 1 dollar de liquidité est évaluée à 2,13$ par les investisseurs. Nous avons également pu prouver que les anticipations des investisseurs et le risque total influencent significativement cette estimation. Pour tenter de mesurer la valeur que place l’investisseur à l’ajout de 1 dollar d’encaisse, nous avons utilisé la méthodologie de Pinkowitz et Williamson (2002). Ce faisant, nous avons dans un premier temps mesuré l’impact net de l’encaisse sur la valeur marchande de l’équité en élimant du modèle les variables tenant compte des variations trimestrielles t-2 et t+2. L’hypothèse à vérifier en ce qui concerne l’impact net de l’encaisse est qu’il existe une asymétrie significative entre la valeur de 1 dollar et celle estimée par l’investisseur qui n’est pas uniquement provoquée par l’influence des variations passées et futures de l’encaisse. Les résultats obtenus nous ont permis de prouver que la valeur de 1 dollar d’encaisse est appréciée par l’investisseur, et ce malgré la suppression ou la présence des variables tenant compte des variations. Dans la même ligné, nous avons pu démontrer que, conjointement à l’encaisse au temps t, seules les variations liées aux anticipations des investisseurs impactaient significativement la valeur marchande de l’équité. En ce qui concerne le risque dont l’analyse s’est effectuée en dissociant le risque systématique du risque systémique. L’hypothèse à vérifier est qu’une augmentation du risque systématique entraîne une augmentation de la valeur de l’encaisse estimée par l’investisseur. Les résultats obtenus viennent appuyer cette affirmation. Quant au risque systémique, l’hypothèse à vérifier tente à affirmer qu’en période de crise l’encaisse est sous-estimée par l’investisseur et son impact sur la VME non significatif. Nos résultats nous conduisent à démontrer que pour la crise financière de 2006, cette hypothèse est justifiée, mais nous ne permettent pas de la vérifier pour chaque crise. Finalement, nous tenions à vérifier que dépendamment du secteur étudié, l’encaisse pouvait être plus appréciée par les investisseurs. Or, nos résultats ont montré qu’en présence de la liquidité aucun secteur ne se distingue significativement de ses pairs.
Resumo:
Résumé : La Loi concernant les soins de fin de vie ainsi que la mise en place du régime des directives médicales anticipées sont le résultat d’une profonde transformation sociétale, guidée par l’importance grandissante du respect de l’autonomie décisionnelle des personnes et à leur droit à l’autodétermination. Au regard de ce contexte, cet essai décrit en première partie l’état du droit actuel en matière de volontés exprimées de manière anticipée, il analyse les enjeux qui s’y rapportent tout en soulevant les pistes de réflexion déjà amorcées en droit québécois. Il existe effectivement de nombreux outils qui permettent à un individu d’exprimer ses volontés en prévision de son inaptitude, mais les directives médicales anticipées se distinguent d’une façon bien précise : elles possèdent un caractère contraignant qui reconnaît la primauté des volontés relatives aux soins. Or, parallèlement à cela, le régime des directives médicales anticipées impose des limites à ce droit. Dans ce contexte d’essor du droit à l’autonomie, cet essai étudie, en seconde partie, les limites inhérentes au régime des directives médicales anticipées puis propose une analyse critique des défis liés à l’opérationnalisation clinique de ces directives.
Resumo:
Résumé : Problématique : Une augmentation importante de la prévalence du diabète a été observée au Nouveau-Brunswick au cours de la dernière décennie. Sachant que le diabète est associé à des complications de santé nombreuses et à des coûts élevés infligés au système de soins de santé, il devient important d’identifier les facteurs pouvant expliquer l’augmentation de la prévalence du diabète. L’étude a pour objectif de décrire l’évolution de ces facteurs afin de prioriser les interventions en lien avec cette maladie. Méthodes : Une revue critique de la littérature a permis l’identification de l’ensemble des facteurs pouvant expliquer l’augmentation de la prévalence du diabète. Des données administratives disponibles au Nouveau-Brunswick et des données tirées d’enquêtes de Statistique Canada ont été utilisées afin de décrire l’évolution de plusieurs des facteurs tirés de la revue critique de la littérature. Résultats : Une augmentation de 120% de la prévalence du diabète de type 2 au Nouveau-Brunswick a été observée entre 2001 et 2014. Cette augmentation pourrait être explicable par l’ensemble des cinq catégories de facteurs pouvant expliquer une augmentation de la prévalence dont plusieurs facteurs de risque individuels (dont l’obésité, le prédiabète et l’hypertension), de facteurs de risque environnementaux (dont l’urbanisation), de l’évolution de la maladie (exprimée par une diminution du taux de mortalité et une augmentation de l’incidence), de l’effet de détection (augmentation du nombre de personnes testées, diminution de la valeur d’HbA1c et de l’âge à la détection) et d’un effet du changement dans l’environnement (exprimé par un effet de période et de cohorte). Conclusion: L’augmentation de la prévalence du diabète notée au Nouveau-Brunswick pourrait s’expliquer par plusieurs facteurs de risque individuels, environnementaux, de l’évolution de la maladie, de l’effet de détection et d’un effet du changement dans l’environnement. Cette étude permettra de guider les actions sur le diabète au Nouveau-Brunswick et d’inspirer les autres provinces et pays à identifier les facteurs pouvant contribuer à l’augmentation de la prévalence du diabète grâce à la liste de l’ensemble des facteurs potentiellement explicatifs.
Resumo:
Résumé : Dans les couverts forestiers, le suivi de l’humidité du sol permet de prévenir plusieurs désastres tels que la paludification, les incendies et les inondations. Comme ce paramètre est très dynamique dans l’espace et dans le temps, son estimation à grande échelle présente un grand défi, d’où le recours à la télédétection radar. Le capteur radar à synthèse d’ouverture (RSO) est couramment utilisé grâce à sa vaste couverture et sa résolution spatiale élevée. Contrairement aux sols nus et aux zones agricoles, le suivi de l’humidité du sol en zone forestière est très peu étudié à cause de la complexité des processus de diffusion dans ce type de milieu. En effet, la forte atténuation de la contribution du sol par la végétation et la forte contribution de volume issue de la végétation réduisent énormément la sensibilité du signal radar à l’humidité du sol. Des études portées sur des couverts forestiers ont montré que le signal radar en bande C provient principalement de la couche supérieure et sature vite avec la densité de la végétation. Cependant, très peu d’études ont exploré le potentiel des paramètres polarimétriques, dérivés d’un capteur polarimétrique comme RADARSAT-2, pour suivre l’humidité du sol sur les couverts forestiers. L’effet du couvert végétal est moins important avec la bande L en raison de son importante profondeur de pénétration qui permet de mieux informer sur l’humidité du sol. L’objectif principal de ce projet est de suivre l’humidité du sol à partir de données radar entièrement polarimétriques en bandes C et L sur des sites forestiers. Les données utilisées sont celles de la campagne terrain Soil Moisture Active Passive Validation EXperiment 2012 (SMAPVEX12) tenue du 6 juin au 17 juillet 2012 au Manitoba (Canada). Quatre sites forestiers de feuillus ont été échantillonnés. L’espèce majoritaire présente est le peuplier faux-tremble. Les données utilisées incluent des mesures de l’humidité du sol, de la rugosité de surface du sol, des caractéristiques des sites forestiers (arbres, sous-bois, litières…) et des données radar entièrement polarimétriques aéroportées et satellitaires acquises respectivement, en bande L (UAVSAR) à 30˚ et 40˚ et en bande C (RADARSAT-2) entre 20˚ et 30˚. Plusieurs paramètres polarimétriques ont été dérivés des données UAVSAR et RADARSAT-2 : les coefficients de corrélation (ρHHVV, φHHVV, etc); la hauteur du socle; l’entropie (H), l’anisotropie (A) et l’angle alpha extraits de la décomposition de Cloude-Pottier; les puissances de diffusion de surface (Ps), de double bond (Pd) extraites de la décomposition de Freeman-Durden, etc. Des relations entre les données radar (coefficients de rétrodiffusion multifréquences et multipolarisations (linéaires et circulaires) et les paramètres polarimétriques) et l’humidité du sol ont été développées et analysées. Les résultats ont montré que 1) En bande L, plusieurs paramètres optimaux permettent le suivi de l’humidité du sol en zone forestière avec un coefficient de corrélation significatif (p-value < 0,05): σ[indice supérieur 0] linéaire et σ[indice supérieur 0] circulaire (le coefficient de corrélation, r, varie entre 0,60 et 0,96), Ps (r entre 0,59 et 0,84), Pd (r entre 0,6 et 0,82), ρHHHV_30˚, ρVVHV_30˚, φHHHV_30˚ and φHHVV_30˚ (r entre 0,56 et 0,81) alors qu’en bande C, ils sont réduits à φHHHV, φVVHV et φHHVV (r est autour de 0,90). 2) En bande L, les paramètres polarimétriques n’ont pas montré de valeur ajoutée par rapport aux signaux conventionnels multipolarisés d’amplitude, pour le suivi de l’humidité du sol sur les sites forestiers. En revanche, en bande C, certains paramètres polarimétriques ont montré de meilleures relations significatives avec l’humidité du sol que les signaux conventionnels multipolarisés d’amplitude.
Resumo:
Dans ce travail, on utilise un MEGC statique pour aborder l'impact du développement des biocarburants sur la croissance économique et sociale au Sénégal. Notre choix d’utiliser un modèle d’équilibre général calculable (MEGC) pour cette étude se justifie par le fait qu’ils sont de nos jours des modèles macroéconomiques particulièrement adaptés à l’étude de politiques structurelles à moyen ou long terme. Le modèle a été développé sur la base du modèle EXTER issu de deux matrices légèrement différentes : l’une reflétant l’économie réelle du Sénégal de 2011 et mise à jour pour 2014 et l’autre étant une matrice hypothétique intégrant les données sur les agrocarburants obtenues à partir des calculs de l’auteure. Le modèle met en exergue les spécificités de l’intégration de ce secteur dans l’économie sénégalaise. Il met plus l’accent sur les secteurs énergivores vu que l’objectif principal étant la réduction de la dépendance énergétique du pays. Deux simulations sont réalisées afin d'effectuer cette analyse : une hausse de l’offre de travail et une subvention accordée aux secteurs des biocarburants comme première simulation et la deuxième simulation reprend la première simulation en y ajoutant une hausse du prix des importations des produits pétroliers. Ainsi, par les mécanismes d’équilibre général, les résultats nous montrent une évolution des agrégats macroéconomiques dans leur ensemble dans les deux simulations. Cependant, sauf dans certains secteurs, en généralité, l’intégration des agrocarburants et leur exploitation avantage beaucoup le pays sur presque tous les secteurs de l’économie.