982 resultados para Archive numérique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire explore la formation des artistes comme entrepreneurs d’eux-mêmes à travers les pratiques de leurs associations professionnelles. Le premier chapitre brosse un portrait du champ culturel québécois et y situe plus spécifiquement les associations qui font l’objet de ce mémoire. L’approche adoptée en est une de gouvernementalité et ce chapitre s’attarde aussi aux sujets constitués dans le dispositif du champ culturel. Le deuxième chapitre aborde les questions méthodologiques soulevées par l’étude : la construction d’une archive et les détails des entretiens conduits. L’archive foucaldienne a été adaptée afin d’y inclure des entretiens. L’objectif était de pouvoir analyser à la fois la subjectivation impliquée par les pratiques des associations et l’exercice du pouvoir sur soi par les artistes. Les troisième, quatrième et cinquième chapitres rendent compte des analyses effectuées. Le troisième chapitre vise à définir l’inclusion dans les associations, c’est-à-dire quels artistes ont accès à leurs services. Avant même que les artistes puissent investir sur eux-mêmes à travers les services des associations, le processus d’adhésion implique déjà une certaine entreprise de soi. Ce chapitre jette les bases du suivant en introduisant la notion de sécurité sur le marché du travail. Le quatrième chapitre aborde plus précisément le sujet entrepreneur de soi qui investit dans sa sécurité à travers des services offerts par les associations : la formation et les caisses de sécurité. Il présente aussi le membership comme investissement en soi, qui donne accès à d’autres investissements, et explore l’inflexibilité des associations comme frein à l’entreprise de soi à travers l’idée d’expérience. Le cinquième chapitre, prenant en compte que les parcours des artistes ne sont isolés, les situe dans un contexte plus large que celui des associations. Il aborde ainsi les notions de marché, de passion et de responsabilisation. La conclusion de ce mémoire en résume le propos général et offre une réflexion épistémologique ainsi qu’une réflexion sur la position schizophrénique du sujet dans le contexte néolibéral.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de cette thèse est d’analyser les modes d’émergence de la voix chez cinq écrivains québécois ayant initié, durant les années 1940-1970, leur parcours littéraire à travers la pratique de la poésie. Cette thèse puise à même les ressources de la poétique telle qu’alimentée par les penseurs contemporains (Agamben, Blanchot, Didi-Huberman, Lyotard, Rey, Anzieu) et utilise certains outils d’analyse que fournissent la psychanalyse, la sociocritique, la linguistique et la philosophie. Aussi, certains documents personnels exhumés de divers fonds d’archives des cinq auteurs (lettres, journal, notes, brouillons) concourent à éclairer les modes d’émergence à l’oeuvre dans les premiers poèmes, afin de démontrer comment les écrits à venir se trouvent entièrement préfigurés dans ces textes initiaux. Il s’agit, en somme, de montrer comment ces poètes furent aux prises avec certaines problématiques communes, notamment le grand défi de fonder une parole authentique au sein d’une communauté poétique si longtemps réservée aux élites. Ayant tous amorcé un processus d’écriture à la moitié du XXe siècle, Gaston Miron, Alexis Lefrançois, Claude Gauvreau, Roland Giguère et Anne Hébert n’en demeurent pas moins déterminés par la culture qui les a formés; leurs oeuvres respectives sont, par conséquent, fondamentalement ancrées dans une quête d’élucidation de soi et de l’autre qui ne saurait s’élaborer qu’en suivant les chemins les plus intimes, et dont je tenterai, à travers une lecture personnelle de leurs premiers textes, de rendre toute la portée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le projet de territoire n’aura jamais suscité autant de débats et de passions. Son devenir mobilise à bien des égards la construction collective d’un dessein se matérialisant par des formes qui informent des forces tout autant que par des forces qui investissent des formes lesquelles traduisent les valeurs du moment. Par conséquent, cette projection dans un avenir partagé amène des exigences sociales en matière d’édification du projet de territoire mettant à l’ordre du jour la complexité d’une telle entreprise. L’enchevêtrement d’actions et de logiques qui s’y opèrent et qui s’y expriment pour en élaborer, dans la plus grande incertitude, les contours d’un futur souhaité nous presse de s’y prononcer : la construction complexe d’un dessein territorial s’exhibant nous interpelle quant à son évaluation voire quant à sa reformulation. Parmi les modalités d’expression qui permettent une telle délibération, il y a l’énoncé visuel. Médiation discursive privilégiée, elle autorise l’élaboration et la mise en scène collective d’un devenir territorial possible. Or depuis quelques années, au couple projet / représentation, vient se superposer une autre médiation, celle du numérique. Portée par le développement des technologies de l’information, celle-ci s’invite dans le champ de l’édification du projet de territoire. En s’alliant avec la puissance de l’image, elle recompose les représentations d’un dessein territorial collectivement formulé, ouvrant un nouvel espace d’actions à l’occasion d’une démarche de planification. Démarche de plus en plus complexe. De surcroit, la présente recherche tient cette complexité non comme un mot «fourre-tout» ou une tare dont il faudrait se débarrasser, mais se résout à l’affronter en s’inscrivant dans un paradigme en pleine gestation, celui de la «pensée complexe». La fécondité autant conceptuelle qu’opératoire d’une telle inscription permettra de jeter un regard renouvelé sur une pratique à travers une de ses modalités discursives à la fois la plus manifeste et la moins questionnée, à savoir l’énoncé visuel. En fin de compte, les représentations notamment celles construites et véhiculées par le numérique sauront-elles rendre compte et relever le défi de l’édification collective d’un projet de territoire qui se pose dans toute sa complexité ? Telle est en substance le questionnement dont cette recherche s’attellera à apporter des éléments de réponse et à esquisser de nouvelles perspectives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

À partir d’observations personnelles sur l’importance de la technique et des technologies dans la production musicale, le projet de ce mémoire fut élaboré autour de la sociologie de la musique de Weber. En premier lieu, un questionnement du rapport entre musique, technologie et société permet d’établir de nombreuses voies pour la recherche concernant les médiations techniques de la musique. Ces médiations sont maintenant caractérisées par les changements issus de l’implantation de l’informatique dans de nombreuses sociétés et la modification des rapports de pouvoir et des rapports sociaux par les possibilités nouvelles offertes par le médium numérique. Si Internet semble avoir bouleversé l’industrie de la musique, de nouvelles possibilités de dépasser les limitations des technologies traditionnelles de la musique sont toutefois aussi apparues au sein de ce « système sociotechnique ». Ces modifications prennent la forme de philosophies, mais aussi de pratiques sociales qui se répandent, avant tout, auprès de la jeune génération, ce qu’il est possible d’observer par les changements dans les pratiques musicales. À partir des outils conceptuels de Weber, deux idéaltypes seront créés qui représentent autant de modes de diffusion de musique sur Internet. L’accent est mis sur la différence entre les pratiques sociales et musicales de ces modes de diffusions : l’un est basé sur des pratiques traditionnelles et greffé sur la nouvelle plateforme Internet, l’autre emprunte les caractéristiques de la diffusion de l’information en réseau caractéristique de la culture Internet et se caractérise par des pratiques dites réflexives. Ces idéaltypes, ainsi que les cas qui les constituent et qu’ils mettent en lumière, sont mis à profit pour discuter des motifs de l’action chez différents agents au cœur des pratiques de diffusion et, finalement, des modalités variées que prend la rationalisation de la diffusion de la musique à partir du médium numérique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis quelques décennies, l'intérêt pour l’étude de la fonction d’évaluation s’est diversifié pour approfondir les principes théoriques (Jenkinson, 1922; Schellenberg, 1956; Samuels, 1992; Cook, 1992b; Eastwood, 1992b; Duranti, 1994; Couture, 1999), les stratégies (Booms, 1972; Samuels, 1986; Cook, 1992b; Eastwood, 1992b; Couture, 1999) et les dispositifs de leur processus d’application (Ham, 1984; Boles & Young, 1991; Cook, 2001a, 2001b). Mais, toutes ces contributions n'ont pas encore étudié la nature des résultats de l'évaluation que sont les archives définitives. Du point de vue patrimonial, l’absence d’études sur la définition et la mesure des qualités des archives définitives ne permet pas de vérifier si ces archives constituent un patrimoine documentaire significatif. Sur le plan administratif, l’état actuel de la pratique de l'évaluation n'a pas encore investi dans l'examen méticuleux de la nature de ses résultats. Au plan économique, le manque de méthodes et d'outils pour la mesure des qualités des archives ne permet pas de juger si ces archives valent l’investissement matériel, technique, financier et humain que leur conservation implique. Du point de vue professionnel, l’absence de méthodes et d’instruments d’évaluation des qualités des archives ne permet pas aux professionnels d’appuyer leur décision en matière d’évaluation des archives. Afin de remédier à cette situation, notre recherche vise à définir et à mesurer les qualités des archives définitives issues de l’évaluation. Pour ce faire, nous privilégions une méthodologie quantitative de nature descriptive, appropriée lorsqu’il s’agit d’étudier un sujet peu abordé (Fortin, 2006) tel que l'opérationnalisation des qualités des archives définitives. La stratégie de la recherche a comporté deux phases. La phase conceptuelle a permis d’identifier et de définir quatre qualités soit l’« Unicité », la « Preuve crédible », l’« Exploitabilité » et la « Représentativité ». La phase empirique consistait à vérifier la mesurabilité, à titre d’exemple, des variables découlant de deux des quatre dimensions de qualité dans le contexte des archives définitives, soit la « Preuve crédible » et l’« Exploitabilité ». Le mode de collecte des données réside dans l’application d’une grille de mesure conçue spécialement aux fins de cette étude. La réalisation de la collecte de données qui s’est déroulée à Bibliothèque et Archives nationales du Québec a permis l’opérationnalisation de 10 indicateurs spécifiques sur 13 appartenant à deux dimensions de qualité : la « Preuve crédible » et l’« Exploitabilité » des archives définitives. Ainsi, trois indicateurs spécifiques sur l’ensemble de 13 sont restés sans mesures à cause d’une certaine faiblesse liée à leur mesure que nous avons pu identifier et vérifier lors des pré-tests de la recherche. Ces trois indicateurs spécifiques sont le « Créateur » dans le cadre de la dimension de la « Preuve crédible », ainsi que la « Compréhensibilité » et la « Repérabilité » dans le cadre de la dimension de l’« Exploitabilité ». Les mesures obtenues pour les 10 indicateurs ont mené à l’identification des avantages et des points à améliorer concernant différentes variables liées au créateur, au service de conservation ou encore à l’état et à la nature du support. Cibler l’amélioration d’un produit ou d’un service représente, comme démontré dans la revue de la littérature, le but ultime d’une étude sur les dimensions de qualité. Trois types de contributions découlent de cette recherche. Au plan théorique, cette recherche offre un cadre conceptuel qui permet de définir le concept de qualité des archives définitives dans une perspective d’évaluation archivistique. Au plan méthodologique, elle propose une méthode de mesure des qualités applicables aux archives définitives ainsi que les instruments et le guide qui expliquent sa réalisation. Au plan professionnel, d'une part, elle permet d’évaluer les résultats de l’exercice de l’évaluation archivistique; d'autre part, elle offre aux professionnels non seulement une grille de mesure des qualités des archives définitives déjà testée, mais aussi le guide de son application.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent travail porte sur ce qui détermine et garantit la valeur primaire des documents dans l’environnement numérique, notamment dans le contexte des organisations. L’écrit est-il demeuré la meilleure preuve à l’ère numérique? En quoi les conditions électroniques d’écriture, de relations entre supports et informations ont-elles changé la situation? Du « tout papier » qui fut la norme jusqu’aux années 80, les entreprises ont basculé dans une « économie mixte » où le papier et le numérique cohabitent, voire, où le numérique a entièrement supplanté le papier. Toutefois, le caractère exact de ce changement au niveau des aspects de preuve, d’authenticité, voire légaux des documents numériques semble demeurer dans le vague. En s'appuyant sur une revue de la littérature, ce travail tente de clarifier les concepts nécessaires à la garantie de la valeur primaire des documents numériques, et de les mettre en lien avec l’environnement papier, de manière à comparer les deux. Ce travail suggère que si les principes de base de l’évaluation en matière de valeur primaire s’appliquent toujours, les conceptions juridiques ont en revanche évolué pour reconnaître dans le numérique non pas un « remplaçant » de l’écrit papier, mais un équivalent fonctionnel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire en recherche création débute par un récit poétique rédigé par fragments et intitulé Ma mère est une porte. Ce texte met en abyme les ruines afin de démontrer leur lien de contiguïté avec l’absence, l’empreinte, la mémoire et la mort. D’ailleurs, leur aspect ruiniforme rappelle le fragment, ce qui permet d’appuyer l’esthétique formelle de l’œuvre. La deuxième partie intitulée Approche génétique : un monument à la mémoire des disparus emportés par le temps de l’écriture, propose une réflexion sur l’imaginaire des ruines en lien avec les archives littéraires et la mémoire. Divisé en trois sections, cet essai pose un regard inquiet sur l’avenir de l’objet d’étude de la critique génétique, soit le manuscrit moderne. Depuis l’avènement de l’informatique et du traitement de texte, que conserverons-nous de la mémoire scripturale et du processus d’écriture de l’écrivain de demain?

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse s’interroge sur le phénomène du jeune téléspectateur contemporain. Je questionne cette « réalité », qui fait l’objet de discours et de pratiques sociales au quotidien. L’idée de l’existence « objective » de l’enfant téléspectateur depuis l’avènement de la télévision est si fertile, qu’elle a même contribué au développement d’un sous-domaine de recherche en communication : la communication jeunesse. J’inclus également ce sous-domaine dans la problématique. Ce faisant, je tente d’esquisser une théorisation de l’enfant téléspectateur, en le comprenant comme une formation discursive et sociale. Suivant le point de vue de l’analyse de discours de Michel Foucault (1969), j’axe son étude en articulant deux éléments qui forment les objets sociaux : le régime de vérité et les formations discursives. Ainsi, je réfléchis au jeune téléspectateur comme objet de savoir et de vérité, et comme fruit d’un ensemble de formations discursives. J’ancre empiriquement le questionnement du jeune téléspectateur contemporain dans le Chili « post-1990 ». Je propose une approche méthodologique et analytique me permettant de rendre compte de l’articulation d’éléments hétérogènes qui participent au façonnement discursif et social de celui-ci. Cet outil exploratoire est « le rhizome », que j’emprunte à Gilles Deleuze et à Félix Guattari (1976). Le rhizome m’est utile pour rendre compte des multiples portes d’entrée dans la formation discursive de l’enfant téléspectateur, du déplacement comme chercheuse à l’intérieur de celle-ci, et des figures qui se forment par l’articulation du discours et des pratiques entreprises à son égard. Ce faisant, je propose une archive d’époque de l’enfant téléspectateur du Chili « post-1990 ». Dans celle-ci, je montre des modalités particulières de sa formation discursive et des figures hétéroclites de celui-ci qui ont émergé dans les analyses. Finalement, je présente un ensemble de pratiques discursives qui ont également fait surface dans les analyses. Ces pratiques emploient la figure de l’enfant téléspectateur pour instaurer discursivement d’autres « réalités », qui ne le concernent pas directement. M’appuyant sur Jean-Michel Berthelot (1992), notamment sur son concept d’« opérateur discursif », je qualifie ainsi ces pratiques observées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail personnel dans le cadre de SCI6850, recherche individuelle, en vue d'obtenir trois crédits. Présenté à l'École de bibliothéconomie et des sciences de l'information.