309 resultados para détection de chute
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
La perchaude (Perca flavescens) constitue une ressource socioéconomique de grande importance dans le Lac Saint-Pierre (Québec, Canada). Bien que ce lac fluvial soit désigné réserve de la biosphère par l’UNESCO, le statut de la perchaude est préoccupant. Afin de permettre à l’espèce de persister en fonction des diverses pressions anthropiques, il est important de comprendre sa dynamique populationnelle et les mécanismes qui en sont responsables. La perchaude est connue pour sa philopatrie ; le fait de toujours se reproduire à son site de naissance peut entraîner la subdivision d’une espèce en de multiples populations, où chacune pourra être pourvue d’adaptations locales distinctes. Il est possible d’étudier ces processus à l’aide des signaux génétiques associés à la reproduction des individus. Toutefois, une faible différentiation génétique entre les populations du Lac Saint-Pierre est envisagée en raison de la colonisation récente du système (moins de 8000 ans). L’objectif de cette étude est de déterminer s’il existe plusieurs populations de perchaude dans le Lac Saint-Pierre. Les simulations réalisées ont révélé que l’utilisation de marqueurs AFLP (amplified fragment length polymorphism), permettant une analyse globale du génome, affiche une meilleure détection de la différentiation des populations que celle des marqueurs microsatellites. Afin d’associer les individus à leur site de naissance, la méthode d’AFLP et des microsatellites ont été utilisées sur des larves capturées suite à l’éclosion des oeufs. Trois analyses distinctes d’AFLP ont indiqué une corrélation entre la composition génétique des individus et des sites géographiques, confirmant ainsi la présence de plusieurs populations sympatriques dans le Lac Saint-Pierre, découlant vraisemblablement de la philopatrie de l’espèce. L’absence de différentiation génétique relatée par les marqueurs microsatellites vient confirmer l’importance du choix des marqueurs génétiques. Bien que la différentiation génétique observée soit relativement faible, la gestion de la perchaude devrait tenir compte de la dynamique des populations distinctes dans ce système.
Resumo:
INTRODUCTION La production biologique contribue de façon significative aux défis du développement durable. Les infections à Mycobacterium avium sous-espèce paratuberculosis (MAP), Neospora caninum (NC), au virus de la diarrhée virale bovine (BVD) et au virus de la rhinotrachéite infectieuse bovine (IBR) sont bien reconnues pour affecter de manière significative la production dans les élevages laitiers. Il n’existe toutefois aucune donnée sur l’importance de ces pathogènes dans les troupeaux biologiques. HYPOTHESE Ces quatre pathogènes sont présents dans les troupeaux laitiers biologiques, mais leur prévalence est moindre par rapport à l’élevage conventionnel. OBJECTIFS Estimer les séroprévalences de NC, MAP, BVD, IBR dans les troupeaux laitiers biologiques québécois. MÉTHODOLOGIE Dans la province du Québec, 60 troupeaux laitiers biologiques ont été sélectionnés aléatoirement. Un échantillon sanguin a été prélevé sur 30 vaches adultes, pour l’évaluation de NC et MAP, et sur 5 animaux plus de 6 mois non vaccinés, pour l’évaluation de BVD et IBR. Une détection d’anticorps par ELISA, pour NC et MAP, et par séroneutralisation pour BVD et IBR a été réalisée sur les sérums obtenus. Un questionnaire a été rempli par chaque éleveur. RÉSULTATS La séroprévalence individuelle de NC et MAP, avec un intervalle de confiance de 95%, étaient de 4.1% (3.2%-5.2%) et 0.8% respectivement (0.0%-1.3%). La séroprévalence de troupeau de NC, MAP, BVD, IBR, si au moins un animal est positif dans un troupeau étaient de 50.8%, 20.3%, 37.3%, 31.0% respectivement. Ces séroprévalences étaient de 30.5%, 3.4%, 28.8% et 18.9%, respectivement, si au moins deux animaux sont positifs. La taille du troupeau a un effet significatif sur le statut de BVD (p=0.02) et il y a une bonne corrélation entre le statut BVD et IBR (Kappa-0.54). DISCUSSION/CONCLUSION La séroprévalence individuelle de NC, MAP, IBR semblent être moindre dans les troupeaux laitiers biologiques comparativement au conventionnel. Il ne semble pas y avoir de grandes différences entre la séroprévalence du BVD des troupeaux biologiques et celle des conventionnels.
Resumo:
La période de l’après-guerre posa d’importants défis commerciaux à l’économie canadienne. Les années entre 1945 et 1950 furent effectivement marquées par la rupture de son système commercial traditionnel et la recherche d’une stratégie alternative. Le pays dut composer avec un déficit commercial croissant à l’égard des États-Unis, ainsi qu’une chute de ses exportations à destination du Royaume-Uni, ruiné par les années de guerre. Ce déséquilibre commercial qui menaçait d’épuiser les réserves canadiennes de dollars américains reflétait l’écart entre les capacités productives des deux rives de l’Atlantique. Le programme de reconstruction des économies européennes, ou plan Marshall, fut accueilli avec enthousiasme à Ottawa puisqu’il devait non seulement rétablir les marchés du Vieux Continent, mais également faciliter la mise en place d’un réseau multilatéral d’échanges et la libéralisation du commerce international. Les tensions de la guerre froide limitèrent toutefois l’ouverture de ces marchés aux marchandises canadiennes, puisque l’endiguement du communisme commanda une consolidation européenne qui privilégia le démantèlement des entraves aux échanges intra-européens, aux dépens du commerce transatlantique. Les préoccupations de Washington en matière de sécurité collective devaient néanmoins laisser place à une stratégie alternative pour le Canada, en poussant la coopération économique des deux pays, dans le but d’optimiser une production de défense destinée aux pays membres de l’OTAN, dont la demande était soutenue par l’aide Marshall. L’incorporation du Canada dans ce dispositif de défense élargie à la communauté atlantique permit ainsi d’assurer un accès privilégié à ses marchandises sur le marché américain, et par conséquent de progresser vers l’équilibre commercial.
Resumo:
Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.
Resumo:
Des anomalies dans la morphologie pelvienne, la posture du tronc et le contrôle de l’équilibre de jeunes filles atteintes de scoliose idiopathique de l’adolescence (SIA) ont souvent été l’objet d’études. Rares sont celles ayant distingué ces troubles en fonction de la sévérité de la déformation vertébrale. De plus, aucune n’a évalué à l’intérieur d’une même étude l’orientation et la distorsion pelvienne, l’asymétrie posturale et l’instabilité en position debout de sujets SIA. Une telle étude permettrait de comprendre le développement de la maladie et de mettre en évidence des facteurs de risque aidant au pronostic. L’objectif général de cette thèse est d’identifier des facteurs biomécaniques associés à la croissance osseuse, la posture et l’équilibre distinguant une SIA modérée d’une sévère. Les positions 3D de 14 repères prises sur 46 filles ayant une SIA droite (modérée et sévère) et 28 sujets témoins ont été captées pour quantifier la morphologie pelvienne et la posture. Un maintien en position debout de 64 s sur une plate-forme de force a aussi été enregistré afin d’évaluer leur équilibre. Les paramètres retenus sont les angles d’orientation pelvienne et du tronc; les distances entre la crête iliaque et S1 mesurant la distorsion pelvienne; la moyenne, l’amplitude et la vitesse du centre de pression (COP) en médiolatéral (ML) et antéropostérieur ainsi que la moyenne et l’amplitude du moment libre. Les différences entre les trois groupes (témoin, SIA modérée et SIA sévère) sont testées par des ANOVA et les relations entre l’angle de Cobb et les paramètres pelviens, posturaux ou d’équilibre, par des coefficients de corrélations. De plus, des régressions multiples exprimant l’angle de Cobb sont effectuées avec les paramètres pelviens, posturaux et d’équilibre afin de déterminer la classe de paramètres prédisant le mieux l’angle de Cobb. Aucune ANOVA n’est significative pour l’orientation pelvienne, bien que des différences de géométrie pelvienne soient notées entre les deux groupes de sujets SIA. Les SIA modérées ont un pelvis gauche moins profond que les SIA sévères et les sujets témoins, tandis que les SIA sévères ont un pelvis droit plus large d’environ 1,5 cm que celui des SIA modérées. Un coefficient de corrélation de -0,54 associe une rotation pelvienne droite à l’augmentation de la largeur de la crête iliaque. Au niveau postural, les SIA sévères démontrent des inclinaisons latérales et antérieures du tronc ainsi qu’une rotation axiale du haut du corps plus marquées que les SIA modérées. Les corrélations entre les paramètres posturaux, l’angle de Cobb et la morphologie pelvienne indiquent que l’attitude posturale est associée à la distorsion pelvienne dans tous les plans anatomiques, tandis qu’elle ne l’est que dans les plans sagittal et horizontal à l’angle de Cobb. Les différences retrouvées entre les deux groupes SIA concernant les troubles d’équilibre résultent en une augmentation de l’amplitude et de la vitesse du COPML. Une régression multiple de 0,896 est observée par l’emploi des paramètres pelviens, posturaux et d’équilibre, bien que ceux se rapportant à la distorsion pelvienne soient les mieux corrélés à l’angle de Cobb. Cette thèse permet de distinguer la morphologie pelvienne de sujets SIA sévères des modérées, soulignant la détection d’une anomalie de croissance avant que l’angle de Cobb ne soit élevé. Bien que les indices de croissance pelvienne soient davantage corrélés à ce dernier, c’est en considérant globalement la morphologie pelvienne, la posture et l’équilibre qu’une détermination précise de la sévérité d’une scoliose est réalisée. La mise en évidence de tels facteurs de prédiction de la SIA peut faciliter le pronostic d’une courbure.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Les contrevenants de la conduite avec capacités affaiblies (CCA) n’entrent pas tous dans les registres de la sécurité routière avec le même risque de récidive. Pour pallier cette hétérogénéité, cette thèse propose de modéliser les interrelations entre les traits de personnalité et les comportements à risque associés à la récidive et de détecter un sous-groupe de contrevenants au risque de récidive élevé à l’aide de l’axe hypothalamo-hypophyso-surrénalien (HHS). Plus particulièrement, les trois articles de cette thèse s’intéressent au cortisol, l’hormone du stress. Le premier article élabore un modèle théorique réconciliant les connaissances sur l’axe HHS issues du domaine de la CCA et de domaines connexes. Lors de précédentes études, le nombre de condamnations antérieures pour CCA a été associé négativement à la réactivité du cortisol à la suite d’une situation stressante. Chez les récidivistes, cette faible réactivité s’explique partiellement par la recherche d’expériences, une dimension de la recherche de sensations. Au-delà ce trait de personnalité désinhibiteur, une faible activité de l’axe HHS a été associée à d’autres traits (c.-à-d. impulsivité et tendances antisociales) et d’autres comportements à risque (c.-à-d. infractions routières, arrestations criminelles et consommation problématique de substances psychoactives). Ce modèle intégrant la réactivité du cortisol permet une conceptualisation approfondie des diverses caractéristiques des contrevenants de la CCA et explique hypothétiquement la répétition des comportements à risque. Les deux articles suivants se penchent sur l’intérêt empirique d’utiliser l’axe HHS pour déterminer un sous-groupe de contrevenants à risque élevé de récidive. Plus précisément, le deuxième article émet l’hypothèse que les récidivistes (n = 30) ayant une faible activité de leur cortisol (c.-à-d. médiane de la surface sous la courbe relative au niveau de base et relative à la réactivité) ont davantage de traits de personnalité désinhibiteurs et de comportements à risque que les récidivistes ayant une forte activité. L’hypothèse n’a pas été confirmée. Au contraire, les récidivistes présentant une faible réactivité commettent moins d’infractions routières et d’arrestations criminelles que ceux ayant une forte réactivité. Quant à lui, le troisième article investigue une hypothèse similaire auprès des contrevenants primaires (n = 139). Les contrevenants manifestant une faible réactivité du cortisol (c.-à-d. différence entre prélèvements post-stress et pré-stress) ont davantage d’impulsivité attentionnelle, de non-planification, d’arrestations criminelles et de cigarettes fumées par jour que les contrevenants ayant une forte réactivité. Lors d’analyses exploratoires, la présence d’une variété de traits de personnalité désinhibiteurs et de comportements à risque chez les contrevenants primaires présentant une faible réactivité lorsque comparé au groupe contrôle (n = 31) suggère encore une fois leur risque élevé de récidive. L’intérêt d’ajouter un mécanisme neurobiologique pour modéliser les interrelations entre les traits de personnalité désinhibiteurs et les comportements à risque des contrevenants de la CCA a été exploré dans cette thèse. La détermination d’un sous-groupe de contrevenants présentant un risque élevé de récidive, à l’aide de l’axe HHS, semble davantage profitable auprès de l’hétérogène population des contrevenants primaires. En contrepartie, l’axe HHS ne permet pas de déterminer un sous-groupe ayant une problématique sévère auprès des récidivistes à l’extrême du continuum du risque.
Resumo:
A partir des résultats d’une enquête effectuée en 2005 sur un échantillon de 203 dirigeants publics, une typologie floue de trois profils a été dégagée en vue de concevoir un système d’affectation des dirigeants en fonction de leur style du leadership, sens du travail, et leurs préoccupations de gestion des ressources humaines. En se basant sur cette typologie floue, des techniques empruntées à l’intelligence artificielle ont été appliquées pour apprendre des règles de classification. Ces techniques sont au nombre de quatre : le réseau neuronal (Neural Network), l’algorithme génétique (Genetic Algorithm), l’arbre de décision (Decision Tree) et la théorie des ensembles approximatifs (Rough Sets). Les résultats de l’étude ainsi que ses perspectives seront présentées et discutés tout au long de cette communication.
Resumo:
L’empire colonial français se désagrège à partir des années 1950. Après la perte des colonies fondées au Maroc et en Indochine, la France doit faire face à la sécession de sa plus importante colonie, l’Algérie. La population française accepte difficilement cette sécession puisqu’il ne s’agit pas uniquement de la chute de l’empire colonial mais aussi de la destruction d’idéaux qui lui étaient chers. Plus que la peur de ne plus être un empire colonial, les Français redoutent la perte de leur statut de puissance mondiale et de leur vision de pays possédant une mission civilisatrice. Pour comprendre l’évolution de la perception de l’Algérie en France après la décolonisation algérienne à travers plusieurs courants de pensée, ce mémoire se penche sur les éditoriaux publiés dans trois journaux français (Le Figaro, L’Humanité et Le Monde) entre 1962 et 1971 qui traitent d’événements qui se sont déroulés en Algérie. Il se penche plus particulièrement sur le terrorisme de l’OAS au moment de l’indépendance algérienne, le conflit au sein du Front de Libération Nationale (FLN) pour décider qui détiendra le pouvoir, le conflit avec le Front des Forces Socialistes (FFS), la guerre avec le Maroc, le coup d’état de Boumedienne et la nationalisation du pétrole algérien.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Dans ce mémoire, nous décrivons le travail effectué pour étendre nos connaissances sur les sources d’instabilité instrumentales en imagerie de résonance magnétique, en particulier dans le domaine anatomique par une étude où cinq adultes ont été scannés quatre fois dans la même plate-forme IRM, deux fois avant et deux fois après une mise à niveau importante d’un scanner 3T de Siemens. Les volumes de l’hippocampe droit et gauche de chaque sujet ont été mesurés avec une segmentation manuelle. Nous avons analysé la fiabilité test-retest avant et après la mise à niveau du système d’IRM. Dans le domaine fonctionnel, cinq adultes ont été scannés quatre fois dans la même plate forme IRM deux fois avant et deux fois après la même mise à niveau du scanneur. Les acquisitions du signal BOLD sont faites dans deux différentes résolutions spatiales (2x2x2mm et 4x4x4mm) pour évaluer la sensibilité du signal BOLD sous conditions de haute et basse SNR. Une dernière étude fonctionnelle sur fantôme avait pour but d’étudier la stabilité de la machine pour les images fonctionnelles et détecter les sources de bruit de type machine. La séquence EPI (Echo Planar Imaging) d’écho de gradient à deux dimensions a été utilisée. Des analyses comme le pourcentage des fluctuations et l’analyse de Fourier des résidus ont également été réalisées. Nous résultats indiquent que les différences dans le matériel provenant d’une importante mise à niveau ne peuvent pas compromettre la validité des études structurelles et fonctionnelles faites à travers la mise à niveau du scanneur. Les acquisitions quotidiennes ont permis de suivre l’évolution de la stabilité et de détecter toute source de bruit qui peut détériorer la détection des activations dans les images fonctionnelles.