949 resultados para Waveform segmentation
Resumo:
The study approaches student travel from the perspective of postmodern consumption. The background is in the observation that the student travel market has a vast potential, but it is not necessarily capitalized upon to the extent it could. This might partly have to do with the peculiarities of postmodernity: consumption is characterized by unpredictability and abstract motives. The research questions are built around what constitutes student travel consumption and how can students be categorized according to motivation, behaviour and values. Also identity and expressiveness are present and it is evaluated, if travel services facilitate these background is the observation that the student travel market has a vast potential, but it is not necessarily capitalized upon to the extent it could be. This might partly have to do with the peculiarities of postmodernity: consumption is characterized by unpredictability and abstract motives. The research questions are built around what constitutes student travel consumption and how can students be categorized according to motivation, behaviour and values. Also identity and expressiveness are present and it is evaluated whether travel services facilitate these constructs. The topic is approached by discovering the key concepts such as self-identity. This was done in order to create survey questions that reflect the underlying theories. The survey was sent to chosen student groups of Turku School of Economics. The data was analyzed using statistical methods, mainly principal component analysis, in order to categorize students’ motives and behaviour into distinct profiles. The findings indicate that students have a high level of awareness in their travel consumption choices. Travel services seem to facilitate identity and lifestyle expressiveness, one central dimension of postmodernity. Psychographics such as motivation seem to work well as a segmentation criteria when it comes to the student traveler market. Travel offers students an opportunity for relaxation, escape, enjoyment and gaining new experiences and social contacts. Furthermore, the enjoyment of the travel experience extends to the pre- and post-trip time.
Resumo:
Whiplash injuries are common yet enigmatic to substantiate clinically. Trigeminal somatosensory evoked potentials (TSEPs) were posited as an indicator of trigeminal nerve conduction damage resulting from whiplash. Alternating polarity square-wave current stimuli were applied transcutaneously in the facial region. 379 recorded pilot trials from 27 participants (8 male and 19 female) were utilized to develop a non-invasive recording capability for TSEPs. Stimulus intensity and artifact, cortical recording sites, stimulation electrode design and placement were explored. Statistically significant differences in amplitude of TSEP waveform components at 13, 19 and 27 ms between uninjured and whiplashed participants were noted. Increased stimulus intensity in whiplashed participants was observed to increase TSEP amplitude. The present methodology and hardware are discussed and directions for future advancement of the current process are outlined.
Resumo:
Several recent studies have described the period of impaired alertness and performance known as sleep inertia that occurs upon awakening from a full night of sleep. They report that sleep inertia dissipates in a saturating exponential manner, the exact time course being task dependent, but generally persisting for one to two hours. A number of factors, including sleep architecture, sleep depth and circadian variables are also thought to affect the duration and intensity. The present study sought to replicate their findings for subjective alertness and reaction time and also to examine electrophysiological changes through the use of event-related potentials (ERPs). Secondly, several sleep parameters were examined for potential effects on the initial intensity of sleep inertia. Ten participants spent two consecutive nights and subsequent mornings in the sleep lab. Sleep architecture was recorded for a fiiU nocturnal episode of sleep based on participants' habitual sleep patterns. Subjective alertness and performance was measured for a 90-minute period after awakening. Alertness was measured every five minutes using the Stanford Sleepiness Scale (SSS) and a visual analogue scale (VAS) of sleepiness. An auditory tone also served as the target stimulus for an oddball task designed to examine the NlOO and P300 components ofthe ERP waveform. The five-minute oddball task was presented at 15-minute intervals over the initial 90-minutes after awakening to obtain six measures of average RT and amplitude and latency for NlOO and P300. Standard polysomnographic recording were used to obtain digital EEG and describe the night of sleep. Power spectral analyses (FFT) were used to calculate slow wave activity (SWA) as a measure of sleep depth for the whole night, 90-minutes before awakening and five minutes before awakening.
Resumo:
The purpose of this study is to examine the psychographic (product attributes, motivation opinions, interest, lifestyle, values) characteristics of wine tourists along the Niagara wine r,~ute, located in Ontario, Canada, using a multiple case study method. Four wineries were selected, two wineries each on the East, and West sides of the wine route during the shoulder-season (January, February, 2004). Using a computer generated survey technique, tourists were approached to fill out a questionnaire on one of the available laptop computers, where a sample ofN=321 was obtained. The study findings revealed that there are three distinct wine tourist segments in the Niagara region. The segments were determined using an exploratory factor analysis (EFA) and a K-means cluster analysis: Wine Lovers, Wine Interested, and Wine Curious wine tourists. These three segments displayed significant differences in their, motivation for visiting a winery, lifestyles, values, and wine purchasing behaviour. This study also examined differences between winery locations, on the East and West sides of the Niagara wine route, with respect to the aforementioned variables. The results indicated that there were significant differences between the regions with respect to these variables. The findings suggest that these differences present opportunities for more effective marketing strategies based on the uniqueness of each region. The results of this study provide insight for academia into a method of psychographic market segmentation of wine tourists and consumer behaviour. This study also contributes to the literature on wine tourism, and the identification of psychographic characteristics of wine tourists, an area where little research has taken place.
Resumo:
Cette recherche se démarque des études sur les Amérindiens urbains en se penchant sur le quotidien des autochtones dans la ville de Val-d’Or (Abitibi, Québec). Ce mémoire s’interroge sur leurs rapports sociaux et leurs relations aux lieux de la ville. Il montre qu’une communauté autochtone vit à Val-d’Or, caractérisée par sa structure sociale, son identité collective et l’apparition d’une classe élite. La mémoire collective, l’environnement social et les allochtones façonnent l’identité des autochtones de Val-d’Or. L’appropriation que ces derniers font de l’espace se doit d’être considérée dans le maintien de leur identité collective, mais également dans leur façon de vivre la ville au quotidien. La dichotomie visibilité/invisibilité apparaît lorsqu’il est question des autochtones et du milieu urbain. C’est par la reconnaissance sociale que les individus deviennent « visibles » (positivement ou négativement) aux autres. Quant à l’invisibilité, c’est par la « non-perception » qu’elle s’actualise. C’est au sein des interactions interethniques que se vit cette dichotomie. Ces interactions sociales et ces contacts interethniques démontrent la segmentation ethnique des relations sociales. Un jeu de proximité/distance s’instaure et fait place aux stéréotypes (exacts et inexacts). Parmi les non-autochtones de Val-d’Or, les discours véhiculés sont marqués par un caractère genré, où certains propos discriminatoires ressortent. Enfin, le mémoire met l’accent sur le fait que les Amérindiens constituent, au même titre que les autres populations urbaines, des acteurs sociaux citadins qui façonnent de plus en plus les paysages des villes canadiennes.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
La présente recherche explore les conséquences d’une perte auditive périphérique sur le traitement de l’information auditive. Des études ont montré que les enfants malentendants ont de la difficulté à effectuer des tâches d’écoute complexes. De plus, des études menées auprès d’adultes malentendants montrent que l’activité corticale associée à l’écoute de stimuli auditifs est différente de celle d’adultes entendants. Cependant, les résultats de ces études ne mettent pas en lumière la nature des difficultés de traitement de l’information auditive des enfants malentendants. Cette recherche examine donc cet aspect en ayant recours à des mesures comportementales et neurophysiologiques. Les données ont été recueillies auprès de 40 enfants âgés de 9 à 12 ans : 12 enfants ayant une surdité neurosensorielle, 12 enfants ayant trouble de traitement auditif et 16 enfants normo-entendants. Les enfants ont reproduit dans l’ordre des séquences de deux, trois et cinq stimuli verbaux ou non verbaux avec un intervalle interstimuli de 425 ms. Les enfants ont également reproduit des séquences de deux stimuli avec un intervalle interstimuli de 20 et 1000 ms. Enfin, les enfants ont été soumis à des mesures neurophysiologiques à partir de potentiels évoqués auditifs de latence longue et de négativité de discordance avec des paires de stimuli verbaux et non verbaux. Les résultats obtenus permettent d’avancer que les participants du groupe d’enfants malentendants ont un trouble spécifique de traitement auditif. En effet, les résultats de la tâche comportementale montrent que les enfants malentendants ont de la difficulté à traiter des séquences de stimuli lorsque ceux-ci sont verbaux et acoustiquement similaires. Quant aux données neurophysiologiques, les résultats ont démontré que l’amplitude de l’onde tardive N2 était réduite chez les enfants malentendants comparativement à celle de l’onde N2 des deux autres groupes d’enfants. Cette onde pourrait être considérée comme étant un marqueur neurophysiologique reflétant l’influence d’une perte auditive sur le traitement auditif central. De plus, l’amplitude de l’onde de négativité de discordance pourrait être aussi un marqueur pour distinguer les enfants malentendants de ceux ayant un trouble de traitement auditif.Mots-clés : organisation séquentielle auditive, potentiels évoqués auditifs de latence longue, négativité de discordance, enfants malentendants d’âge scolaire
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Dans ce mémoire, nous décrivons le travail effectué pour étendre nos connaissances sur les sources d’instabilité instrumentales en imagerie de résonance magnétique, en particulier dans le domaine anatomique par une étude où cinq adultes ont été scannés quatre fois dans la même plate-forme IRM, deux fois avant et deux fois après une mise à niveau importante d’un scanner 3T de Siemens. Les volumes de l’hippocampe droit et gauche de chaque sujet ont été mesurés avec une segmentation manuelle. Nous avons analysé la fiabilité test-retest avant et après la mise à niveau du système d’IRM. Dans le domaine fonctionnel, cinq adultes ont été scannés quatre fois dans la même plate forme IRM deux fois avant et deux fois après la même mise à niveau du scanneur. Les acquisitions du signal BOLD sont faites dans deux différentes résolutions spatiales (2x2x2mm et 4x4x4mm) pour évaluer la sensibilité du signal BOLD sous conditions de haute et basse SNR. Une dernière étude fonctionnelle sur fantôme avait pour but d’étudier la stabilité de la machine pour les images fonctionnelles et détecter les sources de bruit de type machine. La séquence EPI (Echo Planar Imaging) d’écho de gradient à deux dimensions a été utilisée. Des analyses comme le pourcentage des fluctuations et l’analyse de Fourier des résidus ont également été réalisées. Nous résultats indiquent que les différences dans le matériel provenant d’une importante mise à niveau ne peuvent pas compromettre la validité des études structurelles et fonctionnelles faites à travers la mise à niveau du scanneur. Les acquisitions quotidiennes ont permis de suivre l’évolution de la stabilité et de détecter toute source de bruit qui peut détériorer la détection des activations dans les images fonctionnelles.
Resumo:
Réalisé en association avec le Centre interuniversitaire de recherche sur la science et la technologie (CIRST).
Resumo:
La notion d’aléa moral est le gold standard de la politique de la demande en santé et justifie les politiques de partage des coûts visant à faire payer le patient. Sous l’effet des critiques théoriques dont elle a fait l’objet, la notion d’aléa moral a été progressivement vidée de son ambition originelle pour en appeler à la moralisation du comportement du patient. Elle a débouché sur une segmentation des patients distinguant ceux qui doivent être mis à contribution financière au non de la responsabilité individuelle et ceux qui doivent être protégés de cette responsabilisation. Ce texte montre que la constitution d’ordres de priorité en matière de santé est peu compatible avec l’approche en termes d’aléa moral. Les ordres de priorité ne répondent pas à une conception instrumentale. Ils reposent sur des valeurs sociétales partagées et des préférences éthiques qui sont en opposition avec la conception standard de la responsabilité et la promotion de l’individualisme.
Resumo:
This thesis was created in Word and converted to PDF using Mac OS X 10.7.5 Quartz PDFContext.
Resumo:
Dans de nombreux comportements qui reposent sur le rappel et la production de séquences, des groupements temporels émergent spontanément, créés par des délais ou des allongements. Ce « chunking » a été observé tant chez les humains que chez certains animaux et plusieurs auteurs l’attribuent à un processus général de chunking perceptif qui est conforme à la capacité de la mémoire à court terme. Cependant, aucune étude n’a établi comment ce chunking perceptif s’applique à la parole. Nous présentons une recension de la littérature qui fait ressortir certains problèmes critiques qui ont nui à la recherche sur cette question. C’est en revoyant ces problèmes qu’on propose une démonstration spécifique du chunking perceptif de la parole et de l’effet de ce processus sur la mémoire immédiate (ou mémoire de travail). Ces deux thèmes de notre thèse sont présentés séparément dans deux articles. Article 1 : The perceptual chunking of speech: a demonstration using ERPs Afin d’observer le chunking de la parole en temps réel, nous avons utilisé un paradigme de potentiels évoqués (PÉ) propice à susciter la Closure Positive Shift (CPS), une composante associée, entre autres, au traitement de marques de groupes prosodiques. Nos stimuli consistaient en des énoncés et des séries de syllabes sans sens comprenant des groupes intonatifs et des marques de groupements temporels qui pouvaient concorder, ou non, avec les marques de groupes intonatifs. Les analyses démontrent que la CPS est suscitée spécifiquement par les allongements marquant la fin des groupes temporels, indépendamment des autres variables. Notons que ces marques d’allongement, qui apparaissent universellement dans la langue parlée, créent le même type de chunking que celui qui émerge lors de l’apprentissage de séquences par des humains et des animaux. Nos résultats appuient donc l’idée que l’auditeur chunk la parole en groupes temporels et que ce chunking perceptif opère de façon similaire avec des comportements verbaux et non verbaux. Par ailleurs, les observations de l’Article 1 remettent en question des études où on associe la CPS au traitement de syntagmes intonatifs sans considérer les effets de marques temporels. Article 2 : Perceptual chunking and its effect on memory in speech processing:ERP and behavioral evidence Nous avons aussi observé comment le chunking perceptif d’énoncés en groupes temporels de différentes tailles influence la mémoire immédiate d’éléments entendus. Afin d’observer ces effets, nous avons utilisé des mesures comportementales et des PÉ, dont la composante N400 qui permettait d’évaluer la qualité de la trace mnésique d’éléments cibles étendus dans des groupes temporels. La modulation de l’amplitude relative de la N400 montre que les cibles présentées dans des groupes de 3 syllabes ont bénéficié d’une meilleure mise en mémoire immédiate que celles présentées dans des groupes plus longs. D’autres mesures comportementales et une analyse de la composante P300 ont aussi permis d’isoler l’effet de la position du groupe temporel (dans l’énoncé) sur les processus de mise en mémoire. Les études ci-dessus sont les premières à démontrer le chunking perceptif de la parole en temps réel et ses effets sur la mémoire immédiate d’éléments entendus. Dans l’ensemble, nos résultats suggèrent qu’un processus général de chunking perceptif favorise la mise en mémoire d’information séquentielle et une interprétation de la parole « chunk par chunk ».
Resumo:
Cette étude vise à tester la pertinence des images RSO - de moyenne et de haute résolution - à la caractérisation des types d’occupation du sol en milieu urbain. Elle s’est basée sur des approches texturales à partir des statistiques de deuxième ordre. Plus spécifiquement, on recherche les paramètres de texture les plus pertinents pour discriminer les objets urbains. Il a été utilisé à cet égard des images Radarsat-1 en mode fin en polarisation HH et Radarsat-2 en mode fin en double et quadruple polarisation et en mode ultrafin en polarisation HH. Les occupations du sol recherchées étaient le bâti dense, le bâti de densité moyenne, le bâti de densité faible, le bâti industriel et institutionnel, la végétation de faible densité, la végétation dense et l’eau. Les neuf paramètres de textures analysés ont été regroupés, en familles selon leur définition mathématique. Les paramètres de ressemblance/dissemblance regroupent l’Homogénéité, le Contraste, la Similarité et la Dissimilarité. Les paramètres de désordre sont l’Entropie et le Deuxième Moment Angulaire. L’Écart-Type et la Corrélation sont des paramètres de dispersion et la Moyenne est une famille à part. Il ressort des expériences que certaines combinaisons de paramètres de texture provenant de familles différentes utilisés dans les classifications donnent de très bons résultants alors que d’autres associations de paramètres de texture de définition mathématiques proches génèrent de moins bons résultats. Par ailleurs on constate que si l’utilisation de plusieurs paramètres de texture améliore les classifications, la performance de celle-ci plafonne à partir de trois paramètres. Malgré la bonne performance de cette approche basée sur la complémentarité des paramètres de texture, des erreurs systématiques dues aux effets cardinaux subsistent sur les classifications. Pour pallier à ce problème, il a été développé un modèle de compensation radiométrique basé sur la section efficace radar (SER). Une simulation radar à partir du modèle numérique de surface du milieu a permis d'extraire les zones de rétrodiffusion des bâtis et d'analyser les rétrodiffusions correspondantes. Une règle de compensation des effets cardinaux fondée uniquement sur les réponses des objets en fonction de leur orientation par rapport au plan d'illumination par le faisceau du radar a été mise au point. Des applications de cet algorithme sur des images RADARSAT-1 et RADARSAT-2 en polarisations HH, HV, VH, et VV ont permis de réaliser de considérables gains et d’éliminer l’essentiel des erreurs de classification dues aux effets cardinaux.