7 resultados para landscape change detection
em Université de Montréal, Canada
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.
Resumo:
Depuis l’avènement de l’agriculture productiviste, les paysages des zones d’intensification agricole des pays industrialisés ont été marqués par la perte sévère de leur diversité et la dégradation de leurs fonctions environnementales, récréatives, esthétiques et sociales. Au moment où la qualité des paysages constitue un facteur clé du dynamisme des collectivités rurales, il devient urgent de développer des stratégies d’aménagement aptes à réintroduire le caractère multifonctionnel de ces paysages. Dans ce contexte, cette thèse propose un éclairage sur les enjeux d’aménagement de ces paysages sous l’angle des approches dialectiques en paysage issues de la Holistic Landscape Ecology. En développant un modèle conceptuel des trajectoires des paysages s’inscrivant dans les approches intégrées en paysage, elle établit une double lecture des dynamiques physico-spatiale et socioculturelle des paysages des zones d’intensification agricole afin d’en arriver à qualifier les écarts entre celles-ci. Pour y parvenir, elle prend appui sur une étude de cas d’un bassin versant agricole du sud du Québec. En puisant tantôt dans l’écologie du paysage, tantôt dans la sociologie du paysage, les résultats de cette thèse soulignent d’une part le poids des forces politiques et économiques dans le façonnement de ces paysages. Mais ils révèlent également le rôle des valorisations paysagères des agriculteurs dans la modulation de ces forces. Plus encore, l’étude des dynamiques socioculturelles révèle une diversité au sein des populations locales au plan des valorisations de ces paysages et des pratiques qui les façonnent qui vient renouveler l’image d’uniformité de ces territoires. Le maintien et l’accentuation de cette diversité apparaissent susceptibles de contribuer significativement à la réintroduction du caractère multifonctionnel des paysages au sein des zones d’intensification agricole. Des pistes concrètes pour l’aménagement concluent cette thèse.
Resumo:
Ce travail s’inscrit dans le cadre d’un programme de recherches appuyé par le Conseil de recherches en sciences humaines du Canada.
Resumo:
Les personnes non-voyantes montrent dans les différents aspects de leurs vies qu’elles sont capables de s’adapter à la privation visuelle en utilisant les capacités intactes comme l’ouï ou le toucher. Elles montrent qu’elles peuvent bien évoluer dans leur environnement en absence de vision et démontrent même des fois des habiletés supérieures à celles des personnes voyantes. La recherche de ces dernières décennies s’est beaucoup intéressée aux capacités adaptatives des non-voyants surtout avec l’avènement des nouvelles techniques d’imagerie qui ont permis d’investiguer des domaines qui ne l’étaient pas ou l’étaient difficilement avant. Les capacités supérieures des non voyants dans l’utilisation plus efficace des informations auditives et tactiles semblent avoir leur base neuronale dans le dans le cortex visuel désafférenté, qui continu à être fonctionnel après la privation sensorielle et s’en trouve recruté pour le traitement de stimulations dites intermodales : auditives, tactiles et même montre une implication dans des processus de plus haut niveau, comme la mémoire ou le langage. Cette implication fonctionnelle intermodale résulte de la plasticité du cortex visuel c'est-à-dire sa capacité à changer sa structure, sa fonction et d’adapter ses interactions avec les autres systèmes en l’absence de vision. La plasticité corticale n’est pas exclusive au cortex visuel mais est un état permanent de tout le cerveau. Pour mesurer l’activité du cortex visuel des non voyants, une mesure d’excitabilité de ses neurones consiste à mesurer le temps de recouvrement de l’onde N1 en potentiels évoqués, qui est plus rapide chez les non voyants dans la modalité auditive. En effet, les réponses en potentiels et champs évoqués ont été utilisés en EEG/MEG pour mettre en évidence des changements plastiques dans le cortex visuel des non-voyants pour le traitement de stimuli dans les modalités auditives et tactiles. Ces réponses étaient localisées dans les régions postérieures chez les non voyants contrairement aux contrôles voyants. Un autre type de réponse auditive a reçu moins d’intérêt dans la recherche concernant la réorganisation fonctionnelle en relation avec la privation sensorielle, il s’agit de la réponse auditive oscillatoire (Auditory Steady-State Response ASSR). C’est une réponse qui a l’avantage d’osciller au rythme de stimulation et d’être caractérisé par une réponse des aires auditives étiquetée à la fréquence de stimulation. Cette étiquette se présente sous la forme qu’un pic d’énergie spectrale important qui culmine aux fréquences présentes dans la stimulation. Elle a également l’avantage d’être localisée dans les régions auditives primaires, de là tout changement de localisation de cette réponse chez des non voyants en faveur des régions visuelles pourrait être considéré comme une évidence de la réorganisation fonctionnelle qui s’opère après une privation sensorielle précoce. Le but de cette thèse est donc d’utiliser la réponse oscillatoire à l’écoute des sons modulés en amplitude (MA) pour mettre en évidence les corrélats de la réorganisation fonctionnelle dans le cortex visuel des non-voyants précoces. La modulation de la réponse auditive dans les régions visuelles nous permettra de montrer qu’une réorganisation est possible chez les non-voyants pour ce traitement intermodal. La première étude est une validation du paradigme expérimental «frequency tagged sounds». Il s’agit de montrer qu’une tâche de détection de changement dans la stimulation, permet de moduler la réponse ASSR aux sons modulés en amplitude en vue de l’utiliser dans les études chez les non voyants et dans les conditions d’une privation visuelle transitoire (avec les yeux bandés). Un groupe de sujets voyants ont réalisé une tâche de détection de changement dans la stimulation les yeux ouverts dans deux conditions : écoute active qui consiste à détecter un changement dans la fréquence porteuse de la modulation en appuyant avec l’index droit sur un bouton de réponse et une condition d’écoute passive. Les sons étaient présentés en écoute monaurale et dichotique. Les résultats ont montré une différence significative à l’occurrence du changement dans la stimulation en écoute dichotique seulement. Les schémas de plus grande réponse controlatérale et de suppression binaurale décrit dans la littérature ont été confirmés. La deuxième étude avait pour but de mettre en évidence une réorganisation rapide de la réponse ASSR chez un groupe de sujets voyants dans les conditions de privation visuelle transitoire de courte durée, par bandage des yeux pendant six heures. Le même protocole expérimental que la première étude a été utilisé en écoute active seulement. Les résultats montrent que dans ces conditions une modulation de la réponse corticale en écoute dichotique dans les régions visuelles est possible. Ces sources d’activité occipitale adoptent une propriété du cortex auditif qui est le battement binaural, c'est-à-dire l’oscillation de la réponse ASSR à la différence des fréquences présentées dans chaque oreille. Cet effet est présent chez la moitié des sujets testés. La représentation corticale des sources occipitales évolue durant la période de privation et montre un déplacement des sources d’activité dans la direction antéropostérieure à la fin de la période de privation. La troisième étude a permis de comparer le traitement de la réponse ASSR dans un groupe de non-voyants congénitaux à un groupe de voyants contrôles, pour investiguer les corrélats de la réorganisation fonctionnelle de cette réponse après une privation sensorielle de longue durée c'est-à-dire chez des non voyants congénitaux. Les résultats montrent des différences significatives dans la représentation spectrale de la réponse entre les deux groupes avec néanmoins des activations temporales importantes aussi bien chez les non voyants que chez les contrôles voyants. Des sources distribuées ont été localisées dans les régions associatives auditives dans les deux groupes à la différence des non voyants où il y avait en plus l’implication des régions temporales inférieures, connues comme étant activées par la vision des objets chez les voyants et font partie de la voie visuelle du quoi. Les résultats présentés dans le cadre de cette thèse vont dans le sens d’une réorganisation rapide de la réponse auditive oscillatoire après une privation visuelle transitoire de courte durée par l’implication des régions visuelles dans le traitement de la réponse ASSR par l’intermédiaire du démasquage de connections existantes entre le cortex visuel et le cortex auditif. La privation visuelle de longue durée, elle conduit à des changements plastiques, d’une part intra modaux par l’extension de l’activité aux régions temporales supérieures et médianes. D’autre part, elle induit des changements inter modaux par l’implication fonctionnelle des régions temporales inférieures visuelles dans le traitement des sons modulés en amplitude comme objets auditifs alors qu’elles sont normalement dédiées au traitement des objets visuels. Cette réorganisation passe probablement par les connections cortico-corticales.
Resumo:
Ce mémoire s'intéresse à la détection de mouvement dans une séquence d'images acquises à l'aide d'une caméra fixe. Dans ce problème, la difficulté vient du fait que les mouvements récurrents ou non significatifs de la scène tels que les oscillations d'une branche, l'ombre d'un objet ou les remous d'une surface d'eau doivent être ignorés et classés comme appartenant aux régions statiques de la scène. La plupart des méthodes de détection de mouvement utilisées à ce jour reposent en fait sur le principe bas-niveau de la modélisation puis la soustraction de l'arrière-plan. Ces méthodes sont simples et rapides mais aussi limitées dans les cas où l'arrière-plan est complexe ou bruité (neige, pluie, ombres, etc.). Cette recherche consiste à proposer une technique d'amélioration de ces algorithmes dont l'idée principale est d'exploiter et mimer deux caractéristiques essentielles du système de vision humain. Pour assurer une vision nette de l’objet (qu’il soit fixe ou mobile) puis l'analyser et l'identifier, l'œil ne parcourt pas la scène de façon continue, mais opère par une série de ``balayages'' ou de saccades autour (des points caractéristiques) de l'objet en question. Pour chaque fixation pendant laquelle l'œil reste relativement immobile, l'image est projetée au niveau de la rétine puis interprétée en coordonnées log polaires dont le centre est l'endroit fixé par l'oeil. Les traitements bas-niveau de détection de mouvement doivent donc s'opérer sur cette image transformée qui est centrée pour un point (de vue) particulier de la scène. L'étape suivante (intégration trans-saccadique du Système Visuel Humain (SVH)) consiste ensuite à combiner ces détections de mouvement obtenues pour les différents centres de cette transformée pour fusionner les différentes interprétations visuelles obtenues selon ses différents points de vue.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.