13 resultados para change detection, visione stereo, background difference
em Université de Montréal, Canada
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Les personnes non-voyantes montrent dans les différents aspects de leurs vies qu’elles sont capables de s’adapter à la privation visuelle en utilisant les capacités intactes comme l’ouï ou le toucher. Elles montrent qu’elles peuvent bien évoluer dans leur environnement en absence de vision et démontrent même des fois des habiletés supérieures à celles des personnes voyantes. La recherche de ces dernières décennies s’est beaucoup intéressée aux capacités adaptatives des non-voyants surtout avec l’avènement des nouvelles techniques d’imagerie qui ont permis d’investiguer des domaines qui ne l’étaient pas ou l’étaient difficilement avant. Les capacités supérieures des non voyants dans l’utilisation plus efficace des informations auditives et tactiles semblent avoir leur base neuronale dans le dans le cortex visuel désafférenté, qui continu à être fonctionnel après la privation sensorielle et s’en trouve recruté pour le traitement de stimulations dites intermodales : auditives, tactiles et même montre une implication dans des processus de plus haut niveau, comme la mémoire ou le langage. Cette implication fonctionnelle intermodale résulte de la plasticité du cortex visuel c'est-à-dire sa capacité à changer sa structure, sa fonction et d’adapter ses interactions avec les autres systèmes en l’absence de vision. La plasticité corticale n’est pas exclusive au cortex visuel mais est un état permanent de tout le cerveau. Pour mesurer l’activité du cortex visuel des non voyants, une mesure d’excitabilité de ses neurones consiste à mesurer le temps de recouvrement de l’onde N1 en potentiels évoqués, qui est plus rapide chez les non voyants dans la modalité auditive. En effet, les réponses en potentiels et champs évoqués ont été utilisés en EEG/MEG pour mettre en évidence des changements plastiques dans le cortex visuel des non-voyants pour le traitement de stimuli dans les modalités auditives et tactiles. Ces réponses étaient localisées dans les régions postérieures chez les non voyants contrairement aux contrôles voyants. Un autre type de réponse auditive a reçu moins d’intérêt dans la recherche concernant la réorganisation fonctionnelle en relation avec la privation sensorielle, il s’agit de la réponse auditive oscillatoire (Auditory Steady-State Response ASSR). C’est une réponse qui a l’avantage d’osciller au rythme de stimulation et d’être caractérisé par une réponse des aires auditives étiquetée à la fréquence de stimulation. Cette étiquette se présente sous la forme qu’un pic d’énergie spectrale important qui culmine aux fréquences présentes dans la stimulation. Elle a également l’avantage d’être localisée dans les régions auditives primaires, de là tout changement de localisation de cette réponse chez des non voyants en faveur des régions visuelles pourrait être considéré comme une évidence de la réorganisation fonctionnelle qui s’opère après une privation sensorielle précoce. Le but de cette thèse est donc d’utiliser la réponse oscillatoire à l’écoute des sons modulés en amplitude (MA) pour mettre en évidence les corrélats de la réorganisation fonctionnelle dans le cortex visuel des non-voyants précoces. La modulation de la réponse auditive dans les régions visuelles nous permettra de montrer qu’une réorganisation est possible chez les non-voyants pour ce traitement intermodal. La première étude est une validation du paradigme expérimental «frequency tagged sounds». Il s’agit de montrer qu’une tâche de détection de changement dans la stimulation, permet de moduler la réponse ASSR aux sons modulés en amplitude en vue de l’utiliser dans les études chez les non voyants et dans les conditions d’une privation visuelle transitoire (avec les yeux bandés). Un groupe de sujets voyants ont réalisé une tâche de détection de changement dans la stimulation les yeux ouverts dans deux conditions : écoute active qui consiste à détecter un changement dans la fréquence porteuse de la modulation en appuyant avec l’index droit sur un bouton de réponse et une condition d’écoute passive. Les sons étaient présentés en écoute monaurale et dichotique. Les résultats ont montré une différence significative à l’occurrence du changement dans la stimulation en écoute dichotique seulement. Les schémas de plus grande réponse controlatérale et de suppression binaurale décrit dans la littérature ont été confirmés. La deuxième étude avait pour but de mettre en évidence une réorganisation rapide de la réponse ASSR chez un groupe de sujets voyants dans les conditions de privation visuelle transitoire de courte durée, par bandage des yeux pendant six heures. Le même protocole expérimental que la première étude a été utilisé en écoute active seulement. Les résultats montrent que dans ces conditions une modulation de la réponse corticale en écoute dichotique dans les régions visuelles est possible. Ces sources d’activité occipitale adoptent une propriété du cortex auditif qui est le battement binaural, c'est-à-dire l’oscillation de la réponse ASSR à la différence des fréquences présentées dans chaque oreille. Cet effet est présent chez la moitié des sujets testés. La représentation corticale des sources occipitales évolue durant la période de privation et montre un déplacement des sources d’activité dans la direction antéropostérieure à la fin de la période de privation. La troisième étude a permis de comparer le traitement de la réponse ASSR dans un groupe de non-voyants congénitaux à un groupe de voyants contrôles, pour investiguer les corrélats de la réorganisation fonctionnelle de cette réponse après une privation sensorielle de longue durée c'est-à-dire chez des non voyants congénitaux. Les résultats montrent des différences significatives dans la représentation spectrale de la réponse entre les deux groupes avec néanmoins des activations temporales importantes aussi bien chez les non voyants que chez les contrôles voyants. Des sources distribuées ont été localisées dans les régions associatives auditives dans les deux groupes à la différence des non voyants où il y avait en plus l’implication des régions temporales inférieures, connues comme étant activées par la vision des objets chez les voyants et font partie de la voie visuelle du quoi. Les résultats présentés dans le cadre de cette thèse vont dans le sens d’une réorganisation rapide de la réponse auditive oscillatoire après une privation visuelle transitoire de courte durée par l’implication des régions visuelles dans le traitement de la réponse ASSR par l’intermédiaire du démasquage de connections existantes entre le cortex visuel et le cortex auditif. La privation visuelle de longue durée, elle conduit à des changements plastiques, d’une part intra modaux par l’extension de l’activité aux régions temporales supérieures et médianes. D’autre part, elle induit des changements inter modaux par l’implication fonctionnelle des régions temporales inférieures visuelles dans le traitement des sons modulés en amplitude comme objets auditifs alors qu’elles sont normalement dédiées au traitement des objets visuels. Cette réorganisation passe probablement par les connections cortico-corticales.
Resumo:
Ce mémoire s'intéresse à la détection de mouvement dans une séquence d'images acquises à l'aide d'une caméra fixe. Dans ce problème, la difficulté vient du fait que les mouvements récurrents ou non significatifs de la scène tels que les oscillations d'une branche, l'ombre d'un objet ou les remous d'une surface d'eau doivent être ignorés et classés comme appartenant aux régions statiques de la scène. La plupart des méthodes de détection de mouvement utilisées à ce jour reposent en fait sur le principe bas-niveau de la modélisation puis la soustraction de l'arrière-plan. Ces méthodes sont simples et rapides mais aussi limitées dans les cas où l'arrière-plan est complexe ou bruité (neige, pluie, ombres, etc.). Cette recherche consiste à proposer une technique d'amélioration de ces algorithmes dont l'idée principale est d'exploiter et mimer deux caractéristiques essentielles du système de vision humain. Pour assurer une vision nette de l’objet (qu’il soit fixe ou mobile) puis l'analyser et l'identifier, l'œil ne parcourt pas la scène de façon continue, mais opère par une série de ``balayages'' ou de saccades autour (des points caractéristiques) de l'objet en question. Pour chaque fixation pendant laquelle l'œil reste relativement immobile, l'image est projetée au niveau de la rétine puis interprétée en coordonnées log polaires dont le centre est l'endroit fixé par l'oeil. Les traitements bas-niveau de détection de mouvement doivent donc s'opérer sur cette image transformée qui est centrée pour un point (de vue) particulier de la scène. L'étape suivante (intégration trans-saccadique du Système Visuel Humain (SVH)) consiste ensuite à combiner ces détections de mouvement obtenues pour les différents centres de cette transformée pour fusionner les différentes interprétations visuelles obtenues selon ses différents points de vue.
Resumo:
Ce travail s’inscrit dans le cadre d’un programme de recherches appuyé par le Conseil de recherches en sciences humaines du Canada.
Resumo:
De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.
Resumo:
Affiliation: Institut de recherche en immunologie et en cancérologie, Université de Montréal
Resumo:
Comment comprendre les dynamiques qui sous-tendent les changements des organisations? Le changement organisationnel fait partie de la réalité quotidienne des organisations et, comme en témoigne une vaste littérature, le sujet a été abordé à partir de diverses perspectives conceptuelles. Toutefois, plusieurs questions fondamentales demeurent quant à la façon dont le changement organisationnel est accompli (Tsoukas & Chia, 2002; Chia, 1999). Je suggère que la clé pour répondre à ces questions se trouve dans l’étude de la communication. Cependant, le rôle de la communication dans la production du changement reste peu exploré dans les conceptualisations actuelles sur le sujet. Ainsi, l’objectif principal de cette thèse est de décrire la façon dont le changement émerge dans la communication, en d’autres termes, comment il est accompli à partir des interactions. Dans cette recherche, je propose que la compréhension du changement passe par une vision de la communication comme un processus constant dans lequel les réalités sont créées, négociées et transformées de manière interactive. Cette conception est fondée sur a plurified view of interactions (Cooren, Fox, Robichaud & Talih, 2005; Cooren 2010) qui prend en considération la contribution d’êtres appartenant à diverses ontologies (e.g., ordinateurs, règlements, principes, émotions, règles, c.) dans l’action. En mobilisant cette vision de la communication, j’ai étudié les changements qui ont eu lieu à Koumbit — une organisation à but non lucratif basée à Montréal qui œuvre dans le domaine des technologies de l’information. L’observation, les entrevues ainsi que la révision de documents officiels ont été les techniques choisies pour cueillir les données. Ma recherche m’a permis de déterminer que le changement organisationnel est un processus progressif qui se matérialise d’interaction en interaction. C’est en composant et en recomposant des ensembles d’associations que se crée une différence dans l’état des choses. Si bien les interactions sont accomplies dans le ici et le maintenant, leur caractère hybride leur permet de rendre compte de ce que l’organisation a été et de ce qu’elle sera. Cette étude suggère que, d’un point de vue communicationnel, les mécanismes à partir desquels le changement organisationnel est accompli n sont pas aussi différents de ceux qui produisent les processus organisants (organizing).
Resumo:
La vidéosurveillance a pour objectif principal de protéger les personnes et les biens en détectant tout comportement anormal. Ceci ne serait possible sans la détection de mouvement dans l’image. Ce processus complexe se base le plus souvent sur une opération de soustraction de l’arrière-plan statique d’une scène sur l’image. Mais il se trouve qu’en vidéosurveillance, des caméras sont souvent en mouvement, engendrant ainsi, un changement significatif de l’arrière-plan; la soustraction de l’arrière-plan devient alors problématique. Nous proposons dans ce travail, une méthode de détection de mouvement et particulièrement de chutes qui s’affranchit de la soustraction de l’arrière-plan et exploite la rotation de la caméra dans la détection du mouvement en utilisant le calcul homographique. Nos résultats sur des données synthétiques et réelles démontrent la faisabilité de cette approche.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
La résonance magnétique cardiovasculaire sensible à l'oxygénation (OS-CMR) est devenue une modalité d'imagerie diagnostique pour la surveillance de changements dans l'oxygénation du myocarde. Cette technique offre un grand potentiel en tant qu'outil diagnostic primaire pour les maladies cardiovasculaires, en particulier la détection non-invasive d'ischémie. Par contre, il existe plusieurs facteurs potentiellement confondants de cette technique, quelques-uns d'ordre méthodologique comme les paramètres de séquençage et d'autres de nature physiologiques qui sont peut compris. En raison des effets causés par le contenu tissulaire d'eau, l'état d'hydratation peut avoir un impact sur l'intensité du signal. Ceci est un des aspects physiologiques en particulier dont nous voulions quantifier l'effet confondant par la manipulation de l'état d'hydratation chez des humains et l'observation des changements de l'intensité du signal dans des images OS-CMR. Méthodes: In vitro: Du sang artériel et veineux de huit porcs a été utilisé pour évaluer la dilution en série du sang et son effet correspondant sur l'intensité du signal de la séquence OS. In vivo: Vingt-deux volontaires en santé ont subi OS-CMR. Les concentrations d'hémoglobine (Hb) ont été mesurées au niveau de base et immédiatement après une l'infusion cristalloïde rapide de 1000 mL de solution Lactate Ringer's (LRS). Les images OS-CMR ont été prises dans une vue mid-ventriculaire court axe. L'intensité du signal myocardique a été mesurée durant une rétention respiratoire volontaire maximale, suite à une période d'hyperventilation de 60 secondes. Les changements dans l'intensité du signal entre le début et la fin de la rétention de la respiration ont été exprimés relativement au niveau de base (% de changement). Résultats: L'infusion a résulté en une diminution significative de l'Hb mesurée (142.5±3.3 vs. 128.8±3.3 g/L; p<0.001), alors que l'IS a augmenté de 3.2±1.2% entre les images du niveau de base en normo- et hypervolémie (p<0.05). L'IS d'hyperventilation ainsi que les changements d'IS induits par l'apnée ont été attenués après hémodilution (p<0.05). L'évaluation quantitative T2* a démontré une corrélation négative entre le temps de T2* et la concentration d'hémoglobine (r=-0.46, p<0.005). Conclusions: Il existe plusieurs éléments confondants de la technique OS-CMR qui requièrent de l'attention et de l'optimisation pour une future implémentation clinique à grande échelle. Le statut d'hydratation en particulier pourrait être un élément confondant dans l'imagerie OS-CMR. L'hypervolémie mène à une augmentation en IS au niveau de base et atténue la réponse IS durant des manoeuvres de respiration vasoactives. Cette atténuation de l'intensité du signal devrait être tenue en compte et corrigée dans l'évaluation clinique d'images OS-CMR.
Resumo:
Contexte : L’hypertension artérielle (HTA) est reconnue comme un important facteur de risque des maladies cardiovasculaires et de la mortalité prématurée. Les données montrent qu’un adulte sur 4 dans le monde souffrait d’hypertension en 2000 et ce chiffre serait en augmentation. Dans les pays africains, les estimations prévoient une progression plus rapide de la prévalence de l’HTA engendrant ainsi un problème additionnel à gérer pour le système de santé qui est toujours aux prises avec les maladies transmissibles. Les progrès économiques et l’urbanisation semblent entraîner des modifications des habitudes de vie dans ces pays qui seraient associés à une émergence des maladies non transmissibles, dont l’HTA. Le Burkina Faso, pays de l’Afrique de l’Ouest classé comme un pays à faibles revenus, aurait amorcé sa transition épidémiologique et il importe de faire un état sur les maladies non transmissibles en émergence. Afin de contribuer à la connaissance des aspects épidémiologiques de l’HTA au Burkina Faso, trois objectifs spécifiques ont été retenus pour la présente recherche : 1) Estimer la prévalence de l’HTA et identifier les facteurs associés dans la population rurale et la population semi-urbaine du Système de Surveillance démographique et de Santé de Kaya (Kaya HDSS) ; 2) Déterminer la différence de prévalence de l’HTA entre la zone lotie et la zone non lotie de la ville de Ouagadougou et identifier les facteurs associés ; 3) Déterminer la détection, le traitement, le contrôle de l’HTA et estimer la fréquentation des centres de santé par les personnes hypertendues nouvellement dépistées dans la population adulte du Centre Nord du Burkina Faso. Méthodologie : Le cadre de notre recherche est le Burkina Faso. Deux sites ont fait l’objet de nos investigations. Kaya HDSS, situé dans la région du Centre Nord du Burkina Faso a servi de site pour les enquêtes ayant permis l’atteinte du premier et du troisième objectif général. Une étude transversale a été menée en fin 2012 sur un échantillon aléatoire de 1645 adultes résidents du site. Un entretien suivi de mesures anthropométriques et de la pression artérielle (PA) ont été réalisés au domicile des participants. Toutes les personnes qui avaient une PA élevée (PA systolique ≥ 140 mm Hg et/ou PA diastolique ≥ 90 mm Hg) et qui n’avaient pas été diagnostiquées auparavant ont été référées à une formation sanitaire. Un second entretien a été réalisé avec ces personnes environ un mois après. Pour le second objectif général, c’est le système de surveillance démographique et de santé de Ouagadougou (Ouaga HDSS) qui a été retenu comme site. Ouaga HDSS couvre 5 quartiers de la zone nord de Ouagadougou. Une étude transversale a été réalisée en 2010 sur un échantillon aléatoire représentatif de la population adulte résidante du site (N = 2041). Des entretiens suivis de mesures anthropométriques et de la PA ont été réalisés durant l’enquête. Résultats : Notre premier article examine la prévalence de l’HTA et les facteurs associés en milieu rural et en milieu semi-urbain. Au total 1481 participants ont été dépistés et la prévalence totale pondérée était de 9,4 % (95 % IC : 7,3 % - 11,4 %) avec une grande différence entre le milieu semi-urbain et le milieu rural : un adulte sur 10 était hypertendu en milieu semi-urbain contre un adulte sur 20 en milieu rural. L’analyse multivariée nous a permis d’identifier l’âge avancé, le milieu semi-urbain et l’histoire familiale de l’HTA comme des facteurs de risque. Dans le deuxième article, nous avons déterminé la différence entre la zone lotie et la zone non lotie du milieu urbain en ce qui concerne l’HTA. Sur 2 041 adultes enquêtés, la prévalence totale est estimée à 18,6 % (95 % IC : 16,9 % - 20,3 %). Après ajustement avec l’âge, il n’y avait pas de différence de prévalence entre la zone lotie et la zone non lotie de la ville de Ouagadougou. Dans ce milieu urbain, l’obésité et l’inactivité physique sont confirmées comme des facteurs à risque. En plus des personnes âgées qui constituent un groupe à risque, les migrants venant du milieu rural et les veuves ont été identifiés comme des personnes à risque. Notre troisième article examine la détection, le traitement, le contrôle de l’HTA ainsi que la fréquentation des structures de santé par les personnes nouvellement dépistées hypertendues dans le milieu non urbain. Sur les 1481 participants à l’étude, 41 % n’avaient jamais mesuré leur PA. Sur les 123 participants (9,4 %) dépistés comme hypertendus, 26,8 % avaient déjà bénéficié d’un diagnostic et 75,8 % de ces derniers étaient sous traitement anti hypertensif. Parmi les participants sous traitement, 60 % (15 sur 25) avaient leur PA sous contrôle. Le suivi de 2 mois a permis de retrouver 72 des 90 personnes nouvellement dépistées. Seulement 50 % ont été en consultation et parmi ces derniers 76 % (28 personnes sur les 37) ont reçu une confirmation de leur hypertension. Conclusion : Notre recherche montre l’évolution de l’HTA en fonction du niveau d’urbanisation de la population. Même si les maladies infectieuses restent la priorité du système de santé, la lutte contre l’HTA doit s’inscrire dans un cadre général de lutte contre les maladies cardiovasculaires. Cette lutte doit être amorcée maintenant avant que des proportions inquiétantes ne soient atteintes. Des actions de prévention telles que la promotion de saines habitudes de vie, le dépistage de masse et un renforcement des capacités du système de soins sont à mettre en œuvre.
Resumo:
Note de l'éditeur : This article may not exactly replicate the final version published in the journal. It is not the copy of record. / Cet article ne constitue pas la version officielle, et peut différer de la version publiée dans la revue.