56 resultados para Contrefaçon d’objets de luxe

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Présente depuis le temps des Romains, et bien au-dedes simples «articles de Paris», la contrefaçon s’est introduite dans tous les domaines de fabrication. L’objectif de cette recherche est de déterminer quelles peuvent être les raisons et les motivations qui poussent un groupe d’immigrants à se spécialiser dans la vente de contrefaçon d’objet de luxe. Pour y répondre, nous proposons de suivre deux hypothèses. D'une part, le contexte politicoéconomique international est constitué de telle sorte qu'il favorise un groupe restreint de pays et limite en contrepartie les débouchés à bon nombre de pays en développement. Les pays développés modulent, ou font pression sur les organisations internationales à leur image afin d'en tirer davantage de bénéfices, et souvent au détriment des pays en développement. Et d'autre part, à l'intérieur de ces populations en mouvement, certains individus font le choix (inévitable ou stratégique) de se cantonner dans un commerce de la rue, parfois illégal, comme c'est le cas de la vente d'objet de luxe contrefait. D’un autre côté, l’adhésion d’un individu à un commerce illégal ne peut lui être totalement imposée par des forces extérieures. Ainsi, il est démontré dans ce travail, que la vente de contrefaçon répond aux particularités et aux exigences de certains individus: statut d’immigrants illégaux, peu ou pas d’expérience de travail compatible avec le pays d’accueil, travail sans contraintes d’horaire, travail à l’extérieur et, surtout, favorisant la vie sociale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire traite des brevets d'invention. Le premier volet dresse un portrait global de l'institution juridique du brevet, tout en en rappelant sommairement les fondements économique et philosophique. Après une brève présentation des conditions préalables à sa délivrance, nous discutons des composantes matérielles du brevet, soit la description de l’invention et les revendications. Une attention particulière est portée à la rédaction ainsi qu'à l'interprétation des revendications. Nous traitons ainsi de deux types de revendications spécialisées qui se sont développés avec l'usage, respectivement les revendications de type Jepson et Markush, pour ensuite recenser les principes d'interprétation des revendications que les tribunaux ont établis. Le deuxième volet traite de la validité et de la contrefaçon de brevet. Sur la question de la validité, nous abordons les principaux motifs pouvant entraîner l'invalidité du brevet, soit: l’ambiguïté, l'insuffisance de la divulgation, le double brevet, l'absence de nouveauté, l'évidence et l'absence d'utilité. Enfin, sur la question de la contrefaçon, nous examinons les circonstances dans lesquelles les actes commis par les tiers portent atteinte au monopole du titulaire de brevet. Pour ce faire, nous nous attardons à la portée des droits exclusifs qui sont reconnus à ce dernier. Tant en ce qui a trait à la validité qu'à la contrefaçon, nous recourons à des illustrations jurisprudentielles permettant de constater les incidences litigieuses afférentes, d'une part, aux motifs d'invalidité et, d'autre part, aux actes de contrefaçon.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La reconnaissance d’objets est une tâche complexe au cours de laquelle le cerveau doit assembler de manière cohérente tous les éléments d’un objet accessible à l’œil afin de le reconnaître. La construction d’une représentation corticale de l’objet se fait selon un processus appelé « bottom-up », impliquant notamment les régions occipitales et temporales. Un mécanisme « top-down » au niveau des régions pariétales et frontales, facilite la reconnaissance en suggérant des identités potentielles de l’objet à reconnaître. Cependant, le mode de fonctionnement de ces mécanismes est peu connu. Plusieurs études ont démontré une activité gamma induite au moment de la perception cohérente de stimuli, lui conférant ainsi un rôle important dans la reconnaissance d’objets. Cependant, ces études ont utilisé des techniques d’enregistrement peu précises ainsi que des stimuli répétitifs. La première étude de cette thèse vise à décrire la dynamique spatio-temporelle de l’activité gamma induite à l’aide de l’électroencéphalographie intracrânienne, une technique qui possède des résolutions spatiales et temporelles des plus précises. Une tâche d’images fragmentées a été conçue dans le but de décrire l’activité gamma induite selon différents niveaux de reconnaissance, tout en évitant la répétition de stimuli déjà reconnus. Afin de mieux circonscrire les mécanismes « top-down », la tâche a été répétée après un délai de 24 heures. Les résultats démontrent une puissante activité gamma induite au moment de la reconnaissance dans les régions « bottom-up ». Quant aux mécanismes « top-down », l’activité était plus importante aux régions occipitopariétales. Après 24 heures, l’activité était davantage puissante aux régions frontales, suggérant une adaptation des procédés « top-down » selon les demandes de la tâche. Très peu d’études se sont intéressées au rythme alpha dans la reconnaissance d’objets, malgré qu’il soit bien reconnu pour son rôle dans l’attention, la mémoire et la communication des régions neuronales distantes. La seconde étude de cette thèse vise donc à décrire plus précisément l’implication du rythme alpha dans la reconnaissance d’objets en utilisant les techniques et tâches identiques à la première étude. Les analyses révèlent une puissante activité alpha se propageant des régions postérieures aux régions antérieures, non spécifique à la reconnaissance. Une synchronisation de la phase de l’alpha était, quant à elle, observable qu’au moment de la reconnaissance. Après 24 heures, un patron similaire était observable, mais l’amplitude de l’activité augmentait au niveau frontal et les synchronies de la phase étaient davantage distribuées. Le rythme alpha semble donc refléter des processus attentionnels et communicationnels dans la reconnaissance d’objets. En conclusion, cette thèse a permis de décrire avec précision la dynamique spatio-temporelle de l’activité gamma induite et du rythme alpha ainsi que d’en apprendre davantage sur les rôles potentiels que ces deux rythmes occupent dans la reconnaissance d’objets.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré de réduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif principal de cette recherche est de comprendre la signification de l’accumulation d’objets pour la personne présentant des comportements de hoarding. Dans une perspective constructiviste, nous utilisons la construction empirique de la théorie afin d’analyser 8 entrevues. Les théories d’Erving Goffman et d’Howard Becker sur la stigmatisation et la culture d’exclusion nous permettent de comprendre et d’analyser la construction des liens sociaux chez les personnes présentant des comportements de hoarding. De même, l’application de l’approche d’Elkaïm à cette problématique nous permet de comprendre un des principaux défis de l’intervention auprès de cette population, la double contrainte. L’analyse nous permet de distinguer 3 profils de hoarder. Ce travail s’inscrit sous un paradigme encore jamais utilisé pour comprendre la problématique du hoarding et propose une compréhension propre au travail social, différente du modèle médical qui prédomine actuellement dans l’intervention et la littérature scientifique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce projet de maitrise implique le développement et l’optimisation de deux méthodes utilisant la chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (HPLC-MS/MS). L'objectif du premier projet était de séparer le plus rapidement possible, simultanément, 71 médicaments traitant la dysfonction érectile (ED) et 11 ingrédients naturels parfois retrouvés avec ces médicaments dans les échantillons suspectés d’être adultérés ou contrefaits. L'objectif du deuxième projet était de développer une méthode de dépistage permettant l'analyse rapide simultanée de 24 cannabinoïdes synthétiques et naturels pour une grande variété d'échantillons tels que les mélanges à base de plantes, des bâtons d'encens, de sérums et de cannabis. Dans les deux projets, la séparation a été réalisée en moins de 10 min et cela en utilisant une colonne C18 à noyau solide 100 x 2,1 mm avec des particules de 2,6 µm de diamètre couplée à un système MS avec trappe ionique orbitale fonctionnant en électronébulisation positive. En raison du nombre élevé de composés dans les deux méthodes et de l’émergence de nouveaux analogues sur le marché qui pourraient être présents dans les échantillons futurs, une méthode de dépistage LC-MS/MS ciblée/non-ciblée a été développée. Pour les deux projets, les limites de détection étaient sous les ng/mL et la variation de la précision et de l’exactitude étaient inférieures de 10,5%. Le taux de recouvrement à partir des échantillons réels variait entre 92 à 111%. L’innovation des méthodes LC-MS/MS développées au cours des projets est que le spectre de masse obtenu en mode balayage lors de l'acquisition, fournit une masse exacte pour tous les composés détectés et permet l'identification des composés initialement non-ciblés, comme des nouveaux analogues. Cette innovation amène une dimension supplémentaire aux méthodes traditionnellement utilisées, en permettant une analyse à haute résolution sur la masse de composés non-ciblés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

TRAVAIL DIRIGÉ PRÉSENTÉ À LA FACULTÉ DES ARTS ET SCIENCES EN VUE DE L’OBTENTION DU GRADE DE MAÎTRE ÈS SCIENCES (M.SC.) EN CRIMINOLOGIE OPTION CRIMINALISTIQUE ET INFORMATION

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire analyse la notion de fonctionnalité. D'origine jurisprudentielle, ce concept tend à maintenir la dichotomie traditionnelle entre le régime des marques de commerce et celui des brevets. À la lecture des jugements rendus en la matière, le maintien d'une telle dichotomie empêcherait notamment de prolonger indûment un monopole échu sous le régime des brevets par l'enregistrement d'une marque de commerce. Cette étude tente de mieux cerner le concept de fonctionnalité et, plus précisément, de justifier son existence. Pour ce faire, une étude approfondie des régimes des marques de commerce et des brevets, nous permet de comprendre que chacun de ces corps de règles répond à une logique différente. Les fonctions des marques de commerce et des brevets sont en effet distinctes et aucun chevauchement ne semble être permis. Cette situation est d'ailleurs propre à ces régimes spécifiques. Un examen de l'étendue de la notion de fonctionnalité nous permet de constater que d'autres droits de propriété intellectuelle peuvent coexister. À titre d'exemple, nous croyons qu'une intersection est possible entre les régimes des dessins industriels et des marques de commerce. À l'issue de ces recherches, nous constatons que la notion de fonctionnalité est un principe jurisprudentiel bien établi en droit canadien visant à empêcher tout renouvellement à perpétuité d'un brevet par le biais du droit des marques de commerce. L'existence de ce principe nous semble être justifiée en matière de marques de commerce et de brevets. Cette conclusion pourrait toutefois différer dans le cadre d'autres droits de propriété intellectuelle, les fonctions de ces autres régimes semblant permettre des chevauchements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trois expériences ont été menées dans le but de déterminer quels codes sous-tendant la représentation de l’organisation spatiale des composantes des formes complexes contribuent aux discriminations d’objets complexes. Les trois expériences ont utilisé une tâche d’appariement simultané d’objets complexes. Aux essais négatifs, les objets pouvaient avoir des différences catégorielles de configuration, des différences métriques de configuration, des différences métriques de configuration et du rôle des parties ou des différences du rôle des parties seulement. La distance angulaire 2D ou 3D entre les stimuli pouvait varier. À l’expérience 1, les stimuli étaient présentés avec stéréoscopie et avaient une surface avec un gradient de texture de haut contraste. L’expérience 2 constitue une réplication de l’expérience 1 hormis pour l’utilisation de stimuli dont le contraste était réduit. Le but de cette manipulation était de vérifier si les résultats de l’expérience 1 sont répliqués avec une tâche dont le niveau de difficulté est plus élevé. Les stimuli de la troisième expérience avaient une surface gris mat et étaient présentés sans stéréoscopie. Les trois expériences ont montré que des codes catégoriel et pertinent aux rôles des parties contribuent à la discrimination d’objets complexes. Toutefois, ces codes sont dépendants aux orientations 2D et 3D, et ce, peu importe la richesse de l’information de profondeur présente dans les stimuli. De plus, nos résultats démontrent une plus grande sensibilité aux différences catégorielles de configuration qu’aux différences métriques. Enfin, un code métrique contribue également aux discriminations. Toutefois, la contribution de ce code disparaît lorsque la quantité d’information de profondeur est réduite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On note de nos jours une intensification, aux États-Unis, de l’usage de la race en santé publique, une idée qui est parfois rejetée dans la mesure où elle est associée à des pratiques controversées. Les races sont vues, dans ce contexte, comme le produit du racisme, une technologie du pouvoir de l’État moderne qui a consisté à fragmenter l’humanité pour permettre les colonisations. C'est ainsi que la race a été prise en charge par le discours pour marquer la différence, discours qui est constitué d'un ensemble hétérogène de dispositifs, des institutions, des énoncés scientifiques, des normes et des règles. Le racisme s’est développé en parallèle avec l'affirmation d'un pouvoir sur la vie visant à assurer la gestion des corps et des populations, notamment par le biais des pratiques de santé publique. Cette thèse s'appuie sur une étude ethnographique réalisée sur un corpus de documents de la santé publique parus aux États-Unis et issus de bureaux fédéraux et d’une importante revue spécialisée dans le domaine sanitaire, et qui ont été publiés entre 2001 et 2009. Cette étude a analysé la manière dont la race est représentée, produite comme objet de connaissance, et régulée par les pratiques discursives dans ces documents. Les résultats confirment que le discours sur la race varie au cours du temps. Toutefois, les résultats indiquent la relative permanence en santé publique d'un régime racialisé de représentation qui consiste à identifier, à situer et à opposer les sujets et les groupes à partir de labels standardisés. Ce régime est composé d'un ensemble de pratiques représentationnelles qui, couplées aux techniques disciplinaires et à l’idée de culture, aboutissent à la caractérisation et à la formation d’objets racialisés et à des stéréotypes. De plus, cet ensemble d’opérations qui fabrique la racialisation, a tendance, avec la sanitarisation et la culturalisation, à naturaliser la différence, à reproduire l’ordre symbolique et à constituer les identités raciales. Par ailleurs, la racialisation apparaît tiraillée entre un pouvoir sur la vie et un pouvoir sur la mort. Enfin, cette étude propose une alternative postraciale qui envisage la constitution des groupes humains de manière fluide et déterritorialisée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.