998 resultados para Reconnaissance des États
Resumo:
L’objectif à moyen terme de ce travail est d’explorer quelques formulations des problèmes d’identification de forme et de reconnaissance de surface à partir de mesures ponctuelles. Ces problèmes ont plusieurs applications importantes dans les domaines de l’imagerie médicale, de la biométrie, de la sécurité des accès automatiques et dans l’identification de structures cohérentes lagrangiennes en mécanique des fluides. Par exemple, le problème d’identification des différentes caractéristiques de la main droite ou du visage d’une population à l’autre ou le suivi d’une chirurgie à partir des données générées par un numériseur. L’objectif de ce mémoire est de préparer le terrain en passant en revue les différents outils mathématiques disponibles pour appréhender la géométrie comme variable d’optimisation ou d’identification. Pour l’identification des surfaces, on explore l’utilisation de fonctions distance ou distance orientée, et d’ensembles de niveau comme chez S. Osher et R. Fedkiw ; pour la comparaison de surfaces, on présente les constructions des métriques de Courant par A. M. Micheletti en 1972 et le point de vue de R. Azencott et A. Trouvé en 1995 qui consistent à générer des déformations d’une surface de référence via une famille de difféomorphismes. L’accent est mis sur les fondations mathématiques sous-jacentes que l’on a essayé de clarifier lorsque nécessaire, et, le cas échéant, sur l’exploration d’autres avenues.
Resumo:
Le virus respiratoire syncytial (RSV) est un virus à ARN de polarité négative. Les études démontrent que toute la population sera infectée par ce virus au moins deux fois avant l’âge de 3 ans. Le RSV peut provoquer plusieurs pathologies respiratoires telles que la bronchiolite aiguë et la pneumonie. Les infections sévères corrèlent avec le développement de l’asthme. Lors d’une infection virale, les particules du RSV sont détectées par le senseur RIG-I qui induit l’activation des facteurs de transcription NF-κB et IRF-3. Respectivement, les facteurs de transcription activeront les réponses inflammatoire et antivirale. Au coeur des pathologies induites par le RSV se trouve une réponse immunitaire mal adaptée. Plus précisément, par l’entremise de NF-κB, le RSV provoque une production exagérée de cytokines et chimiokines qui induisent une réponse inflammatoire démesurée provoquant du dommage tissulaire. Paradoxalement, le RSV est capable d’échapper à la réponse antivirale. Ces deux phénomènes sont contrôlés par l’entremise des protéines non structurales NS1 et NS2. Le mécanisme délimitant le mode d’action de NS1 et NS2 sur la réponse antivirale reste à être déterminé. Avec pour objectif d’élucider comment NS1 et NS2 inhibent la réponse antivirale, nous avons investigué le mécanisme de reconnaissance de l’hôte vis-à-vis de RSV. Nous démontrerons, pour la première fois, que le senseur cytosolique MDA5 est impliqué dans la réponse antivirale contre le RSV. Nous présenterons des résultats préliminaires qui suggèrent que le rôle de MDA5 est non redondant à RIG-I. À l’aide d’ARN interférant dirigé contre RIG-I et de transfection de MDA5, nous démontrerons que MDA5 ne contribue pas à la phosphorylation d’IRF-3, mais plutôt qu’elle régit la stabilité du facteur de transcription. Nous démontrerons aussi que, contrairement à l’hypothèse actuelle sur le fonctionnement de NS1 et NS2, l’inhibition de ces derniers ne provoque pas une augmentation de la cytokine antivirale IFN−β. Cependant, l’expression ectopique de NS1 et NS2 réduit l’activité du promoteur de l’IFN-β et de la protéine cytoplasmic antivirale ISG56 lorsqu’elle est mesurée par essai luciférase.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
L’impact de la religion sur la violence demeure à ce jour ambivalent dans la littérature. D’un côté, les religions et leurs préceptes de paix sont identifiés comme des facteurs de dissuasion dans la commission d’actes violents. D’un autre côté, l’identité religieuse est historiquement décriée comme une source majeure de guerres. Cette étude propose de comparer dans 163 pays du monde l’influence sur le taux d’homicide de quatre aspects religieux : la religion principale, l’hétérogénéité religieuse, la liberté religieuse et la religiosité. Les taux d’homicide sont fournis par l’Organisation mondiale de la santé alors que les variables religieuses proviennent de sources variées. Les analyses de régressions linéaires tiennent également compte de quelques facteurs socio-économiques. Certains sont considérés dans la littérature comme des facteurs majeurs influant sur l’homicide et d’autres sont plutôt soupçonnés d’interaction sur la relation ici étudiée. Les résultats indiquent qu’il y a modérément plus d’homicides dans les pays qui présentent une forte hétérogénéité religieuse ou une faible religiosité dans la population. Par ailleurs, les pays musulmans, notamment chiites, présentent les taux d’homicide les plus bas, surpassant les pays bouddhistes et hindouistes, alors que les pays chrétiens, notamment catholiques, présentent des taux d’homicide très élevés. Ce constat s’oppose à la théorie libérale chrétienne qui démonise les États religieux musulmans. Néanmoins, l’interprétation des conclusions de cette étude invite à la prudence étant donné son aspect délicat et exploratoire.
Resumo:
Cette thèse porte sur les dynamiques interculturelles et la réactivité des institutions dans les contextes pluralistes. Le contexte clinique, un exemple parmi tant d’autres, sert à saisir les enjeux des rencontres entre personnes d’origines différentes. Le milieu de la réadaptation physique apparaît particulièrement intéressant pour étudier les enjeux induits par les rencontres interculturelles, car les interventions y sont d’une durée relativement longue en comparaison avec les soins aigus, et ce type de pratique demande une grande collaboration de la part des clients. Cette recherche sollicite trois acteurs essentiels dans ce contexte : clients immigrants, intervenants et agents tiers payeurs (CSST) ont pris la parole lors de groupes de rencontre (focus group). La recherche d’un cadre théorique pertinent en anthropologie interculturelle revisite les courants moderniste et postmoderniste, à partir d’une approche critique, et propose une épistémologie interactionniste. Ces courants qui traversent l’anthropologie sont étudiés à la lumière de la clinique, ce qui engendre un dialogue entre les intervenants et les anthropologues. Le contexte ethnographique permet de cerner différents enjeux concernant les politiques de santé dans les contextes pluriethniques, ce qui permet de saisir, à partir de la gestion, des rapports d’emboitement entre le macro et le micro. Le fonctionnement de la réadaptation physique au Québec sert de toile de fond pour comprendre les discours des acteurs sollicités par cette recherche. L’ethnographie met en lumière les convergences et les divergences entre ces trois acteurs dans les contextes pluriethniques. Selon une méthode caractéristique des relations interculturelles, je présente d’abord l’intervention dans les institutions de réadaptation. Les clients immigrants sont mis en scène avec l’intervention dans les contextes pluriethniques. Les discours de tous ces acteurs mettent en lumière des barrières dites objectives et des facteurs liés à la culture. L’analyse s’intéresse à la communication et à la circulation de l’information dans les contextes pluriethniques; elle étudie les rapports entre l’information, la connaissance et les préjugés. L’analyse offre quelques pistes qui aident à comprendre l’imperméabilité du système de santé dans les contextes pluralistes. La conclusion propose une approche complémentariste pour établir un dialogue entre les modèles de discrimination et l’interculturel. Les anthropologues sont alors interpellés en vue de répondre aux nouveaux défis générés par le néolibéralisme.
Resumo:
Cette étude a pour objet de démontrer qu’un des effets, peut être le plus insoupçonné, de la reconnaissance constitutionnelle des droits ancestraux des peuples autochtones est de mettre à mal l’hégémonie du territoire dans notre manière de penser la gouvernance autochtone contemporaine. Il s’agit ici de faire valoir que le régime des droits ancestraux mis en place par la Cour suprême en s’appuyant sur l’article 35 de la Loi constitutionnelle de 19821 fait apparaître les prémices d’un véritable ordre autonome autochtone fondé en grande partie sur le principe de personnalité – c’est-à-dire sur le rattachement personnel des individus au groupe – plutôt que sur le principe de territorialité qui, depuis l’avènement de l’État, fonde la puissance publique sur le contrôle d’un espace linéairement circonscrit.
Resumo:
"L’auteur présente une analyse générale de l’évolution historique et des développements récents du régime des droits d’auteur au Canada. Avec le développement des nouvelles technologies de l’information, et plus spécifiquement de l’Internet, le régime canadien des droits d’auteur nécessiterait d’importantes réformes. L’auteur déplore toutefois les modifications récentes issues de la loi C-60. En effet, selon lui, ces changements ne correspondent pas au régime international proposé par l’Organisation Mondiale de Propriété Intellectuelle. En fait, ceux-ci cadrent beaucoup plus avec la perspective américaine de protection limitative des droits d’auteur. Michael Geist trace d’abord l’historique du développement du régime de protection des droits d’auteur au Canada. Il souligne notamment les modifications législatives importantes de la fin des années 1980 et 1990 qui visaient à renforcer les règles de reconnaissance et de protection des droits que les auteurs canadiens possèdent sur leurs œuvres. Parallèlement, à ces modifications législatives, la Cour Suprême du Canada s’est aussi prononcée sur la question des droits d’auteur en interprétant limitativement la portée de ce régime, facilitant ainsi l’accès des œuvres artistiques au domaine public. L’auteur souligne les divergences et les contradictions entre la conception législative et celle jurisprudentielle de la fonction du régime canadien des droits d’auteur. Le législateur canadien a récemment proposé une nouvelle modification du régime de droits d’auteurs qui consisterait en l’extension des délais obligatoire avant qu’une œuvre couverte par le régime ne soit incluse dans le domaine public. Michael Geist s’oppose à une telle modification et soutient qu’elle entraînerait de nombreuses conséquences négatives pour les auteurs et les artistes canadiens. En effet, cette modification limiterait l’accès des auteurs aux oeuvres antérieures, elle entraverait les opportunités et les capacités commerciales des œuvres canadiennes et restreindrait les domaines de recherche académique. L’auteur aborde par la suite la problématique reliée aux ""Mesures de Protection Techniques"" et à la législation qui les encadre. En analysant les problèmes causés par ces mesures aux États-Unis, il présente leurs effets nuisibles pour les domaines fondamentaux de la liberté de parole et de la recherche académique. Les réformes possibles du régime canadien des droits d’auteur se situent dans une perspective plus ouverte du régime de protection et de promotion des œuvres canadiennes. Ces réformes auraient l’avantage de promouvoir et de protéger les œuvres canadiennes tout en évitant les problèmes causés par les mesures trop limitatives. À ce sujet, l’auteur propose l’établissement d’une bibliothèque digitale nationale, l’abrogation des droits d’auteur de la couronne et un nouveau régime permettant l’utilisation du matériel radiodiffusé de la Société Radio-Canada."
Resumo:
L’Europe est à l’heure actuelle en pleine mutation. D’une part, elle s’est élargie en acceptant de nouveaux États passant ainsi de quinze à vingt-cinq membres. D’autre part, elle s’est dotée d’un traité constitutionnel appelé Projet de traité établissant une Constitution pour l'Europe. Celui-ci a été approuvé en juin 2004. Il sera au cœur de notre recherche. Doter l’Union européenne d’un nouvel acte conduit incontestablement à se poser une multitude de questions concernant l’acte lui-même mais également ses conséquences. Que faut-il entendre par « traité établissant une Constitution pour l’Europe » ? Quels seront les effets d’un tel acte au regard du droit communautaire existant et des législations nationales ? Cette recherche répondra à ces questions et offrira un éclairage particulier du traité. Elle sera plus particulièrement axée sur la Cour de justice qui assure le respect du droit dans l’interprétation et l’application de la Constitution (article 28 du projet). Comment les juges devront-ils se comporter par rapport au traité ? Leur action sera-t-elle légitime ? Le débat sera ouvert sur l’interprétation que les juges feront de cette nouvelle norme.
Resumo:
Cet article délivre un bref aperçu de la nouvelle législation européenne et allemande relative au commerce électronique et à la protection des consommateurs. Il décrit le développement du commerce électronique, de la législation et de la jurisprudence au cours des dernières années. Une distinction est établie entre les niveaux européen et allemand. La nouvelle Directive sur le commerce électronique a été adoptée le 8 juin 2000 et doit être transposée dans la loi nationale avant le 17 janvier 2002. Elle sera décrite et succinctement analysée avant d’aborder la nouvelle loi allemande portant sur les contrats à distance qui vient d’être adoptée par le Parlement allemand pour transposer la Directive sur les contrats à distance de 1997. Le cadre juridique existant avant l’entrée en vigueur de la nouvelle loi sur les contrats à distance sera également exposée en tenant compte de la protection des consommateurs. Alors que l’Union européenne vient de créer une nouvelle Directive sur le commerce électronique, les États membres sont encore occupés à transformer celle de 1997 en loi nationale. En comparant la législation européenne et allemande, nous soulignerons donc le point faible de la législation européenne : le temps nécessaire pour établir un cadre juridique efficace et fonctionnel peut facilement atteindre plusieurs années. L’article s’achèvera sur une courte présentation du « powershopping » ou « community shopping », en passe de devenir un nouveau modèle pour le consommateur européen, qui a fait l’objet de décisions restrictives ces derniers temps.
Resumo:
Au lendemain de l’adoption de la sphère de sécurité (ou Safe Harbor Principles) entre l’Union européenne et les États-Unis, il convient de revenir sur les principes mis de l’avant, après une longue période de discussion, pour encadrer le traitement des renseignements personnels entre ces deux systèmes juridiques. Ce rappel permettra de mieux mesurer la portée de ladite sphère de sécurité face aux logiques territoriales de protection des renseignements personnels et à l’absence d’homogénéité de celles-ci.
Resumo:
La prolifération des acteurs non étatiques, favorisée par la mondialisation, est un phénomène marquant de notre histoire contemporaine. Rassemblés sous le vocable de « société civile », ils ont contribué à créer un foisonnement de normes sur le plan international allant, pour certains commentateurs, jusqu’à concurrencer l’État sur sa capacité de dire le droit. Parmi ces acteurs privés, les organisations non gouvernementales (ONG) et les entreprises multinationales jouent un rôle prépondérant. Notre imaginaire collectif oppose cependant trop souvent l’ONG, symbole du désintéressement, à la multinationale assoiffée de profit. Le présent mémoire vise à relativiser ce constat manichéen et simplificateur. En analysant, dans une perspective de droit international, les moyens d’action des ONG et des multinationales, on se rend compte que les passerelles entre les deux « mondes » sont en réalité nombreuses. ONG et multinationales se retrouvent d’ailleurs dans leur aspiration commune à être reconnues formellement sur la scène internationale. L’opportunité d’une reconnaissance juridique de la société civile sera discutée.
Resumo:
L’aptitude à reconnaitre les expressions faciales des autres est cruciale au succès des interactions sociales. L’information visuelle nécessaire à la catégorisation des expressions faciales d’émotions de base présentées de manière statique est relativement bien connue. Toutefois, l’information utilisée pour discriminer toutes les expressions faciales de base entre elle demeure encore peu connue, et ce autant pour les expressions statiques que dynamiques. Plusieurs chercheurs assument que la région des yeux est particulièrement importante pour arriver à « lire » les émotions des autres. Le premier article de cette thèse vise à caractériser l’information utilisée par le système visuel pour discriminer toutes les expressions faciales de base entre elles, et à vérifier l’hypothèse selon laquelle la région des yeux est cruciale pour cette tâche. La méthode des Bulles (Gosselin & Schyns, 2001) est utilisée avec des expressions faciales statiques (Exp. 1) et dynamiques (Exp. 2) afin de trouver quelles régions faciales sont utilisées (Exps. 1 et 2), ainsi que l’ordre temporel dans lequel elles sont utilisées (Exp. 2). Les résultats indiquent que, contrairement à la croyance susmentionnée, la région de la bouche est significativement plus utile que la région des yeux pour discriminer les expressions faciales de base. Malgré ce rôle prépondérant de la bouche, c’est toute de même la région des yeux qui est sous-utilisée chez plusieurs populations cliniques souffrant de difficultés à reconnaitre les expressions faciales. Cette observation pourrait suggérer que l’utilisation de la région des yeux varie en fonction de l’habileté pour cette tâche. Le deuxième article de cette thèse vise donc à vérifier comment les différences individuelles en reconnaissance d’expressions faciales sont reliées aux stratégies d’extraction de l’information visuelle pour cette tâche. Les résultats révèlent une corrélation positive entre l’utilisation de la région de la bouche et l’habileté, suggérant la présence de différences qualitatives entre la stratégie des patients et celle des normaux. De plus, une corrélation positive est retrouvée entre l’utilisation de l’œil gauche et l’habileté des participants, mais aucune corrélation n’est retrouvée entre l’utilisation de l’œil droit et l’habileté. Ces résultats indiquent que la stratégie des meilleurs participants ne se distingue pas de celle des moins bons participants simplement par une meilleure utilisation de l’information disponible dans le stimulus : des différences qualitatives semblent exister même au sein des stratégies des participants normaux.
Resumo:
La chimie supramoléculaire est un domaine qui suscite depuis quelques années un intérêt grandissant. Le domaine s’appuie sur les interactions intermoléculaires de façon à contrôler l’organisation moléculaire et ainsi moduler les propriétés des matériaux. La sélection et le positionnement adéquat de groupes fonctionnels, utilisés en combinaison avec un squelette moléculaire particulier, permet d’anticiper la façon dont une molécule interagira avec les molécules avoisinantes. Cette stratégie de construction, nommé tectonique moléculaire, fait appel à la conception de molécules appelées tectons (du mot grec signifiant bâtisseur) pouvant s’orienter de façon prévisible par le biais d’interactions faibles et ainsi générer des architectures supramoléculaires inédites. Les tectons utilisent les forces intermoléculaires mises à leur disposition pour s’orienter de façon prédéterminée et ainsi contrecarrer la tendance à s’empiler de la manière la plus compacte possible. Pour ce faire, les tectons sont munies de diverses groupes fonctionnels, aussi appelés groupes de reconnaissance, qui agiront comme guide lors de l’assemblage moléculaire. Le choix du squelette moléculaire du tecton revêt une importance capitale puisqu’il doit permettre une orientation optimale des groupes de reconnaissance. La stratégie de la tectonique moléculaire, utilisée conjointement avec la cristallisation, ouvre la porte à un domaine de la chimie supramoléculaire appelé le génie cristallin. Le génie cristallin permet l’obtention de réseaux cristallins poreux soutenus par des interactions faibles, pouvant accueillir des molécules invitées. Bien que toutes les interactions faibles peuvent être mises à contribution, le pont hydrogène est l’interaction prédominante en ce qui a trait aux réseaux cristallins supramoléculaires. La force, la directionnalité ainsi que la versatilité font du pont hydrogène l’interaction qui, à ce jour, a eu le plus grand impact dans le domaine du génie cristallin. Un des groupements de reconnaissance particulièrement intéressants en génie cristallin, faisant appel aux ponts hydrogène et offrant plusieurs motifs d’interaction, est l’unité 2,4-diamino-1,3,5-triazinyle. L’utilisation de ce groupement de reconnaissance conjointement avec un cœur moléculaire en forme de croix d’Onsager, qui défavorise l’empilement compact, permet l’obtention de valeurs de porosités élevées, comme c’est le cas pour le 2,2’,7,7’-tétrakis(2,4-diamino-1,3,5-triazin-6-yl)-9,9’-spirobi[9H-fluorène]. Nous présentons ici une extension du travail effectué sur les cœurs spirobifluorényles en décrivant la synthèse et l’analyse structurale de molécules avec une unité dispirofluorène-indénofluorényle comme cœur moléculaire. Ce cœur moléculaire exhibe les mêmes caractéristiques structurales que le spirobifluorène, soit une topologie rigide en forme de croix d’Onsager défavorisant l’empilement compact. Nous avons combiné les cœurs dispirofluorène-indénofluorényles avec différents groupements de reconnaissance de façon à étudier l’influence de l’élongation du cœur moléculaire sur le réseau cristallin, en particulier sur le volume accessible aux molécules invitées.
Resumo:
Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.
Resumo:
Dans le cadre de cette thèse, nous investiguons la capacité de chaque hémisphère cérébral à utiliser l’information visuelle disponible lors de la reconnaissance de mots. Il est généralement convenu que l’hémisphère gauche (HG) est mieux outillé pour la lecture que l’hémisphère droit (HD). De fait, les mécanismes visuoperceptifs utilisés en reconnaissance de mots se situent principalement dans l’HG (Cohen, Martinaud, Lemer et al., 2003). Puisque les lecteurs normaux utilisent optimalement des fréquences spatiales moyennes (environ 2,5 - 3 cycles par degré d’angle visuel) pour reconnaître les lettres, il est possible que l’HG les traite mieux que l’HD (Fiset, Gosselin, Blais et Arguin, 2006). Par ailleurs, les études portant sur la latéralisation hémisphérique utilisent habituellement un paradigme de présentation en périphérie visuelle. Il a été proposé que l’effet de l’excentricité visuelle sur la reconnaissance de mots soit inégal entre les hémichamps. Notamment, la première lettre est celle qui porte habituellement le plus d’information pour l’identification d’un mot. C’est aussi la plus excentrique lorsque le mot est présenté à l’hémichamp visuel gauche (HVG), ce qui peut nuire à son identification indépendamment des capacités de lecture de l’HD. L’objectif de la première étude est de déterminer le spectre de fréquences spatiales utilisé par l’HG et l’HD en reconnaissance de mots. Celui de la deuxième étude est d’explorer les biais créés par l’excentricité et la valeur informative des lettres lors de présentation en champs divisés. Premièrement, nous découvrons que le spectre de fréquences spatiales utilisé par les deux hémisphères en reconnaissance de mots est globalement similaire, même si l’HG requière moins d’information visuelle que l’HD pour atteindre le même niveau de performance. Étonnament toutefois, l’HD utilise de plus hautes fréquences spatiales pour identifier des mots plus longs. Deuxièmement, lors de présentation à l’HVG, nous trouvons que la 1re lettre, c’est à dire la plus excentrique, est parmi les mieux identifiées même lorsqu’elle a une plus grande valeur informative. Ceci est à l’encontre de l’hypothèse voulant que l’excentricité des lettres exerce un biais négatif pour les mots présentés à l’HVG. De façon intéressante, nos résultats suggèrent la présence d’une stratégie de traitement spécifique au lexique.