570 resultados para chaîne de valeur forestière
Resumo:
Ce mémoire présente divers projets artistiques incorporant des documents d'archives. Les projets étudiés ont été réalisés dans le cadre de résidences d'artistes en milieux documentaires ou en réponse à des invitations lancées par des musées, des galeries ou d'autres institutions. De plus, quelques projets initiés par les artistes eux-mêmes et des projets d'artiste-commissaire sont étudiés. Les résultats de recherche ont permis de montrer que les artistes peuvent apporter une contribution essentielle en collaborant à la mise en valeur du patrimoine culturel avec les archivistes.
Resumo:
La chaîne invariante forme un complexe nonamérique avec les molécules classiques du CMH de classe II. HLA-DM et HLA-DO, des molécules non-classiques de classe II, sont aussi impliquées dans la présentation des peptides antigéniques aux lymphocytes T. Ces molécules chaperones de la présentation antigénique modulent la capacité d’une cellule à présenter des antigènes par les moloécules classiques du CMH de classe II. La régulation transcriptionnelle des molécules chaperones, tout comme celle des autres molécules du CMH de classe II, est assurée par le transactivateur CIITA. La molécule HLA-DR peut être régulée négativement de manière post-traductionnelle par ubiquitination grâce à l’enzyme E3 ubiquitine ligase MARCH1. Celle-ci est induite par l’interleukine-10 dans les monocytes. L’objectif de ce projet était de déterminer si l’ubiquitination par MARCH1 peut aussi réguler l’expression des molécules chaperones de la présentation antigénique. Les expériences furent réalisées dans le contexte de co-transfections en cellules HEK293T. L’expression des molécules fut évaluée par immunomarquages et cytométrie de flux. Il a été montré que l’isoforme p33 de la chaîne invariante est régulé négativement en présence de MARCH1 à partir de la surface cellulaire, causant ainsi sa dégradation. Tel que démontré par l’utilisation d’un mutant dépourvu de queue cytoplasmique, cette dernière région n’est pas indispensable à ce phénomène. Une hypothèse est qu’une molécule non-identifiée, associée à Ii, serait ubiquitinée par MARCH1, l’entraînant dans sa régulation négative. Il fut déterminer que cette molécule n’était pas CXCR2, un récepteur pouvant être impliqué, avec la chaîne invariante et CD44, en tant que récepteur de MIF (Macrophage Inhibitory Factor). Il fut aussi montré que HLA-DO peut être ciblé par MARCH1 mais ceci ne semble pas être un phénomène dominant; l’expression des complexes DO/DM n’étant pas affectée bien qu’ils entrent en interaction avec MARCH1. L’expression de HLA-DM n’est pas affectée par MARCH1. Il n’a toutefois pas été déterminé hors de tout doute si MARCH1 peut modifier DM; des résultats obtenus avec une queue cytoplasmique de DM possédant une lysine laissant suggérer qu’il est possible que MARCH1 interagisse avec DM. Dans l’ensemble, les travaux démontrent que l’ubiquitination par MARCH1 joue un rôle dans la régulation post-transcriptionnelle de la chaîne invariante p33 mais pas HLA-DO et HLA-DM.
Resumo:
Ce mémoire présente l’étude de cas de la ville de St George, ancienne capitale du protectorat britannique des Bermudes. Sa situation géographique particulière et la présence d’un ensemble architectural colonial britannique et d’ouvrages militaires lui ont récemment valu le titre de Site du patrimoine mondial de l’UNESCO, ce qui constitue une reconnaissance de la valeur exceptionnelle universelle de cet ensemble urbain. Cette inscription survient au moment où les autorités locales souhaitaient diversifier l’économie de l’archipel en misant davantage sur le tourisme culturel et patrimonial. L’hypothèse centrale de ce mémoire est que la ville St George se révèle, au sens où l’entendent G.J. Ashworth et J.E. Tunbridge dans leur ouvrage The tourist-historic city, un « joyau du patrimoine », ce dernier étant défini comme une petite collectivité territoriale recelant des ressources historiques exceptionnelles qui en définissent de manière notable la morphologie urbaine et l’identité paysagère et orientent les politiques municipales. La recherche, suite à la présentation d’un cadre théorique sur le patrimoine mondial et le tourisme patrimonial, a par ailleurs permis de montrer que le concept de « cité historico-touristique » développé par les mêmes auteurs s’applique aux Bermudes à la condition qu’un transfert d’échelle soit opéré. En effet, nous ne sommes pas en présence d’un espace touristique constitué de deux secteurs d’une même ville qui contribuent, chacun à sa façon, à la définition de l’attractivité touristique, mais plutôt de deux petites villes voisines – St-George et Hamilton, la capitale – qui constituent le substrat d’une cité historico-touristique éclatée.
Resumo:
Les voies de signalisation des MAP kinases (MAPK) conventionnelles jouent des rôles essentiels pendant le développement des lymphocytes T (LT) ainsi que lors de leur activation suite à la reconnaissance antigénique. En raison de ses différences structurelles ainsi que de son mode de régulation, ERK3 fait partie des MAPK dites non-conventionnelles. Encore aujourd’hui, les événements menant à l’activation de ERK3, ses substrats ou partenaires ainsi que sa fonction physiologique demeurent peu caractérisés. Nous avons entrepris dans cette thèse d’étudier le rôle de ERK3 lors du développement et de l’activation des LT en utilisant un modèle de souris déficient pour l’expression de ERK3. Nous avons premièrement établi que ERK3 est exprimée chez les thymocytes. Ensuite, nous avons évalué le développement thymique chez la souris ERK3-déficiente et nous avons observé une diminution significative de la cellularité aux étapes DN1, DP et SP CD4+ du développement des LT. La création de chimères hématopoïétiques ERK3-déficientes nous a permis de démontrer que la diminution du nombre de cellules observée aux étapes DN1 et DP est autonome aux thymocytes alors que le phénotype observé à l’étape SP CD4+ est dépendant de l’abolition simultanée de ERK3 dans l’épithélium thymique et dans les thymocytes. Une étude plus approfondie de l’étape DP nous a permis de démontrer qu’en absence de ERK3, les cellules DP meurent plus abondamment et accumulent des cassures doubles brins (DSB) dans leur ADN. De plus, nous avons démontré que ces cassures dans l’ADN sont réalisées par les enzymes RAG et qu’en absence de ces dernières, la cellularité thymique est presque rétablie chez la souris ERK3-déficiente. Ces résultats suggèrent que ERK3 est impliquée dans un mécanisme essentiel à la régulation des DSB pendant le réarrangement V(D)J de la chaîne du récepteur des cellules T (RCT). Dans le deuxième article présenté dans cette thèse, nous avons montré que ERK3 est exprimé chez les LT périphériques, mais seulement suite à leur activation via le RCT. Une fois activés in vitro les LT ERK3-déficients présentent une diminution marquée de leur prolifération et dans la production de cytokines. De plus, les LT ERK3-déficients survivent de façon équivalente aux LT normaux, mais étonnamment, ils expriment des niveaux plus faibles de la molécule anti-apoptotique Bcl-2. Ces résultats suggèrent que la prolifération réduite des LT ERK3-déficients est la conséquence d’une altération majeure de leur activation. Ainsi, nos résultats établissent que ERK3 est une MAPK qui joue des rôles essentiels et uniques dans le développement thymique et dans l’activation des lymphocytes T périphériques. Grâce à ces travaux, nous attribuons pour la toute première fois une fonction in vivo pour ERK3 au cours de deux différentes étapes de la vie d’un LT.
Resumo:
L’observance, qui décrit à quel degré le patient suit la prescription, est un facteur essentiel pour que le traitement réussisse. Les observances des patients varient beaucoup et l’efficacité du médicament varie parallèlement. Par conséquent, il faut avoir des paramètres sensibles et fiables pour mesurer l’observance. Dans la littérature, on trouve beaucoup de paramètres pour évaluer l’observance mais leurs avantages, limites et inconvénients, en ce qui concerne l’évaluation de l’impact de l’observance sur les effets des médicaments n’ont pas encore été étudiés en profondeur. L’évaluation de ces paramètres nécessite de les tester dans différentes situations. Comme les données disponibles sur l’observance ne concernent pas un ensemble exhaustif de situations, le recours à la simulation, en s’inspirant des cas réels ou plausibles, est très pertinent. On a ainsi réussi à développer un modèle dont les paramètres sont simples et compréhensibles et qui est pratique et flexible pour simuler les différents cas et même les cas extrêmes de l’observance. On a proposé de nouveaux paramètres pour mesurer l’impact biopharmaceutique de l’observance. Ensuite, on a comparé la performance, en termes de sensibilité et la fiabilité, des paramètres proposés et celles de paramètres déjà utilisés. En conclusion, on peut souligner qu’il n’y a pas de paramètre parfait étant donné que chacun a ses propres limites. Par exemple, pour les médicaments dont les effets sont directement liés aux leurs concentrations plasmatiques, le pourcentage des doses prises, qui est le paramètre le plus utilisé, offre la pire performance; par contre, le pourcentage des doses correctes nettes qui est un nouveau paramètre possède une bonne performance et des avantages prometteurs.
Resumo:
Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.
Resumo:
Devant le constat du déclin toujours plus rapide de la diversité biologique et les limites des ressources disponibles pour l’enrayer, il est nécessaire de déterminer quels moyens devraient être engagés dans sa protection. Pour ce faire, une méthode efficace serait d’évaluer les bénéfices tirés de la biodiversité afin d’estimer rationnellement les coûts légitimes de sa protection. L’évaluation économique, qui se présente d’emblée sur un mode quantitatif, serait alors un outil précieux. Dans ce texte, nous présentons différentes méthodes d’évaluation économique de la biodiversité ainsi que certaines de leurs limites méthodologiques. Par la suite, nous montrons qu’en dépit de ses avantages pratiques, l’évaluation économique échoue à représenter l’ensemble des valeurs en jeu dans la protection de la biodiversité. Nous décrivons alors trois types de valeurs incommensurables avec des bénéfices économiques : la valeur de legs, qui renvoie aux obligations de transmission du patrimoine naturel dont nous avons hérité ; la valeur d’existence, qui renvoie à la considération morale d’intérêts autres que ceux des êtres humains ; la valeur de transformation, qui renvoie à la capacité d’examiner et de critiquer nos préférences et inclinaisons afin d’inclure celles-ci dans une vision du monde rationnelle et cohérente. Pour conclure, nous plaidons en faveur de l’élaboration de méthodes de concertation et d’évaluation participatives et pluralistes permettant de rendre compte de la diversité et de l’hétérogénéité des valeurs de la biodiversité.
Resumo:
Within the framework of the “capability approach” to human rights, this paper argues that adults who facilitate participatory planning and design with children and youth have an ethical obligation to foster young people’s capacities for active democratic citizenship. Practitioners often worry, justifiably, that if young people fail to see their ideas realized, they may become disillusioned and alienated from political life. Based on the experience of the Growing Up in Cities program of UNESCO, four rules of good practice are distilled which can help promote young people’s belief in the value of collective action, regardless of the challenges that the full implementation of their ideas may face.
Resumo:
Dans ce document, serons détaillées les résultats de mes travaux de recherche d’études doctorales. Tout d’abord, nous discuterons de la synthèse totale de la lépadine B, la plus courte à paraître dans la littérature à ce jour. Cette synthèse, en plus de valoriser la synthèse asymétrique de pipéridines poly-substituées développée par l’équipe du professeur Charette, mettra à profit une utilisation originale d’une séquence de fermeture-ouverture de cycle par la réaction de métathèse d’alcènes. De plus, nous détaillerons une brève étude mécanistique de cette dernière nous ayant permis la proposition d’un mécanisme peu commun de ce type de séquence réactionnel et dont les conséquences expérimentales sont impressionnantes. Au cours de cette synthèse, nous avons identifié un synthon d’une grande valeur synthétique. En effet, ne comportant pas moins que quatre centres chiraux, ce synthon pouvait être obtenu énantiopure en seulement trois étapes à partir de la pyridine. Ainsi, nous avons effectué une analyse structurale de ce synthon et avons envisagé une valorisation supplémentaire par une utilisation originale de la fragmentation de Grob. Dans ce contexte, nous avons développé une toute nouvelle synthèse de pipéridines 2,3,6-trisubstituées hautement régio- et diastéréosélective. Afin de pouvoir réaliser la précédente méthodologie, nous avons dû étudier la réduction d’une amide en présence de groupements fonctionnels sensibles dans les conditions usuelles. Heureusement, l’année précédente nous avions développée une réaction hautement chimiosélective d’amides tertaires. Cette nouvelle réaction, qui a été fondamentalement inspiré par une méthodologie du professeur Charette sur l’activation d’amides, a permis la réduction d’amides tertiaires en présence de fonctions telles les cétone, ester, nitrile, époxyde, insaturations, etc. Enfin, l’ensemble des connaissances acquises au cours de ces projets a permis l’élaboration d’une toute nouvelle stratégie de synthèse pour la préparation d’indolizidines et quinolizidines. Plus spécifiquement, nous avons développé la première séquence d’activation intramoléculaire et déaromatization asymétrique de la pyridine. Ceci permet d’avoir un accès aux squelettes indolizidine et quinolizidine avec des stéréosélectivités élevées, la nature insaturée de ces derniers laissant également place à une grande flexibilité synthétique. Dans ce contexte, nous allons détailler une très courte synthèse de trans-indolizidines.
Resumo:
Il a été bien documenté que les différentes canalisations des unités de soins dentaires contiennent un épais biofilm. Ce biofilm est constitué entre autres de bactéries, mais aussi d’amibes. Certaines amibes ont un potentiel pathogène et peuvent causer des infections graves. Deux cas d’infections amibiennes et possiblement reliées aux unités dentaires ont retenu notre attention et sont à l’origine du présent projet. L’identification morphologique des amibes afin de déterminer si elles présentent un potentiel pathogène ou non est une tâche ardue, même pour les protozoologistes chevronnés. Nous avons donc utilisé la réaction de polymérase en chaîne (PCR) pour identifier les amibes. Des nouvelles amorces ont été élaborées pour détecter les amibes des genres Acanthamoeba ainsi que Naegleria. Des échantillons d’eau et de terre ont été prélevés dans l’environnement, et des échantillons d’eau et de biofilm ont été prélevés dans les unités dentaires. Une partie de chaque échantillon a été mise en culture selon une méthode améliorée pour une identification morphologique, et l’autre partie a été soumise à un PCR direct. Des Acanthamoebae et/ou des Naegleriae ont été détectées dans 100% des échantillons, mais les espèces varient d’un échantillon à l’autre. Des amibes à potentiel pathogènes sont détectables dans les unités dentaires ainsi que dans l’environnement, et celles-ci pourraient représenter un risque pour la santé de certains individus.
Resumo:
Cet article se penche sur le rapport de la conception républicaine de la liberté comme non-domination défendue par P. Pettit avec la conception de la liberté comme capabilité proposée par A. Sen. L’usage que fait Pettit de la conception défendue par Sen lui permet d’avancer une conception plus réaliste des préférences des individus en contexte social. Cette définition des «préférences décisives» guide toute sa démonstration de la compatibilité de la liberté comme capabilité avec la théorie néorépublicaine. Elle lui permet en outre de donner une valeur particulière à l’objectif social de lutte contre la précarité, précarité comprise comme situation dans laquelle un individu est placé sous la dépendance arbitraire d’un autre en l’empêchant de se mouvoir à sa guise dans le jeu social. Nous examinons les enjeux de cette articulation à la lumière de la réponse critique qui a été formulée par Sen à l’effet que la conception néorépublicaine limitait trop la pluralité sociale de la liberté. Enfin, nous esquissons une manière de réconcilier l’approche par les capabilités avec la conception républicaine.
Resumo:
De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
May a government attempt to improve the lives of its citizens by promoting the activities it deems valuable and discouraging those it disvalues? May it engage in such a practice even when doing so is not a requirement of justice in some strict sense, and even when the judgments of value and disvalue in question are likely to be subject to controversy among its citizens? These questions have long stood at the center of debates between political perfectionists and political neutralists. In what follows I address a prominent cluster of arguments against political perfectionism—namely, arguments that focus on the coercive dimensions of state action. My main claim is simple: whatever concerns we might have about coercion, arguments from coercion fall short of supporting a thoroughgoing rejection of perfectionism, for the reason that perfectionist policies need not be coercive. Thlist challenges to this last claim.
Resumo:
Le but premier de cette étude sera de comprendre le rôle de l’écriture de voyage telle qu’elle est pratiquée dans l’œuvre d’Henri Michaux et d’expliquer le parcours qui mène ce dernier du voyage réel au voyage imaginaire. Les trois ouvrages principaux qui constitueront notre objet d’analyse, c’est-à-dire Ecuador (1929), Un Barbare en Asie (1933), ainsi que le récit imaginaire d’Ailleurs (1946), transforment chacun à leur façon le genre de la relation de voyage en mettant de l’avant non pas une écriture de l’Autre mais une écriture de soi. Il semble en effet que, chez Michaux, l’écriture de l’ailleurs n’a de valeur que dans l’affirmation de la position du sujet face à un réel angoissant, réel devant impérativement être tenu à distance par le biais du langage. Incidemment, dans sa volonté d’expatriation, le voyageur est pris entre deux temps bien distincts, celui du désir d’adéquation et celui du repli sur soi.