664 resultados para Cadre d’analyse


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent document consiste en une étude de la céramique caractéristique de la ville d’Amarna (Akhet-Aton) en lien avec les productions palatiales dans les sociétés complexes. Dans une première partie, cette poterie à décor bleu est mise en contexte. La situation géographique, historique et religieuse de la ville sont mises en relief. Les thèmes habituels lors de l’étude d’une céramique sont ensuite abordés : les ateliers, les matériaux, la transformation, la cuisson, les formes et motifs. La fonction de ces vases restant un point de questionnement, diverses théories à ce sujet sont analysées. Le questionnement d’un lien entre ces vases et l’idéologie religieuse instaurée par le pharaon Akhenaton se pose ensuite et la comparaison entre les motifs et l’iconographie des palais de la ville et des tombes de l’époque permet d’y répondre positivement. Ces deux derniers points permettent de bien saisir l’importance de cette céramique dans le cadre amarnien. La seconde partie du travail concerne le concept d’objet palatial. Ce type de production est défini et plusieurs critères sont énumérés. Ces critères sont ensuite appliqués à des objets palatiaux appartenant à des sociétés complexes afin de les confirmer. Ces caractéristiques vérifiées, elles sont appliquées à la céramique à décor bleu afin de vérifier si celle-ci correspond à une industrie palatiale. Comme ce style de poterie répond à tous les critères, il est possible d’affirmer qu’il s’agit d’un objet palatial. Il est même possible de dire à ce sujet qu’il s’agit d’un objet de prestige consommé par une élite et qui sert de véhicule à l’idéologie en place.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Présentation audio du 13 octobre 2009, dans le cadre des séminaires étudiants au CRDP "Sécurité, normativités et mondialisation 2009-2010". Anne-Claire Gayet, étudiante à la maîtrise en droit international à l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ayant réalisé neuf longs-métrages entre 1988 et 2007, aussi que plusieurs campagnes publicitaires, vidéo-clips, courts-métrages et projets collectifs, Wong Kar-wai est un des réalisateurs contemporains les plus importants actuellement. Issu de l'industrie cinématographique fortement commerciale de Hong Kong, Wong est parvenu à attirer l'attention du circuit international des festivals de cinéma avec son style visuel unique et son récit fragmenté. Considéré par plusieurs critiques comme le poète de la recherche d’identité de Hong Kong après 1997, Wong Kar-wai défie toutes les tentatives de catégorisation. L’étude qui se poursuivit ici a donc pour objet essentiel de fournir une analyse attentive et complète de son oeuvre, tout en se concentrant sur les traits stylistiques qui donnent à ses films une unité. Ces caractéristiques correspondent à une certaine façon de raconter des histoires, de composer des personnages et des récits, de manipuler le temps et d'utiliser des ressources techniques de sorte que ses films offrent une identité cohérente. L'objectif est d'analyser les différents composants de ses images pour découvrir comment ses films communiquent les uns avec les autres afin de créer une identité unique. Pour atteindre cet objectif, je pose comme hypothèse de travail que le cinéma de Wong est marqué par une structure dualiste qui permet à ses films de présenter des qualités contradictoires simultanément. La plupart de mes arguments se concentrent sur le travail du philosophe français Gilles Deleuze, qui a proposé une théorie du cinéma divisé entre l’image-mouvement et l’image-temps. Je considère que sa théorie fournit un cadre valide sur lequel les films de Wong peuvent être projetés. Tandis que ma recherche se concentre sur l’interprétation textuelle des films, je profiterais également d’une analyse comparative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un document accompagne le mémoire et est disponible pour consultation au Centre de conservation des bibliothèques de l'Université de Montréal (http://www.bib.umontreal.ca/conservation/).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent texte porte sur l’état de la démocratie au Sénégal depuis l’alternance politique survenue en 2000. Adoptant une définition minimale de la démocratie – respect des libertés civiles et politiques, et tenue d’élections libres et justes – à laquelle il ajoute le principe de séparation des pouvoirs, son principal objectif est de répondre à la question suivante : pourquoi le fonctionnement de la démocratie est-il entravé au Sénégal? L’hypothèse avancée pour répondre à cette interrogation est la présence du néo-patrimonialisme. Celui-ci, par l’intermédiaire de la personnalisation du pouvoir et le clientélisme, sape le respect des règles démocratiques dans ce pays d’Afrique de l’Ouest. Pour analyser l’impact du néo-patrimonialisme sur la démocratie au Sénégal, ce mémoire privilégie le néo-institutionnalisme sociologique comme cadre théorique. Cette approche définit les institutions de façon large : celles-ci peuvent englober non seulement des normes formelles mais également des règles informelles. En vertu de cette approche, le néo-patrimonialisme et la démocratie représentent des institutions puisque le premier englobe un ensemble de règles informelles et le second un ensemble de normes et procédures formelles. Ces deux institutions structurent et façonnent le comportement des individus. Dans cette confrontation institutionnelle, les règles néo-patrimoniales influencent davantage l’action des élites politiques sénégalaises – notamment le chef de l’État – que les normes démocratiques. La vérification de l’hypothèse s’appuie sur des études sur la démocratie et le néo-patrimonialisme aussi bien au Sénégal qu’en Afrique. Elle se base également sur l’actualité et les faits politiques saillants depuis l’alternance. L’analyse est essentiellement qualitative et se divise en deux chapitres empiriques. Le premier de ceux-ci (chapitre II dans le texte) concerne la séparation des pouvoirs. Le but de ce chapitre est d’observer la manière dont l’actuel président de la République, Abdoulaye Wade, contrôle le parlement et la justice. Le second chapitre empirique (chapitre III dans le texte) se divise en deux sections. La première s’intéresse aux libertés civiles et politiques qui subissent des restrictions dues au penchant autoritaire de Wade. La seconde section porte sur les élections dont le déroulement est entaché par de nombreuses irrégularités : violence électorale, manque de ressources de l’autorité électorale, instabilité du calendrier électoral, partialité de la justice. L’étude confirme l’hypothèse, ce qui est très problématique pour la plupart des États africains. En effet, le néo-patrimonialisme est une caractéristique fondamentale de la gouvernance en Afrique. Ainsi, beaucoup de régimes du continent noir qui enclenchent ou enclencheront un processus de démocratisation comme le Sénégal, risquent de connaître les mêmes difficultés liées à la persistance des pratiques néo-patrimoniales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en co-tutelle avec l'Université Libre de Berlin, Institut für Deutsche und Niederländische Philologie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Projet réalisé dans le cadre d'une cotutelle avec l'Université de Bourgogne (Dijon, France)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis plusieurs années, la définition des soins palliatifs a été élargie pour inclure toutes les maladies ayant un pronostic réservé. Le Québec s’est doté d’une politique de soins palliatifs dont l’un des principes directeurs est de maintenir les patients dans leur milieu de vie naturel. Alors que présentement environ 10 % de la population nécessitant des soins palliatifs en reçoit, on peut s’attendre à une augmentation des demandes de soins palliatifs à domicile dans les CSSS du Québec. La présente étude a pour but de décrire et comprendre l’expérience de dispenser des soins palliatifs à domicile pour des infirmières travaillant dans un contexte non spécialisé. Une étude qualitative ayant comme perspective disciplinaire la théorie de l’humain-en-devenir de Parse a été réalisée. Des entrevues ont été effectuées auprès de huit infirmières travaillant au maintien à domicile d’un CSSS de la région de Montréal qui font des soins palliatifs dans un contexte non spécialisé. L’analyse des données a été effectuée selon la méthode d’analyse phénoménologique de Giorgi (1997). Les résultats s’articulent autour de trois thèmes qui décrivent l’expérience de dispenser des soins palliatifs à domicile pour des infirmières qui travaillent dans un contexte non spécialisé. Elles accompagnent les patients et leur famille, en s’engageant à donner des soins humains, et développant une relation d’accompagnement avec le patient et ses proches. Elles doivent composer avec les réactions du patient et de sa famille et doivent parfois informer le patient de la progression de son état de santé. De plus, elles se préoccupent de donner des soins de qualité en composant avec la complexité des soins palliatifs à domicile tout en s’assurant de soulager les symptômes des patients et de tenter de développer leur expertise. Finalement, le fait d’être confrontée à la mort permet de cheminer. Ainsi, les infirmières vivent des émotions, reçoivent du soutien, sont touchées personnellement par la mort, éprouvent de la satisfaction envers les soins qu’elles donnent et apprennent personnellement de leur expérience. L’essence du phénomène à l’étude est que lorsque les infirmières font un véritable accompagnement du patient et de sa famille en s’efforçant de donner des soins de qualité, cela crée des conditions permettant qu’un cheminement personnel et professionnel sur la vie et la mort soit effectué par les infirmières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Although some are excited about the possibility of using current scientific research into the biological causes of sexual orientation to ground rights claims, I argue that basing rights claims on this research is unwise because this research, specifically the hormonal, genetic, and structural research, is organized around the inversion assumption, a conceptual scheme within which some aspect of the biology of gay men and lesbians is thought to be inverted along sex lines.While there are many reasons to worry about the use of the inversion assumption, I focus on problems that arise from a further set of claims that must be assumed in order to make the use of the inversion assumption coherent. This further set of assumptions includes the claims (1) that heterosexuality is the standard state and that (2) this standard state is sexually-dimorphic and (3) deterministic. I argue that this set of assumptions is problematic because it results in ideological consequences that are both sexist and heterosexist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de cet article, je veux démontrer la nécessité de développer et d’incorporer les perspectives féministes dans le champ de l’éthique des relations internationales à travers l’examen des contributions respectives de J. A. Tickner, C. MacKinnon, S. Ruddick et M. Nussbaum. Mon hypothèse générale consiste à arguer que la force critique des perspectives féministes en théorie politique représente non seulement une ouverture épistémologique incontournable, mais que celles-ci ouvrent la voie à des méthodes d’investigation et de conceptualisation que l’on doit explorer en vue d’enrichir les théories de justice globale d’une portée pratique plus grande.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the main characteristics of today’s democratic societies is their pluralism. As a result, liberal political philosophers often claim that the state should remain neutral with respect to different conceptions of the good. Legal and social policies should be acceptable to everyone regardless of their culture, their religion or their comprehensive moral views. One might think that this commitment to neutrality should be especially pronounced in urban centres, with their culturally diverse populations. However, there are a large number of laws and policies adopted at the municipal level that contradict the liberal principle of neutrality. In this paper, I want to suggest that these perfectionistlaws and policies are legitimate at the urban level. Specifically, I will argue that the principle of neutrality applies only indirectly to social institutions within the broader framework of the nation-state. This is clear in the case of voluntary associations, but to a certain extent this rationale applies also to cities. In a liberal regime, private associations are allowed to hold and defend perfectionist views, focused on a particular conception of the good life. One problem is to determine the limits of this perfectionism at the urban level, since cities, unlike private associations, are publicinstitutions. My aim here is therefore to give a liberal justification to a limited form of perfectionism of municipal laws and policies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Based on a close reading of the debate between Rawls and Sen on primary goods versus capabilities, I argue that liberal theory cannot adequately respond to Sen’s critique within a conventionally neutralist framework. In support of the capability approach, I explain why and how it defends a more robust conception of opportunity and freedom, along with public debate on substantive questions about well-being and the good life. My aims are: (i) to show that Sen’s capability approach is at odds with Rawls’s political liberal version of neutrality; (ii) to carve out a third space in the neutrality debate; and (iii) to begin to develop, from Sen’s approach, the idea of public value liberalism as a position that falls within that third space.