968 resultados para Ceramic tapes
Resumo:
Le présent document consiste en une étude de la céramique caractéristique de la ville d’Amarna (Akhet-Aton) en lien avec les productions palatiales dans les sociétés complexes. Dans une première partie, cette poterie à décor bleu est mise en contexte. La situation géographique, historique et religieuse de la ville sont mises en relief. Les thèmes habituels lors de l’étude d’une céramique sont ensuite abordés : les ateliers, les matériaux, la transformation, la cuisson, les formes et motifs. La fonction de ces vases restant un point de questionnement, diverses théories à ce sujet sont analysées. Le questionnement d’un lien entre ces vases et l’idéologie religieuse instaurée par le pharaon Akhenaton se pose ensuite et la comparaison entre les motifs et l’iconographie des palais de la ville et des tombes de l’époque permet d’y répondre positivement. Ces deux derniers points permettent de bien saisir l’importance de cette céramique dans le cadre amarnien. La seconde partie du travail concerne le concept d’objet palatial. Ce type de production est défini et plusieurs critères sont énumérés. Ces critères sont ensuite appliqués à des objets palatiaux appartenant à des sociétés complexes afin de les confirmer. Ces caractéristiques vérifiées, elles sont appliquées à la céramique à décor bleu afin de vérifier si celle-ci correspond à une industrie palatiale. Comme ce style de poterie répond à tous les critères, il est possible d’affirmer qu’il s’agit d’un objet palatial. Il est même possible de dire à ce sujet qu’il s’agit d’un objet de prestige consommé par une élite et qui sert de véhicule à l’idéologie en place.
Resumo:
The traditional role of justice is to arbitrate where the good will of people is not enough, if even present, to settle a dispute between the concerned parties. It is a procedural approach that assumes a fractured relationship between those involved. Recognition, at first glance, would not seem to mirror these aspects of justice. Yet recognition is very much a subject of justice these days. The aim of this paper is to question the applicability of justice to the practice of recognition. The methodological orientation of this paper is a Kantian-style critique of the institution of justice, highlighting the limits of its reach and the dangers of overextension. The critique unfolds in the following three steps: 1) There is an immediate appeal to justice as a practice of recognition through its commitment to universality. This allure is shown to be deceptive in providing no prescription for the actual practice of this universality. 2) The interventionist character of justice is designed to address divided relationships. If recognition is only given expression through this channel, then we can only assume division as our starting ground. 3) The outcome of justice in respect to recognition is identification. This identification is left vulnerable to misrecognition itself, creating a cycle of injustice that demands recognition from anew. It seems to be well accepted that recognition is essentjustice, but less clear how to do justice to recognition. This paper is an effort in clarification.
Resumo:
My aim in the present paper is to develop a new kind of argument in support of the ideal of liberal neutrality. This argument combines some basic moral principles with a thesis about the relationship between the correct standards of justification for a belief/action and certain contextual factors. The idea is that the level of importance of what is at stake in a specific context of action determines how demanding the correct standards to justify an action based on a specific set of beliefs ought to be. In certain exceptional contexts –where the seriousness of harm in case of mistake and the level of an agent’s responsibility for the outcome of his action are specially high– a very small probability of making a mistake should be recognized as a good reason to avoid to act based on beliefs that we nonetheless affirm with a high degree of confidence and that actually justify our action in other contexts. The further steps of the argument consist in probing 1) that the fundamental state’s policies are such a case of exceptional context, 2) that perfectionist policies are the type of actions we should avoid, and 3) that policies that satisfy neutral standards of justification are not affected by the reasons which lead to reject perfectionist policies.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Nous avons démontré l’utilité du groupement protecteur tert-butylsulfonyle (N-Bus) pour la chimie des acides aminés et des peptides. Celui-ci est préparé en deux étapes, impliquant la réaction d’une amine avec le chlorure de tert-butylsulfinyle, suivie par l’oxydation par du m-CPBA, pour obtenir les tert-butylsulfonamides correspondants avec d’excellents rendements. Le groupement N-Bus peut être clivé par traitement avec 0.1 N TfOH/DCM/anisole à 0oC en 10h pour régénérer le sel d’ammonium. Une variété d’acides aminés N-Bus protégés ainsi que d’autres aminoacides peuvent alors être utilisés pour préparer divers dipeptides et tripeptides. A l’exception du groupe N-Fmoc, les conditions de déprotection du groupe N-Bus clivent également les groupements N-Boc, N-Cbz et O-Bn. Une déprotection sélective et orthogonale des groupes N-Boc, N-Cbz, N-Fmoc et O-Bn est également possible en présence du groupe protecteur N-Bus. Le nouvel acide aminé non-naturel (3R, 2R) 3–méthyl-D-leucine (β-Me-Leu) et son régioisomère 2-méthyle ont été synthétisés par ouverture d’une N-Ts aziridine en présence d’un excès de LiMe2Cu. Chacun des régioisomères du mélange (1:1,2) a été converti en la méthylleucine correspondante, puis couplé à l’acide D-phényllactique puis au motif 2-carboxyperhydroindole 4-amidinobenzamide en présence de DEPBT. Des élaborations ultérieures ont conduit à des analogues peptidiques non-naturels d’aeruginosines telles que la chlorodysinosine A. Les deux analogues ont ensuite été évalués pour leur activité inhibitrice de la thrombine et la trypsine. La présumée aeruginosine 3-sulfate 205B et son anomère β ont été synthétisés avec succès à partir de 5 sous-unités : la 3-chloroleucine, l’acide D-phényllactique, le D-xylose, le 2-carboxy-6-hydroxyoctahydroindole et l’agmatine. La comparaison des données RMN 1H et 13C reportées avec celles obtenues avec l’aeruginosine synthétique 205B révèle une différence majeure pour la position du groupe présumé 3'-sulfate sur l’unité D-xylopyranosyle. Nous avons alors synthétisés les dérivés méthyl-α-D-xylopyranosides avec un groupement sulfate à chacune des positions hydroxyles, afin de démontrer sans ambiguïté la présence du sulfate en position C-4' par comparaison des données spectroscopiques RMN 1H et 13C. La structure de l’aeruginosine 205B a alors été révisée. Une des étapes-clés de cette synthèse consiste en la formation du glycoside avec le groupe hydroxyle en C-6 orienté en axial sur la sous-unité Choi. Le 2-thiopyridylcarbonate s’est avéré une méthode efficace pour l’activation anomérique. Le traitement par AgOTf et la tétraméthylurée en solution dans un mélange éther-DCM permet d’obtenir l’anomère α désiré, qui peut alors être aisément séparé de l’anomère β par chromatographie
Resumo:
Ce mémoire comprend deux tomes : le premier consiste du texte et des figures, le deuxième consiste des annexes. Le tout est regroupé dans le document électronique présent.
Resumo:
Le développement ainsi que l’amélioration des différentes techniques de purification sont des défis importants pour la chimie d’aujourd’hui. Certaines des méthodes actuelles, tel que le greffage d’un réactif sur un support solide permettant d’accéder à un produit pur par simple filtration du milieu, comportent toutefois certains inconvénients. En effet, les propriétés de solubilité de ces polymères rendent la mise en œuvre des réactions plus difficiles. C’est dans ce contexte que le groupe du Pr. Charette a rapporté l’utilisation de réactifs liés à un sel de tétraarylphosphonium (TAP). Ces sels peuvent être solubilisés dans un solvant tel que le dichlorométhane et aisément retirés du milieu réactionnel par précipitation à l’aide d’éther diéthylique (Chapitre 1). L’un des objectifs de cette thèse a donc été lié à la découverte de deux méthodes complémentaires qui, jusqu’à présent, sont considérées comme des méthodes de choix pour la synthèse des sels de TAP fonctionnalisés (Chapitre 2). L’une d’entre elles est utilisée par Soluphase inc., une entreprise qui commercialise ces sels de TAP. L’efficacité des sels en tant que support dans la synthèse de petites molécules a été démontrée lors de la synthèse d’un produit naturel, la (–)-coniine (Chapitre 3). L’isolement des intermédiaires synthétiques instables par simple précipitation à l’aide d’un support de TAP a permis de rendre cette synthèse plus efficace que celle déjà connue. Dans le deuxième volet de cette thèse, plusieurs problèmes reliés à la synthèse de dérivés cyclopropaniques 1,1-disubstitués ont été étudiés. Ces derniers font partie intégrale de plusieurs produits naturels et de médicaments. Cependant, leur formation par une réaction de cyclopropanation d’alcènes utilisant des réactifs diazoïques possédant deux groupements de type accepteur n’est pas tâche facile (Chapitre 4). En effet, cette réaction souffre d’un faible contrôle diastéréosélectif. Par le fait même, très peu de méthodologies de synthèse ont rapporté l’utilisation de ce type de réactifs diazoïques dans des réactions de cyclopropanation stéréosélectives. L’étude du mécanisme de la réaction de cyclopropanation catalysée au Rh(II) a proposé des indices favorisant un modèle ayant des précédents dans la littérature (Chapitre 5). Ces études nous ont mené à la découverte de la «capacité trans-directrice» du groupement amide lors des réactions de cyclopropanation d’oléfines. Nous avons donc utilisé cette propriété afin de résoudre plusieurs problèmes rencontrés dans la littérature. Nous avons montré qu’elle permet l’accès à des dérivés cyclopropaniques possédant deux groupements carboxyliques géminaux avec des sélectivités élevées (Chapitre 6). Ces produits étaient accessibles que par des séquences synthétiques nécessitant plusieurs étapes. De plus, nous avons démontrés que ces nouveaux dérivés cyclopropaniques sont des outils synthétiques fort utiles dans la synthèse de produits naturels d’intérêt biologique. Cette formidable «capacité trans-directrice» du groupement amide nous a permi de résoudre le problème de la synthèse asymétrique de dérivés carboxyliques α-cyano cyclopropaniques (Chapitre 7). De plus, ce projet nous a menées à la découverte de l’effet de divers additif achiraux permettant d’augmenter la sélectivité dans certaines réactions. Cette réaction possède une vaste étendue et l’utilité de ces nouveaux dérivés cyclopropaniques a été démontrée par plusieurs transformations de groupements fonctionnels.
Resumo:
Cette étude a été réalisée dans le cadre d’une maîtrise en Aménagement. Elle s’efforce à démontrer que l’étape d’un projet que l’on appelle problématisation, c’est-à-dire l’étape de construction des problèmes à être résolus, permet de s’assurer que les actions entreprises soient en cohérence et en pertinence avec le contexte du projet. Nous constatons désormais que nous ne pouvons plus nous contenter d’évaluer les projets sur la seule base de son efficience, c’est-à-dire la concordance de ses résultats avec les objectifs prévus. Dans ces circonstances, nous émettons l’hypothèse que la problématisation fait appel à des compétences particulières et généralement peu utilisées par rapport à d’autres étapes de la réalisation d’un projet. À cet égard, nous avons réalisé un travail de recherche exploratoire sur ce thème en ayant comme objectif d’obtenir une compréhension des compétences mobilisées lors de la problématisation en situation de projet en général et d’identifier plus spécifiquement ces compétences dans une situation de projet en particulier, celle des projets de coopération internationale. Pour y arriver, nous avons procédé à la construction d’un référentiel d’emploi et d’activités pour en déduire un référentiel de compétences de la problématisation. Pour ce faire, nous avons réalisé une étude de cas sur les projets de stage de coopération internationale. L’utilisation de la technique de l’« instruction au sosie » et d’une rechercheintervention nous ont permis de dégager les principaux résultats suivant: la problématisation fait appel à des compétences particulières de gestion de l’information et de médiation. Les compétences générales de problématisation que les responsables des stages dans les organisations de coopération internationale v doivent maîtriser sont : être capable de générer les disponibilités de projets à partir de données primaires et secondaires; être capable de faire des choix et de justifier ces choix en fonction de l’analyse des données; être capable de présenter des informations écrites claires, respectueuses des idées des partenaires en fonction du langage de projet utilisé par le public auquel s’adresse la proposition; être capable d’utiliser les commentaires des évaluateurs pour améliorer un projet et être capable de mener à terme un projet. La contribution principale de ce travail de recherche réside dans la proposition d’un outil précieux pour le recrutement et la sélection, l’évaluation du rendement, la formation et le perfectionnement des acteurs de la problématisation.