61 resultados para Non-point Source Pollution

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

[français] L’objectif de cette recherche est d’analyser l’organisation interne d’une firme de sondage sous l’angle des sphères du milieu de travail telles qu’identifiées par Bélanger, Giles et Murray (2004), soient : la gestion de la production, l’organisation du travail et la relation à l’emploi. Plus spécifiquement, nous chercherons à savoir comment se comporte la firme enquêtée face à la gestion de la flexibilité organisationnelle et quel est l’impact de celle-ci sur les trois sphères du travail. L’analyse utilise la méthodologie de l’étude de cas et fait appel à divers types de matériaux : des observations ponctuelles, des entrevues informelles et les bases de données administratives ainsi que les rapports d’évaluation des entrevues téléphoniques effectuées par les intervieweurs. De même, l’analyse des résultats utilise à la fois des méthodes plus classiques telles que les corrélations ainsi que des représentations graphiques et des analyses qualitatives. L’analyse permet de repérer une logique de fonctionnement à l’œuvre dans les différentes sphères de l’emploi : l’importante standardisation des processus de travail (dans le champ de la gestion de la production), la réduction des marges de manœuvre (dans le champ de l’organisation du travail) et la non reconnaissance de l’expertise des intervieweurs (dans le champ de la relation à l’emploi). Les contradictions repérées dans l’analyse, entre les sphères de l’emploi et les objectifs de flexibilité, montrent que les structures mises en place bloquent, dans une certaine mesure, la capacité d’initiative et d’adaptation que la flexibilité exige. La recherche a montré que ce qu’on demande aux intervieweurs est à la fois le reflet des exigences de la flexibilité, tel que constaté dans ce mémoire, mais aussi, des exigences sociales face à la méthodologie de sondage. Tout porte à déduire que celles-ci peuvent engendrer un plafonnement de la performance des employés. Mots-clés : centres d’appels, intervieweurs, firmes de sondage, flexibilité organisationnelle, gestion de la production, organisation du travail, relation à l’emploi, travail émotionnel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uncertainties as to future supply costs of nonrenewable natural resources, such as oil and gas, raise the issue of the choice of supply sources. In a perfectly deterministic world, an efficient use of multiple sources of supply requires that any given market exhausts the supply it can draw from a low cost source before moving on to a higher cost one; supply sources should be exploited in strict sequence of increasing marginal cost, with a high cost source being left untouched as long as a less costly source is available. We find that this may not be the efficient thing to do in a stochastic world. We show that there exist conditions under which it can be efficient to use a risky supply source in order to conserve a cheaper non risky source. The benefit of doing this comes from the fact that it leaves open the possibility of using it instead of the risky source in the event the latter’s future cost conditions suddenly deteriorate. There are also conditions under which it will be efficient to use a more costly non risky source while a less costly risky source is still available. The reason is that this conserves the less costly risky source in order to use it in the event of a possible future drop in its cost.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans une perspective d’analyse des risques pour la santé publique, l’estimation de l’exposition revêt une importance capitale. Parmi les approches existantes d’estimation de l’exposition, l’utilisation d’outils, tels que des questionnaires alimentaires, la modélisation toxicocinétique ou les reconstructions de doses, en complément de la surveillance biologique, permet de raffiner les estimations, et ainsi, de mieux caractériser les risques pour la santé. Ces différents outils et approches ont été développés et appliqués à deux substances d’intérêt, le méthylmercure et le sélénium en raison des effets toxiques bien connus du méthylmercure, de l’interaction entre le méthylmercure et le sélénium réduisant potentiellement ces effets toxiques, et de l’existence de sources communes via la consommation de poisson. Ainsi, l’objectif général de cette thèse consistait à produire des données cinétiques et comparatives manquantes pour la validation et l’interprétation d’approches et d’outils d’évaluation de l’exposition au méthylmercure et au sélénium. Pour ce faire, l’influence du choix de la méthode d’évaluation de l’exposition au méthylmercure a été déterminée en comparant les apports quotidiens et les risques pour la santé estimés par différentes approches (évaluation directe de l’exposition par la surveillance biologique combinée à la modélisation toxicocinétique ou évaluation indirecte par questionnaire alimentaire). D’importantes différences entre ces deux approches ont été observées : les apports quotidiens de méthylmercure estimés par questionnaires sont en moyenne six fois plus élevés que ceux estimés à l’aide de surveillance biologique et modélisation. Ces deux méthodes conduisent à une appréciation des risques pour la santé divergente puisqu’avec l’approche indirecte, les doses quotidiennes estimées de méthylmercure dépassent les normes de Santé Canada pour 21 des 23 volontaires, alors qu’avec l’approche directe, seulement 2 des 23 volontaires sont susceptibles de dépasser les normes. Ces différences pourraient être dues, entre autres, à des biais de mémoire et de désirabilité lors de la complétion des questionnaires. En outre, l’étude de la distribution du sélénium dans différentes matrices biologiques suite à une exposition non alimentaire (shampoing à forte teneur en sélénium) visait, d’une part, à étudier la cinétique du sélénium provenant de cette source d’exposition et, d’autre part, à évaluer la contribution de cette source à la charge corporelle totale. Un suivi des concentrations biologiques (sang, urine, cheveux et ongles) pendant une période de 18 mois chez des volontaires exposés à une source non alimentaire de sélénium a contribué à mieux expliciter les mécanismes de transfert du sélénium du site d’absorption vers le sang (concomitance des voies régulées et non régulées). Ceci a permis de montrer que, contrairement au méthylmercure, l’utilisation des cheveux comme biomarqueur peut mener à une surestimation importante de la charge corporelle réelle en sélénium en cas de non contrôle de facteurs confondants tels que l’utilisation de shampoing contenant du sélénium. Finalement, une analyse exhaustive des données de surveillance biologique du sélénium issues de 75 études publiées dans la littérature a permis de mieux comprendre la cinétique globale du sélénium dans l’organisme humain. En particulier, elle a permis le développement d’un outil reliant les apports quotidiens et les concentrations biologiques de sélénium dans les différentes matrices à l’aide d’algorithmes mathématiques. Conséquemment, à l’aide de ces données cinétiques exprimées par un système d’équations logarithmiques et de leur représentation graphique, il est possible d’estimer les apports quotidiens chez un individu à partir de divers prélèvements biologiques, et ainsi, de faciliter la comparaison d’études de surveillance biologique du sélénium utilisant des biomarqueurs différents. L’ensemble de ces résultats de recherche montre que la méthode choisie pour évaluer l’exposition a un impact important sur les estimations des risques associés. De plus, les recherches menées ont permis de mettre en évidence que le sélénium non alimentaire ne contribue pas de façon significative à la charge corporelle totale, mais constitue un facteur de confusion pour l’estimation de la charge corporelle réelle en sélénium. Finalement, la détermination des équations et des coefficients reliant les concentrations de sélénium entre différentes matrices biologiques, à l’aide d’une vaste base de données cinétiques, concourt à mieux interpréter les résultats de surveillance biologique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Afin de saisir le contexte du phénomène de l’expatriation d’Occidentaux en Inde, nous relevons d’abord certains traits de la modernité occidentale, tels le sentiment d’aliénation, le tournant subjectiviste, la globalisation et les principaux mythes-modèles de l’Inde qui circulent dans les pays occidentaux et donnent naissance aux projets d’expatriation. Une approche expérientielle facilite la compréhension de l’expatriation telle qu’elle est vécue par les acteurs. La collecte de données ethnographiques permet de saisir ces expériences à partir de récits recueillis dans trois zones frontière : 1) à Rishikesh, auprès d’expatriés spirituels; 2) à Calcutta, auprès d’expatriés humanitaires; 3) à Goa, auprès d’expatriés hédonistes-expressifs cherchant à améliorer leur style de vie. Ces données ethnographiques sont présentées dans trois chapitres distincts. Un chapitre comparatif met ensuite en relief quelques points de convergence dans l’expérience des expatriés, soit l’insertion locale au sein de communautés spécifiques, fortement associées à des mythes-modèles de l’Inde; le renouveau identitaire découlant de l’expérience interculturelle; et finalement, l’impact du transnationalisme sur la consolidation du malaise face à la modernité. La discussion théorique présente les solutions mises en branle par les expatriés pour tempérer leur malaise par rapport à l’Occident, soit : 1) l’engagement en profondeur dans un mode de vie permettant de se réaliser selon ses propres aspirations; 2) le regroupement par affinités et l’adoption d’un rôle social clair; 3) l’affranchissement de la pression sociale et l’adoption de pratiques transnationales permettant de préserver une continuité affective avec les proches tout en endossant un statut d’étranger. L’étude révèle aussi qu’on ne peut faire abstraction de l’histoire des relations de l’Occident avec le sous-continent pour comprendre les relations interculturelles des expatriés occidentaux avec les Indiens locaux. Enfin, les privilèges socioéconomiques des Occidentaux en Inde sont clairement identifiés comme étant une condition essentielle de leurs projets d’expatriation, ceux-ci étant néanmoins motivés principalement par un sentiment d’épuisement culturel face à l’Occident et à son mode de vie. Faisant suite à l’analyse des points de vue critiques sur la modernité (renforcés par l’expérience d’altérité), la thèse s’achève sur l’évocation de quelques pistes de recherche pour une anthropologie de l’Occident, tout en interrogeant, implicitement, le projet anthropologique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Une des façons d’approcher la question de l’existence de raisons partiales non-dérivatives d’une quelconque sorte consiste à expliquer ce que sont les raisons partiales et ensuite à chercher à savoir s’il y a des raisons de cette sorte. Si de telles raisons existent, alors il est au moins possible qu’il y ait des raisons partiales d’amitié. C’est cette approche que j’adopterai ici, et elle produit des résultats intéressants. Le premier a trait à la structure des raisons partiales. C’est au moins une condition nécessaire pour qu’une raison soit partiale qu’elle aie une composante relationnelle explicite. Cette composante, techniquement parlant, est un relatum dans la relation d’être une raison qui elle-même est une relation entre la personne à qui la raison s’applique et la personne concernée par l’action pour laquelle il y a une raison. La deuxième conclusion de ce texte est que cette composante relationnelle est aussi requise dans de nombreuses sortes de raisons admises comme impartiales. Afin d’éviter de banaliser la distinction entre raisons partiales et impartiales nous devons appliquer une condition suffisante additionnelle. Finalement, bien qu’il pourrait s’avérer possible de distinguer les raisons impartiales ayant une composante relationnelle des raisons partiales, cette approche suggère que la question de savoir si l’éthique est partiale ou impartiale devra se régler au niveau de l’éthique normative, ou à tout le moins, qu’elle ne pourra se régler au niveau du discours sur la nature des raisons d’agir.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

À la lecture de l'article 2365 c.c.Q., le créancier et la caution ne peuvent pas percevoir les droits et les libertés que ce texte concrétise à leur encontre ou à leur profit. Pour pallier ce problème, les auteurs et la jurisprudence ont alors laissé place à leur imagination afin de tenter de classifier cette disposition à l'intérieur d'institutions juridiques éprouvées, le tout en vue de démythifier le contenu de la règle de droit. Pour notre part, nous considérons que l'exception de non-subrogation est une notion originale en soi, qui trouve sa source à l'intérieur même de son institution. La thèse que nous soutenons est que l'exception de non-subrogation, mode de libération qui a pour mission de combattre le comportement opportuniste, cristallise l'obligation de bonne foi en imposant implicitement au créancier une obligation de bonne subrogation. Tout manquement du créancier à cette obligation a comme conséquence de rendre le droit de créance du créancier irrecevable à l'égard de la caution devant les tribunaux. Ce précepte éclaircit le contexte de l'article 2365 C.c.Q. et, par le fait même, il permet de délimiter le contour de son domaine et de préciser ses conditions d'application. L'exception de non-subrogation est un mécanisme juridique qui date de l'époque romaine. Elle est maintenant intégrée dans presque tous les systèmes juridiques du monde, tant en droit civil qu'en common law. Dans la législation québécoise, elle s'est cristallisée à l'article 2365 C.c.Q. Il s'agit d'une disposition d'ordre public qui ne peut être invoquée que par la caution. Son application dépend du cumul de quatre conditions: 1) le fait du créancier; 2) la perte d'un droit subrogatoire; 3) le préjudice de la caution; 4) le lien causal entre les trois derniers éléments. Lorsque ces quatre conditions sont remplies, la caution est libérée de son engagement dans la mesure du préjudice qu'elle subit.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente étude examine une des difficultés que soulève l'exécution des contrats de vente mettant en relation des parties situées dans des pays différents. Ces contrats connaissent des problèmes bien particuliers. En effet, en donnant lieu à l'expédition des marchandises vendues, ces contrats obligent aussi le vendeur à transférer à l'acheteur les documents conformes représentatifs de celles-ci. La non-conformité des documents se distingue de la non-conformité des marchandises et constitue une source principale des litiges visant la résolution des contrats dans ce secteur commercial. La diversité des solutions susceptibles de s'y appliquer est devenue une réalité depuis que les droits internes doivent coexister avec les règles de la Convention de Vienne sur la vente internationale de marchandises. En principe, aucune difficulté ne se pose lorsqu'un droit interne est désigné comme étant le droit compétent: il suffirait d'appliquer les solutions de ce droit. Ainsi, par exemple, l'acheteur peut résoudre le contrat si les documents ne sont pas conformes aux stipulations contractuelles sur la base du concept de fundamental breach (en cas de vente non documentaire) ou sur la base de la stricte conformité (en cas de vente documentaire) que retiennent les droits anglo-américain; en revanche dans les systèmes de droit civil (où la distinction entre vente documentaire et vente non documentaire n'existe pas), pareille résolution du contrat basée sur le défaut de conformité des documents n'est possible qu'en présence d'un préjudice important ou d'un défaut majeur. Plusieurs justifications fondamentales sous-tendent la raison d'être des solutions retenues par les droits nationaux: quête de sécurité juridique et recherche de solution conforme aux besoins des opérateurs du commerce international. Néanmoins, il appert que de telles justifications sont également présentes dans la Convention de Vienne. De plus, cette Convention oblige le vendeur à transférer à l'acheteur les documents conformes de la vente. Cependant, elle le fait de manière indirecte sans pour autant préciser quels types de documents doivent faire l'objet du transfert. L'opportunité d'un tel transfert dépendra donc, sous réserves des dispositions impératives, de l'accord des parties et des usages commerciaux qui ont préséance sur les règles unifiées. Ce qui en fait parfois une question d'interprétation du contrat ou une question de comblement des lacunes de ce droit uniforme de la vente internationale. En ce sens, ce dernier droit diffère des droits nationaux qui sont plus clairs à cet égard. Quant aux conditions de la résolution du contrat pour non-conformité des documents, quel que soit le système national considéré, la solution qu'il consacre contraste avec celle prévue par la Convention de Vienne qui n'admet une telle sanction qu'en présence d'une contravention essentielle. Cette dualité entre droits nationaux et droit matériel uniforme nous met en face d'un constat bien évident: l'avènement de la Convention de Vienne sur la vente internationale de marchandises et la règle de la contravention essentielle qu'elle consacre, perturbent le paysage juridique jusqu'ici en vigueur dans chacun des États signataires. Ce qui justifie tout l'intérêt du sujet: la contravention essentielle par opposition à la règle de la stricte conformité et celle basée sur l'importance du préjudice prévues par les droits internes sont-elles des règles exclusives l'une de l'autre? La réponse est loin d'être certaine en dépit des convergences possibles dans le dénouement du contentieux de la résolution, même si par ailleurs il faut admettre qu'il s'agit de régimes juridiques bien différents. Tout en subordonnant la résolution du contrat à l'existence d'une contravention essentielle, lorsque la Convention de Vienne s'applique (DEUXIÈME PARTIE), la présente étude propose une interprétation de celle-ci en examinant son contenu ainsi que les différentes sources qui interfèrent dans sa mise en œuvre afin de démontrer que ce droit uniforme, malgré ses limites, régit les aspects documentaires de la vente internationale (PREMIÈRE PARTIE).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La stéatohépatite non alcoolique (NASH) est une pathologie du foie dont l’amplitude et les répercussions sont de plus en plus préoccupantes dans le monde médical ou biomédical. Elle est associée à l’obésité, au syndrome métabolique et au diabète sucré de type II. La recherche de la thérapie optimale pour le NASH est un domaine en plein essor puisqu’aucun traitement n’est suffisamment efficace à ce jour. La présente étude fait le point sur de nouvelles possibilités de traitements qui se sont avérés efficaces pour contrer les différentes lésions métaboliques et cellulaires rencontrées dans un modèle in vivo chez le rat où le NASH est induit par l’ingestion d’une diète riche en gras. Cette étude démontre, tout d’abord, que les traitements durant six semaines avec l’acide ursodéoxycholique (UDCA) et son dérivé le NCX 1000, possédant des propriétés donatrices de monoxyde d’azote, à doses équimolaires, protègent de manière équivalente le foie contre le stress oxydatif, l’hyperinsulinémie, l’inflammation et la fibrose causés par la stéatohépatite. De plus, la combinaison d’une plus faible dose de NCX 1000 avec un antioxydant lipophile tel que la vitamine E offre une protection similaire, particulièrement au niveau des paramètres du stress oxydatif. Par ailleurs, l’étude illustre aussi que la silibinine, composé polyphénolique actif du chardon marie (Silybum marianum) et utilisé en traitement pendant 5 semaines, possède un pouvoir hépatoprotecteur, des propriétés antioxydantes et un effet hypoinsulinémique dans ce modèle de stéatohépatite d’origine nutritionnelle. Le potentiel thérapeutique de ces composés en fait des candidats de choix pour le traitement du NASH qui méritent de faire l’objet d’études cliniques poussées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La légitimité d’une organisation est fondée sur sa mission, c’est-à-dire sur sa raison d’être. Des responsables des bibliothèques et de nombreux chercheurs craignent que la légitimité des bibliothèques publiques soit contestée dans la société de l’information. De plus, les textes officiels présentant les missions des bibliothèques publiques sont divers et les missions y sont délibérément non définies. Au Québec, où une grande majorité des bibliothèques publiques autonomes sont placées directement sous la tutelle des municipalités, les bibliothèques publiques doivent définir et légitimer leurs missions avec les élus municipaux. L’objectif principal de cette recherche est de comprendre, via les discours, le point de vue des élus municipaux québécois sur les missions des bibliothèques publiques autonomes, en comparaison avec les pratiques et les ressources des bibliothèques au plan local. Basé sur la théorie de la construction sociale de la réalité, un cadre conceptuel est proposé de manière à étudier non seulement les discours dans leur dimension textuelle, mais aussi à contextualiser ces discours et analyser l’écart entre ces discours et les pratiques des bibliothèques.La stratégie de recherche adoptée est une étude de cas multiples. L’objectif est de développer une analyse en profondeur de chaque cas et une analyse inter cas. Les douze cas (municipalités) ont été sélectionnés en fonction de deux critères de variation (la taille de la municipalité et le budget annuel alloué par la municipalité à la bibliothèque) et un critère discriminant (la distance par rapport à l’Université de Montréal). Des entrevues ont été menées auprès des élus municipaux présidant la commission ou le comité dont dépendent les bibliothèques publiques. Ces entrevues et les politiques culturelles ont fait l’objet d’une analyse de discours. Les entrevues auprès des responsables des bibliothèques et la documentation ont fait l’objet d’une analyse de contenu. Ces analyses ont permis la triangulation des méthodes et des sources de données.Les élus municipaux québécois, comme les professionnels, n’offrent pas un discours homogène sur les missions des bibliothèques publiques. Toutefois, un modèle de discours émerge. Il montre un discours « limité » par rapport à la littérature, dans lequel une image passive de la bibliothèque est présentée et dans lequel la tradition perdure malgré le contexte de la société de l’information. Mais l’analyse révèle aussi que les élus municipaux construisent leurs points de vue sur leurs propres convictions en tant qu’individus, sur leur rôle dans la gestion de la municipalité en tant qu’élus et sur l’image qu’ils ont des usagers des bibliothèques publiques. Enfin, l’analyse a révélé un axe de différenciation des points de vue selon que le discours s’appuie sur des valeurs fondamentales ou sur les usages (réels ou supposés) de la bibliothèque.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université Bordeaux 1 (France)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est peu de notions aussi vastes que celle du non-savoir, mais le flou du caractère nécessairement négatif de sa définition s’accompagne tout de même du sentiment que la source de ce qui ne peut qu’être déterminé négativement par la pensée (non, cela n’est pas le savoir) ne peut qu’être positive. Notion à l’applicabilité infinie, parce qu’en elle vient s’abîmer tout ce qui ne peut tenir dans l’espace de la maîtrise relative à ce dont on peut dire : je sais de quoi il s’agit. Est non-savoir tout ce qui se rapporte au bouillonnement pulsionnel de la vie et à l’échéance fatale de la mort. Ce qui pousse l’homme au meurtre, au génocide, à la guerre et à la violence révolutionnaire se confond avec un contenu affectif et identitaire qui ne peut être ramené au savoir sans laisser de reste. Mais tenter de comprendre ce qui échappe à l’entendement est cela même qui relance sans cesse la réflexion comprise comme cœur du savoir. Le savoir se montre ainsi sous une extrême dépendance face à son Autre. À la lumière de cette hypothèse devant beaucoup aux découvertes de la psychanalyse, le présent mémoire s’est donné pour objectif de jeter un regard frais sur quelques grandes tensions sociopolitiques de l’Histoire; mais il a d’abord fallu évaluer philosophiquement la possibilité d’un concept de non-savoir. Des champs identitaires majeurs — révolutions totalitaires ou démocratiques, bouleversements ou synergies culturelles — sont ainsi analysés sous l’angle d’une économie pulsionnelle qui s’inscrit dans une interaction perpétuelle avec ce qui s’ébauche ici comme une économie du rapport entre non-savoir et savoir. Est ainsi produite une esquisse des rapports possibles entre la vie pulsionnelle de l’homme, le savoir institutionnel et le monde sociopolitique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.