987 resultados para Carte de vecteurs propres de Moran (MEM)
Resumo:
La nourriture traditionnelle compose une part essentielle de la culture Inuit. Néanmoins, la contamination de cette nourriture par les organochlorés et les métaux lourds fait l’objet d’une attention toute particulière, car elle excède dans certains cas les recommandations canadiennes. Le but de ce travail est, d’une part de mettre à jour les estimés d’exposition au chlordane, au BPC, au toxaphène et au mercure, et d’autre part d’en explorer certaines sources de variation. Pour ce faire, de nouvelles données sur la concentration de ces contaminants parmi les plus importants aliments traditionnels ont été combinées aux relevés alimentaires assemblés dans l’Arctique canadien en 1998 et 1999, la quantité et le type de nourriture traditionnelle consommés étant supposés ne pas avoir changé. D’après l’ensemble des nouveaux estimés obtenus, les changements dans la banque de données sur les contaminants affectent plus les extrémités des distributions que les mesures de tendance centrale. Les estimés d’apports en organochlorés peuvent être considérés comme toujours actuels étant donné que les cinq types d’aliments pour lesquels il y a des nouvelles données disponibles représentent la majorité de l’exposition totale. En ce qui concerne le mercure, toutefois, des données additionnelles sont nécessaires à propos du caribou, du narval, du muktuk du béluga et de la truite de lac pour générer des niveaux d’exposition plus exacts. Les sources de variations de ces estimés d’exposition ont été explorées en évaluant les coefficients de variation propres aux apports alimentaires et ceux propres aux concentrations de contaminants dans les aliments traditionnels. Il s’avère que la variation attribuable aux méthodes de collecte de données alimentaires est plus élevée que celle attribuable à la mesure des contaminants dans les banques de données. De nouvelles méthodes pour mesurer les niveaux de consommation d’aliments traditionnels devraient être développées.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Ce mémoire comprend deux tomes : le premier consiste du texte et des figures, le deuxième consiste des annexes. Le tout est regroupé dans le document électronique présent.
Resumo:
Dans ce travail, j’étudie les relations entre la blogosphère politique dans la ville de São Paulo, au Brésil, et l’ensemble de l’écologie médiatique dans laquelle celle-ci est insérée. En établissant un dialogue avec les théories qui posent la dissémination des blogues comme le moment de répartition des moyens de production et de démocratisation de parole, je propose que la blogosphère doit plutôt être envisagée comme une instance de filtrage des produits des médias de masse. J’emprunte le concept de « dispositif » à Michel Foucault et à Giorgio Agamben, pour définir les médias du monde contemporain selon les termes d’un dispositif médiatique. J’emprunte aussi les concepts de « two-step flow of communications » et de « leader d’opinion » à Paul F. Lazarsfeld et Elihu Katz pour localiser la blogosphère dans l’ensemble de notre espace médiatique. Je défends également l’idée que les blogueurs exercent aujourd’hui une fonction semblable à celle des leaders d’opinion que décrivent Katz et Lazarsfeld – ce que je nomme la fonction-filtre de la blogosphère - et que ces blogueurs se situent dans la couche intermédiaire du flux d’informations dans les démocraties occidentales, c'est-à-dire celle qui se trouve entre les médias de masse et les récepteurs. Pour conduire ma recherche, j’ai réalisé une ethnographie virtuelle auprès des blogueurs de la ville de São Paulo, au Brésil, pendant la période de la campagne électorale de 2008 à la mairie. Ensuite, j’ai soumis l’ensemble de leur production discursive à une analyse sociolinguistique. Et je conclus que plutôt qu’étant le fruit d’une révolution, l’écologie médiatique contemporaine reprend - en les diversifiant et en les étendant - des processus que l’on ne pensait propres qu’aux dynamiques des médias de masse.
Resumo:
La 1-β-D-arabinofuranosylcytosine (ara-C) demeure l’agent anticancéreux principalement utilisé dans le traitement de la leucémie myéloblastique aiguë (LMA), malgré sa dégradation et son élimination rapide après une administration parentérale. Son encapsulation dans des vecteurs pharmaceutiques, majoritairement des liposomes, a permis de surmonter ces inconvénients. L’objectif général de ce projet de doctorat était de développer deux systèmes à libération prolongée, à base de phospholipides, de cholestérol et de poly(éthylène glycol) (PEG) afin d’encapsuler l’ara-C et ultimement, d’améliorer son efficacité dans le traitement de la LMA. Des Sphérulites® (vésicules multilamellaires d’un type particulier) ont d’abord été étudiées pour leur forte capacité d’encapsulation, due à leur mode de préparation. Par la suite, une formulation liposomale capable, d’une part de cibler spécifiquement les cellules leucémiques et, d’autre part, de promouvoir la libération intracellulaire de l’ara-C grâce à sa sensibilité au pH, a été mise au point. Les deux formulations se devaient d’avoir un faible diamètre, une stabilité en présence de fluides biologiques et des temps de circulation prolongés chez l’animal. Une préparation de Sphérulites®, composée de Phospholipon 90G, de Solutol HS15 et de cholestérol, a permis d’obtenir des vésicules de 300 nm de diamètre. Un dérivé lipidique de PEG a pu être fixé à leur surface, sans modifier la disposition concentrique des lamelles, ni changer leur stabilité. Les Sphérulites® PEGylées ont été chargées d’ara-C et injectées chez le rat par la voie intraveineuse. Elles ont démontré des temps de circulation significativement prolongés comparativement aux Sphérulites® sans PEG. Cependant, l’ara-C s’est retrouvée éliminée de la circulation sanguine très rapidement, révélant une libération précoce du principe actif à partir de ces vésicules. Les liposomes sensibles au pH (~150 nm) ont été obtenus suite à l’insertion d’un copolymère à base de dioctadécyle, de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique. L’anticorps anti-CD33, soit complet soit son fragment Fab’, a été fixé à la surface des liposomes afin de cibler les cellules leucémiques. Les essais in vitro ont démontré la spécificité de la formulation pour différentes cellules leucémiques (CD33+), sa stabilité en présence de protéines plasmatiques et la libération intracellulaire d’un marqueur fluorescent et de l’ara-C. Enfin, des études menées chez la souris saine et immunodéprimée inoculée de cellules HL60 ont montré que la formulation exposant le fragment Fab’ possédait un profil pharmacocinétique et une biodistribution semblables à ceux des liposomes contrôles non-ciblés. L’encapsulation de l’ara-C a permis d’améliorer grandement ses temps de circulation après une administration intraveineuse. Cependant, bien que les immunoliposomes ont permis de prolonger la survie des souris leucémiques comparativement à l’ara-C libre, l’addition du polymère sensible au pH n’a pas permis d’apporter de réel avantage à la formulation lorsque administrée in vivo. Les résultats obtenus dans ce travail de thèse ont, dans un premier temps, mis en évidence que les Sphérulites® pourraient s’avérer utiles dans la vectorisation d’agents anticancéreux si leur capacité à retenir le principe actif in vivo était améliorée. Dans un second temps, les données présentées avec les immunoliposomes suggèrent qu’ils pourraient apporter un bénéfice notable dans le traitement de la LMA.
Resumo:
Réalisé en cotutelle avec l'Université Bordeaux 1 (France)
Resumo:
Au niveau clinique, il a été observé que de 15 à 30 % des patients qui ont subi un infarctus du myocarde développent une dépression majeure. De plus, la population atteinte de dépression post-infarctus présente un risque de mortalité de trois à quatre fois plus élevé, et ce, en comparaison avec la population non dépressive post-infarctus. Dans un modèle de rat développé pour étudier la dépression post-infarctus, des cellules apoptotiques ont été retrouvées au niveau du système limbique. Il apparaît que les cytokines seraient en partie responsables de cette mort cellulaire qui relie le cœur en ischémie et le système nerveux central. Donc, les objectifs de cette thèse sont : 1) de caractériser spatialement et temporellement la survenue de la mort cellulaire par apoptose dans les structures du système limbique du rat, à la suite d’un infarctus du myocarde ; 2) de déterminer l’effet de l’anti-inflammatoire celecoxib sur cette apoptose observée au niveau de l’amygdale et de déterminer l’implication de l’enzyme COX-2 ; 3) de déterminer l’implication de la cytokine pro-inflammatoire TNF-α dans l’apoptose observée au niveau des structures du système limbique du rat, à la suite d’un infarctus du myocarde. Afin d’atteindre ces objectifs, les rats ont subi une ischémie de 40 minutes, suivi d’une période de reperfusion qui varie d’un protocole à l’autre (15 minutes, 24, 48, 72 heures ou 7 jours). De plus, en fonction du protocole, ces rats ont été traités avec soit du célécoxib (inhibiteur sélectif de la COX-2), soit avec du PEG sTNF-R1 (inhibiteur du TNF-α). À la suite de ces protocoles, les rats ont été sacrifiés, la taille de l’infarctus a été déterminée et les différentes structures cérébrales du système limbique prélevées. Des tests biochimiques propres à chaque protocole ont été réalisés afin de documenter l'apoptose. Il a alors été observé qu’aucun des deux traitements ne présentait d’effet sur la taille de l’infarctus. L’étude de l’apoptose dans le système limbique a révélé que : 1) le processus apoptotique se mettait en place dans l’hippocampe dès les 15 premières minutes de reperfusion suivant l’infarctus du myocarde et que ce processus était spatialement dynamique dans le système limbique jusqu’au septième jour postreperfusion ; 2) il est apparu que la COX-2 était impliquée dans l'apoptose du système limbique ; 3) il a été observé que le TNF-α périphérique était impliqué dans ce processus apoptotique après 72 heures de reperfusion en activant la voie extrinsèque de l'apoptose. Ces résultats ont permis de caractériser la survenue de l’apoptose au niveau du système limbique chez le rat à la suite d’un infarctus du myocarde et de documenter l'implication de la COX-2 et du TNF-α dans ce processus. Bien que ces résultats n’apportent pas de schémas thérapeutiques clairs ou de mécanismes physiopathologiques globaux ces derniers permettent une meilleure compréhension de la relation existante entre le cœur et le système nerveux central dans le cadre de l’infarctus du myocarde. De manière moins spécifique ils précisent la relation entre le système inflammatoire et le système nerveux central.
Resumo:
Ce mémoire de maitrise porte sur la représentation de l’ailleurs véhiculée aux lecteurs d’images, au Québec, par les gravures du journal illustré L’Opinion publique. Effectivement, si l’Histoire commence avec les premières traces écrites, elle pose le problème de l’étude historique de ceux qui n’ont pas laissé de tels témoignages, les personnes qui ne sont pas ou peu alphabétisées. Nous proposons d’étudier ces personnes par le biais de l’image, médium auquel elles ont pu avoir accès. Nous avons ainsi cherché à savoir quelle connaissance de l’ailleurs a pu être véhiculée aux lecteurs d’images à travers les gravures du journal. Nous considérons que les gravures sont comprises par tous. Celles-ci représentent la moitié des pages du périodique, nous pensons que ce journal a pu être accessible à chacun, à ceux que nous appelons les lecteurs d’images. Nos conclusions montrent que ces illustrations ont pu étendre la connaissance de l’espace des Québécois, à travers la représentation de l’actualité. Il est à noter que ces gravures proviennent en partie de journaux français et montrent la France et ses colonies. La population montréalaise se trouve donc au contact d’une certaine influence française, dont les élites se font les vecteurs. Une comparaison avec le Canadian Illustrated News révèle de profondes différences. Ainsi, ce journal du même propriétaire indique un intérêt marqué pour l’Empire britannique. Ce journal qui vise un public plus cultivé que celui de son homologue francophone donne à voir un espace plus large à ses lecteurs. Ainsi, chaque ligne éditoriale se fait l’écho de représentations différentes, transmises à ses lecteurs, populaires ou moins, francophones ou anglophones.
Resumo:
Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.
Resumo:
Afin de saisir le contexte du phénomène de l’expatriation d’Occidentaux en Inde, nous relevons d’abord certains traits de la modernité occidentale, tels le sentiment d’aliénation, le tournant subjectiviste, la globalisation et les principaux mythes-modèles de l’Inde qui circulent dans les pays occidentaux et donnent naissance aux projets d’expatriation. Une approche expérientielle facilite la compréhension de l’expatriation telle qu’elle est vécue par les acteurs. La collecte de données ethnographiques permet de saisir ces expériences à partir de récits recueillis dans trois zones frontière : 1) à Rishikesh, auprès d’expatriés spirituels; 2) à Calcutta, auprès d’expatriés humanitaires; 3) à Goa, auprès d’expatriés hédonistes-expressifs cherchant à améliorer leur style de vie. Ces données ethnographiques sont présentées dans trois chapitres distincts. Un chapitre comparatif met ensuite en relief quelques points de convergence dans l’expérience des expatriés, soit l’insertion locale au sein de communautés spécifiques, fortement associées à des mythes-modèles de l’Inde; le renouveau identitaire découlant de l’expérience interculturelle; et finalement, l’impact du transnationalisme sur la consolidation du malaise face à la modernité. La discussion théorique présente les solutions mises en branle par les expatriés pour tempérer leur malaise par rapport à l’Occident, soit : 1) l’engagement en profondeur dans un mode de vie permettant de se réaliser selon ses propres aspirations; 2) le regroupement par affinités et l’adoption d’un rôle social clair; 3) l’affranchissement de la pression sociale et l’adoption de pratiques transnationales permettant de préserver une continuité affective avec les proches tout en endossant un statut d’étranger. L’étude révèle aussi qu’on ne peut faire abstraction de l’histoire des relations de l’Occident avec le sous-continent pour comprendre les relations interculturelles des expatriés occidentaux avec les Indiens locaux. Enfin, les privilèges socioéconomiques des Occidentaux en Inde sont clairement identifiés comme étant une condition essentielle de leurs projets d’expatriation, ceux-ci étant néanmoins motivés principalement par un sentiment d’épuisement culturel face à l’Occident et à son mode de vie. Faisant suite à l’analyse des points de vue critiques sur la modernité (renforcés par l’expérience d’altérité), la thèse s’achève sur l’évocation de quelques pistes de recherche pour une anthropologie de l’Occident, tout en interrogeant, implicitement, le projet anthropologique.
Resumo:
Notre laboratoire a démontré que la capacité proinflammatoire du vascular endothelial growth factor (VEGF-A165) implique la synthèse endothéliale du facteur d’activation plaquettaire (PAF) via l’activation du récepteur tyrosine kinase homodimérique VEGFR-2/R-2. La synthèse du PAF requiert l’activation de la p38 MAPK et p42/44 MAPK qui activent la phospholipase A2 secrétée de type V (sPLA2-V). Nous avons découvert que la synthèse aigue de prostacycline (PGI2) induite par le VEGF-A165 requiert l’activation des récepteurs hétérodimériques VEGFR-1/R-2. L’activation sélective des récepteurs du VEGF peut donc agir comme balance dans la synthèse de facteurs pro-(PAF) et anti-(PGI2) inflammatoire. Cependant, les tyrosines impliquées dans la transphosphorylation de VEGFR-2/R-2 menant à la synthèse du PAF sont inconnues. Par mutagenèse dirigée, nous avons effectué des transfections transitoires de cellules endothéliales avec des plasmides codant pour le VEGFR-2 dont les tyrosines ciblées ont été remplacées de façon séquentielle par une phénylalanine. Un vecteur vide pcDNA a été utilisé comme contrôle négatif. La stimulation des cellules endothéliales de l’aorte bovine (BAEC) transfectées avec le VEGF-A165 (1nM) pendant 15 minutes augmente la synthèse du PAF de 300%, laquelle était similaire dans les BAEC non transfectées. Dans les BAEC transfectées avec les vecteurs pcDNA codant pour les mutations Y801F, Y1059F, Y1175F et Y1214F, nous avons observé une réduction de 54, 73, 68, et 57% respectivement de la synthèse du PAF induite par le VEGF par rapport au pcDNA témoin. Nos résultats apportent un nouvel aperçu sur le mécanisme par lequel le VEGF induit la synthèse du PAF qui est connu pour sa contribution dans l’activité pro-inflammatoire du VEGF.
Resumo:
Le Conseil de sécurité est l’organe principal du système onusien chargé du maintien de la paix et de la sécurité internationales. Face à une situation illégale, il ne peut donc l’ignorer et s’en désintéresser. Cependant, la perpétration d’un acte à la légalité controversée par l’un ou plusieurs de ses membres permanents peut nous laisser entendre que l’organe politique onusien aura des difficultés à remplir son rôle. Les membres permanents vont tenter d’instrumentaliser le Conseil de sécurité afin de diminuer l’illégalité de la situation. Ceci pose avec acuité le problème du contrôle de son activité en matière de maintien de la paix. L’accomplissement d’un acte illégal par un ou plusieurs membres permanents du Conseil de sécurité nécessite alors de réfléchir à des moyens d’ordre juridique pour limiter son pouvoir. Cette réflexion s’avère particulièrement pressante lorsque le Conseil est confronté à une occupation de guerre impliquant ses membres permanents ou, lorsqu’il crée ou autorise des opérations de paix de grandes envergures suite à un conflit armé impliquant ses membres permanents. Afin de limiter les prérogatives du Conseil de sécurité, le régime juridique de l’occupation tel qu’énoncé par le Règlement de La Haye (IV) de 1907 et la IVe Convention de Genève de 1949 devrait être appliquer par l’organe politique onusien lorsqu’il intervient dans une situation d’occupation de guerre impliquant ses membres permanents. L’objectif est d’éviter qu’il n’attribue aux puissances occupantes des missions qui dépassent le cadre juridique imposé par le droit des conflits armés. L’autorisation, par le Conseil de sécurité d’opérations de paix, telles qu’une administration civile transitoire ou une force multinationale avec un mandat de la paix avec recours à la force armée, suite à un conflit armé impliquant ses propres membres permanents, ouvre le débat sur leur réglementation. Alors, il sera proposé une interprétation progressiste de la définition de l’occupation telle qu’énoncée par le Règlement de La Haye (IV) de 1907 et la IVe Convention de Genève de 1949 afin d’y intégrer ces nouvelles formes d’occupations pacifiques, présentant de grandes similitudes avec les occupations de guerre. Ainsi, le régime juridique de l’occupation pourra leur être appliqué.
Resumo:
Ce mémoire traite de la construction d’un espace social citoyen à partir de l’analyse du travail d’intervention de deux organismes locaux situés à Trou du Nord (Haïti). Il s’agit d’explorer les manières dont les membres se représentent et s’approprient leur statut de citoyen. Pour mettre l’emphase sur les mécanismes associatifs et sociaux qui interviennent dans la construction de ce que nous nommons "espace social citoyen", nous avons mené une recherche qualitative dont la charpente interprétative est conçue avec l’aide des outils théorico-pratiques de la politique de participation (Barber, 1997) et l’intervention sociale collective (Lamoureux, 1991). Nous avançons l’hypothèse centrale que les pratiques associatives sont le vecteur de la construction d’un espace social citoyen à Trou du Nord. Cette hypothèse centrale est soutenue par deux hypothèses opératoires portant sur les conditions d’exercice de citoyenneté et l’affirmation individuelle de l’appartenance des membres à l’espace commun. Nous avons recueilli quatorze entretiens semi-directifs effectués avec les membres de l’Assemblée Populaire Veye Yo Trou du Nord (APVT) et du Rassemblement des Militants Solidaires de Trou du Nord (RAMSO). Les résultats de la recherche indiquent que les membres de ces deux organisations manifestent une grande volonté de contribuer au développement de leur localité et au «mieux-être» de la population. Leur implication directe dans les affaires politiques et sociales s’accompagne des exigences pour que l’État prenne en charge ses responsabilités vis-à-vis de ses citoyens. Cette liberté d’action repose sur le partage de leurs expériences individuelles et sur une grande connaissance des divers aspects des réalités locales auxquelles sont confrontés quotidiennement les citoyens. Ces deux groupes sont conçus comme des espaces de sociabilité, des lieux publics et dynamiques issus de l’activité commune et des divers types d’interactions au niveau local. Toujours d’après l’analyse, les membres de ces deux groupes interviennent sur un problème d’ensemble collectif au niveau local sans pour autant négliger leurs propres intérêts. Ils s’inscrivent dans le jeu de marchandage électoral et apprennent à leurs membres à se comporter comme une communauté d’intérêts et d’actions, elle-même inscrite dans l’ensemble des interactions, des processus et des dynamiques de résolution des problèmes au niveau local. Un tel constat vient à la fois valider certaines de nos hypothèses tout en révélant les limites de l’idée de la construction d’un espace social citoyen. D’une part, la volonté de contribuer au «mieux-être» de la population, la nécessité de prendre la parole, d’exprimer les problèmes collectifs et individuels, le souci d’avoir un contrôle sur l’action des dirigeants élus sont autant d’enjeux qui leur ont permis de passer de leur vécu particulier à une vision plus large des intérêts collectifs et à la définition des tâches qu’ils estiment correspondre au rôle citoyen qui leur incombe. D’autre part, leur positionnement dans le champ politique notamment au moment des élections les fait apparaître comme des groupes partisans, c'est-à-dire qu’ils ne sont pas toujours dans la construction de l’intérêt général. Nous concluons que ce double aspect s’avère nécessaire aussi bien à la construction de l’espace social citoyen qu’au fonctionnement démocratique au niveau local. Car, en plus de se définir comme citoyens et d’affirmer leur appartenance communautaire, les membres développent les capacités critiques face aux gestes et actes posés autant par les dirigeants locaux que par l’État haïtien lui-même. Ils acquièrent aussi les habilités de participer, même dans les interstices, aux jeux sociopolitiques faisant partie du processus de renforcement de la citoyenneté et d’un système démocratique en construction.
Resumo:
Dès sa création en 1966, l’ERAP s’est fixé pour but d’accroître la production du pétrole « franc », en diversifiant ses sources d’approvisionnement. Un tel objectif prend une tournure cruciale dès lors que les rapports tendus entre le groupe français et les autorités algériennes semblent menacer ses acquis dans le Sahara. Toutefois, se tailler une place sur le marché mondial semble à cette époque une tâche ardue, voire improbable, puisque les espaces les plus pétrolifères sont déjà occupés par les grandes sociétés, dites Majors. Néanmoins, la société d’État française réussit à s’implanter dans plusieurs pays producteurs, dont l’Irak en 1968, jusqu’alors considéré comme la chasse gardée de la Compagnie française des pétroles (CFP). Aussi, l’expérience irakienne, suite à l’insuccès en Algérie, incite Elf ERAP à se concentrer dans les pays pétroliers de l’Afrique subsaharienne et en Mer du Nord. Le 3 février 1968, Elf ERAP signe un accord avec la compagnie d’État pétrolière, INOC, pour se charger de la prospection et de l’exploitation d’une partie du territoire confisqué par l’État irakien à la puissante Iraq Petroleum Company (IPC). En contrepartie de ses apports financiers et techniques, Elf ERAP sera rémunérée par un approvisionnement garanti en pétrole irakien : il s’agit d’un nouveau genre de partenariat, dit « contrat d’agence ». Ce dernier succède au système classique des concessions et vaut à la société d’État un franc succès dans son projet de pénétration au Moyen Orient. Très vite, les prospections donnent lieu à la découverte de gisements. La production démarre en 1976 et s’élève à 5 millions de tonnes en 1977. Dès lors, Elf ERAP, devenue la SNEA, peut envisager avec optimisme son avenir énergétique, puisque sa sécurité d’approvisionnement est, en partie, assurée par le marché irakien. Mais, contre toute attente, le groupe d’État français se retire de l’affaire en mai 1977, laissant place à l’INOC, qui prend en charge le projet deux ans avant la date prévue par le contrat initial de 1968. Ce sujet de recherche consiste à éclaircir le rôle d’opérateur joué par l’ERAP en Irak, entre 1968 et 1977. Pour tenter d’expliquer le départ prématuré d’Elf Irak, il nous faut identifier les facteurs endogènes et exogènes qui ont pu motiver une telle décision. Autrement dit, la société d’État aurait-elle subi les revers de ses propres choix énergétiques ou un tel dénouement serait-il imputable à la politique pétrolière irakienne? Quelles sont les implications de la conjoncture pétrolière internationale dans le cas d’un tel retrait? Aidée des archives historiques d’Elf et de TOTAL, nous sommes arrivée à la conclusion que la compression du marché pétrolier, entre distributeurs et producteurs, au cours des années 1970, a considérablement nui à la rentabilité des contrats intermédiaires du type agence.
Resumo:
Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes.