973 resultados para Processus collaboratifs
Resumo:
La thèse analyse les recompositions de la citoyenneté dans un contexte de rééchelonnement de l’État en France et au Québec. L’argument est que, dans un tel contexte, la citoyenneté nationale se rééchelonne. Le cadre théorique consiste en une relecture institutionnelle du concept de rééchelonnement de l’État développé par N. Brenner ainsi que certains apports des travaux de J. Jenson et S. Phillips sur les régimes de citoyenneté. La thèse compare les évolutions de politiques de gestion de la diversité ethnique - centrales dans l’analyse de la citoyenneté - à Marseille et Montréal au travers des reconfigurations des rapports entre acteurs institutionnels prenant place à l’échelle locale. Nous montrons que l’État national reste un acteur important de la régulation de la citoyenneté et que les villes et les échelons locaux de l’État ont acquis une marge de manœuvre par rapport à l’État central dans la mise en place de politiques régulant la citoyenneté à l’échelle locale. Néanmoins, à l’issue de la comparaison, des différences se font jour. Au Québec, l’État central conserve un contrôle important sur les politiques instaurées à l’échelle locale alors que ceci est moins le cas en France. Ces résultats indiquent que le rééchelonnement de l’État est plus fortement institutionnalisé en France qu’au Québec. Les apports de la thèse sont triples. En premier lieu, nous montrons que l’approche institutionnelle du rééchelonnement de l’État permet de mieux décrire les processus à l’œuvre dans différents contextes nationaux que ne le permet la perspective de N. Brenner. En second lieu, nous démontrons que le concept de citoyenneté urbaine ne permet pas de rendre compte des mutations actuelles de la citoyenneté. Enfin, nous montrons que le rééchelonnement de la citoyenneté s’est institutionnalisé en France, dans un État où la conception de la citoyenneté est traditionnellement considérée comme « unitaire », nuançant ainsi cette catégorie classique en science politique.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Une série de dimères composés de thiophène-aniline encombrée stériquement a été synthétisée. Les différents processus de désactivation de l’état singulet excité ont été étudiés par UV-visible, fluorescence, phosphorescence, photolyse par impulsion laser et calculs théoriques. Les graphiques de Stern-Volmer obtenus à partir des expériences de désactivation des états singulet et triplet ont démontré l’efficacité de l’azométhine à désactiver les fluorophores. Les calculs semi-empiriques AM1 examinant l’effet des substituants encombrés ont démontrés que les groupements tert-butyls sur l’aniline ont moins d’influence sur la barrière de rotation N-aryl que les substitutions alkyles en ont sur la rotation de thiophène-C. Les calculs Rehm-Weller basés sur les potentiels d’oxydation et de réduction ont montré que l’autodésactivation de l’état excité des azométhines se fait par transfert d’électron photoinduit menant à une éradication complète de la fluorescence. Des complexes métalliques contenant des ligands azométhines ont aussi été préparés. Le ligand est composé d’une unité hydroxyquinoline lié à un cycle thiophène. Les données photophysiques de ces complexes indiquent un déplacement bathochromique aussi bien en absorbance qu’en fluorescence. Des dispositifs de détection d’ion métallique ont été préparés et un exemple à partir d’une solution de cuivre a montré un déplacement bathochromique.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
Les propriétés pharmacocinétiques d’un nouveau médicament et les risques d’interactions médicamenteuses doivent être investigués très tôt dans le processus de recherche et développement. L’objectif principal de cette thèse était de concevoir des approches prédictives de modélisation du devenir du médicament dans l’organisme en présence et en absence de modulation d’activité métabolique et de transport. Le premier volet de recherche consistait à intégrer dans un modèle pharmacocinétique à base physiologique (PBPK), le transport d’efflux membranaire gouverné par les glycoprotéines-P (P-gp) dans le cœur et le cerveau. Cette approche, basée sur des extrapolations in vitro-in vivo, a permis de prédire la distribution tissulaire de la dompéridone chez des souris normales et des souris déficientes pour les gènes codant pour la P-gp. Le modèle a confirmé le rôle protecteur des P-gp au niveau cérébral, et a suggéré un rôle négligeable des P-gp dans la distribution tissulaire cardiaque pour la dompéridone. Le deuxième volet de cette recherche était de procéder à l’analyse de sensibilité globale (ASG) du modèle PBPK précédemment développé, afin d’identifier les paramètres importants impliqués dans la variabilité des prédictions, tout en tenant compte des corrélations entre les paramètres physiologiques. Les paramètres importants ont été identifiés et étaient principalement les paramètres limitants des mécanismes de transport à travers la membrane capillaire. Le dernier volet du projet doctoral consistait à développer un modèle PBPK apte à prédire les profils plasmatiques et paramètres pharmacocinétiques de substrats de CYP3A administrés par voie orale à des volontaires sains, et de quantifier l’impact d’interactions médicamenteuses métaboliques (IMM) sur la pharmacocinétique de ces substrats. Les prédictions des profils plasmatiques et des paramètres pharmacocinétiques des substrats des CYP3A ont été très comparables à ceux mesurés lors d’études cliniques. Quelques écarts ont été observés entre les prédictions et les profils plasmatiques cliniques mesurés lors d’IMM. Cependant, l’impact de ces inhibitions sur les paramètres pharmacocinétiques des substrats étudiés et l’effet inhibiteur des furanocoumarins contenus dans le jus de pamplemousse ont été prédits dans un intervalle d’erreur très acceptable. Ces travaux ont contribué à démontrer la capacité des modèles PBPK à prédire les impacts pharmacocinétiques des interactions médicamenteuses avec une précision acceptable et prometteuse.
Resumo:
Ce mémoire se veut un examen épistémologique de la thèse psychoévolutionniste de Leda Cosmides et John Tooby, principalement en ce qui concerne la modularité massive. Nous avons tâché de voir si la modularité massive permet de rendre compte des processus mentaux complexes en nous penchant plus particulièrement sur le cas des émotions. Nous explorons d'abord la thèse de Cosmides et Tooby en la distinguant d'avec d'autres conceptions comme l'écologie béhaviorale et en expliquant le rôle particulier que jouent les émotions au sein de la théorie. Nous analysons ensuite la thèse de la modularité massive et les différents arguments théoriques ou empiriques qui l'appuient, et évaluons finalement des critiques de la modularité émises par certains philosophes, dont David Buller.
Resumo:
Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.
Resumo:
L'introduction de nouvelles biotechnologies dans tout système de soins de santé est un processus complexe qui est étroitement lié aux facteurs économiques, politiques et culturels, et, par conséquent, demande de remettre en cause plusieurs questions sociales et éthiques. Dans la situation particulière de l’Argentine - c’est-à-dire: de grandes inégalités sociales entre les citoyens, la rareté des ressources sanitaires, l’accès limité aux services de base, l’absence de politiques spécifiques - l'introduction de technologies génétiques pose de sérieux défis qui doivent impérativement être abordés par les décideurs politiques. Ce projet examine le cas des tests génétiques prénataux dans le contexte du système de santé argentin pour illustrer comment leur introduction peut être complexe dans une nation où l’accès égale aux services de santé doit encore être amélioré. Il faut également examiner les restrictions légales et les préceptes religieux qui influencent l'utilisation des technologies génétiques, ce qui souligne la nécessite de développer un cadre de référence intégral pour le processus d'évaluation des technologies afin d’appuyer l’élaboration de recommandations pour des politiques cohérentes et novatrices applicables au contexte particulier de l’Argentine.
Resumo:
Ce mémoire présente les résultats et la réflexion d’une recherche qui avait pour but d’analyser les liens entre la Bible médiévale et les romans du Graal écrits au XIIIe siècle. À cet effet, nous avons eu recours aux paraphrases et aux traductions bibliques en prose écrites en ancien français afin de montrer comment les romans à l’étude réécrivaient l’héritage biblique qu’ils comportaient. Le mémoire s’articule en trois chapitres. Le premier chapitre présente les corpus principal et secondaire et en les mettant en contexte. Ce chapitre traite également de la Bible au Moyen Âge, c’est-à-dire de son statut et de sa diffusion dans la société. Le deuxième chapitre s’attache à l’analyse des réécritures bibliques présentes dans le corpus principal en traitant les questions de l’allégorie et de l’exégèse et en analysant la Légende de l’Arbre de Vie. Enfin, le troisième chapitre étudie la mise en récit du rêve comme processus d’écriture commun à la Bible et aux romans du Graal. Cette recherche montre comment les auteurs médiévaux reprennent non seulement les récits de la Bible, mais aussi ses procédés d’écriture. Cette dynamique de reprise permet également de voir comment les textes traitent la matière biblique dans le développement spécifique du roman du Graal, en s’intéressant particulièrement au phénomène de christianisation du roman.
Resumo:
Durant le développement du système visuel, les cellules ganglionnaires de la rétine (CGRs) envoient des axones qui seront influencés par divers signaux guidant leur cône de croissance, permettant ainsi la navigation des axones vers leurs cibles terminales. Les endocannabinoïdes, des dérivés lipidiques activant les récepteurs aux cannabinoides (CB1 et CB2), sont présents de manière importante au cours du développement. Nous avons démontré que le récepteur CB2 est exprimé à différents points du tractus visuel durant le développement du hamster. L’injection d’agonistes et d’agonistes inverses pour le récepteur CB2 a modifié l’aire du cône de croissance et le nombre de filopodes présents à sa surface. De plus, l’injection d’un gradient d’agoniste du récepteur CB2 produit la répulsion du cône de croissance tandis qu’un analogue de l’AMPc (db-AMPc) produit son attraction. Les effets du récepteur CB2 sur le cône de croissance sont produits en modulant l’activité de la protéine kinase A(PKA), influençant la présence à la membrane cellulaire d’un récepteur à la nétrine-1 nommé Deleted in Colorectal Cancer (DCC). Notamment, pour que le récepteur CB2 puisse moduler le guidage du cône de croissance, la présence fonctionnelle du récepteur DCC est essentielle.. Suite à une injection intra-occulaire d’un agoniste inverse du récepteur CB2, nous avons remarqué une augmentation de la longueur des branches collatérales des axones rétiniens au niveau du LTN (noyau lateral terminal). Nous avons également remarqué une diminution de la ségrégation des projections ganglionnaires au niveau du dLGN, le noyau genouillé lateral dorsal, chez les animaux transgéniques cnr2-/-, ayant le gène codant pour le récepteur CB2 inactif. Nos données suggèrent l’implication des endocannabinoïdes et de leur récepteur CB2 dans la modulation des processus de navigation axonale et de ségrégation lors du développement du système visuel.
Resumo:
La situation économique, sociale et politique des nations autochtones au Canada et leur relation avec les nations non-autochtones présentent des similarités avec les anciennes colonies européennes. Peut-on qualifier cette relation de « coloniale » ? Cette interrogation est primordiale, vu les aspects immoraux et illégaux que prit la colonisation. Nous parcourrons la pensée d’auteurs reliés au libéralisme, au nationalisme autochtone et à l’interculturalisme et nous choisirons ce dernier comme angle d’approche. Nous élaborerons ensuite le concept de colonisation interne et nous le confronterons au cas des autochtones. Puis, nous présenterons les motivations à la décolonisation ainsi que la composition d’un hypothétique État postcolonial canadien et de nations et communautés autochtones décolonisées. Finalement, nous analyserons la démarche judiciaire, la négociation d’ententes d’autonomie gouvernementale, la mobilisation des masses et l’approche des word warriors, l’objectif étant d’évaluer jusqu’à quel point ces moyens s’inscrivent dans un éventuel processus de décolonisation des nations autochtones.
Resumo:
La phagocytose est un processus par lequel des cellules spécialisées du système immunitaire comme les macrophages ingèrent des microorganismes envahisseurs afin de les détruire. Les microbes phagocytés se retrouvent dans un compartiment intracellulaire nommé le phagosome, qui acquiert graduellement de nombreuses molécules lui permettant de se transformer en phagolysosome possédant la capacité de tuer et dégrader son contenu. L’utilisation de la protéomique a permis de mettre en évidence la présence de microdomaines (aussi nommés radeaux lipidiques ou radeaux membranaires) sur les phagosomes des macrophages. Notre équipe a démontré que ces radeaux exercent des fonctions cruciales au niveau de la membrane du phagosome. D’abord nous avons observé que la survie du parasite intracellulaire L. donovani est possible dans un phagosome dépourvu de radeaux lipidiques. Parallèlement nous avons constaté qu’un mutant de L. donovani n’exprimant pas de LPG à sa surface(LPG-) est rapidement tué dans un phagosome arborant des radeaux membranaires. Pour comprendre le mécanisme de perturbation des microdomaines du phagosome par la molécule LPG, nous avons provoqué la phagocytose de mutants LPG- du parasite et comparé par microscopie les différences avec le parasite de type sauvage. Nous avons ainsi démontré que le LPG de L. donovani est nécessaire et suffisant au parasite pour empêcher la maturation normale du phagosome. Nous avons également découvert que la molécule LPG permet d’empêcher la formation des radeaux lipidiques sur le phagosome et peut aussi désorganiser les radeaux lipidiques préexistants. Enfin, nous avons montré que l’action de LPG est proportionnelle au nombre d’unités répétitives de sucres (Gal(β1,4)-Manα1-PO4) qui composent cette molécule. Nos travaux ont démontré pour la première fois le rôle important de ces sous-domaines membranaires dans la maturation du phagosome. De plus, nos conclusions seront des pistes à suivre au cours des études cliniques ayant pour but d’enrayer la leishmaniose. Le second objectif de ce travail consistait à effectuer la caractérisation des radeaux lipidiques par une analyse protéomique et lipidomique à l’aide de la spectrométrie de masse. Nous avons ainsi entrepris l’identification systématique des protéines présentes dans les radeaux membranaires des phagosomes et ce, à trois moments clés de leurmaturation. Le traitement des phagosomes purifiés avec un détergent nous a permis d’isoler les «Detergent Resistent Membranes» (DRMs) des phagosomes, qui sont l’équivalent biochimique des radeaux membranaires. Nous avons ainsi établi une liste de 921 protéines associées au phagosome, dont 352 sont présentes dans les DRMs. Les protéines du phagosome sont partagées presque également entre trois tendances cinétiques (augmentation, diminution et présence transitoire). Cependant, une analyse plus spécifique des protéines des DRMs démontre qu’une majorité d’entre elles augmentent en fonction de la maturation. Cette observation ainsi que certains de nos résultats montrent que les radeaux lipidiques des phagosomes précoces sont soit très peu nombreux, soit pauvres en protéines, et qu’ils sont recrutés au cours de la maturation du phagosome. Nous avons aussi analysé les phospholipides du phagosome et constaté que la proportion entre chaque classe varie lors de la maturation. De plus, en regardant spécifiquement les différentes espèces de phospholipides nous avons constaté que ce ne sont pas uniquement les espèces majoritaires de la cellule qui dominent la composition de la membrane du phagosome. L’ensemble de nos résultats a permis de mettre en évidence plusieurs fonctions potentielles des radeaux lipidiques, lesquelles sont essentielles à la biogenèse des phagolysosomes (signalisation, fusion membranaire, action microbicide, transport transmembranaire, remodelage de l’actine). De plus, la cinétique d’acquisition des protéines de radeaux lipidiques indique que ceux-ci exerceraient leurs fonctions principalement au niveau des phagosomes ayant atteint un certain niveau de maturation. L’augmentation du nombre de protéines des radeaux membranaires qui s’effectue durant la maturation du phagosome s’accompagne d’une modulation des phospholipides, ce qui laisse penser que les radeaux membranaires se forment graduellement sur le phagosome et que ce ne sont pas seulement les protéines qui sont importées.
Resumo:
Bien qu’on ait longtemps considéré le désespoir ou la souffrance comme un facteur de précipitation de l’expérience religieuse, aucune étude n’a été effectuée sur les liens entre une expérience d’abus sexuels et une conversion religieuse subséquente. Une revue de la littérature sur la dynamique religieuse des abus sexuels révèle deux paradigmes opposés : la religion comme ressource ou comme facteur de risque. De même, un examen des études sur la conversion indique trois dichotomies : un converti actif ou passif, une conversion soudaine ou progressive, et la conversion comme phénomène normal ou pathologique. Or, un recensement des témoignages anecdotiques de victimes d’abus sexuels qui ont subséquemment vécu une conversion suggère que l'interaction entre les deux événements est plus complexe. Pour dépasser ces dichotomies paradigmatiques, nous préconisons une approche narrative. Plus spécifiquement, nous utilisons le concept d’identité narrative développé par Paul Ricœur. Ce concept s’inscrit dans la dynamique ricœurienne de triple mimèsis, laquelle assure une fonction de liaison entre le champ pratique et le champ narratif. De façon générale, notre stratégie méthodologique consiste à déterminer comment, à partir d’éléments biographiques issus de la préfiguration (mimèsis I), le sujet configure son récit pour donner sens à son expérience (mimèsis II) et la refigure pour aboutir à une identité de survivant ou de converti (mimèsis III). Sept entrevues non directives ont été effectuées auprès de personnes qui ont subi des abus sexuels durant leur enfance et qui ont plus tard vécu une conversion religieuse dans le milieu évangélique. À partir de l'analyse en trois étapes mentionnée ci-dessus, nous évaluons la contribution positive ou négative des divers éléments narratifs et, surtout, de leur interaction à la construction de l’identité narrative du sujet. Nous en concluons que le rapport entre des abus sexuels subis durant l’enfance et une conversion ultérieure n’est pas si simple que la littérature pourrait le laisser soupçonner. La conversion peut s’avérer salutaire à la survie du sujet et contribuer à la guérison du traumatisme sexuel qu’il a subi. Toutefois, certains éléments religieux peuvent faire obstacle au processus de recouvrement. Ces éléments nocifs varient d’un sujet à l’autre, et ce qui est délétère pour l’un peut être bénéfique pour l’autre, selon la configuration du récit.
Resumo:
Les sédiments sont des sites importants d’élimination d’azote (N) puisqu’ils possèdent des gradients d’oxydoréduction leur conférant les conditions idéales pour les réactions microbiennes de transformation de N. L’eutrophisation des régions côtières peut altérer ces gradients, par des changements dans la concentration d’oxygène (O2) de l’eau interstitielle, et modifier l’importance relative des processus transformant le N. Afin de mieux comprendre comment l’O2 pourrait influencer les transformations de N, nous avons mesuré les flux diffusifs de diazote (N2), nitrate (NO3-), oxygène et ammonium (NH4+) dans les sédiments de l’Estuaire Maritime du St-Laurent (EMSL), et nous avons estimé les taux de dénitrification. L’importance du couple nitrification-dénitrification en fonction d’un gradient de concentrations d’O2 dans la zone d’hypoxie de l’EMSL fut aussi évaluée. La concentration des gaz dissous fut mesurée en utilisant une nouvelle approche développée dans cette étude. Les flux diffusifs de N2, O2, NO3- et NH4+ variaient de 5.5 à 8.8, de -37.1 à -84.8, de -4.0 à -5.8 et de 0.6 à 0.8 μmol N m-2 h-1 respectivement. Les concentrations de N2 et NO3- dans l’eau porale et les flux de NO3- et de N2 des sédiments, suggèrent que la diffusion de NO3- provenant de l’eau à la surface des sédiments ne peut pas expliquer par elle-même la production de N2 observée. En utilisant une approche stoichiométrique, les taux de nitrification potentielle estimés comptent pour 0.01 à 52% du flux total de NO3 nécessaire pour aboutir aux flux de N2 observés et diminuent avec l’augmentation de l’hypoxie.
Resumo:
La leucémie lymphoïde représente 30% de tous les cancers chez l’enfant. SCL (« Stem cell leukemia ») et LMO1/2 (« LIM only protein ») sont les oncogènes les plus fréquemment activés dans les leucémies aiguës des cellules T chez l'enfant (T-ALL). L’expression ectopique de ces deux oncoprotéines dans le thymus de souris transgéniques induit un blocage de la différenciation des cellules T suivie d’une leucémie agressive qui reproduit la maladie humaine. Afin de définir les voies génétiques qui collaborent avec ces oncogènes pour induire des leucémies T-ALL, nous avons utilisé plusieurs approches. Par une approche de gène candidat, nous avons premièrement identifié le pTalpha, un gène crucial pour la différenciation des cellules T, comme cible directe des hétérodimères E2AHEB dans les thymocytes immatures. De plus, nous avons montré que pendant la différenciation normale des thymocytes, SCL inhibe la fonction E2A et HEB et qu’un dosage entre les protéines E2A, HEB et SCL détermine l’expression du pTalpha. Deuxièmement, par l’utilisation d’une approche globale et fonctionnelle, nous avons identifié de nouveaux gènes cibles des facteurs de transcription E2A et HEB et montré que SCL et LMO1 affectent la différenciation thymocytaire au stade préleucémique en inhibant globalement l’activité transcriptionnelle des protéines E par un mécanisme dépendant de la liaison à l’ADN. De plus, nous avons découvert que les oncogènes SCL et LMO1 sont soit incapables d’inhiber totalement l’activité suppresseur de tumeur des protéines E ou agissent par une voie d’induction de la leucémie différente de la perte de fonction des protéines E. Troisièmement, nous avons trouvé que Notch1, un gène retrouvé activé dans la majorité des leucémies T-ALL chez l’enfant, opère dans la même voie génétique que le pré-TCR pour collaborer avec les oncogènes SCL et LMO1 lors du processus de leucémogénèse. De plus, cette collaboration entre des facteurs de transcription oncogéniques et des voies de signalisation normales et importantes pour la détermination de la destinée cellulaire pourraient expliquer la transformation spécifique à un type cellulaire. Quatrièmement, nous avons trouvé que les oncogènes SCL et LMO1 sont des inducteurs de sénescence au stade préleucémique. De plus, la délétion du locus INK4A/ARF, un évènement retrouvé dans la majorité des leucémies pédiatriques T-ALL associées avec une activation de SCL, collabore aves les oncogènes SCL et LMO1 dans l’induction de la leucémie. Cette collaboration entre la perte de régulateurs de la sénescence suggère qu’un contournement de la réponse de sénescence pourrait être nécessaire à la transformation. Finalement, nous avons aussi montré que l’interaction directe entre les protéines SCL et LMO1 est critique pour l’induction de la leucémie. Ces études ont donc permis d’identifier des évènements collaborateurs, ainsi que des propriétés cellulaires affectées par les oncogènes associés avec la leucémie et de façon plus générale dans le développement du cancer.