992 resultados para Analyse de sensibilité
Resumo:
Nhx1 est un antiport vacuolaire de Na+/H+ chez la levure Saccharomyces cerevisiae. Nhx1 joue un rôle important dans le maintien de l’homéostasie ionique du cytoplasme de la cellule. En effet, la mutation du gène NHX1 chez la levure nhx1Δ entraîne une perte de l’homéostasie cellulaire quand les cellules sont cultivées dans un milieu de faible osmolarité. Ce travail rapporte pour la première fois, et contrairement à la cellule parentale, que la mutation du gène NHX1 a pour effet une sensibilité du mutant nhx1Δ à une variété des drogues et des agents cationiques et anioniques lorsque les cellules sont cultivées dans un milieu riche. En outre, dans ces conditions de culture, aucune sensibilité n’a été observée chez le mutant nhx1Δ quand les cellules sont traitées avec différentes concentrations de sel. Nous avons aussi démontré que la sensibilité du mutant nhx1Δ aux différents agents ainsi que la sécrétion de l’enzyme carboxypeptidase Y observé chez ce mutant n’ont pas été restauré lorsque les cellules sont cultivées dans des milieux avec différents pH ou avec différentes concentrations de sel. Enfin, une analyse génétique a révélé que le mutant nhx1Δ montre un phénotype distinct d’autres mutants qui ont un défaut dans le trafic entre le compartiment pré-vacuolaire et l’appareil de Golgi quand ces cellules sont traitées avec différents agents. Cette analyse prouve que la sensibilité de nhx1Δ aux différents agents n’est pas liée au trafic entre le compartiment pré-vacuolaire et l’appareil de Golgi.
Resumo:
Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
L’objectif de ce projet de recherche était de vérifier la présence de changements de sensibilité de la rétine et du système circadien suite à deux semaines d'exposition à un milieu faiblement ou fortement éclairé, dans des conditions contrôlées en laboratoire. De plus, comme un changement de sensibilité peut modifier l'ajustement du système circadien au cycle jour-nuit extérieur, nous voulions également vérifier si la phase circadienne serait modifiée par le traitement et si la vigilance et l’humeur seraient affectées. Dix sujets ont été exposés à de la lumière tamisée (70 lux [LT]) et 10 ont été exposés à de la lumière vive (3000 lux [LV]) pendant 12 jours consécutifs en laboratoire de 8h45 à 19h00 tous les jours. L’exposition à la lumière a été mesurée 5 jours avant l’entrée au laboratoire dans l’habitat naturel du sujet et pendant la période en laboratoire à l’aide de l’Actiwatch-L®. La sensibilité rétinienne a été mesurée avant et après le traitement lumineux, par un électrorétinogramme (ERG) et la sensibilité circadienne, par le test de suppression de mélatonine salivaire. Tout au long du protocole, la vigilance, la somnolence et l'humeur ont été évaluées à plusieurs moments de la journée à intervalles prédéterminés. Après 12 jours d’exposition en lumière contrôlée, l’amplitude de l’onde-a au Vmax à l’ERG photopique a diminué en LV alors qu’elle a augmenté en LT. À l’ERG scotopique, une différence de sensibilité rétinienne (log K) entre les groupes avant le traitement expérimental s’est amenuisée à la fin du traitement (p=.053). La suppression de mélatonine après 90 minutes d’exposition au test de suppression a diminué en LV alors qu’il n’y a pas eu de modification en LT, cependant cette interaction n’était pas significative (p=.16). La phase circadienne des sujets exposés à LV a été devancée de 58 minutes (p=.04) alors qu’elle a été retardée de 26 minutes en LT (p=.32). Les mesures de vigilance subjective (EVA) ont indiqué que les sujets LV se considéraient plus éveillés que les sujets LT après le traitement (p=.02). Par contre, aucune différence n’est apparue quant aux mesures de performance psychomotrice ni de l’humeur. L’histoire lumineuse n’a pas modifié la sensibilité rétinienne dans le sens prévu par les hypothèses alors qu’il y a eu une tendance vers une augmentation de la sensibilité circadienne en condition de lumière tamisée. L’amélioration de la vigilance subjective après l’exposition en LV n’a pas été soutenue par les résultats de la performance psychomotrice. L’histoire lumineuse n’a eu aucun effet sur l’humeur des sujets. Cette étude souligne l’importance d’utiliser des mesures permettant de départager les effets immédiats d’un traitement lumineux des effets à long terme autant sur le plan rétinien que circadien. Il reste également complexe d’étudier en laboratoire des changements adaptatifs qui se produisent dans le milieu naturel en raison du confinement et des modifications physiologiques et psychologiques pouvant y être associées.
Resumo:
Ce mémoire se veut un examen épistémologique de la thèse psychoévolutionniste de Leda Cosmides et John Tooby, principalement en ce qui concerne la modularité massive. Nous avons tâché de voir si la modularité massive permet de rendre compte des processus mentaux complexes en nous penchant plus particulièrement sur le cas des émotions. Nous explorons d'abord la thèse de Cosmides et Tooby en la distinguant d'avec d'autres conceptions comme l'écologie béhaviorale et en expliquant le rôle particulier que jouent les émotions au sein de la théorie. Nous analysons ensuite la thèse de la modularité massive et les différents arguments théoriques ou empiriques qui l'appuient, et évaluons finalement des critiques de la modularité émises par certains philosophes, dont David Buller.
Resumo:
Les personnes atteintes de schizophrénie peuvent présenter un sommeil anormal même lorsqu’elles sont stables cliniquement sous traitements pharmacologiques. Les études présentées dans cette thèse ont pour but de mesurer le sommeil afin de mieux comprendre les dysfonctions des mécanismes cérébraux pouvant être impliqués dans la physiopathologie de la schizophrénie. Les trois études présentées dans cette thèse rapportent des résultats sur le sommeil dans la schizophrénie à trois niveaux d’analyse chez trois groupes différents de patients. Le premier niveau est subjectif et décrit le sommeil à l’aide d’un questionnaire administré chez des personnes atteintes de schizophrénie cliniquement stables sous traitements pharmacologiques. Le deuxième niveau est objectif et évalue le sommeil par une méta-analyse des études polysomnographiques chez des patients atteints de schizophrénie ne recevant pas de traitement pharmacologique. Le troisième niveau est micro-structurel et utilise l’analyse spectrale de l’électroencéphalogramme (EEG) afin de caractériser le sommeil paradoxal de patients en premier épisode aigu de schizophrénie avant le début du traitement pharmacologique. La première étude montre que, lorsqu’évaluées par un questionnaire de sommeil, les personnes atteintes de schizophrénie cliniquement stables sous traitements pharmacologiques rapportent prendre plus de temps à s’endormir, se coucher plus tôt et se lever plus tard, passer plus de temps au lit et faire plus de siestes comparativement aux participants sains. Aussi, tout comme les participants sains, les personnes atteintes de schizophrénie rapportent un nombre normal d’éveils nocturnes, se disent normalement satisfaites de leur sommeil et se sentent normalement reposées au réveil. La deuxième étude révèle qu’objectivement, lorsque les études polysomnographiques effectuées chez des patients non traités sont soumises à une méta-analyse, les personnes atteintes de schizophrénie montrent une augmentation du délai d’endormissement, une diminution du temps total en sommeil, une diminution de l’efficacité du sommeil et une augmentation de la durée des éveils nocturnes comparativement aux participants sains. Les patients en arrêt aigu de traitement ont des désordres plus sévères au niveau de ces variables que les patients jamais traités. Seulement les patients jamais traités ont une diminution du pourcentage de stade 2 comparativement aux participants sains. La méta-analyse ne révèle pas de différence significative entre les groupes en ce qui concerne le sommeil lent profond et le sommeil paradoxal. La troisième étude, portant sur l’analyse spectrale de l’EEG en sommeil paradoxal, montre une diminution de l’amplitude relative de la bande de fréquence alpha dans les régions frontales, centrales et temporales et montre une augmentation de l’amplitude relative de la bande de fréquence bêta2 dans la région occipitale chez les personnes en premier épisode de schizophrénie jamais traitées comparativement aux participants sains. L’activité alpha absolue est positivement corrélée aux symptômes négatifs dans les régions frontales, centrales et temporales et négativement corrélée aux symptômes positifs dans la région occipitale. L’activité beta2 absolue ne montre pas de corrélation significative avec les symptômes positifs et négatifs de la schizophrénie. Ces résultats sont discutés suivant la possibilité que des dysfonctions au niveau des mécanismes de la vigilance seraient impliquées dans la physiopathologie de la schizophrénie.
Resumo:
Les innovations technologiques pullulent dans le milieu policier depuis quelques années. Devant cette abondance de choix technologiques, et dans une conjoncture de ralentissement économique, la police doit s’assurer de faire une sélection favorisant le meilleur retour sur investissement. L’évaluation des technologies est la meilleure méthode permettant d’atteindre cet objectif. Ce projet de recherche analyse les différentes stratégies d’évaluation des technologies des corps policiers fédéraux et provinciaux du Canada en se basant sur le domaine baromètre de l’identité judiciaire. Cette étude s’appuie sur plusieurs données qualitatives : 1) observation participative à la Sûreté du Québec; 2) entrevues semi-directives (n=11) avec des membres de l’Ontario Provincial Police et de la Gendarmerie Royale du Canada. L’analyse intégrée des données colligées permet de mieux comprendre la dynamique de l’évaluation technologique dans la police. Même si une évolution est perceptible, certaines améliorations pourraient accroître l’efficacité du mini-PTA (Police Technology Assessment) dans un contexte où l’opérationnel et le théorique doivent cohabiter en parfaite harmonie afin de faciliter le travail des utilisateurs. Le mini-PTA est un outil facilitant l’adaptation de l’évaluation des technologies aux réalités régionales, mais ne peut en aucun cas remplacer unilatéralement le PTA fait par les grosses organisations d’évaluation des technologies policières.
Resumo:
Le VIH-1 a développé plusieurs mécanismes menant à la dégradation de son récepteur cellulaire, la molécule CD4, dans le but d’augmenter la relâche de particules virales infectieuses et d’éviter que la cellule soit surinfectée. L’un de ces mécanismes est la dégradation, induite par la protéine virale Vpu, du CD4 nouvellement synthétisé au niveau du réticulum endoplasmique (RE). Vpu doit lier CD4 et recruter l’ubiquitine ligase cellulaire SCFβ-TrCP, via sa liaison à β-TrCP, afin de dégrader CD4. Puisque CD4 doit être retenu au RE pour permettre à Vpu d’induire sa dégradation via le système ubiquitine-protéasome, il a été suggéré que ce processus implique un mécanisme semblable à une voie cellulaire de dégradation des protéines mal-repliées appelée ERAD (« endoplasmic reticulum-associated degradation »). La dégradation par ERAD implique généralement la dislocation des protéines du RE vers le cytoplasme afin de permettre leur poly-ubiquitination et leur dégradation par le protéasome. Nous avons démontré que Vpu induit la poly-ubiquitination de CD4 dans des cellules humaines. Nos résultats suggèrent aussi que CD4 doit subir une dislocation afin d’être dégradé par le protéasome en présence de Vpu. De plus, un mutant transdominant négatif de l’ATPase p97, qui est impliquée dans la dislocation des substrats ERAD, inhibe complètement la dégradation de CD4 par Vpu. Enfin, nos résultats ont montré que l’ubiquitination sur des résidus accepteurs de l’ubiquitine (lysines) de la queue cytoplasmique de CD4 n’était pas essentielle, mais que la mutation des lysines ralentit le processus de dégradation de CD4. Ce résultat suggère que l’ubiquitination de la queue cytosolique de CD4 pourrait représenter un événement important dans le processus de dégradation induit par Vpu. L’attachement de l’ubiquitine a généralement lieu sur les lysines de la protéine ciblée. Toutefois, l’ubiquitination sur des résidus non-lysine (sérine, thréonine et cystéine) a aussi été démontrée. Nous avons démontré que la mutation de tous les sites potentiels d’ubiquitination cytoplasmiques de CD4 (K, C, S et T) inhibe la dégradation par Vpu. De plus, la présence de cystéines dans la queue cytoplasmique apparaît suffisante pour rendre CD4 sensible à Vpu en absence de lysine, sérine et thréonine. Afin d’expliquer ces résultats, nous proposons un modèle dans lequel l’ubiquitination de la queue cytosolique de CD4 serait nécessaire à sa dégradation et où les sites d’ubiquitination de CD4 seraient sélectionnés de façon non spécifique par l’ubiquitine ligase recrutée par Vpu. Enfin, nous avons observé que la co-expression d’une protéine Vpu incapable de recruter β-TrCP (Vpu S52,56/D) semble stabiliser le CD4 qui est retenu au RE. De plus, d’autres mutants de Vpu qui semblent capables de recruter β-TrCP et CD4 sont toutefois incapables d’induire sa dégradation. Ces résultats suggèrent que l’association de Vpu à CD4 et β-TrCP est essentielle mais pas suffisante pour induire la dégradation de CD4. Par conséquent, ces résultats soulèvent la possibilité que Vpu puisse recruter d’autres facteurs cellulaires pour induire la dégradation de CD4. Les résultats présentés ont permis de mieux définir le mécanisme de dégradation de CD4 par Vpu dans des cellules humaines. De plus, ces résultats nous ont permis d’élaborer un modèle dans lequel l’ubiquitine ligase cellulaire SCFβ-TrCP démontre de la flexibilité dans le choix des résidus à ubiquitiner afin d’induire la dégradation de CD4. Enfin, ces études jettent un oeil nouveau sur le rôle de Vpu dans ce processus puisque nos résultats suggèrent que Vpu doive recruter d’autres partenaires cellulaires, mis à part β-TrCP, pour induire la dégradation de CD4.
Resumo:
Plusieurs études ont révélé des problèmes récurrents au niveau de la performance et de la gestion des projets de reconstruction à la suite des catastrophes dans les pays en voie de développement (PEVD). Ces projets doivent faire face à des conditions de vulnérabilité des habitants, engendrées par des facteurs politiques, économiques, sociaux et culturels. Les divers participants - contraints par un accès limité à l’information - sont confrontés à travailler dans un contexte hostile ayant un niveau d’incertitude élevé. Ce niveau d’incertitude augmente les risques du projet de reconstruction, particulièrement le risque d’insatisfaction des usagers. Ce travail vise à mettre en parallèle l’analyse du système organisationnel adopté pour la conduite d’un projet de reconstruction et celle du niveau de satisfaction des usagers. Il émet l’hypothèse suivante: deux facteurs organisationnels influencent largement le niveau de satisfaction de la part des bénéficiaires d’un projet de reconstruction de logements à la suite d’un désastre en PEVD: (i) le niveau de centralisation de la prise de décisions (jumelée au manque d’information) au sein de la Multi-Organisation Temporaire (MOT); et (ii) la capacité de la structure organisationnelle de la MOT d’impliquer la participation active des usagers au niveau de la planification, de la gestion, du financement et du design du projet. Afin d’atteindre cet objectif, une recherche empirique fut menée pour analyser le cas des inondations ayant eu lieu en 2003 dans une ville dans la région du Maghreb. Le niveau de satisfaction des usagers a été déterminé grâce à des indicateurs de transfert de technologie qui se basent sur l’analyse du « Cadre Logique » - une méthode d’évaluation largement utilisée dans le domaine du développement international. Les résultats de la recherche ne visent pas à identifier une relation de cause à effet entre les deux variables étudiées (la structure organisationnelle et la satisfaction des usagers). Cependant, ils mettent en évidence certains principes du montage et de la gestion des projets qui peuvent être mis en place pour l’amélioration des pratiques de reconstruction.
Resumo:
Ce mémoire porte sur le rôle que jouent les médias de masse dans la construction de la personnalité publique des nouveaux chefs de partis politiques. Lorsqu’un individu est nommé à la tête d’un parti politique, il est la plupart du temps peu connu du grand public. Or, comme une écrasante majorité de citoyens n’a jamais l’occasion d’entrer en contact directement avec les hommes et les femmes politiques, c’est exclusivement par le biais des médias que la plupart des gens apprennent à connaître leurs représentants politiques – ou ceux qui aspirent à jouer ce rôle. Or les médias ne se contentent pas de répéter ce que les politiciens disent. Les informations qu’ils décident d’inclure dans leurs reportages, les mots qu’ils utilisent et les cadrages qu’ils retiennent contribuent à définir la personnalité des leaders émergents dont ils parlent. Les médias choisissent aussi de mettre l’accent sur certains traits de personnalité et décident d’en ignorer d’autres. Afin de mieux comprendre ce phénomène, nous avons étudié le cas de l’ex-chef du Parti québécois, André Boisclair. Nous avons cherché à savoir si la couverture dont ce dernier a fait l’objet a été stable ou si elle a suivi certains cycles, et nous nous sommes intéressés aux critères retenus par les médias pour évaluer sa personnalité. Pour ce faire, nous avons étudié le volume, le format, le ton, les objets et les cadrages qui caractérisent la couverture dont a été l’objet André Boisclair à l’antenne de la Société Radio-Canada et du Réseau TVA entre le 4 juin 2005 et le 21 février 2007. Nos conclusions sont à l’effet que la couverture a bel et bien suivi un cycle, et que les critères retenus par les médias sont très similaires à ceux qui sont réputés être importants pour la population dans le choix d’un leader politique.
Resumo:
Le présent mémoire explore les liens entre les différents types de capitaux (social, familial, délinquant et individuel) et certains actes déviants, soit la consommation de substances psychotropes et l’implication criminelle violente chez un groupe de décrocheurs scolaires canadiens. Dans un premier temps, il s’agit d’établir la prévalence et les habitudes de consommation de cette population aliénée du système éducatif. De plus, cette étude concerne l’implication criminelle violente des décrocheurs. Plus précisément, il s’agit de déterminer la fréquence des manifestations agressives et les types de violence perpétrés par ces jeunes, ainsi que d’examiner les liens qui se tissent entre la consommation de substances psychotropes et la commission d’actes violents. Ensuite, il est question d’étudier l’impact des différents capitaux (social, familial, délinquant et individuel) sur la consommation de substances psychoactives et l’implication criminelle violente des décrocheurs. En outre, dans une perspective davantage clinique, le dernier objectif aura pour but d’identifier différentes typologies de décrocheurs scolaires. Les analyses s’appuient sur un échantillon de 339 jeunes décrocheurs scolaires de Montréal et Toronto. Les informations amassées par rapport à l’usage de substances psychotropes et la commission d’actes violents concernent les douze mois qui ont précédé la passation du questionnaire. Succinctement, les taux de prévalence de consommation des décrocheurs apparaissent plus importants que ceux de la population estudiantine, leur usage est plus inquiétant de même que l’auto-évaluation de leur dépendance. Les résultats révèlent également une implication criminelle violente importante, surtout chez les garçons et les consommateurs de substances psychotropes. Qui plus est, le capital délinquant semble avoir un impact majeur sur l’usage d’alcool et de drogues de même que sur les manifestations de violence perpétrées par les décrocheurs. Enfin, trois typologies de décrocheurs scolaires ont été identifiées, soit les invisibles, les détachés et les rebelles.