937 resultados para Mise en gage
Resumo:
RÉSUMÉ Les répercussions du sida sur la communauté intellectuelle préfiguraient un changement certain dans l’esthétique littéraire contemporaine. Le témoignage de l’expérience individuelle de l’écrivain, à cet instant de désarroi collectif et de répression sociale à l’égard de la communauté homosexuelle, cherchait à provoquer une reconfiguration de l’espace de l’aveu par la projection du sujet privé dans la sphère publique. Cette posture de mise à nu avait déjà vu le jour dans les écrits féministes des années 70, mais elle a subi dans les années 80 et 90 une transformation importante puisque c’est le sujet masculin qui s’est exposé par la médiation du corps dans le récit de la maladie à l’heure du sida. Les discours de l’intime tentaient de rapprocher les espaces social et littéraire tout en affirmant des formes définies par des éthiques et des esthétiques hétérogènes. La période d’écriture de la maladie, qui clôt l’oeuvre de Guibert, est caractérisée par l’ancrage du contexte social de l’épidémie du sida. Par conséquent, les trois récits qui la fondent, soit À l’ami qui ne m’a pas sauvé la vie (1990), Le protocole compassionnel (1991) et Cytomégalovirus (1992), constituent le triptyque sur lequel s’appuiera ma réflexion, auquel s’ajoute le journal tenu par Guibert depuis son adolescence jusqu’à sa mort, Le mausolée des amants (2001), qui a été publié dix ans après la disparition de l’auteur. Cette oeuvre s’inscrit en partie dans cette mouvance du témoignage de la maladie, qui prend place entre 1987 et 1991, période pendant laquelle l’écrivain sent sa vulnérabilité sur le plan de sa santé. Il est proposé d’étudier à travers ces écrits l’écriture de l’aveu et de la dénonciation, telle qu’elle est pensée chez Guibert. Il s’agira de réfléchir sur les stratégies et les fonctions du témoignage littéraire d’une telle expérience à travers la mise en récit du sujet. Une problématique traverse toutefois cette posture de mise en danger individuelle où la nécessité de se révéler est l’objet d’un non-consensus. Or, cette recherche d’intensité par l’aveu, qui repose sur la maladie, la sexualité et la mort, veut dépasser sa dimension apocalyptique en tentant d’inscrire l’oeuvre dans une éthique sociale. De ce fait, le dévoilement, sur le mode de la dénonciation, s’oriente sur la dimension collective en prenant à partie la société et la communauté.
Resumo:
Le principal objectif de ce mémoire est l’étude de l’inscription de la maternité dans L’empreinte de l’ange, La virevolte et Prodige de Nancy Huston. Les trois romans précités constituent mon corpus de base. Néanmoins, des allusions à d’autres écrits de l’auteure, notamment à Journal de la création, donneront une plus grande profondeur à l’analyse, car on ne peut ni écarter les traces du thème de la maternité dans ses autres textes ni mésestimer l’influence de l’expérience de l’auteure sur son œuvre. Dans la foulée de la réflexion féministe contemporaine sur la maternité et faisant recours, selon le besoin, à la Nouvelle Histoire et à la psychanalyse, pour éclairer le contexte sociohistorique et le non-dit des textes, nous essaierons de dégager la singularité de l’écriture hustonienne en ce qui concerne ses idées sur la maternité. En effet, Nancy Huston s’inscrit dans la lignée d’écrivaines qui ont contribué à redéfinir l’identité féminine dans la fiction contemporaine en esquissant, à travers ses romans et essais, une multiplicité d’expériences féminines, toutes différentes, bien que plus ou moins soumises aux valeurs sociales dont l’auteure mesure la force. Nous abordons notre analyse par une mise en contexte historique, culturelle et éthique de la maternité. En effet, comme le thème de la maternité est omniprésent dans le discours social passé et contemporain, il est intéressent de voir comment Nancy Huston compose avec les stéréotypes traditionnellement attribués à la mère en suivant les enjeux, les conséquences et les variations de la maternité dans les œuvres à l’étude. Suivront à la mise en contexte historique et théorique les chapitres destinés à l’analyse des œuvres. Le deuxième chapitre portera sur L’empreinte de l’ange dévoilant les perplexités qui naissent d’une maternité non désirée et ombragée par les séquelles d’un passé tragique. Le troisième chapitre, consacré à l’analyse de La virevolte, s’articule autour de la tension entre la création et la procréation. Enfin, le quatrième et dernier chapitre aborde la maternité dans Prodige, roman où il est surtout question du lien entre emprise maternelle et construction de l’identité de la fille. À travers cette analyse, nous verrons comment Nancy Huston déconstruit le lieu commun voulant que la mère soit cet être idéalisé, privé de passions professionnelles et de pulsions artistiques, se dédiant uniquement à la protection et aux soins de l’enfant pour représenter plutôt des mères animées par des sentiments contradictoires, des mères qui se positionnent avant tout comme femmes sans inhiber leurs élans, leurs passions ni leurs tourments.
Resumo:
Ce mémoire présente les résultats et la réflexion d’une recherche qui avait pour but d’analyser les liens entre la Bible médiévale et les romans du Graal écrits au XIIIe siècle. À cet effet, nous avons eu recours aux paraphrases et aux traductions bibliques en prose écrites en ancien français afin de montrer comment les romans à l’étude réécrivaient l’héritage biblique qu’ils comportaient. Le mémoire s’articule en trois chapitres. Le premier chapitre présente les corpus principal et secondaire et en les mettant en contexte. Ce chapitre traite également de la Bible au Moyen Âge, c’est-à-dire de son statut et de sa diffusion dans la société. Le deuxième chapitre s’attache à l’analyse des réécritures bibliques présentes dans le corpus principal en traitant les questions de l’allégorie et de l’exégèse et en analysant la Légende de l’Arbre de Vie. Enfin, le troisième chapitre étudie la mise en récit du rêve comme processus d’écriture commun à la Bible et aux romans du Graal. Cette recherche montre comment les auteurs médiévaux reprennent non seulement les récits de la Bible, mais aussi ses procédés d’écriture. Cette dynamique de reprise permet également de voir comment les textes traitent la matière biblique dans le développement spécifique du roman du Graal, en s’intéressant particulièrement au phénomène de christianisation du roman.
Resumo:
Le contrôle immunitaire des infections virales est effectué, en grande partie, par les lymphocytes T CD8+ cytotoxiques. Pour y parvenir, les lymphocytes T CD8+ doivent être en mesure de reconnaître les cellules infectées et de les éliminer. Cette reconnaissance des cellules infectées s’effectue par l’interaction du récepteur T (TCR) des lymphocytes T CD8+ et des peptides viraux associés au complexe majeur d’histocompatibilité (CMH) de classe I à la surface des cellules hôtes. Cette interaction constitue l’élément déclencheur permettant l’élimination de la cellule infectée. On comprend donc toute l’importance des mécanismes cellulaires menant à la génération des peptides antigéniques à partir des protéines virales produites au cours d’une infection. La vision traditionnelle de cet apprêtement protéique menant à la présentation d’antigènes par les molécules du CMH propose deux voies cataboliques distinctes. En effet, il est largement admis que les antigènes endogènes sont apprêtés par la voie dite ‘‘classique’’ de présentation antigénique par les CMH de classe I. Cette voie implique la dégradation des antigènes intracellulaires par le protéasome dans le cytoplasme, le transport des peptides résultant de cette dégradation à l’intérieur du réticulum endoplasmique, leur chargement sur les molécules du CMH de classe I et finalement le transport des complexes peptide-CMH à la surface de la cellule où ils pourront activer les lymphocytes T CD8+. Dans la seconde voie impliquant des antigènes exogènes, le dogme veut que ceux-ci soient apprêtés par les protéases du compartiment endovacuolaire. Les peptides ainsi générés sont directement chargés sur les molécules de CMH de classe II à l’intérieur de ce compartiment. Par la suite, des mécanismes de recyclage vésiculaire assurent le transport des complexes peptide-CMH de classe II à la surface de la cellule afin de stimuler les lymphocytes T CD4+. Cependant, cette stricte ségrégation des voies d’apprêtement antigénique a été durement éprouvée par la capacité des cellules présentatrices d’antigènes à effectuer l’apprêtement d’antigènes exogènes et permettre leur présentation sur des molécules de CMH de classe I. De plus, l’identification récente de peptides d’origine intracellulaire associés à des molécules de CMH de classe II a clairement indiqué la présence d’interactions entre les deux voies d’apprêtement antigénique permettant de transgresser le dogme préalablement établi. L’objectif du travail présenté ici était de caractériser les voies d’apprêtement antigénique menant à la présentation d’antigènes viraux par les molécules du CMH de classe I lors d’une infection par le virus de l’Herpès simplex de type I (HSV-1). Dans les résultats rapportés ici, nous décrivons une nouvelle voie d’apprêtement antigénique résultant de la formation d’autophagosomes dans les cellules infectées. Cette nouvelle voie permet le transfert d’antigènes viraux vers un compartiment vacuolaire dégradatif dans la phase tardive de l’infection par le virus HSV-1. Cette mise en branle d’une seconde voie d’apprêtement antigénique permet d’augmenter le niveau de présentation de la glycoprotéine B (gB) virale utilisée comme modèle dans cette étude. De plus, nos résultats décrivent la formation d’une nouvelle forme d’autophagosomes dérivés de l’enveloppe nucléaire en réponse à l’infection par le virus HSV-1. Ces nouveaux autophagosomes permettent le transfert d’antigènes viraux vers un compartiment vacuolaire lytique, action également assurée par les autophagosomes dits classiques. Dans la deuxième partie du travail présenté ici, nous utilisons l’infection par le virus HSV-1 et la production de la gB qui en résulte pour étudier le trafic membranaire permettant le transfert de la gB vers un compartiment vacuolaire dégradatif. Nos résultats mettent en valeur l’importance du réticulum endoplasmique, et des compartiments autophagiques qui en dérivent, dans ces mécanismes de transfert antigénique permettant d’amplifier la présentation antigénique de la protéine virale gB sur des CMH de classe I via une voie vacuolaire. L’ensemble de nos résultats démontrent également une étroite collaboration entre la voie classique de présentation antigénique par les CMH de classe I et la voie vacuolaire soulignant, encore une fois, la présence d’interaction entre les deux voies.
Resumo:
S’il est généralement reconnu que le processus d’institutionnalisation de l’Église s’est accéléré au IVe siècle, certaines de ses étapes nous sont moins connues. Ce mémoire cherche à évaluer l’importance de Jean Chrysostome dans l’émergence de la primauté d’honneur de Constantinople. Après une étude attentive du troisième canon du concile de Constantinople I mise en relation avec l’opinion de trois auteurs contemporains, c’est-à-dire Palladius d’Hélénopolis, Socrate de Constantinople et Sozomène, il ressort de ce travail que l’épiscopat de Jean Chrysostome a favorisé l’implantation de cette prééminence dans l’Église. L’analyse des modalités de la primauté d’honneur de Constantinople montre bien qu’historiquement, les évêques de l’ancienne et de la nouvelle Rome n’ont pas construit leur primat à l’aide des mêmes arguments. L’explicitation de ces éléments ne se veut pas une prise de position dans les débats oecuméniques actuels, mais plutôt un préliminaire permettant une meilleure compréhension des données du problème.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Ce mémoire aborde la question de la responsabilité précontractuelle en regardant son incidence en droit québécois ainsi qu'en droit international. Plus précisément, il s'agit de savoir comment est traitée la rupture des négociations lorsqu'aucun avant-contrat n'a été rédigé à cet effet. Afin de pouvoir déterminer ses grands paramètres, le texte aborde dans un premier temps la nature de cette responsabilité. N'étant pas codifiée en droit québécois et ne faisant l'objet d'aucune spécification dans les grands instruments internationaux, cette nature doit être associée à l'un des deux grands régimes de responsabilité soit: contractuel ou extracontractuel. L'importance de cette détermination n'est pas simplement théorique puisqu'elle a une influence directe sur plusieurs éléments comme la prescription ou le droit international privé. Au Québec, la doctrine et la jurisprudence ont choisi d'associer la responsabilité précontractuelle au domaine extracontractuel. Ainsi, elle devra suivre le modèle classique de faute, dommage et lien causal. Cependant, en droit international, la question de la nature reste encore nébuleuse compte tenu de la diversité des membres qui composent les comités d'élaboration des normes. Tous s'entendent pourtant sur un concept fondamental entourant la responsabilité précontractuelle : la bonne foi. Elle est au centre de la faute et dicte une éthique des pourparlers. Ainsi, dans un deuxième temps, la mise en œuvre de la responsabilité est abordée. De cette notion de bonne foi découlent de nombreux devoirs que les parties négociantes se doivent de respecter. Ils sont de création jurisprudentielle et demandent une étude au cas par cas. La liberté contractuelle étant le principe de base dans la formation des contrats, les tribunaux québécois sanctionnent rarement les cas de rupture des négociations. C'est ce principe de liberté qui empêche les pays de common law d'accepter le concept de bonne foi et de responsabilité précontractuelle, même s'ils sanctionnent, par l'intermédiaire de mécanismes, les comportements fautifs dans les pourparlers. Finalement, les dommages et les intérêts pouvant être réclamés varient. Au Québec et en France, autant les pertes subies que les gains manqués sont indemnisés tandis que les instruments internationaux sont plus réticents pour accorder un montant pour le gain manqué. Bref, la responsabilité précontractuelle est en pleine construction et son utilisation devant les tribunaux est encore peu fréquente.
Resumo:
Réalisé en codirection avec Hélène Buzelin
Resumo:
Face à l’incapacité de l’État à offrir des services de base aux ménages pauvres des zones urbaines périphériques et marginales, ce sont les opérateurs informels (individuels et collectifs) qui s’activent à répondre aujourd’hui aux besoins croissants des ménages. Mais leurs actions sont ponctuelles, éparpillées sur le territoire, non intégrées dans un plan de développement local, et beaucoup de ménages n’ont toujours pas accès à l’eau potable. Cette recherche, de type exploratoire, porte donc sur l’examen d’un type de partenariat entre les acteurs publics et les opérateurs informels collectifs, susceptible de créer la synergie entre les partenaires locaux et de pérenniser la fourniture de l’eau potable. Elle vise à analyser et à comprendre les mécanismes de collaboration entre l’État et les opérateurs informels collectifs en vue d’améliorer la qualité de la vie dans les quartiers urbains pauvres grâce à la résolution des problèmes d’accès à l’eau potable. À partir de l’étude de cas d’une zone pauvre de la ville de Kinshasa (République Démocratique du Congo), nous avons donc cherché à dégager ce qui peut éclairer le fonctionnement du partenariat État-opérateurs informels collectifs. Comme cadre d’analyse, nous avons recouru à l’analyse stratégique et, pour l’examen des expériences de partenariat, nous avons utilisé le modèle de Coston (1998) et recouru aux approches de régulation État-tiers secteur (approche socio-étatique et approche socio-communautaire). La méthode qualitative a été privilégiée. Les données analysées proviennent d’entrevues semi-dirigées, de la recherche documentaire et de l’observation. À partir du modèle de Coston (1998), les résultats obtenus montrent que les relations qui correspondent le mieux au partenariat entre les acteurs publics et les opérateurs informels collectifs sont de type « contractuel » et correspondent à l’orientation socio-étatique. Mais le système formel actuel de gestion de l’eau potable et les relations de pouvoir sont plus proches du type « rivalité ». Notre étude montre également que les partenariats, entre les acteurs publics et les opérateurs informels collectifs, sont très difficiles à instituer, car il n’existe pas encore d’environnement socio-politique solidaire. Le contexte institutionnel n’est pas propice à l’émergence d’un partenariat dynamique. Les déficiences structurelles, humaines et institutionnelles constatées sont la résultante directe de la pauvreté dont sont victimes les individus et les institutions. Les réseaux sociaux (à base de parenté, ethnique ou religieux) affectent les relations entre les individus, membres d’une association locale et les représentants des institutions locales ou nationales. Une complémentarité, négociée entre l’État et les opérateurs informels collectifs, ne pourra se réaliser que par la mise en place de nouvelles politiques favorisant la démocratie, la décentralisation et la promotion du mouvement associatif avec une société civile forte, dynamique, soucieuse du bien commun, privilégiant les qualités managériales plutôt que l’assistance perpétuelle.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Cette thèse propose une analyse croisée du cinéma et du jeu vidéo sous un angle interdisciplinaire afin de montrer la réappropriation et le remédiatisation des structures narratives et formelles du jeu vidéo dans le cinéma d’effets visuels du tournant du XXIe siècle. Plus spécifiquement, la thèse porte sur l’analyse de trois figures majeures du jeu vidéo et de l’animation dans la trilogie Matrix (Larry et Andy Wachowski, 1999-2003), dans Avalon (Mamoru Oshii, 2001) et dans Kung-Fu Hustle (Stephen Chow, 2004). La première section de la thèse consiste en une mise en place théorique par la présentation de certains paramètres esthétiques du cinéma d’effets visuels et du jeu vidéo. Quelques réflexions préliminaires sur l’esthétique du cinéma d’effets visuels sont d’abord esquissées avant de présenter les principales relations transmédiales entre le cinéma et le jeu vidéo. Ensuite, c’est le cinéma transludique qui est défini alors que le terme découle de la synergie singulière entre le cinéma et le jeu vidéo. Puisque le cinéma transludique concerne spécifiquement la récupération de l’esthétique du jeu vidéo dans le cinéma contemporain, les prémisses d’une esthétique du jeu vidéo sont alors établies. Dans la deuxième section, ce sont les figures et sous-figures au cœur de cette réflexion qui sont développées, pour ensuite les appliquer aux films du corpus. La première figure à l’étude est celle de l’exploration, alors que l’analyse de la signification de cette figure dans la conception de jeu vidéo et dans les récits cinématographiques de science-fiction montre l’importance de la navigation comme expérience spatio-temporelle dans les univers virtuels. Ensuite, c’est l’utilisation récurrente de la figure vidéoludique du niveau (level) dans le cinéma hybride contemporain qui est soulignée, figure qui structure autant le récit que la forme représentationnelle des films transludiques. Enfin, la figure de la métamorphose, indissociable du cinéma d’animation, est étudiée afin de souligner l’importance de cette figure dans la création numérique et d’expliquer la transformation de l’image qui affecte le cinéma transludique, image qualifiée d’image-frontière.
Resumo:
Les cellules gliales sont essentielles au fonctionnement du système nerveux. Dans la rétine, les cellules gliales de Müller assurent à la fois l’homéostasie du tissu et la protection des neurones, notamment celle des cellules ganglionnaires de la rétine (CGRs). L’hypothèse principale de la thèse est que les cellules de Müller joueraient un rôle primordial dans la survie neuronale tant au plan de la signalisation des neurotrophines/proneurotrophines par suite d’une blessure que lors des mécanismes d’excitotoxicité. Contrairement au brain-derived neurotrophic factor (BDNF), le nerve growth factor (NGF) n’est pas en mesure d’induire la survie des CGRs après une section du nerf optique. Le premier objectif de la thèse a donc été de localiser les récepteurs p75NTR et TrkA du NGF dans la rétine adulte et d’établir leur fonction respective en utilisant des ligands peptidomimétiques agonistes ou antagonistes spécifiques pour chacun des récepteurs. Nos résultats ont démontré que TrkA est surexprimé par les CGRs après l’axotomie, tandis que p75NTR est spécifiquement exprimé par les cellules de Müller. Alors que NGF n’est pas en mesure d’induire la survie des CGRs, l’activation spécifique de TrkA par des ligands peptidomimétique est nettement neuroprotectrice. De façon surprenante, le blocage sélectif de p75NTR ou l’absence de celui-ci protège les CGRs de la mort induite par l’axotomie. De plus, la combinaison de NGF avec l’antagoniste de p75NTR agit de façon synergique sur la survie des CGRS. Ces résultats révèlent un nouveau mécanisme par lequel le récepteur p75NTR exprimé par les cellules gliales de Müller peut grandement influencer la survie neuronale. Ensuite, nous avons voulu déterminer l’effet des proneurotrophines dans la rétine adulte. Nous avons démontré que l’injection de proNGF induit la mort des CGRs chez le rat et la souris par un mécanisme dépendant de p75NTR. L’expression de p75NTR étant exclusive aux cellules de Müller, nous avons testé l’hypothèse que le proNGF active une signalisation cellulaire non-autonome qui aboutit à la mort des CGRs. En suivant cette idée, nous avons montré que le proNGF induit une forte expression du tumor necrosis factor α (TNFα) dans les cellules de Müller et que l’inhibition du TNF bloque la mort neuronale induite par le proNGF. L’utilisation de souris knock-out pour la protéine p75NTR, son co-récepteur sortiline, ou la protéine adaptatrice NRAGE a permis de montrer que la production de TNF par les cellules gliales était dépendante de ces protéines. Le proNGF semble activer une signalisation cellulaire non-autonome qui cause la mort des neurones de façon dépendante du TNF in vivo. L’hypothèse centrale de l’excitotoxicité est que la stimulation excessive des récepteurs du glutamate sensibles au N-Methyl-D-Aspartate (NMDA) est dommageable pour les neurones et contribue à plusieurs maladies neurodégénératives. Les cellules gliales sont soupçonnées de contribuer à la mort neuronale par excitotoxicité, mais leur rôle précis est encore méconnu. Le dernier objectif de ma thèse était d’établir le rôle des cellules de Müller dans cette mort neuronale. Nos résultats ont démontré que l’injection de NMDA induit une activation du nuclear factor κB (NF-κB) dans les cellules de Müller, mais pas dans les CGRs, et que l’utilisation d’inhibiteurs du NF-κB empêche la mort des CGRs. De plus, nous avons montré que les cellules de Müller en réaction à l’activation du NF-κB produisent la protéine TNFα laquelle semble être directement impliquée dans la mort des CGRs par excitotoxicité. Cette mort cellulaire se produit principalement par l’augmentation à la surface des neurones des récepteurs AMPA perméables au Ca2+, un phénomène dépendant du TNFα. Ces donnés révèlent un nouveau mécanisme cellululaire non-autonome par lequel les cellules gliales peuvent exacerber la mort neuronale lors de la mise en jeu de mécanismes excitotoxiques.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
Cette recherche porte sur la mise en oeuvre de stratégies visant à stimuler le développement résidentiel au centre-ville de Montréal depuis la fin des années 1980 . En nous appuyant sur une double étude de cas portant sur le redéveloppement de deux friches périphériques à la vieille ville, le faubourg Québec et le faubourg des Récollets, nous montrons comment les pouvoirs publics locaux peuvent, par le biais de diverses mesures incitatives, faire converger les stratégies d’affaires des promoteurs immobiliers avec les objectifs urbanistiques de l’administration. D’une manière parfois improvisée, les pouvoirs publics montréalais ont ainsi mis en place un système d’opportunités et de contraintes dans le but d’inciter les promoteurs à investir dans les faubourgs. Notre recherche constate que bien que le système mis en place par les pouvoirs publics ait laissée indifférente une majorité de promoteurs, il a néanmoins permis à un petit nombre d’entre eux de se tailler une place sur le marché, ceux-ci pouvant maintenant jouer un rôle actif dans le renouvellement du centre-ville, et ce bien au-delà des limites des faubourgs.
Resumo:
La téléréadaptation, tout comme d’autres champs en télésanté, est de plus en plus interpelée pour la prestation de services. Le but de ce projet de thèse est d’enrichir l’évaluation de la téléréadaptation afin que les connaissances qui en découlent puissent venir soutenir la prise de décision d’acteurs impliqués à différents niveaux en téléréadaptation. Le premier article présente une revue systématique dont l’objectif était de faire synthèse critique des études en téléréadaptation. La revue rassemble 28 études en téléréadaptation, qui confirment l’efficacité de la téléréadaptation pour diverses clientèles dans différents milieux. Certaines des études suggèrent également des bénéfices en termes de coûts, mais ces résultats demeurent préliminaires. Cette synthèse critique est utile pour soutenir la décision d’introduire la téléréadaptation pour combler un besoin. Par contre, les décideurs bénéficieraient aussi de connaissances par rapport aux changements cliniques et organisationnels qui sont associés à la téléréadaptation lorsqu’elle est introduite en milieu clinique. Les deux autres articles traitent d’une étude de cas unique qui a examiné un projet clinique de téléréadaptation dans l’est de la province de Québec, au Canada. Le cadre conceptuel qui sous-tend l’étude de cas découle de la théorie de structuration de Giddens et des modèles de structuration de la technologie, en particulier de l’interaction entre la structure, l’agent et la technologie. Les données ont été recueillies à partir de plusieurs sources (groupes de discussion, entrevues individuelles, documents officiels et observation d’enregistrements) suivi d’une analyse qualitative. Le deuxième article de la thèse porte sur le lien entre la structure, l’agent et la culture organisationnelle dans l’utilisation de la téléréadaptation. Les résultats indiquent que les différences de culture organisationnelle entre les milieux sont plus évidentes avec l’utilisation de la téléréadaptation, entraînant des situations de conflits ainsi que des occasions de changement. De plus, la culture organisationnelle joue un rôle au niveau des croyances liées à la technologie. Les résultats indiquent aussi que la téléréadaptation pourrait contribuer à changer les cultures organisationnelles. Le troisième article examine l’intégration de la téléréadaptation dans les pratiques cliniques existantes, ainsi que les nouvelles routines cliniques qu’elle permet de soutenir et la pérennisation de la téléréadaptation. Les résultats indiquent qu’il y a effectivement certaines activités de téléréadaptation qui se sont intégrées aux routines des intervenants, principalement pour les plans d’intervention interdisciplinaire, tandis que pour les consultations et le suivi des patients, l’utilisation de la téléréadaptation n’a pas été intégrée aux routines. Plusieurs facteurs en lien avec la structure et l’agent ont contraint et facilité l’intégration aux routines cliniques, dont les croyances partagées, la visibilité de la téléréadaptation, le leadership clinique et organisationnel, la disponibilité des ressources, et l’existence de liens de collaboration. La pérennité de la téléréadaptation a aussi pu être observée à partir de la généralisation des activités et le développement de nouvelles applications et collaborations en téléréadaptation, et ce, uniquement pour les activités qui s’étaient intégrées aux routines des intervenants. Les résultats démontrent donc que lorsque la téléréadaptation n’est pas intégrée aux routines cliniques, elle n’est pas utilisée. Par contre, la téléréadaptation peut démontrée certains signes de pérennité lorsque les activités, qui sont reproduites, deviennent intégrées aux routines quotidiennes des utilisateurs. Ensemble, ces études font ressortir des résultats utiles pour la mise en place de la téléréadaptation et permettent de dégager des pistes pour enrichir le champ de l’évaluation de la téléréadaptation, afin que celui-ci devienne plus pertinent et complet, et puisse mieux soutenir les prises de décision d’acteurs impliqués à différents niveaux en téléréadaptation.