383 resultados para nest founding
Resumo:
Le fonctionnement du cortex cérébral nécessite l’action coordonnée de deux des sous-types majeurs de neurones, soient les neurones à projections glutamatergiques et les interneurones GABAergiques. Les interneurones GABAergiques ne constituent que 20 à 30% des cellules corticales par rapport au grand nombre de neurones glutamatergiques. Leur rôle est toutefois prépondérant puisqu’ils modulent fortement la dynamique et la plasticité des réseaux néocorticaux. Il n’est donc pas surprenant que les altérations de développement des circuits GABAergiques soient associées à plusieurs maladies du cerveau, incluant l’épilepsie, le syndrome de Rett et la schizophrénie. La compréhension des mécanismes moléculaires régissant le développement des circuits GABAergiques est une étape essentielle menant vers une meilleure compréhension de la façon dont les anormalités se produisent. Conséquemment, nous nous intéressons au rôle de l’acide polysialique (PSA) dans le développement des synapses GABAergiques. PSA est un homopolymère de chaînons polysialylés en α-2,8, et est exclusivement lié à la molécule d’adhésion aux cellules neuronales (NCAM) dans les cerveaux de mammifères. PSA est impliqué dans plusieurs processus développementaux, y compris la formation et la plasticité des synapses glutamatergiques, mais son rôle dans les réseaux GABAergiques reste à préciser. Les données générées dans le laboratoire du Dr. Di Cristo démontrent que PSA est fortement exprimé post- natalement dans le néocortex des rongeurs, que son abondance diminue au cours du développement, et, faits importants, que son expression dépend de l’activité visuelle i et est inversement corrélée à la maturation des synapses GABAergiques. La présente propose de caractériser les mécanismes moléculaires régulant l’expression de PSA dans le néocortex visuel de la souris. Les enzymes polysialyltransférases ST8SiaII (STX) et ST8SiaIV (PST) sont responsables de la formation de la chaîne de PSA sur NCAM. En contrôlant ainsi la quantité de PSA sur NCAM, ils influenceraient le développement des synapses GABAergiques. Mon projet consiste à déterminer comment l’expression des polysialyltransférases est régulée dans le néocortex visuel des souris durant la période post-natale; ces données sont à la fois inconnues, et cruciales. Nous utilisons un système de cultures organotypiques dont la maturation des synapses GABAergiques est comparable au modèle in vivo. L’analyse de l’expression génique par qPCR a démontré que l’expression des polysialyltransférases diminue au cours du développement; une baisse majeure corrélant avec l’ouverture des yeux chez la souris. Nous avons de plus illustré pour la première fois que l’expression de STX, et non celle de PST, est activité-dépendante, et que ce processus requiert l’activation du récepteur NMDA, une augmentation du niveau de calcium intracellulaire et la protéine kinase C (PKC). Ces données démontrent que STX est l’enzyme régulant préférentiellement le niveau de PSA sur NCAM au cours de la période post-natale dans le cortex visuel des souris. Des données préliminaires d’un second volet de notre investigation suggèrent que l’acétylation des histones et la méthylation de l’ADN pourraient également contribuer à la régulation de la transcription de cette enzyme durant le développement. Plus d’investigations seront toutefois nécessaires afin de confirmer cette hypothèse. En somme, la connaissance des mécanismes par lesquels l’expression des ii polysialyltransférases est modulée est essentielle à la compréhension du processus de maturation des synapses GABAergiques. Ceci permettrait de moduler pharmacologiquement l’expression de ces enzymes; la sur-expression de STX et/ou PST pourrait produire une plus grande quantité de PSA, déstabiliser les synapses GABAergiques, et conséquemment, ré-induire la plasticité cérébrale.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
Différentes réalités et contextes actuels mondiaux font en sorte que de plus en plus de gens envisagent la migration comme projet de vie. La présente recherche s’intéresse à l’imaginaire migratoire comme facteur de mobilité, mais également comme facteur de modulation des réactions et du regard qu’entretiendra le migrant en rapport avec son vécu migratoire. Ainsi, la réflexion s’amorce en Afrique de l’Ouest, tandis que de jeunes Africains instruits et qualifiés élaborent un projet de migration volontaire vers le Canada, plus précisément dans la région du Québec. C’est investi de leur désir de l’Ailleurs, des représentations de l’Occident, de leur besoin de se réaliser et de l’impossibilité qu’ils rencontrent à accéder à la vie professionnelle souhaitée en Afrique qu’ils migrent vers le Canada. Quoiqu’ils soient dotés d’une détermination et d’un optimisme considérable, la rencontre entre l’imaginé et le quotidien de la vie au Québec comme immigrant et comme émigrant n’est pas toujours facile. Elle viendra révéler la profondeur du rêve, des mythes et des ambitions; les failles intérieures individuelles, les valeurs et les ambivalences de chacun, mais surtout la capacité qu’aura l’individu à revoir son imaginaire, à effectuer la réappropriation de son expérience migratoire et à élaborer de nouveaux projets. L’écart vécu par le sujet entre l’imaginé et le rencontré nous questionnera sur ce que véhiculent les messages et les images en circulation sur le Canada et l’Occident. Aussi, il témoignera de la prédominance de la préparation factuelle et psychologique de l’individu pour anticiper et mieux accueillir les réalités du parcours migratoire.
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.
Resumo:
Notre thèse s’attache à définir certains rapports possibles entre le cinéma et le politique ou, plus précisément, entre le cinéma et le concept pratique de résistance. Il existe une théorie de la résistance, soit sous la forme d’une cartographie du pouvoir moléculaire (M. Foucault), soit sous la forme d’une analytique de la résistance (F. Proust). Il existe également une théorie de la résistance cinématographique, soit comme sociologie ou histoire de l’action politique par le cinéma (cinéma de la Résistance, cinéma militant), soit comme une sémiotique des formes et des genres marginaux (cinéma expérimental, cinéma des avant-gardes). Suivant une direction tracée par Serge Daney et Gilles Deleuze, nous croyons qu’il faut poser autrement le problème : si « le politique est affaire de perception », alors la résistance est d’abord une invention de visibilité et d’audibilité. En ce sens, la résistance cinématographique est une exploration de ce que peut le cinéma, tant d’un point de vue esthétique, éthique, que politique. D’où notre hypothèse, qui est double : d’une part, cette invention de visibilité, cette création de potentiel n’est peut-être possible qu’en passant par un ré-enchaînement anachronique d’une déformation plastique, narrative et audiovisuelle à une autre, c’est-à-dire d’une survivance à une autre. D’autre part, nous croyons qu’une forme esthétique est en soi matière politique et manière de politique, et qu’elle implique également une éthique venant brasser notre propre subjectivité (de cinéaste, de spectateur, de citoyen, etc.). Or, pour saisir cette invention de visibilité inhérente au cinéma, il faut en passer par une généalogie de certaines alliances théoriques et pratiques parmi les plus importantes. Le cas de trois machines autopoïétiques nous intéressera tout particulièrement, trois constellations d’œuvres et de pensées qui débordent le nom propre des « Auteurs » convoqués : Eisenstein et les résistances méthodologiques ; Syberberg et les résistances plastiques ou audiovisuelles (à travers la seule figure du hors-champ) ; Welles et les résistances esth/éthico-politiques. Ainsi, une telle chaîne généalogique nous permettra de mieux mesurer l’efficace de ces résistances, mais sans désir de systématisation ni constitution d’une Théorie de la résistance cinématographique.
Resumo:
La théologie catholique affirme que Jésus, médiateur par excellence, est la Révélation plénière de Dieu à son peuple. Cependant, il y a eu au fil des siècles des révélations dites «privées», dont certaines ont été reconnues par l’autorité de l’Église. Le cas des révélations privées non reconnues a toujours été générateur de malentendus et de conflits froids et parfois ouverts entre l’autorité de l’Église et certains fidèles. En contexte africain, où le christianisme se greffe sur la culture traditionnelle, cette question de révélations privées est importante car elle imprègne la religion ancestrale. Dans notre contexte où le Christianisme semble avoir le vent en poupe, on se demande quelque rapport y a-t-il entre foi et expérience individuelle de révélation privée; la révélation privée est-elle un couronnement d’une vie de foi bien menée sous le regard du Seigneur et des hommes? Comment Dieu se manifeste-t-il aux hommes et comment en rendre compte sans faire face à l’adversité? Avec l’étude de l’expérience de Paul en 2Co 12, 1-10, il y a lieu de revenir sur la théologie catholique au sujet de la Révélation en rapport avec les révélations pour voir comment elle s’est articulée, à partir de la Bible, au fil des temps, en fonction des cultures et des réalités sans cesse nouvelles. À la base de cette théologie, on peut trouver en bonne position l’influence herméneutique de l’expérience mystique de Paul. Une révélation privée comme celle qu’il vit, fait toujours face à des doutes ou des attitudes sceptiques parfois tenaces pour se préciser après coup et fonder en raison son apport par rapport au Christ et à la vie ecclésiale. Si le jugement de l’Église est important pour son insertion dans la vie des communautés, toutefois, il faut dire qu’il n’est pas déterminant. Tout se joue entre Dieu et la personne certes, mais la qualité des fruits de ce jeu spirituel étant garante de la crédibilité de la révélation. Dieu, qui sait toujours communiquer avec son peuple sous des formes variées, en est capable en tout temps et selon le mode qu’il se donne. Pour mieux parler de l’expérience de Paul en 2Co 12,1-10, les démarches historico-critique et narrative ont été d’une utilité complémentaire en vue d’authentifier dans la péricope ce qu’il convient d’appeler : la mystique de Paul. Le témoignage spirituel de Paul peut servir de paradigme pour les personnes et d’éclairage pour l’Église dans le discernement des phénomènes de révélation privée aujourd’hui. Paul vit une relation forte avec le Dieu de Jésus Christ, il la fait vivre à ses communautés; quoiqu’il advienne, il n’hésite pas à en rendre compte et à la communauté, et à Pierre et aux autres. Sa vie intensément mystique, ne le soustrait pas de la démarche ecclésiale pour défendre ses révélations.
Resumo:
L’atmosphère terrestre est très riche en azote (N2). Mais cet azote diatomique est sous une forme très stable, inutilisable par la majorité des êtres vivants malgré qu’il soit indispensable pour la synthèse de matériels organiques. Seuls les procaryotes diazotrophiques sont capables de vivre avec le N2 comme source d’azote. La fixation d’azote est un processus qui permet de produire des substances aminées à partir de l’azote gazeux présent dans l’atmosphère (78%). Cependant, ce processus est très complexe et nécessite la biosynthèse d’une vingtaine de protéines et la consommation de beaucoup d’énergie (16 molécules d’ATP par mole de N2 fixé). C’est la raison pour laquelle ce phénomène est rigoureusement régulé. Les bactéries photosynthétiques pourpres non-sulfureuses sont connues pour leur capacité de faire la fixation de l’azote. Les études faites à la lumière, dans le mode de croissance préféré de ces bactéries (photosynthèse anaérobie), ont montré que la nitrogénase (enzyme responsable de la fixation du diazote) est sujet d’une régulation à trois niveaux: une régulation transcriptionnelle de NifA (protéine activatrice de la transcription des gènes nif), une régulation post-traductionnelle de l’activité de NifA envers l’activation de la transcription des autres gènes nif, et la régulation post-traductionnelle de l’activité de la nitrogénase quand les cellules sont soumises à un choc d’ammoniaque. Le système de régulation déjà décrit fait intervenir essentiellement une protéine membranaire, AmtB, et les deux protéines PII, GlnB et GlnK. Il est connu depuis long temps que la nitrogénase est aussi régulée quand une culture photosynthétique est exposée à la noirceur, mais jusqu’aujourd’hui, on ignore encore la nature des systèmes intervenants dans cette régulation. Ainsi, parmi les questions qui peuvent se poser: quelles sont les protéines qui interviennent dans l’inactivation de la nitrogénase lorsqu’une culture anaérobie est placée à la noirceur? Une analyse de plusieurs souches mutantes, amtB- , glnK- , glnB- et amtY- poussées dans différentes conditions de limitation en azote, serait une façon pour répondre à ces interrogations. Alors, avec le suivi de l’activité de la nitrogénase et le Western Blot, on a montré que le choc de noirceur provoquerait un "Switch-off" de l’activité de la nitrogénase dû à une ADP-ribosylation de la protéine Fe. On a réussit aussi à montrer que ii tout le système déjà impliqué dans la réponse à un choc d’ammoniaque, est également nécessaire pour une réponse à un manque de lumière ou d’énergie (les protéines AmtB, GlnK, GlnB, DraG, DraT et AmtY). Or, Rhodobacter capsulatus est capable de fixer l’azote et de croitre aussi bien dans la micro-aérobie à la noirceur que dans des conditions de photosynthèse anaérobies, mais jusqu'à maintenant sa régulation dans l’obscurité est peu étudiée. L’étude de la fixation d’azote à la noirceur nous a permis de montrer que le complexe membranaire Rnf n’est pas nécessaire à la croissance de R. capsulatus dans de telles conditions. Dans le but de développer une façon d’étudier la régulation de la croissance dans ce mode, on a tout d’abord essayé d’identifier les conditions opératoires (O2, [NH4 + ]) permettant à R. capsulatus de fixer l’azote en microaérobie. L’optimisation de cette croissance a montré que la concentration optimale d’oxygène nécessaire est de 10% mélangé avec de l’azote.
Resumo:
Streptococcus suis de type 2 est un microorganisme pathogène d’importance chez le porc. Il est la cause de différentes pathologies ayant comme caractéristique commune la méningite. C’est également un agent émergeant de zoonose : des cas cliniques humains ont récemment été rapportés en Asie. Cependant, la pathogénèse de S. suis n’est pas encore complètement élucidée. Jusqu’à présent, la réponse pro-inflammatoire initiée par S. suis n’a été étudiée qu’in vitro. L’étude du choc septique et de la méningite requiert toujours des modèles expérimentaux appropriés. Au cours de cette étude, nous avons développé un modèle in vivo d’infection chez la souris qui utilise la voie d’inoculation intra-péritonéale. Ce modèle a servi à l’étude de la réponse pro-inflammatoire associée à ce pathogène, tant au niveau systémique qu’au niveau du système nerveux central (SNC). Il nous a également permis de déterminer si la sensibilité aux infections à S. suis pouvait être influencée par des prédispositions génétiques de l’hôte. Le modèle d’infection par S. suis a été mis au point sur des souris de lignée CD1. Les résultats ont démontré une bactériémie élevée pendant les trois jours suivant l’infection. Celle-ci était accompagnée d’une libération rapide et importante de différentes cytokines pro-inflammatoires (TNF-α, IL-6, IL-12p40/p70, IFN-ɣ) et de chémokines (KC, MCP-1 and RANTES), qui ont entraîné un choc septique et la mort de 20 % des animaux. Ensuite, pour confirmer le rôle de l’inflammation sur la mortalité et pour déterminer si les caractéristiques génétiques de l’hôte pouvaient influencer la réponse inflammatoire et l’issue de la maladie, le modèle d’infection a été étendu à deux lignées murines consanguines différentes considérées comme résistante : la lignée C57BL/6 (B6), et sensible : la lignée A/J. Les résultats ont démontré une importante différence de sensibilité entre les souris A/J et les souris B6, avec un taux de mortalité atteignant 100 % à 20 h post-infection (p.i.) pour la première lignée et de seulement 16 % à 36 h p.i. pour la seconde. La quantité de bactéries dans le sang et dans les organes internes était similaire pour les deux lignées. Donc, tout comme dans la lignée CD1, la bactériémie ne semblait pas être liée à la mort des souris. La différence entre les taux de mortalité a été attribuée à un choc septique non contrôlé chez les souris A/J infectées par S. suis. Les souris A/J présentaient des taux exceptionnellement élevés de TNF-α, IL-12p40/p70, IL-1β and IFN- γ, significativement supérieurs à ceux retrouvés dans la lignée B6. Par contre, les niveaux de chémokines étaient similaires entre les lignées, ce qui suggère que leur influence est limitée dans le développement du choc septique dû à S. suis. Les souris B6 avaient une production plus élevée d’IL-10, une cytokine anti-inflammatoire, ce qui suppose que la cascade cytokinaire pro-inflammatoire était mieux contrôlée, entraînant un meilleur taux de survie. Le rôle bénéfique potentiel de l’IL-10 chez les souris infectées par S. suis a été confirmé par deux approches : d’une part en bloquant chez les souris B6 le récepteur cellulaire à l’IL-10 (IL-10R) par un anticorps monoclonal anti-IL-10R de souris et d’autre part en complémentant les souris A/J avec de l’IL-10 de souris recombinante. Les souris B6 ayant reçu le anticorps monoclonal anti-IL-10R avant d’être infectées par S. suis ont développé des signes cliniques aigus similaires à ceux observés chez les souris A/J, avec une mortalité rapide et élevée et des taux de TNF-α plus élevés que les souris infectées non traitées. Chez les souris A/J infectées par S. suis, le traitement avec l’IL-10 de souris recombinante a significativement retardé l’apparition du choc septique. Ces résultats montrent que la survie au choc septique dû à S. suis implique un contrôle très précis des mécanismes pro- et anti-inflammatoires et que la réponse anti-inflammatoire doit être activée simultanément ou très rapidement après le début de la réponse pro-inflammatoire. Grâce à ces expériences, nous avons donc fait un premier pas dans l’identification de gènes associés à la résistance envers S. suis chez l’hôte. Une des réussites les plus importantes du modèle d’infection de la souris décrit dans ce projet est le fait que les souris CD1 ayant survécu à la septicémie présentaient dès 4 jours p.i. des signes cliniques neurologiques clairs et un syndrome vestibulaire relativement similaires à ceux observés lors de méningite à S. suis chez le porc et chez l’homme. L’analyse par hybridation in situ combinée à de l’immunohistochimie des cerveaux des souris CD1 infectées a montré que la réponse inflammatoire du SNC débutait avec une augmentation significative de la transcription du Toll-like receptor (TLR)2 et du CD14 dans les microvaisseaux cérébraux et dans les plexus choroïdes, ce qui suggère que S. suis pourrait se servir de ces structures comme portes d’entrée vers le cerveau. Aussi, le NF-κB (suivi par le système rapporteur de l’activation transcriptionnelle de IκBα), le TNF-α, l’IL-1β et le MCP-1 ont été activés, principalement dans des cellules identifiées comme de la microglie et dans une moindre mesure comme des astrocytes. Cette activation a également été observée dans différentes structures du cerveau, principalement le cortex cérébral, le corps calleux, l’hippocampe, les plexus choroïdes, le thalamus, l’hypothalamus et les méninges. Partout, cette réaction pro-inflammatoire était accompagnée de zones extensives d’inflammation et de nécrose, de démyélinisation sévère et de la présence d’antigènes de S. suis dans la microglie. Nous avons mené ensuite des études in vitro pour mieux comprendre l’interaction entre S. suis et la microglie. Pour cela, nous avons infecté des cellules microgliales de souris avec la souche sauvage virulente (WT) de S. suis, ainsi qu’avec deux mutants isogéniques, un pour la capsule (CPS) et un autre pour la production d’hémolysine (suilysine). Nos résultats ont montré que la capsule était un important mécanisme de résistance à la phagocytose pour S. suis et qu’elle modulait la réponse inflammatoire, en dissimulant les composants pro-inflammatoires de la paroi bactérienne. Par contre, l’absence d’hémolysine, qui est un facteur cytotoxique potentiel, n’a pas eu d’impact majeur sur l’interaction de S. suis avec la microglie. Ces études sur les cellules microgliales ont permis de confirmer les résultats obtenus précédemment in vivo. La souche WT a induit une régulation à la hausse du TLR2 ainsi que la production de plusieurs médiateurs pro-inflammatoires, dont le TNF-α et le MCP-1. S. suis a induit la translocation du NF-kB. Cet effet était plus rapide dans les cellules stimulées par le mutant déficient en CPS, ce qui suggère que les composants de la paroi cellulaire représentent de puissants inducteurs du NF-kB. De plus, la souche S. suis WT a stimulé l’expression de la phosphotyrosine, de la PKC et de différentes cascades liées à l’enzyme mitogen-activated protein kinase (MAPK). Cependant, les cellules microgliales infectées par le mutant déficient en CPS ont montré des profils de phosphorylation plus forts et plus soutenus que celles infectées par le WT. Finalement, la capsule a aussi modulé l’expression de l’oxyde nitrique synthétase inductible (iNOS) induite par S. suis et par la production subséquente d’oxyde nitrique par la microglie. Ceci pourrait être lié in vivo à la neurotoxicité et à la vasodilatation. Nous pensons que ces résultats contribueront à une meilleure compréhension des mécanismes sous-tendant l’induction de l’inflammation par S. suis, ce qui devrait permettre, d’établir éventuellement des stratégies plus efficaces de lutte contre la septicémie et la méningite. Enfin, nous pensons que ce modèle expérimental d’infection chez la souris pourra être utilisé dans l’étude de la pathogénèse d’autres bactéries ayant le SNC pour cible.
Resumo:
Bien que l’environnement intra-utérin défavorable soit associé à des conditions pathologiques à l’âge adulte, les mécanismes mis en place in utero ne sont pas encore élucidés. Nous avons établi un modèle de restriction de croissance intra-utérine (RCIU) en donnant une diète faible en sodium à la rate pendant la dernière semaine de gestation. Ce modèle se caractérise par une diminution de perfusion placentaire et une redistribution du flot sanguin, favorisant l’irrigation des organes nobles (cœur et cerveau) au détriment du rein fœtal. De plus, l’expression rénale du facteur de croissance endothéliale vasculaire (VEGF) est diminuée chez le fœtus. L’hypothèse de travail est que la néoglucogenèse hépatique et rénale augmente chez les fœtus RCIU afin de compenser la diminution de perfusion placentaire, et que l’expression rénale des récepteurs de VEGF (Flt-1 et Flk-1) est altérée à la suite de la redistribution du flot sanguin. Nos objectifs étaient de comparer l’expression protéique des enzymes de la néoglucogenèse et des récepteurs de VEGF entre les fœtus témoins et RCIU. L’aldolase B, la fructose-1,6-biphosphatase et la glucose-6-phosphatase augmentent dans les reins de fœtus RCIU par rapport aux témoins alors qu’aucun changement n’est observé dans le foie. De plus, l’expression de ces enzymes est différente selon le sexe du fœtus. Une diminution de Flt-1 est notée dans les reins de fœtus RCIU. Nos résultats démontrent que des adaptations surviennent chez le fœtus à la suite d’une insulte intra-utérine favorisant sa survie mais ayant des conséquences telles que la dysfonction rénale observée chez les adultes de ce modèle animal. À long terme, ces travaux pourront permettre d’entrevoir des avenues pour mieux identifier les approches de prévention lors de naissance à la suite d’une RCIU.
Resumo:
De récents travaux ont mis en évidence une production accrue de Perlecan au stade terminal de l’arthrose ou ostéoarthrite (OA). L’équipe du Dr Moreau a mis en évidence qu’il y a une perte d’expression du facteur de transcription Pitx1 dans l’arthrose et que ce dernier pourrait agir comme un régulateur négatif du gène HSPG2 codant pour le Perlecan. Afin d’étudier la régulation transcriptionnelle de ce gène, des fragments du promoteur proximal ont été clonés en amont du gène rapporteur luciférase et testés en transfections transitoires. Des co-transfections avec des quantités variables de pSI-mPitx1 et avec des constructions comportant des fragments de différentes régions du promoteur mHSPG2 (jusqu’à 3926 pbs en amont de l’ATG) ont démontrées une activité transcriptionnelle et une stimulation de cette activité en présence de Pitx1, avec des résultats variables selon les types cellulaires. Parallèlement, des expériences en qPCR effectuées sur des ostéoblastes dérivés de souris transgéniques surexprimant Pitx1 ont aussi démontré qu’une surexpression de Pitx1 corrèle avec une augmentation de l’expression de p53, une cible connue de Pitx1, et de Perlecan. Le lien qui existe entre Pitx1 et Perlecan est encore très méconnu et la cascade régulatrice impliquant ces deux acteurs n’est pas encore établie. Une meilleure connaissance des mécanismes qui régulent la transcription normale et pathologique du gène HSPG2 permettrait sans aucun doute une avancée dans la compréhension du développement et du rôle possible de Perlecan dans la progression de l’ostéoarthrite.
Resumo:
Thèse réalisée en cotutelle avec l'Université Catholique de Louvain (Belgique)
Resumo:
Pour Albert Camus, la littérature était à la fois une activité essentielle à son bonheur et un objet de réflexion. Afin de saisir quelle conception de la littérature et quelle vision du rôle de l’écrivain se dégagent de son oeuvre, ce mémoire aborde dans un même mouvement ses deux principaux essais, Le Mythe de Sisyphe et L’Homme révolté, et une pièce de théâtre, Caligula. Notre premier chapitre consiste dans la recherche de ce qui, pour Camus, fait de la création artistique une activité privilégiée dans l’horizon de la pensée de l’absurde et de la révolte. Dans le deuxième chapitre, les différents commentaires émis par la critique à propos de Caligula seront examinés. La pièce, malgré l’opinion dominante, ne raconte pas l’histoire d’un empereur absurde qui se révolte contre son destin. L’importance du thème de la création littéraire dans cette pièce a également été grandement sous-estimée. Enfin, le troisième chapitre de ce mémoire présente notre propre analyse de la pièce. La confrontation de la fiction avec la théorie révèle une grande concordance entre les deux aspects de l’oeuvre de Camus. L’accord n’est cependant pas parfait, et l’étude des points de friction découverts permet d’apporter des éclaircissements sur un des points les plus obscurs des essais de Camus : l’éthique du créateur placé dans une situation où il doit choisir entre tuer et mourir.
Resumo:
D’une part, le développement scientifique dans le domaine pharmaceutique fournit des bénéfices substantiels à la santé des personnes, améliorant par conséquent leur qualité de vie. Toutefois, créer et mettre en marché une nouvelle substance thérapeutique n’est pas une tâche facile. Les laboratoires investissent du temps et de l’argent en recherche et développement pour y parvenir. D’autre part, malgré les bienfaits de la science et les efforts des chercheurs, les médicaments sont des produits potentiellement dangereux. Ils présentent des risques inhérents à leur nature, capables de causer des préjudices graves et irréversibles. D’ailleurs, la nature dangereuse de ces produits a incité l’instauration de normes qui imposent des critères stricts aux fabricants de médicaments dans le but de protéger le public. En suivant cette tendance mondiale, les législateurs brésilien et canadien ont instauré des régimes statutaires qui édictent des règles rigoureuses de conception, de fabrication et de commercialisation des médicaments. Néanmoins, à cause de la nature pénale et administrative de ces normes, elles ne sont pas efficaces lorsqu’il s’agit de dédommager le consommateur ou le tiers qui est victime du fait du médicament. Dans une telle situation, il faut recourir au droit civil dans le cas du Brésil et du Québec, ou à la common law dans les autres provinces canadiennes. Dans une étude comparée sur le sujet, nous avons appris que les droits civils brésilien et québécois ainsi que la common law canadienne ont des ressemblances très importantes, cependant en ce qui concerne l’exclusion de la responsabilité fondée sur le risque de développement scientifique, différentes solutions s’appliquent.