527 resultados para Malformations congénitales majeures
Resumo:
La mémoire et l’apprentissage sont des phénomènes complexes dont on ne comprend pas encore bien l’origine au niveau cellulaire et moléculaire. Cependant, il est largement admis que des changements plus simples au niveau synaptique, tels que la potentialisation à long-terme (long-term potentiation ou LTP) pourraient constituer la base cellulaire de la formation des nouveaux souvenirs. Ces mécanismes sont couramment étudiés au niveau de l’hippocampe, une région du lobe temporal reconnue comme étant nécessaire à la formation de la mémoire explicite chez les mammifères. La LTP est classiquement définie comme un renforcement durable de l’efficacité de connexions synaptiques ayant été stimulées de façon répétée et soutenue. De plus, on peut distinguer deux formes de LTP: une LTP précoce, qui repose sur la modification de protéines déjà formées, et une LTP tardive, qui requiert, elle, la synthèse de nouvelles protéines. Cependant, bien que de nombreuses études se soient intéressées au rôle de la traduction pour la maintenance de la LTP, les mécanismes couplant l’activité synaptique à la machinerie de synthèse protéique, de même que l’identité des protéines requises sont encore peu connus. Dans cette optique, cette thèse de doctorat s’est intéressée aux interactions entre l’activité synaptique et la régulation de la traduction. Il est par ailleurs reconnu que la régulation de la traduction des ARNm eukaryotiques se fait principalement au niveau de l’initiation. Nous avons donc étudié la modulation de deux voies majeures pour la régulation de la traduction au cours de la LTP : la voie GCN2/eIF2α et la voie mTOR. Ainsi, nos travaux ont tout d’abord démontré que la régulation de la voie GCN2/eIF2α et de la formation du complexe ternaire sont nécessaires à la maintenance de la plasticité synaptique et de la mémoire à long-terme. En effet, l’activité synaptique régule la phosphorylation de GCN2 et d’eIF2α, ce qui permet de moduler les niveaux du facteur de transcription ATF4. Celui-ci régule à son tour la transcription CREB-dépendante et permet ainsi de contrôler les niveaux d’expression génique et la synthèse de protéines nécessaires pour la stabilisation à long-terme des modifications synaptiques. De plus, la régulation de la voie mTOR et de la traduction spécifique des ARNm 5’TOP semble également jouer un rôle important pour la plasticité synaptique à long-terme. La modulation de cette cascade par l’activité synaptique augmente en effet spécifiquement la capacité de traduction des synapses activées, ce qui leur permet de traduire et d’incorporer les protéines nécessaires au renforcement durable des synapses. De telles recherches permettront sans doute de mieux comprendre la régulation des mécanismes traductionnels par l’activité synaptique, ainsi que leur importance pour la maintenance de la potentialisation à long-terme et de la mémoire à long-terme.
Resumo:
Le cancer épithélial de l’ovaire est le cancer gynécologique le plus agressif avec le plus haut taux de mortalité. La croissance des cellules cancéreuses de l’ovaire est limitée par les nutriments de l’environnement, le fer étant un des éléments indispensables à leur prolifération. L’hémochromatose héréditaire est une maladie associée à une accumulation corporelle de fer. Cette maladie est liée à deux mutations majeures du gène HFE soit H63D et C282Y. Étant donnée l’influence de la protéine HFE sur l’entrée du fer dans la cellule, des mutations du gène HFE pourraient être associées à une croissance rapide des cellules cancéreuses. Des études de génotypage du gène HFE effectuées chez 526 patientes avec cancer épithélial de l’ovaire, ont révélées une fréquence allélique de la mutation C282Y significativement plus élevées chez les patientes avec tumeur ovarienne comparativement aux patientes du groupe contrôle (5.9% versus 1.3%, p = 0.02). De plus, le taux de survie des patientes avec mutations C282Y et tumeur ovarienne de G3, après 2 ans, est faible (20%) lorsque comparé à celui des patientes sans mutations (60%, p = 0.005). Une analyse de régression multivariée de Cox a démontrée un risque relatif de 3.1, suggérant que les patientes avec mutations C282Y ont 3 fois plus de chance d’avoir une faible survie (p=0.001). Également, des études de corrélation ont démontrées que les niveaux de ferritine du sérum étaient plus élevés chez les patientes avec grade avancé du cancer épithélial de l’ovaire (r = 0.445 et p= 0.00001), suggérant que ce paramètre pourrait servir comme marqueur tumoral. Afin de comprendre ces résultats, nous avons tout d’abord étudiés l’influence des mutations HFE sur les cellules cancéreuses. Pour ce faire, la lignée du cancer de l’ovaire TOV-112D, homozygote pour la mutation C282Y, a été transfectée avec les vecteurs HFEwt et HFEC282Y. Bien qu’aucune différence significative n’ait été trouvée en termes de TfR totaux, des analyses par FACS ont démontrées un phénotype de déficience de fer pour les clones stables HFEwt. In vitro, la restauration de la protéine HFE, dans la lignée TOV-112D du cancer de l’ovaire, n’influence pas la croissance cellulaire. Ensuite, nous avons étudiés l’influence des niveaux de fer sur la progression tumorale. Une expérience in vivo préliminaire a démontré une tendance à un volume tumoral supérieur dans un modèle de souris de surcharge de fer,HfeRag1-/-. De plus, les souris HfeRag1-/-, injectées avec la lignée du cancer de l’ovaire TOV-21G, ont montrées des niveaux significativement plus faibles de fer sérique comparativement à leur contrôle (fer sérique 40±7μM versus 27±6μM, p = 0.001). En conclusion, des études supplémentaires sont nécessaires afin de comprendre davantage le rôle des mutations HFE sur la progression tumorale. Notamment, les niveaux élevés de fer pourraient rendre les cellules tumorales résistantes aux traitements ou encore, augmenter la toxicité et ainsi, contribuer à un mauvais prognostique.
Resumo:
La sclérose systémique est une maladie autoimmune dont l’une des complications majeures est la fibrose. La DNA topoisomérase I (topo) est l’un des principaux autoantigènes associés à cette maladie. Toutefois, aucun lien n’a encore pu être établi entre la présence des anti-topo et le développement de la fibrose. Les travaux antérieurs du laboratoire d’accueil ont montré une interaction directe de la topo avec la surface des fibroblastes et la matrice extracellulaire. Nous avons voulu caractériser ces interactions du point de vue moléculaire. La topo a donc été exprimée sous forme de 5 fragments, déterminés à partir de ses principaux domaines structuraux et de ses épitopes majeurs, chez E. coli. Les fragments purifiés ont été analysés pour leur interaction avec l’héparine, représentant les héparane sulfates de la surface des fibroblastes, et avec des protéines purifiées de la matrice extracellulaire. Nous avons montré que le fragment topo-N est le principal responsable de l’interaction avec l’héparine, ce qui suggère donc l’implication potentielle de ce domaine dans l’interaction de la topo avec la surface des fibroblastes. Le fragment topo-DIDII est responsable de l’interaction avec la plupart des protéines de la matrice extracellulaire étudiées, alors que le fragment topo-H15 n’interagit qu’avec la vitronectine. Aucune interaction des fragments topo-DIII et topo-C n’a été décelée. Ces résultats pourront maintenant servir à mieux comprendre le rôle potentiel de la topo et des autoanticorps circulants anti-topo dans la fibrose présente chez les personnes atteintes de sclérose systémique en contribuant à l’identification de la cible de la topo sur les fibroblastes.
Resumo:
Ce mémoire comprend deux tomes : le premier consiste du texte et des figures, le deuxième consiste des annexes. Le tout est regroupé dans le document électronique présent.
Resumo:
Ce travail a été réalisé avec l'appui du Centre Collaborateur de l'OMS sur la Transition Nutritionnelle et le Développement (TRANSNUT) de l'Université de Montréal, en collaboration avec deux parténaires du Bénin: l'Institut de Sciences Biomédicales Appliquées (ISBA) de Cotonou et l'Institut Régional de Santé Publique de Ouidah.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
Cette thèse propose une analyse croisée du cinéma et du jeu vidéo sous un angle interdisciplinaire afin de montrer la réappropriation et le remédiatisation des structures narratives et formelles du jeu vidéo dans le cinéma d’effets visuels du tournant du XXIe siècle. Plus spécifiquement, la thèse porte sur l’analyse de trois figures majeures du jeu vidéo et de l’animation dans la trilogie Matrix (Larry et Andy Wachowski, 1999-2003), dans Avalon (Mamoru Oshii, 2001) et dans Kung-Fu Hustle (Stephen Chow, 2004). La première section de la thèse consiste en une mise en place théorique par la présentation de certains paramètres esthétiques du cinéma d’effets visuels et du jeu vidéo. Quelques réflexions préliminaires sur l’esthétique du cinéma d’effets visuels sont d’abord esquissées avant de présenter les principales relations transmédiales entre le cinéma et le jeu vidéo. Ensuite, c’est le cinéma transludique qui est défini alors que le terme découle de la synergie singulière entre le cinéma et le jeu vidéo. Puisque le cinéma transludique concerne spécifiquement la récupération de l’esthétique du jeu vidéo dans le cinéma contemporain, les prémisses d’une esthétique du jeu vidéo sont alors établies. Dans la deuxième section, ce sont les figures et sous-figures au cœur de cette réflexion qui sont développées, pour ensuite les appliquer aux films du corpus. La première figure à l’étude est celle de l’exploration, alors que l’analyse de la signification de cette figure dans la conception de jeu vidéo et dans les récits cinématographiques de science-fiction montre l’importance de la navigation comme expérience spatio-temporelle dans les univers virtuels. Ensuite, c’est l’utilisation récurrente de la figure vidéoludique du niveau (level) dans le cinéma hybride contemporain qui est soulignée, figure qui structure autant le récit que la forme représentationnelle des films transludiques. Enfin, la figure de la métamorphose, indissociable du cinéma d’animation, est étudiée afin de souligner l’importance de cette figure dans la création numérique et d’expliquer la transformation de l’image qui affecte le cinéma transludique, image qualifiée d’image-frontière.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
L'interaction entre le système immunitaire et le métabolisme du fer est bien illustrée par l'anémie des maladies chroniques (ACD), qui est fréquemment rencontrée dans les infections chroniques, l'inflammation et le cancer. La majorité des modifications dans les paramètres du fer observées dans l’ACD tient compte des modifications de l’homéostasie du fer, avec la délocalisation du métal de la circulation et les sites de l'érythropoïèse au compartiment de stockage dans les macrophages. Les mécanismes de la réponse hyposidérémique impliquent des cytokines, notamment TNF-alpha et IL-6, qui régulent les niveaux de plusieurs gènes du métabolisme du fer, y compris les transporteurs de fer et de l'hepcidine, un régulateur négatif de l’absorption du fer, ce qui entraîne l'inhibition de l'exportation du fer à travers la ferroportine 1 (FPN1) au niveau de l'intestin et les macrophages. Des études antérieures ont montré que l'IL-6 induit l’expression d’hepcidine dans les hépatocytes, mais il y a très peu de données concernant la façon par laquelle l'hepcidine et la FPN1 sont régulées dans les macrophages. Récemment, nous avons constaté que l'induction de l'hepcidine dans le foie par le lipopolysaccharide (LPS) dépend de la voie de signalisation médiée par le récepteur Toll-like 4 (TLR4). Le but de ce travail est d’identifier les ligands des TLRs capables d'induire l'hepcidine dans les macrophages et de déterminer l’exigence des TLRs dans l’induction de l’hepcidine et le développement d’hyposidérémie. En plus, nous voulons étudier l’effet de l’inflammation causée par les ligands des TLRs sur le taux de fer sérique, la production des cytokines et l'expression de l’hepcidine et de la ferroportine. D’autre part nous voulons étudier l’effet du taux du fer sur la production d’IL-6 macrophagique en réponse à la stimulation par le TLR4. D'abord, pour identifier les ligands des TLRs capables d'induire l'hepcidine dans les macrophages, nous avons traité les macrophages RAW 264.7 et les macrophages péritonéaux de souris (MPMs) avec différents ligands TLRs et on a mesuré l’expression de l'hepcidine par qRT-PCR. Nous avons observé que Pam3CSK4 (Pam), un ligand de TLR2/1; LPS, un ligand de TLR-4 et FSL1 un ligand de TLR2/6 induisent l’expression de l'hepcidine dans les cellules RAW 264.7 et les MPMs, contrairement au polyinosinic: polycytidylic acid (Poly I: C), un ligand de TLR3. De plus, LPS était capable de réprimer l’expression de la ferroportine dans les cellules RAW 264.7. Afin de mieux définir la nécessité des TLRs pour assurer cette expression, nous avons utilisé les souris TLR-2 knock-out et on a établi que l'expression de l'hepcidine dans les macrophages par LPS, Pam ou FSL1 est dépendante du TLR2. En accord avec les expériences in vitro, les études effectuées in vivo ont montré que LPS réprime l’expression de la ferroportine, ainsi que PolyI:C n’est pas capable de stimuler l'expression d'hepcidine hépatique, par contre il était efficace pour déclencher une hyposidérémie. Ensuite, on voulait déterminer la voie de signalisation utilisée dans l’induction de l’hepcidine dans les macrophages. Comme il y deux voies majeures connues pour la signalisation des TLRs : une dépendante et l’autre indépendante de la protéine MyD88, on a étudié l’expression de l’hepcidine dans les MPMs isolés des souris MyD88-/- et nous avons constaté que l'absence de signalisation MyD88 abolit l'induction de l'hepcidine déclenchée par Pam, LPS et FSL1. D’autre part, la stimulation avec du LPS induisait in vivo la production d’IL-6 et de TNF-alpha, et la stimulation d’IL-6 était renforcée in vitro par la présence du fer. Ces observations indiquent que l’expression de HAMP (Hepcidin Antimicrobial Peptide) dans les macrophages peut être régulée par différents TLRs, ce qui suggère que la production d'hepcidine macrophagique fait partie d'une réponse immunitaire activées par les TLRs.
Resumo:
La réparation par excision de nucléotides (NER) est une voie critique chez l'homme pour enlever des lésions qui déforment l’hélice d'ADN et qui bloquent à la fois la réplication et la transcription. Parmi ces lésions, il y a les dimères cyclobutyliques de pyrimidines (CPDs) et les adduits pyrimidine (6-4) pyrimidone (6-4PPs) induient par les rayons ultraviolets. L'importance physiologique de la NER est mise en évidence par l’existence de la maladie Xeroderma pigmentosum (XP), causée par des mutations affectant des gènes impliqués dans cette voie de réparation. Les personnes atteintes sont caractérisées par une photosensibilité extrême et une forte prédisposition à développer des tumeurs cutanées (plus de 1000 fois). Les patients atteints du type variant de la maladie Xeroderma pigmentosum (XPV), apparemment compétents en réparation, portent plutôt des mutations dans le gène codant pour l'ADN polymérase η (polη). Polη est une ADN polymérase translésionnelle capable de contourner avec une grande fidélité certaines lésions telles que les CPDs, qui autrement bloquent les polymérases réplicatives. Ainsi, la polη prévient la formation de mutations et permet la reprise de la synthèse d'ADN. L'objectif principal de cette thèse est d'évaluer le rôle potentiel de voies de signalisation majeures dans la régulation de la NER, dont celles régulées par la kinase ATR (Ataxia Télangiectasia and Rad3-related kinase). Suite à l'irradiation UV, ATR est rapidement activée et phosphoryle des centaines de protéines qui régulent les points de contrôle du cycle cellulaire et joue un rôle notoire dans le maintient de la stabilité génomique. Nous avons postulé qu’ATR puisse réguler la NER de manière dépendante du cycle cellulaire. Cependant, tester cette hypothèse représente un grand défi car, pour des raisons techniques, les méthodes conventionnelles n’ont pas à ce jour été adaptées pour l'évaluation de la cinétique de réparation au cours des différentes phases du cycle cellulaire. Nous avons donc développé une méthode novatrice basée sur la cytométrie en flux permettant de quantifier avec grande précision la cinétique de réparation des 6-4PPs et CPDs dans chacune des phases G0/G1, S et G2/M. Avec cette nouvelle méthode, nous avons pu démontrer que l'inhibition d'ATR ou polη résulte en une très forte inhibition de la NER exclusivement durant la phase S du cycle cellulaire. Ces études ont révélé, pour la première fois, une fonction critique pour ces protéines dans le retrait des lésions qui bloquent la réplication. En outre, nous avons démontré que la synthèse d'ADN est indispensable pour l’inhibition de la réparation en phase-S, reflétant un lien potentiel entre la NER et la réplication. Curieusement, nous avons également montré que parmi six lignées cellulaires tumorales choisies aléatoirement, trois présentent une abrogation totale de la NER uniquement pendant la phase S, ce qui indique que de nombreux cancers humains pourraient être caractérisés par un tel défaut. Nos observations pourraient avoir d'importantes implications pour le traitement du cancer. En effet, le statut de la NER semble constituer un déterminant majeur dans la réponse clinique aux médicaments chimiothérapeutiques tels que le cisplatine, qui inhibent la croissance des cellules cancéreuses via l'induction de lésions à l’ADN.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne (Paris IV), sous la direction de M. Michel Delon.
Resumo:
En raison de l’utilisation d’un mode de communication totalement différent de celui des entendants, le langage des signes, et de l’absence quasi-totale d’afférences en provenance du système auditif, il y a de fortes chances que d’importantes modifications fonctionnelles et structurales s’effectuent dans le cerveau des individus sourds profonds. Les études antérieures suggèrent que cette réorganisation risque d’avoir des répercussions plus importantes sur les structures corticales situées le long de la voie visuelle dorsale qu’à l’intérieur de celles situées à l’intérieur de la voie ventrale. L’hypothèse proposée par Ungerleider et Mishkin (1982) quant à la présence de deux voies visuelles dans les régions occipitales, même si elle demeure largement acceptée dans la communauté scientifique, s’en trouve aussi relativement contestée. Une voie se projetant du cortex strié vers les régions pariétales postérieures, est impliquée dans la vision spatiale, et l’autre se projetant vers les régions du cortex temporal inférieur, est responsable de la reconnaissance de la forme. Goodale et Milner (1992) ont par la suite proposé que la voie dorsale, en plus de son implication dans le traitement de l’information visuo-spatiale, joue un rôle dans les ajustements sensori-moteurs nécessaires afin de guider les actions. Dans ce contexte, il est tout à fait plausible de considérer qu’un groupe de personne utilisant un langage sensori-moteur comme le langage des signes dans la vie de tous les jours, s’expose à une réorganisation cérébrale ciblant effectivement la voie dorsale. L’objectif de la première étude est d’explorer ces deux voies visuelles et plus particulièrement, la voie dorsale, chez des individus entendants par l’utilisation de deux stimuli de mouvement dont les caractéristiques physiques sont très similaires, mais qui évoquent un traitement relativement différent dans les régions corticales visuelles. Pour ce faire, un stimulus de forme définie par le mouvement et un stimulus de mouvement global ont été utilisés. Nos résultats indiquent que les voies dorsale et ventrale procèdent au traitement d’une forme définie par le mouvement, tandis que seule la voie dorsale est activée lors d’une tâche de mouvement global dont les caractéristiques psychophysiques sont relativement semblables. Nous avons utilisé, subséquemment, ces mêmes stimulations activant les voies dorsales et ventrales afin de vérifier quels pourraient être les différences fonctionnelles dans les régions visuelles et auditives chez des individus sourds profonds. Plusieurs études présentent la réorganisation corticale dans les régions visuelles et auditives en réponse à l’absence d’une modalité sensorielle. Cependant, l’implication spécifique des voies visuelles dorsale et ventrale demeure peu étudiée à ce jour, malgré plusieurs résultats proposant une implication plus importante de la voie dorsale dans la réorganisation visuelle chez les sourds. Suite à l’utilisation de l’imagerie cérébrale fonctionnelle pour investiguer ces questions, nos résultats ont été à l’encontre de cette hypothèse suggérant une réorganisation ciblant particulièrement la voie dorsale. Nos résultats indiquent plutôt une réorganisation non-spécifique au type de stimulation utilisé. En effet, le gyrus temporal supérieur est activé chez les sourds suite à la présentation de toutes nos stimulations visuelles, peu importe leur degré de complexité. Le groupe de participants sourds montre aussi une activation du cortex associatif postérieur, possiblement recruté pour traiter l’information visuelle en raison de l’absence de compétition en provenance des régions temporales auditives. Ces résultats ajoutent aux données déjà recueillies sur les modifications fonctionnelles qui peuvent survenir dans tout le cerveau des personnes sourdes, cependant les corrélats anatomiques de la surdité demeurent méconnus chez cette population. Une troisième étude se propose donc d’examiner les modifications structurales pouvant survenir dans le cerveau des personnes sourdes profondes congénitales ou prélinguales. Nos résultats montrent que plusieurs régions cérébrales semblent être différentes entre le groupe de participants sourds et celui des entendants. Nos analyses ont montré des augmentations de volume, allant jusqu’à 20%, dans les lobes frontaux, incluant l’aire de Broca et d’autres régions adjacentes impliqués dans le contrôle moteur et la production du langage. Les lobes temporaux semblent aussi présenter des différences morphométriques même si ces dernières ne sont pas significatives. Enfin, des différences de volume sont également recensées dans les parties du corps calleux contenant les axones permettant la communication entre les régions temporales et occipitales des deux hémisphères.
Resumo:
Ce mémoire propose d'étudier la portée des discours présidentiels sur l'essor d'une nation. Plus précisément, cette recherche explore les pratiques rhétoriques par lesquelles Nicolas Sarkozy, à titre de Président de l'Union européenne du 1er juillet 2008 au 31 décembre 2008, a tenté de raviver l'intérêt de la population française pour le développement de l'Europe. Nous considérons, dans un premier temps, le contexte politique particulier qui précède la nomination de Nicolas Sarkozy en juillet 2008 ainsi que les deux crises internationales majeures qui ont ponctué sa présidence. Nous explorons ensuite comment la littérature scientifique sur la rhétorique présidentielle en temps de crise peut nous permettre de comprendre la portée de ses discours sur un auditoire français quelque peu désabusé des questions de politique européenne. Après avoir sélectionné et justifié le choix des cinq discours présidentiels de notre corpus, nous introduisons notre méthode d‟analyse basée sur l'approche rhétorique de la « Close textual analysis ». Nous présentons enfin nos analyses qui mettent en évidence les principaux procédés rhétoriques des cinq discours de notre corpus. En conclusion, nous considérons comment ces différents procédés rhétoriques peuvent contribuer à l'essor de la communauté européenne.
Resumo:
La neuropathie sensitive et motrice héréditaire avec agénésie du corps calleux (NSMH/ACC) se traduit par une atteinte neurodégénérative sévère associée à des anomalies développementales dans le système nerveux central et du retard mental. Bien que rare dans le monde, ce désordre autosomique récessif est particulièrement fréquent dans la population Québécoise du Canada Français du fait d’un effet fondateur. L’unique étude réalisée sur la mutation québécoise du gène qui code pour le co-transporteur de potassiumchlore 3 (KCC3) a montré qu’il y a une perte de fonction de la protéine. Cependant, la maladie est également retrouvée hors du Québec et il reste encore à élucider les pathomécanismes mis en jeu. Nous avons donc séquencé les 26 exons du gène KCC3 chez des individus recrutés dans le monde entier et suspectés d’être atteints de la maladie. Nous avons ainsi identifié trois nouvelles mutations. L’étude fonctionnelle de ces mutations nous a confirmé la perte de fonction systématique des co-transporteurs mutés. Puisque l’inactivation de KCC3 se produit majoritairement via l’élimination de segments peptidiques en C-terminus, nous avons concentré notre attention sur l’identification des interactions qui s’y produisent. À l’aide d’approches double hybride, pull-down et immunomarquage, nous avons déterminé que KCC3 interagit avec la créatine kinase CK-B et que cette interaction est perturbée par les mutations tronquantes. De plus, l’utilisation d’un inhibiteur de créatine kinase inactive KCC3, ce qui démontre qu’il existe bien un lien fonctionnel et pathologique entre KCC3 et ses partenaires C-terminaux. Nous avons aussi identifié des anomalies majeures de localisation membranaire des KCC3 mutés. Que KCC3 soit tronqué ou pleine longueur, sa distribution subcellulaire est affectée dans des cellules en culture, dans les ovocytes de Xenopes et dans des échantillons de cerveau de patients. La perte d’interaction entre KCC3 et CK-B et/ou les défauts de transit intracellulaire de KCC3 sont donc les mécanismes pathologiques majeurs de la NSMH/ACC.
Resumo:
L'hépatite C pose un problème de santé publique majeur, dans la mesure où le risque de développer une infection chronique est relativement élevé (40 à 60%) et où la résistance au traitement de choix - l’interféron alpha pégylé et la ribavirine - touche près de la moitié des patients. Cette persistence virale repose avant tout sur de puissantes stratégies d’évasion du système immunitaire inné de l’hôte par le virus. Dans ce projet, nous nous sommes intéressés à la caractérisation de la réponse antivirale dans des hépatocytes primaires humains normaux et chroniquement infectés avec le VHC, un domaine encore largement inconnu dû à la difficulté d’obtenir ce type de matériel primaire. Nous avons étudié la fonctionnalité de deux voies majeures de détection des pathogènes viraux suite à l’exposition d’hépatocytes primaires humains à de l’ARNdb intracellulaire, via le récepteur et adaptateur RIG-I/MDA5-CARDIF, et extracellulaire via TLR3-TRIF, mimant ainsi les étapes précoces de la détection d’un virus par la cellule hôte. Nous avons établi par RT-PCR quantitatif et analyse transcriptomique par microarray, que ces deux voies de stimulation sont fonctionnelles dans des hépatocytes primaires normaux et que leur activation entraîne à la fois l’expression de gènes antiviraux communs (ISG56, ISG15, CXCL10, …) mais aussi spécifiques avec les gènes IL28A, IL28B et IL29 qui sont une signature de l’activation de la voie de détection de l’ARNdb intracellulaire. La protéine virale NS3/4A joue un rôle majeur à la fois dans le clivage de la polyprotéine virale initiale, mais aussi en interférant avec les cascades de signalisation engagées suite à la détection par la cellule hôte de l’ARN du VHC. Plus particulièrement, nous avons démontré que l’expression ectopique de NS3/4A dans des hépatocytes primaires humains normaux entraîne une diminution significative de l’induction des gènes antiviraux dûe au clivage de CARDIF au cours de l’activation de la voie de signalisation médiée par RIG-I. Nous avons également démontré que l’expression de la NS3/4A entraîne des modifications de l’expression de gènes-clé impliqués dans la régulation de l’apoptose et du programme de mort cellulaire, en particulier lorsque la voie TLR3 est induite. L’ensemble de ces effets sont abolis en présence de BILN2061, inhibiteur spécifique de NS3/4A. Malgré les stratégies de subversion de l’immunité innée par le VHC, nous avons démontré l’induction significative de plusieurs ISGs et chemokines dans des hepatocytes primaires provenant de patients chroniquement infectés avec le VHC, sans toutefois détecter d’interférons de type I, III ou certains gènes antiviraux précoces comme CCL5. Ces observations, concomitantes avec une diminution de l’expression de CARDIF et une correlation inverse entre les niveaux d’ARNm des ISGs et l’ARN viral révèlent une réponse antivirale partielle dûe à des mécanismes interférents sous-jacents. Cette réponse antivirale détectable mais inefficace est à mettre en lien avec l’échec du traitement classique PEG-IFN-ribavirine chez la moitié des patients traités, mais aussi en lien avec l’inflammation chronique et les dommages hépatiques qui mènent ultimement au développement d’une fibrose puis d’une cirrhose chez une grande proportion de patients chroniquement infectés.