969 resultados para Exogenous Surfactants
Resumo:
La tolérance orale permet la modulation de la réponse immunitaire à l’égard des antigènes exogènes présents dans la lumière intestinale. Essentiels à l’établissement d’une relation symbiotique entre le système immunitaire et la flore intestinale, l’induction et le maintien de la tolérance orale reposent sur différents mécanismes immunologiques. Parmi eux, l’induction de cellules T régulatrices par les cellules dendritiques et de mécanismes apoptotiques. Or, la glycoprotéine membranaire CD47 est impliquée, en périphérie, dans ces mécanismes. Cependant, le rôle de CD47 dans la tolérance orale n’est pas connu. À l’aide d’un modèle murin déficient en CD47, nous avons démontré principalement, que l’absence de CD47 est associée à une diminution de 50 % de la proportion de cellules dendrites myéloïdes CD11b+CD103- retrouvées dans les ganglions mésentériques. Suite au transfert adoptif de cellules T antigènes spécifiques dans nos différents modèles expérimentaux, on a, aussi, observé une diminution de 45 % de leur niveau d’activation dans les ganglions mésentériques. Malgré les effets observés, le CD47 n’est pas impliqué dans l’induction d’une réaction de tolérance orale secondaire à l’administration intragastrique de fortes doses d’ovalbumine. Cependant, nous avons démontré que CD47 est impliquée au niveau de la migration des cellules dendritiques de la peau et de certaines sous-populations retrouvées dans les ganglions mésentériques.
Resumo:
Dès sa création en 1966, l’ERAP s’est fixé pour but d’accroître la production du pétrole « franc », en diversifiant ses sources d’approvisionnement. Un tel objectif prend une tournure cruciale dès lors que les rapports tendus entre le groupe français et les autorités algériennes semblent menacer ses acquis dans le Sahara. Toutefois, se tailler une place sur le marché mondial semble à cette époque une tâche ardue, voire improbable, puisque les espaces les plus pétrolifères sont déjà occupés par les grandes sociétés, dites Majors. Néanmoins, la société d’État française réussit à s’implanter dans plusieurs pays producteurs, dont l’Irak en 1968, jusqu’alors considéré comme la chasse gardée de la Compagnie française des pétroles (CFP). Aussi, l’expérience irakienne, suite à l’insuccès en Algérie, incite Elf ERAP à se concentrer dans les pays pétroliers de l’Afrique subsaharienne et en Mer du Nord. Le 3 février 1968, Elf ERAP signe un accord avec la compagnie d’État pétrolière, INOC, pour se charger de la prospection et de l’exploitation d’une partie du territoire confisqué par l’État irakien à la puissante Iraq Petroleum Company (IPC). En contrepartie de ses apports financiers et techniques, Elf ERAP sera rémunérée par un approvisionnement garanti en pétrole irakien : il s’agit d’un nouveau genre de partenariat, dit « contrat d’agence ». Ce dernier succède au système classique des concessions et vaut à la société d’État un franc succès dans son projet de pénétration au Moyen Orient. Très vite, les prospections donnent lieu à la découverte de gisements. La production démarre en 1976 et s’élève à 5 millions de tonnes en 1977. Dès lors, Elf ERAP, devenue la SNEA, peut envisager avec optimisme son avenir énergétique, puisque sa sécurité d’approvisionnement est, en partie, assurée par le marché irakien. Mais, contre toute attente, le groupe d’État français se retire de l’affaire en mai 1977, laissant place à l’INOC, qui prend en charge le projet deux ans avant la date prévue par le contrat initial de 1968. Ce sujet de recherche consiste à éclaircir le rôle d’opérateur joué par l’ERAP en Irak, entre 1968 et 1977. Pour tenter d’expliquer le départ prématuré d’Elf Irak, il nous faut identifier les facteurs endogènes et exogènes qui ont pu motiver une telle décision. Autrement dit, la société d’État aurait-elle subi les revers de ses propres choix énergétiques ou un tel dénouement serait-il imputable à la politique pétrolière irakienne? Quelles sont les implications de la conjoncture pétrolière internationale dans le cas d’un tel retrait? Aidée des archives historiques d’Elf et de TOTAL, nous sommes arrivée à la conclusion que la compression du marché pétrolier, entre distributeurs et producteurs, au cours des années 1970, a considérablement nui à la rentabilité des contrats intermédiaires du type agence.
Resumo:
Les microcantileviers fonctionnalisés offrent une plateforme idéale pour la nano- et micro-mécanique et pour le développement de (bio-) capteurs tres sensible. Le principe d’opération consiste dans des évènements physicochimiques qui se passent du côté fonctionnalisé du microcantilevier induisant une différence de stress de surface entre les deux côtés du cantilevier qui cause une déflexion verticale du levier. Par contre, les facteurs et les phénomènes interfacials qui régissent la nature et l'intensité du stress de surface sont encore méconnus. Pour éclaircir ce phénomène, la première partie de cette thèse porte sur l'étude des réactions de microcantileviers qui sont recouverts d'or et fonctionnalisés par une monocouche auto-assemblée (MAA) électroactive. La formation d'une MAA de ferrocènylundécanethiol (FcC11SH) à la surface d'or d'un microcantilevier est le modèle utilisé pour mieux comprendre le stress de surface induit par l’électrochimie. Les résultats obtenus démontrent qu'une transformation rédox de la MAA de FcC11SH crée un stress de surface qui résulte dans une déflexion verticale du microcantilevier. Dépendamment de la flexibilité du microcantilevier, cette déflexion peut varier de quelques nanomètres à quelques micromètres. L’oxydation de cette MAA de FcC11SH dans un environnement d'ions perchlorate génère un changement de stress de surface compressive. Les résultats indiquent que la déflexion du microcantilevier est due à une tension latérale provenant d'une réorientation et d'une expansion moléculaire lors du transfért de charge et de pairage d’anions. Pour vérifier cette hypothèse, les mêmes expériences ont été répéteés avec des microcantileviers qui ont été couverts d'une MAA mixte, où les groupements électroactifs de ferrocène sont isolés par des alkylthiols inactifs. Lorsqu’un potentiel est appliqué, un courant est détecté mais le microcantilevier ne signale aucune déflexion. Ces résultats confirment que la déflexion du microcantilevier est due à une pression latérale provenant du ferrocènium qui se réorganise et qui crée une pression sur ses pairs avoisinants plutôt que du couplage d’anions. L’amplitude de la déflexion verticale du microcantilevier dépend de la structure moléculaire de la MAA et du le type d’anion utilisés lors de la réaction électrochimique. Dans la prochaine partie de la thèse, l’électrochimie et la spectroscopie de résonance de plasmon en surface ont été combinées pour arriver à une description de l’adsorption et de l’agrégation des n-alkyl sulfates à l’interface FcC11SAu/électrolyte. À toutes les concentrations de solution, les molécules d'agent tensio-actif sont empilées perpendiculairement à la surface d'électrode sous forme de monocouche condensé entrecroisé. Cependant, la densité du film spécifiquement adsorbé s'est avérée être affectée par l'état d'organisation des agents tensio-actifs en solution. À faible concentration, où les molécules d'agent tensio-actif sont présentes en tant que monomères solvatés, les monomères peuvent facilement s'adapter à l’évolution de la concentration en surface du ferrocènium lors du balayage du potential. Cependant, lorsque les molécules sont présentes en solution en tant que micelles une densité plus faible d'agent tensio-actif a été trouvée en raison de l'incapacité de répondre effectivement à la surface de ferrocenium générée dynamiquement.
Resumo:
Les Tableaux de Bord de la Performance ont été acclamés avec raison depuis leur introduction en 1992, mais les intellectuels continuent encore à étudier leurs aspects pragmatiques. Ce papier contribue à la littérature sur les Tableaux de Bord de la Performance, tout d’abord, en offrant une explication logique quant à leur succès et ensuite, en présentant un cadre de travail contextuel de tableaux de bord de la performance pour une structure de gestion hiérarchisée. Le cadre de travail contextuel réforme la perspective d’apprentissage et de croissance du tableau de bord de la performance (i) en effectuant la transition de référence (subjective/objective), et (ii) en reconnaissant que la Perspective d’Apprentissage et de Croissance implique avant tout une incidence de formulation stratégique d’une extra-entité. Le transfert de l’incidence (intra-entité/extra-entité) réconcilie l’évolution de la position de politique de gestion non ordonnée [Contenu: (Contenu: Contexte): Contexte] qu’est la Perspective d’Apprentissage et de Croissance Concomitante. Le cadre de travail supplante également les Perspectives des Tableaux de Bord de la Performances développés par Kaplan et Norton en ajoutant la perspective de politique sociale qui manquait. La perspective manquante implique une transition de référence objective [(position endogène, perspective exogène): (position exogène, perspective exogène)]. De tels signaux de transition [Contenu: (Contenu: Contexte): Contexte] ordonnent l’évolution de la position de politique de gestion.
Resumo:
Inscrite dans la tradition monographique en sociologie et en anthropologie, cette thèse prend pour objet la diversité des pratiques et des idéologies caractéristiques des différents types de populations rurales distingués en fonction de l'enracinement territorial, afin d'apporter un nouvel éclairage sur les conflits sociaux actuels dans tous les milieux ruraux québécois qui surgissent notamment de l'accroissement du nombre des néo-ruraux dont les visions du monde s'opposent à celles des agriculteurs, dont le nombre diminue sans cesse. Prenant un village comme observatoire, il s'agit de rendre compte du mouvement totalisant de l'expérience de la vie en société à la fois dans ses dimensions « matérielles » et « symboliques ». L'étude des principales formes de vie sociale (religieuse, économique et politique) se fait grâce à des méthodes diversifiées: l'observation participante, l'analyse statistique, l'analyse du discours, le travail sur les archives municipales et l'histoire orale. L'analyse des différentes formes de vie sociale montre que leur organisation est structurée par deux principaux modèles. Le modèle public et communautaire comprend les personnes qui valorisent l'implication de l'État et des professionnels dans la gestion collective de la redistribution des richesses et dans le développement des milieux ruraux. Ces personnes occupent une position économique « marginale » à l'intérieur de la localité et sont plus près des milieux urbains tant par leurs positions que par leurs visions du monde. Quant au modèle privé et familial, il comprend les personnes défendant le rôle prépondérant des réseaux familiaux dans le développement local et la fermeture de la localité face à la concurrence des marchés extérieurs et aux interventions politiques exogènes. Les représentants de ce modèle occupent une position économique locale dominante, mais se sentent de plus en plus dominés politiquement face aux interventions extérieures des représentants politiques régionaux et des professionnels ainsi qu'économiquement à l'échelle mondiale où ils occupent une position dominée. Les oppositions sous-jacentes à ces deux modèles s'inscrivent dans une histoire ancienne qui met en scène d'une part les élites traditionnelles liées à l'Église et les notables francophones scolarisées et d'autre part les élites industrielles et commerciales qui succèdent aux anglophones dès les années 1920. Le sens et le contenu des modèles varient légèrement avec les transformations récentes de la structure familiale et la régionalisation des pouvoirs politiques et religieux.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
C. albicans est une levure pathogène opportuniste. Elle est un agent causal fréquent des infections muco-cutanées. C. albicans peut alterner entre la forme blastospore et mycélium. Cette dernière forme est impliquée dans la formation des biofilms. Le dimorphisme de C. albicans est contrôlé en partie par le phénomène de perception du quorum (quorum sensing) qui en autre, est associé à la molécule farnésol, produit par cette levure. La présence de cette molécule, inhibe la formation d’hyphe par C. albicans et par conséquent limite la formation de biofilms. Certaines souches ne répondent pas au farnésol et nous avons vérifié les hypothèses que : 1) la proportion des Non-Répondeurs (NR) au farnésol est similaire entre les souches de provenance orale et vaginale; 2) la capacité de formation de biofilm varie d’une souche à une autre mais les Non-Répondeurs en produisent en plus grande quantité; 3) la technique RAPD-PCR permettra de regrouper les souches de cette levure suivant leur provenance, leur capacité de formation de biofilm et leur aptitude à répondre au farnésol. La découverte d’une souche vaginale Non-Répondeur nous permet de croire que la proportion de ces souches est similaire entre les deux types de provenance. Les souches caractérisées Non-Répondeurs produisent 30 % plus de biofilm que les Répondeurs en absence de farnésol exogène dans le milieu. En présence de farnésol exogène, les Non-Répondeurs produisent 70 % plus de biomasse que les Répondeurs. De plus, la technique RAPD ne nous a pas permis de classer nos souches d’après les caractéristiques proposées. En conclusion, les souches orales de C. albicans semblent produire en moyenne plus de biomasse que les souches vaginales. Aussi, les NR semblent moins affectés par la présence du farnésol, ce qui pourrait causer la présence de biofilms tenaces. Les amorces utilisées pour la technique RAPD n’ont pas été efficace à la classification des souches dépendamment de leur provenance, de leur capacité à former un biofilm et à répondre au farnésol. Mots clés : Candida albicans, biofilm, perception du quorum (quorum sensing), farnésol, Non-Répondeur
Resumo:
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.
Resumo:
A l’époque de la Nouvelle-France, il n’était pas rare que des enfants de moins d’un an décèdent. Les parents acceptaient avec sagesse et résignation le décès de leurs enfants. Telle était la volonté du Tout-Puissant. Grâce au Registre de la Population du Québec Ancien (R.P.Q.A.) élaboré par le Programme de Recherche en Démographie Historique (P.R.D.H), l’ampleur de la mortalité infantile a pu être mesurée selon plusieurs critères, quelques facteurs déterminants examinés ainsi qu’une composante intergénérationnelle identifiée. Couvrant pour la première fois la totalité de l’existence de la colonie, nos résultats confirment l’importance de la mortalité des enfants aux XVIIe et XVIIIe siècles (entre 140 et 260‰ avant correction pour le sous-enregistrement des décès). Des disparités tangibles ont été constatées entre les sexes, selon le lieu de naissance ainsi que selon la catégorie professionnelle à laquelle appartient le père de l’enfant. L’inégalité des probabilités de survie des tout-petits reflète l’iniquité physiologique entre les genres, avec une surmortalité masculine de l’ordre de 20%, et l’influence de l’environnement dans lequel vit la famille : les petits de la ville de Québec décédaient en moyenne 1,5 à 1,2 fois plus que les petits des campagnes. Montréal, véritable hécatombe pour l’instant inexpliquée, perdait 50% de ses enfants avant l’âge d’un an, ce qui représente 1,9 fois plus de décès infantiles que ceux des enfants de la campagne, qui jouissent malgré tout des bienfaits de leur environnement. Les effets délétères de l’usage de la mise en nourrice, qui touche plus de la moitié des enfants des classes aisées citadines, ravagent leur descendance de plus en plus profondément. L’examen de la mortalité infantile sous ses composantes endogène et exogène révèle que la mortalité de causes exogènes explique au moins 70% de tous les décès infantiles. La récurrence des maladies infectieuses, l’absence d’hygiène personnelle, l’insalubrité des villes constituaient autant de dangers pour les enfants. Dans une perspective davantage familiale et intergénérationnelle où l’enfant est partie intégrante d’une fratrie, des risques significatifs ont été obtenus pour plusieurs caractéristiques déterminantes. Les mères de moins de 20 ans ou de plus de 30 ans, les enfants de rang de naissance supérieur à 8, un intervalle intergénésique inférieur à 21 mois ou avoir son aîné décédé accroissent les risques de décéder avant le premier anniversaire de l’ordre de 10 à 70%, parce que le destin d’un enfant n’est pas indépendant des caractéristiques de sa mère ou de sa fratrie. Nous avons aussi constaté une relation positive entre la mortalité infantile expérimentée par une mère et celle de ses filles. La distribution observée des filles ayant perdu au moins 40% de leurs enfants au même titre que leur mère est 1,3 à 1,9 fois plus grande que celle attendue pour les filles ayant eu 9 enfants et moins ou 10 enfants et plus. Il existerait une transmission intergénérationnelle de la mortalité infantile même lorsqu’on contrôle pour la période et la taille de la famille.
Resumo:
L’hypertension systolique isolée (HSI) est le résultat de changements au niveau de la paroi vasculaire qui ont pour conséquence d’augmenter la rigidité artérielle. Ces modifications surviennent surtout au niveau des grosses artères comme l’aorte et sont associées au vieillissement. La fragmentation des fibres élastiques, leur calcification (élastocalcinose) et la fibrose font partie des changements majeurs observés avec l’âge. En plus de ces changements, le vieillissement vasculaire provoque des modifications au niveau des cellules qui composent la paroi. Les cellules endothéliales sécrètent moins de monoxyde d’azote (NO) provoquant une dysfonction endothéliale et les cellules musculaires lisses vasculaires (CMLVs) synthétisent maintenant des protéines matricielles et osseuses. Situé entre le sang et les CMLVs, l’endothélium contrôle le tonus vasculaire par la sécrétion de plusieurs substances vasoactives qui interagissent entre elles afin de maintenir l’homéostasie du système vasculaire. Parmi celles-ci, on note l’endothéline (ET), un puissant vasoconstricteur et le NO, un gaz vasorelaxants. Ce dernier est aussi reconnu pour bloquer la production d’ET par un mécanisme dépendant du guanosine monophosphate cyclique (GMPc). Comme il y a une interaction entre le NO et l’ET, et que cette dernière est impliquée dans la calcification artérielle, le NO pourrait être impliqué dans la modulation de l’élastocalcinose et de la rigidité artérielle par l’inhibition de l’ET et la modification de la composition de la paroi. Cet effet, qui se produirait au delà des effets vasorelaxants du NO, offre un potentiel thérapeutique intéressant pour l’HSI. Afin d’évaluer l’implication du NO dans la calcification vasculaire et la rigidité artérielle, un modèle animal d’HSI a été utilisé (modèle warfarine vitamine K, WVK). Ce modèle d’élastocalcinose est basé sur l’inhibition de la maturation d’une protéine anti-calcifiante, la matrix Gla protein (MGP), par la warfarine. Afin de déterminer l’implication physiologique du NO dans l’initiation et la progression de l’élastocalcinose, sa production a été inhibée par un analogue de la L-arginine, le L-NG-nitroarginine methyl ester (L-NAME). Lors des processus d’initiation de la calcification, le L-NAME a prévenu l’élastocalcinose sans toutefois modifier la vitesse de l’onde de pouls (PWV). Suite au traitement L-NAME, l’expression de la NO synthase inductible (iNOS) a été diminuée alors qu’elle a été augmentée lors du traitement WVK. Elle pourrait donc être impliquée dans les processus de calcification vasculaire. De plus, la NO synthase endothéliale (eNOS) semble également impliquée puisqu’elle a été augmentée dans le modèle WVK. Cette hausse pourrait être bénéfique pour limiter l’élastocalcinose alors que l’expression de la iNOS serait délétère. Lors de la progression de la calcification, le L-NAME a augmenté l’élastocalcinose et le PWV. Dans ce contexte, l’ET serait impliquée dans l’amplification de la calcification vasculaire entrainant une hausse de la rigidité artérielle. Comme le NO endogène limite la progression de la calcification et conséquemment la rigidité artérielle, il semble être protecteur. L’efficacité d’une modulation de la voie du NO dans le modèle WVK a été étudiée par l’administration d’un donneur de NO, le sinitrodil, ou d’un inhibiteur de la phosphosdiestérase 5 (PDE5), le tadalafil. La modulation de la voie du NO semble être bénéfique sur la rigidité artérielle, mais seulement de façon aiguë. En effet, le sinitrodil a modifié de transitoirement la rigidité au niveau de l’aorte possiblement par la modulation du tonus vasculaire sans toutefois avoir des effets sur la composition de la paroi. Comme le modèle WVK n’affecte pas la fonction endothéliale, les concentrations endogènes de NO semblent être optimales puisque le sinitrodil provoque une augmentation de l’élastocalcinose possiblement par le développement d’une tolérance. Tout comme le sinitrodil, le tadalafil a modulé de manière aiguë la rigidité artérielle sans modifier la composition de la paroi. Globalement, ces travaux ont permis de mettre en évidence les effets bénéfiques du NO endogène pour limiter le développement de l’HSI, suggérant qu’une dysfonction endothéliale, tel qu’observé lors du vieillissement, a un impact négatif sur la maladie.
Resumo:
Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.
Resumo:
La prolifération, la différenciation ainsi que les fonctions des cellules du système immunitaire sont contrôlées en partie par les cytokines. Lors de l’infection par le VIH-1, les défauts observés dans les fonctions, la maintenance, ainsi que la consistance des cellules du système immunitaire sont en large partie attribués à une production altérée des cytokines et à un manque d’efficacité au niveau de leurs effets biologiques. Durant ces études, nous nous sommes intéréssés à la régulation et aux fonctions de deux cytokines qui sont l’IL-18 et l’IL-21. Nous avons observé une corrélation inversée significative entre les concentrations sériques d’IL-18 et le nombre des cellules NK chez les patients infectés par le VIH-1. Nos expériences in vitro ont démontré que cette cytokine induit l’apoptose des cellules NK primaires et que cette mort peut être inhibée par des anticorps neutralisants spécifiques pour FasL et TNF-α. Cette mort cellulaire est due à l’expression de FasL sur les cellules NK et à la production de TNF-α par ces cellules. L’IL-18 augmente aussi la susceptibilité à la mort des cellules NK par un stimulus pro-apoptotique, en diminuant l’expression de la protéine anti-apoptotique Bcl-XL. Nous démontrons aussi que, contrairement à l’IL-18, les niveaux d’IL-18BP sont plus faibles dans les sérum de patients infectés. Ceci résulte sur une production non coordonnée de ces deux facteurs, aboutissant à des niveaux élevés d’IL-18 libre et biologiquement active chez les patients infectés. L’infection de macrophages in vitro induit la production d’IL-18 et réduit celle d’IL-18BP. De plus, l’IL-10 et le TGF-β, dont les concentrations sont élevées chez les patients infectés, réduisent la production d’IL-18BP par les macrophages in vitro. Finalement, nous démontrons que l’IL-18 augmente la réplication du VIH-1 dans les lymphocytes T CD4+ infectés. Les niveaux élevés d’IL-18 libres et biologiquement actives chez les patients infectés contribuent donc à l’immuno-pathogénèse induite par le VIH-1 en perturbant l’homéostasie des cellules NK ainsi qu’en augmentant la réplication du virus chez les patients. Ces études suggèrent donc la neutralisation des effets néfastes de l’IL-18 en utilisant son inhibiteur naturel soit de l’IL-18BP exogène. Ceci permettrait de moduler l’activité de l’IL-18 in vivo à des niveaux souhaitables. L’IL-21 joue un rôle clef dans le contrôle des infections virales chroniques. Lors de ces études, nous avons déterminé la dynamique de la production d’IL-21 lors de l’infection par le VIH-1 et sa conséquence sur la survie des cellules T CD4+ et la fréquence des cellules T CD8+ spécifiques au VIH-1. Nous avons démontré que sa production est compromise tôt au cours de l’infection et que les concentrations d’IL-21 corrèlent avec le compte de cellules T CD4+ chez les personnes infectées. Nos études ont démontré que le traitement antirétroviral restaure partiellement la production d’IL-21. De plus, l’infection par le VIH-1 de cellules T CD4+ humaines inhibe sa production en réduisant l’expression du facteur de transcription c-Maf. Nous avons aussi démontré que la fréquence des cellules T CD4+ spécifiques au VIH-1 qui produisent de l’IL-21 est réduite chez les patients virémiques. Selon nos résultats, l’IL-21 empêche l’apoptose spontanée des cellules T CD4+ de patients infectés et l’absence d’IL-21 réduit la fréquence des cellules T CD8+ spécifiques au VIH-1 chez ces patients. Nos résultats démontrent que l'IL-21R est exprimé de façon égale sur tous les sous-types de cellules NK chez les donneurs sains et chez les patients infectés. L’IL-21 active les protéines STAT-3, MAPK et Akt afin d'augmenter les fonctions effectrices des cellules NK. L'activation de STAT-3 joue un rôle clef dans ces fonctions avec ou sans un traitement avec de l'IL-21. L'IL-21 augmente l'expression des protéines anti-apoptotiques Bcl-2 et Bcl-XL, augmente la viabilité des cellules NK, mais ne possède aucun effet sur leur prolifération. Nous démontrons de plus que l'IL-21 augmente l'ADCC, les fonctions sécrétrices et cytotoxiques ainsi que la viabilité des cellules NK provenant de patients chroniquement infectés par le VIH-1. De plus, cette cytokine semble présenter ces effets sans augmenter en contrepartie la réplication du VIH-1. Elle permet donc d'inhiber la réplication virale lors de co-cultures autologues de cellules NK avec des cellules T CD4+ infectées d'une manière dépendante à l'expression de perforine et à l'utilisation de la protéine LFA-1. Les niveaux d’IL-21 pourraient donc servir de marqueurs biologiques pour accompagner les informations sur le taux de cellules T CD4+ circulantes en nous donnant des informations sur l’état de fonctionnalité de ce compartiment cellulaire. De plus, ces résultats suggèrent l’utilisation de cette cytokine en tant qu’agent immunothérapeutique pour restaurer les niveaux normaux d’IL-21 et augmenter la réponse antivirale chez les patients infectés par le VIH-1.
Resumo:
Introduction : La fibrose kystique (FK) est une maladie génétique mortelle qui touche principalement les poumons et l’appareil digestif. Elle est causée par des mutations sur le gène codant la protéine du CFTR, un canal chlore exprimé à la surface des organes à sécrétions exocrines. Les fonctions principales du CFTR sont les suivantes: 1) la régulation de l’homéostasie ionique des sécrétions; 2) le maintien de la fluidité des sécrétions et; 3) le transport du glutathion. Le dysfonctionnement de la protéine du CFTR rend les sécrétions visqueuses et épaisses, avec des phénomènes obstructifs qui sont responsables de l’apparition de fibrose au sein des divers organes. Dans le poumon, l’accumulation du mucus épais rend difficile l’élimination des bactéries inhalées, ces dernières établissent alors des cycles d’infection qui endommagent les tissus pulmonaires à travers des processus inflammatoires. Dans le tube digestif, le mucus épais entrave l’absorption d’une quantité suffisante d’éléments nutritifs incluant les principaux antioxydants. L’infection et l’inflammation des poumons favorisent l’apparition d’un stress oxydant qui détruit davantage le tissu pulmonaire. Le déficit en glutathion, probablement lié au dysfonctionnement de la proteine du CFTR, et la malabsorption des antioxydants favorisent l’augmentation du stress oxydant. Une augmentation du stress oxydant a été démontrée au cours du diabète et les produits dérivés du stress oxydant ont été mis en évidence dans la pathogenèse des complications associées au diabète. Une augmentation du stress oxydant a également été montrée durant la FK, mais sans pour autant expliquer la survenue du diabète secondaire à la FK dont la prévalence augmente sans cesse. Objectifs : Notre étude consiste à évaluer l’impact du stress oxydant dans les anomalies du métabolisme du glucose durant la FK, et à étudier son rôle dans les mécanismes de sécrétion d’insuline induite par le glucose. Pour ce faire, nous avons déterminé l’impact de la peroxydation lipidique sur la tolérance au glucose et la défense antioxydante globale, in vivo, chez des patients FK présentant une altération du métabolisme du glucose. De plus, nous avons évalué le rôle du stress oxydatif sur la synthèse et la sécrétion d’insuline, in vitro, dans les cellules pancréatiques βTC-tet. Résultats : Dans l’étude in vivo, nous avons démontré que l’intolérance au glucose et le diabète étaient associés à une augmentation de la peroxydation lipidique, traduite par la hausse des niveaux sanguins de 4-hydroxynonenal lié aux protéines (HNE-P). La défense antioxydante évaluée par la mesure du glutathion sanguin démontre que les niveaux de glutathion oxydé restent également élevés avec l’intolérance au glucose. Dans l’étude in vitro, nos résultats ont mis en évidence que l’exposition de la cellule βTC-tet au stress oxydant: 1) induit un processus de peroxydation lipidique; 2) augmente la sécrétion basale d’insuline; 3) diminue la réponse de la sécrétion d’insuline induite par le glucose; et 4) n’affecte que légèrement la synthèse de novo de l’insuline. Nous avons aussi démontré que les cellules pancréatiques βTC-tet résistaient au stress oxydant en augmentant leur synthèse en glutathion tandis que la présence d’un antioxydant exogène pouvait restaurer la fonction sécrétoire de ces cellules. Conclusion : Le stress oxydant affecte le fonctionnement de la cellule pancréatique β de plusieurs manières : 1) il inhibe le métabolisme du glucose dont les dérivés sont nécessaires à la sécrétion d’insuline; 2) il active la voie de signalisation impliquant les gènes pro-inflammatoires et; 3) il affecte l’intégrité membranaire en induisant le processus de peroxydation lipidique.
Resumo:
Différents modes de réhabilitation forestière des sites agricoles abandonnés peuvent affecter la diversité végétale des sites. L’analyse des traits fonctionnels des plantes pourrait permettre de révéler l’effet des différentes pratiques sylvicoles suggérées. L’étude porte sur deux communautés de friches arbustives ayant reçu la plantation de trois espèces d’arbres feuillus. La préparation des sites par un débroussaillement total ou par bande, combinés ou non d’herbicide offre l’occasion de mesurer l’effet de ces traitements sur la distribution des traits fonctionnels des communautés végétales après onze ans. Les résultats d’une analyse du 4e coin montrent un effet des traitements sur les traits fonctionnels des communautés et ce, davantage sur le site où la transmission de la lumière est supérieure. Un débroussaillement par bande permet un recul successionnel moins grand que total, avec la présence de plusieurs traits fonctionnels liés aux espèces de fin de succession tels que les phanérophytes et les espèces à semences de plus grande taille Un débroussaillement total résulte plutôt en une présence accrue des espèces exogènes et des intolérantes à la lumière. L’application d’herbicide influence peu la distribution des traits mais augmente la croissance du noyer noir lors de débroussaillement total et dans une moindre mesure lors de débroussaillement en bande. Le peu de différenciation significative de survie et de croissance en hauteur des arbres entre les traitements permet de proposer un débroussaillement par bande plutôt que total, afin de diminuer le recul successionnel, tout en nécessitant un moins grand recours à l’herbicide.
Resumo:
L’hépatite autoimmune (HAI) résulte d’une perte de tolérance du système immunitaire envers des antigènes de l’hépatocyte. Elle peut se présenter sous forme d’hépatite aiguë, parfois fulminante, ou comme une maladie chronique menant progressivement à une cirrhose hépatique. En absence de traitement, cette maladie est fatale. La pathogenèse de l’HAI et les mécanismes responsables de sa progression restent inconnus à ce jour. L’objectif global de ce projet est d’examiner les facteurs prédisposants et les mécanismes immunologiques responsables de l’apparition et de la progression de l’HAI. Pour permettre l’étude de la pathogenèse de l’HAI, nous avons développé un modèle murin expérimental d’hépatite autoimmune de type 2. Celui-ci est basé sur la xénoimmunisation de souris C57BL/6 avec les deux antigènes ciblés dans l’HAI de type 2 chez l’homme (CYP2D6 et FTCD). Par mimétisme moléculaire, le système immunitaire de ces souris réagit contre les protéines murines homologues et une HAI s’ensuit. Ce modèle expérimental présente la plupart des caractéristiques histologiques, biochimiques et sérologiques d’une HAI de type 2. Les souris développent une inflammation autoimmune chronique avec présence d’hépatite d’interface et d’infiltrations intralobulaires, un infiltrat composé majoritairement de lymphocytes T CD4+ mais aussi de lymphocytes T CD8+ et B, d’une élévation des ALT sériques, des niveaux d’immunoglobulines G circulantes augmentés ainsi que d’autoanticorps anti-LKM1 et anti-LC1. L’étude de l’influence du bagage génétique a permis de définir l’importance relative des gènes du CMH et des gènes non-CMH sur le développement d’une HAI. Les gènes du locus CMH sont essentiels mais insuffisants pour mener au développement d’une HAI et donc, la susceptibilité génétique à l’HAI est comme chez l’homme, multigénique. Les patients atteints d’HAI de type 2 sont généralement des jeunes filles. L’étude des influences de l’âge et du sexe dans ce modèle a permis de montrer que les souris femelles avant et au début de leur maturité sexuelle sont plus susceptibles au développement d’une HAI de type 2. De plus, les femelles ont un nombre réduit de lymphocytes T régulateurs, ce qui leur confère une susceptibilité accrue comparé aux mâles. L’ensemble de ces travaux nous a conduits à proposer un mécanisme où le développement d’une HAI chez les femelles d’un âge particulier résulterait de l’activation de cellules T CD4+ autoréactives ayant échappé aux mécanismes de tolérance centrale, via un mécanisme de mimétisme moléculaire avec un antigène exogène. En présence d’une tolérance périphérique réduite due à un faible nombre de cellules T régulatrices, les cellules T autoréactives proliféreraient et activeraient des cellules B autoréactives entraînant la sécrétion d’autoanticorps. L’activation subséquente de cellules T CD8+ cytotoxiques spécifiques amènerait la lyse des hépatocytes et la relâche d’autoantigènes permettant la perpétuation de l’autoimmunité.