15 resultados para Maximilian III Joseph, Elector of Bavaria, 1727-1777.
em Université de Montréal, Canada
Resumo:
Introduction: La démence peut être causée par la maladie d’Alzheimer (MA), la maladie cérébrovasculaire (MCEREV), ou une combinaison des deux. Lorsque la maladie cérébrovasculaire est associée à la démence, les chances de survie sont considérées réduites. Il reste à démontrer si le traitement avec des inhibiteurs de la cholinestérase (ChEIs), qui améliore les symptômes cognitifs et la fonction globale chez les patients atteints de la MA, agit aussi sur les formes vasculaires de démence. Objectifs: La présente étude a été conçue pour déterminer si la coexistence d’une MCEREV était associée avec les chances de survie ou la durée de la période jusqu’au placement en hebergement chez les patients atteints de la MA et traités avec des ChEIs. Des études montrant de moins bons résultats chez les patients souffrant de MCEREV que chez ceux n’en souffrant pas pourrait militer contre l’utilisation des ChEIs chez les patients atteints à la fois de la MA et la MCEREV. L'objectif d'une seconde analyse était d'évaluer pour la première fois chez les patients atteints de la MA l'impact potentiel du biais de « temps-immortel » (et de suivi) sur ces résultats (mort ou placement en hebergement). Méthodes: Une étude de cohorte rétrospective a été conduite en utilisant les bases de données de la Régie de l’Assurance Maladie du Québec (RAMQ) pour examiner la durée de la période jusqu’au placement en hebergement ou jusqu’au v décès des patients atteints de la MA, âgés de 66 ans et plus, avec ou sans MCEREV, et traités avec des ChEIs entre le 1er Juillet 2000 et le 30 Juin 2003. Puisque les ChEIs sont uniquement indiquées pour la MA au Canada, chaque prescription de ChEIs a été considérée comme un diagnostic de la MA. La MCEREV concomitante a été identifié sur la base d'un diagnostic à vie d’un accident vasculaire cérébral (AVC) ou d’une endartériectomie, ou d’un diagnostic d'un accident ischémique transitoire au cours des six mois précédant la date d’entrée. Des analyses séparées ont été conduites pour les patients utilisant les ChEIs de façon persistante et pour ceux ayant interrompu la thérapie. Sept modèles de régression à risque proportionnel de Cox qui ont varié par rapport à la définition de la date d’entrée (début du suivi) et à la durée du suivi ont été utilisés pour évaluer l'impact du biais de temps-immortel. Résultats: 4,428 patients ont répondu aux critères d’inclusion pour la MA avec MCEREV; le groupe de patients souffrant seulement de la MA comptait 13,512 individus. Pour le critère d’évaluation composite considérant la durée de la période jusqu’au placement en hebergement ou jusqu’au décès, les taux de survie à 1,000 jours étaient plus faibles parmi les patients atteints de la MA avec MCEREV que parmi ceux atteints seulement de la MA (p<0.01), mais les différences absolues étaient très faibles (84% vs. 86% pour l’utilisation continue de ChEIs ; 77% vs. 78% pour la thérapie avec ChEIs interrompue). Pour les critères d’évaluation secondaires, la période jusqu’au décès était plus courte chez les patients avec la MCEREV que sans la MCEREV, mais la période jusqu’au vi placement en hebergement n’était pas différente entre les deux groupes. Dans l'analyse primaire (non-biaisée), aucune association a été trouvée entre le type de ChEI et la mort ou le placement en maison d'hébergement. Cependant, après l'introduction du biais de temps-immortel, on a observé un fort effet différentiel. Limitations: Les résultats peuvent avoir été affectés par le biais de sélection (classification impropre), par les différences entre les groupes en termes de consommation de tabac et d’indice de masse corporelle (ces informations n’étaient pas disponibles dans les bases de données de la RAMQ) et de durée de la thérapie avec les ChEIs. Conclusions: Les associations entre la coexistence d’une MCEREV et la durée de la période jusqu’au placement en hebergement ou au décès apparaissent peu pertinentes cliniquement parmi les patients atteints de la MA traités avec des ChEIs. L’absence de différence entre les patients atteints de la MA souffrant ou non de la MCEREV suggère que la coexistence d’une MCEREV ne devrait pas être une raison de refuser aux patients atteints de la MA l’accès au traitement avec des ChEIs. Le calcul des « personne-temps » non exposés dans l'analyse élimine les estimations biaisées de l'efficacité des médicaments.
Resumo:
Malgré l’engouement pour les neurosciences cognitives des émotions et les nombreuses publications des dernières décennies tentant d’élucider les bases neurobiologiques des émotions, nos connaissances sur le domaine restent embryonnaires. Plusieurs questions importantes restent toujours sans réponses incluant s’il existe ou non un système unique pour le traitement de stimuli émotionnels et s’il y a ou non des différences entre les hommes et les femmes pour le traitement de stimuli émotionnels. L’objectif de cette thèse est d’apporter certains éléments de réponses à ces questions à travers une caractérisation du substrat neurobiologique impliqué dans le traitement de stimuli émotionnels visuels et dynamiques. Ce travail a été mené via l’imagerie par résonance magnétique fonctionnelle (IRMf) cérébrale. Le premier chapitre, subdivisé en quatre sections, permet de présenter la perspective dans laquelle s’inscrit la thèse. La première section de ce chapitre sert à établir certaines balises définitionnelles liées aux émotions. La seconde section, basée sur une lecture des textes originaux, retrace les faits historiques saillants de la neurobiologie des émotions allant de Charles Darwin à Joseph Ledoux. La troisième section débute où la seconde s’arrête et continue l’histoire de la neurobiologie des émotions à travers un résumé de toutes les principales méta-analyses d’imagerie fonctionnelle cérébrale des émotions. La dernière section du chapitre permet de présenter la problématique de recherche. La recherche, à proprement parler, qui constitue le corps de la thèse est ensuite présentée sous forme de trois articles. Enfin, les résultats de cette recherche et la manière dont ils s’inscrivent dans la continuité de nos connaissances actuelles font l’objet d’une discussion générale. Le premier article (chapitre II) rapporte, chez les hommes et les femmes, les régions du cerveau qui sont plus activées lors du traitement de films érotiques que lors du traitement de films dits ‘neutres’. Un chevauchement manifeste est observé entre les hommes et les femmes. Par contre, une activation significativement plus grande est observée chez les hommes pour l’hypothalamus, une région importante pour le comportement sexuel à travers la phylogénie. De plus, chez les hommes seulement, l’activation hypothalamique est corrélée à l’excitation sexuelle subjective. Comme la recherche présentée dans le premier article se sert de conditions expérimentales relativement longues pour l’IRMf (i.e. extraits de films de 3 minutes) et que ceci peut induire une nette diminution de signal en lien avec certaines contraintes de l’IRMf, le second article (chapitre III) examine les corrélats du traitement de stimuli sexuels en utilisant, cette fois, un paradigme d’IRMf classique où plusieurs extraits de films de 33 secondes sont présentés à la place. Cette étude démontre que, pour le traitement de stimuli sexuels, ce paradigme classique d’IRMf est beaucoup plus sensible que celui du premier article. De plus, comme ce paradigme mène à une reproduction des résultats du premier papier, ce travail soutient la perspective selon laquelle les paradigmes à époques courtes sont une alternative valide aux longues époques comme méthode d’étude du traitement de stimuli émotionnels. Le troisième article (chapitre IV) capitalise sur le protocole du second article et démontre que les patrons d’activation associés au visionnement de courts extraits de films induisant du dégoût, de l’amusement, ou de l’excitation sexuelle, sont très étendus. Une analyse de conjonction formelle démontre un large chevauchent de ces patrons à travers les différents affects étudiés. Enfin, le cinquième chapitre sert de discussion générale. Les questions des différences entre les hommes et les femmes dans le traitement des émotions, de l’existence ou non d’un système général pour le traitement des émotions, ainsi que de la manière dont un tel système pourrait être conçu, sont des points saillants de la discussion. Ces points sont abordés à la lumières des connaissances actuelles et des résultats des trois articles.
Resumo:
Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université Pierre et Marie Curie, Paris 06, Sorbonne Universités.
Resumo:
Contexte La connectomique, ou la cartographie des connexions neuronales, est un champ de recherche des neurosciences évoluant rapidement, promettant des avancées majeures en ce qui concerne la compréhension du fonctionnement cérébral. La formation de circuits neuronaux en réponse à des stimuli environnementaux est une propriété émergente du cerveau. Cependant, la connaissance que nous avons de la nature précise de ces réseaux est encore limitée. Au niveau du cortex visuel, qui est l’aire cérébrale la plus étudiée, la manière dont les informations se transmettent de neurone en neurone est une question qui reste encore inexplorée. Cela nous invite à étudier l’émergence des microcircuits en réponse aux stimuli visuels. Autrement dit, comment l’interaction entre un stimulus et une assemblée cellulaire est-elle mise en place et modulée? Méthodes En réponse à la présentation de grilles sinusoïdales en mouvement, des ensembles neuronaux ont été enregistrés dans la couche II/III (aire 17) du cortex visuel primaire de chats anesthésiés, à l’aide de multi-électrodes en tungstène. Des corrélations croisées ont été effectuées entre l’activité de chacun des neurones enregistrés simultanément pour mettre en évidence les liens fonctionnels de quasi-synchronie (fenêtre de ± 5 ms sur les corrélogrammes croisés corrigés). Ces liens fonctionnels dévoilés indiquent des connexions synaptiques putatives entre les neurones. Par la suite, les histogrammes peri-stimulus (PSTH) des neurones ont été comparés afin de mettre en évidence la collaboration synergique temporelle dans les réseaux fonctionnels révélés. Enfin, des spectrogrammes dépendants du taux de décharges entre neurones ou stimulus-dépendants ont été calculés pour observer les oscillations gamma dans les microcircuits émergents. Un indice de corrélation (Rsc) a également été calculé pour les neurones connectés et non connectés. Résultats Les neurones liés fonctionnellement ont une activité accrue durant une période de 50 ms contrairement aux neurones fonctionnellement non connectés. Cela suggère que les connexions entre neurones mènent à une synergie de leur inter-excitabilité. En outre, l’analyse du spectrogramme dépendant du taux de décharge entre neurones révèle que les neurones connectés ont une plus forte activité gamma que les neurones non connectés durant une fenêtre d’opportunité de 50ms. L’activité gamma de basse-fréquence (20-40 Hz) a été associée aux neurones à décharge régulière (RS) et l’activité de haute fréquence (60-80 Hz) aux neurones à décharge rapide (FS). Aussi, les neurones fonctionnellement connectés ont systématiquement un Rsc plus élevé que les neurones non connectés. Finalement, l’analyse des corrélogrammes croisés révèle que dans une assemblée neuronale, le réseau fonctionnel change selon l’orientation de la grille. Nous démontrons ainsi que l’intensité des relations fonctionnelles dépend de l’orientation de la grille sinusoïdale. Cette relation nous a amené à proposer l’hypothèse suivante : outre la sélectivité des neurones aux caractères spécifiques du stimulus, il y a aussi une sélectivité du connectome. En bref, les réseaux fonctionnels «signature » sont activés dans une assemblée qui est strictement associée à l’orientation présentée et plus généralement aux propriétés des stimuli. Conclusion Cette étude souligne le fait que l’assemblée cellulaire, plutôt que le neurone, est l'unité fonctionnelle fondamentale du cerveau. Cela dilue l'importance du travail isolé de chaque neurone, c’est à dire le paradigme classique du taux de décharge qui a été traditionnellement utilisé pour étudier l'encodage des stimuli. Cette étude contribue aussi à faire avancer le débat sur les oscillations gamma, en ce qu'elles surviennent systématiquement entre neurones connectés dans les assemblées, en conséquence d’un ajout de cohérence. Bien que la taille des assemblées enregistrées soit relativement faible, cette étude suggère néanmoins une intrigante spécificité fonctionnelle entre neurones interagissant dans une assemblée en réponse à une stimulation visuelle. Cette étude peut être considérée comme une prémisse à la modélisation informatique à grande échelle de connectomes fonctionnels.
Resumo:
L’objectif de ce papier est de déterminer les facteurs susceptibles d’expliquer les faillites bancaires au sein de l’Union économique et monétaire ouest-africaine (UEMOA) entre 1980 et 1995. Utilisant le modèle logit conditionnel sur des données en panel, nos résultats montrent que les variables qui affectent positivement la probabilité de faire faillite des banques sont : i) le niveau d’endettement auprès de la banque centrale; ii) un faible niveau de comptes disponibles et à vue; iii) les portefeuilles d’effets commerciaux par rapport au total des crédits; iv) le faible montant des dépôts à terme de plus de 2 ans à 10 ans par rapport aux actifs totaux; et v) le ratio actifs liquides sur actifs totaux. En revanche, les variables qui contribuent positivement sur la vraisemblance de survie des banques sont les suivantes : i) le ratio capital sur actifs totaux; ii) les bénéfices nets par rapport aux actifs totaux; iii) le ratio crédit total sur actifs totaux; iv) les dépôts à terme à 2 ans par rapport aux actifs totaux; et v) le niveau des engagements sous forme de cautions et avals par rapport aux actifs totaux. Les ratios portefeuilles d’effets commerciaux et actifs liquides par rapport aux actifs totaux sont les variables qui expliquent la faillite des banques commerciales, alors que ce sont les dépôts à terme de plus de 2 ans à 10 ans qui sont à l’origine des faillites des banques de développement. Ces faillites ont été considérablement réduites par la création en 1989 de la commission de réglementation bancaire régionale. Dans l’UEMOA, seule la variable affectée au Sénégal semble contribuer positivement sur la probabilité de faire faillite.
Resumo:
This paper examines the empirical relationship between financial intermediation and economic growth using cross-country and panel data regressions for 69 developing countries for the 1960-1990 period. The main results are : (i) financial development is a significant determinant of economic growth, as it has been shown in cross-sectional regressions; (ii) financial markets cease to exert any effect on real activity when the temporal dimension is introduced in the regressions. The paradox may be explained, in the case of developing countries, by the lack of an entrepreneurial private sector capable to transform the available funds into profitable projects; (iii) the effect of financial development on economic growth is channeled mainly through an increase in investment efficiency.
Resumo:
The following properties of the core of a one well-known: (i) the core is non-empty; (ii) the core is a lattice; and (iii) the set of unmatched agents is identical for any two matchings belonging to the core. The literature on two-sided matching focuses almost exclusively on the core and studies extensively its properties. Our main result is the following characterization of (von Neumann-Morgenstern) stable sets in one-to-one matching problem only if it is a maximal set satisfying the following properties : (a) the core is a subset of the set; (b) the set is a lattice; (c) the set of unmatched agents is identical for any two matchings belonging to the set. Furthermore, a set is a stable set if it is the unique maximal set satisfying properties (a), (b) and (c). We also show that our main result does not extend from one-to-one matching problems to many-to-one matching problems.
Resumo:
In this paper, we study the macroeconomic implications of sectoral heterogeneity and, in particular, heterogeneity in price setting, through the lens of a highly disaggregated multi-sector model. The model incorporates several realistic features and is estimated using a mix of aggregate and sectoral U.S. data. The frequencies of price changes implied by our estimates are remarkably consistent with those reported in micro-based studies, especially for non-sale prices. The model is used to study (i) the contribution of sectoral characteristics to the observed cross sectional heterogeneity in sectoral output and inflation responses to a monetary policy shock, (ii) the implications of sectoral price rigidity for aggregate output and inflation dynamics and for cost pass-through, and (iii) the role of sectoral shocks in explaining sectoral prices and quantities.
Resumo:
Les biomarqueurs plasmatiques constituent des outils essentiels, mais rares, utilisés pour diagnostiquer les maladies, comme les maladies cardiovasculaires (MCV), et stratifier le niveau de risque associé. L’identification de nouveaux biomarqueurs plasmatiques susceptibles d’améliorer le dépistage et le suivi des MCV représente ainsi un enjeu majeur en termes d’économie et de santé publique. Le projet vise à identifier de nouveaux biomarqueurs plasmatiques prédictifs ou diagnostiques des MCV, à déterminer le profil protéomique plasmatique de patients atteints de MCV et à développer des méthodes innovantes d’analyse d’échantillon plasmatique. L’étude a été effectuée sur une large banque de plasma provenant de 1006 individus de souche Canadienne-Française recrutés à différents stades de la MCV et qui ont été suivis sur une période de 5 ans. Des séries de déplétions ont été réalisées afin de dépléter les 14 protéines majoritaires (colonne IgY14TM) de l’échantillon avant son analyse par trois approches effectuées en parallèle: 1) Une chromatographie liquide (LC) en 2 dimensions qui fractionne les protéines selon le point isoélectrique puis selon le degré d’hydrophobicité, via le système PF2D, suivie par une chromatographie liquide couplée avec une spectrométrie de masse en tandem (LC-MS/MS). 2) Une séparation classique sur gel 1D-SDS-PAGE suivie d’une LC-MS/MS; 3) Par une déplétion plus poussée du plasma avec l’utilisation en tandem avec la colonne IgY14TM d’une colonne SupermixTM permettant de dépléter également les protéines de moyenne abondance, suivie d’une séparation sur gel 1D-SDS-PAGE et d’une analyse LC-MS/MS de la portion déplétée (3a) et de la portion liée à la SupermixTM (3b). Les résultats montrent que le système PF2D permet d’identifier plusieurs profils protéiques spécifiques au groupe MCV. Sur un total de 1156 fractions (équivalent à 1172 pics protéiques pour le groupe contrôle et 926 pics pour le groupe MCV) recueillies, 15 fractions (23 pics protéiques) présentaient des différences quantitativement significatives (p<0,05) entre les 2 groupes. De plus, 6 fractions (9 pics) sont uniquement présentes dans un groupe, représentant d’autres signatures protéomiques et biomarqueurs potentiellement intéressants. Les méthodes 2, 3a et 3b ont permis l’identification de 108, 125 et 91 protéines respectivement avec des chevauchements partiels (31% entre la méthode 2 et 3a, 61% entre 2 et 3b et 19% entre 3a et 3b). Les méthodes 2 et 3 ont permis l’identification de 12 protéines qui présentaient des différences quantitatives significatives entre les 2 groupes. L’utilisation de plusieurs approches protéomiques complémentaires nous ont d’ores et déjà permis d’identifier des candidats biomarqueurs des angines instables avec récidive d’infarctus du myocarde (IM).
Resumo:
Les trois essais dans cette thèse étudient les implications des frictions financières, telles que les contraintes de collatérale ou de crédit, pour les décisions économiques des agents et leur impact sur les variables macro-économiques agrégées. Dans le premier chapitre "Financial Contracts and the Political Economy of Investor Protection" nous proposons une théorie du niveau de protection des investisseurs. Une faible protection des investisseurs implique un coût de financement externe plus élevé à cause des problèmes d'agence plus aigus entre les investisseurs et les entrepreneurs. À l'équilibre, ceci exclut les agents plus dépendants sur le financement externe de l'entrepreneuriat, ce qui augmente les profits des entrepreneurs qui restent actifs. Quand le niveau de la protection des investisseurs est choisi par un vote majoritaire, la théorie génère (i) une protection des investisseurs plus faible dans les économies avec plus grande inégalité dans les besoins de financement externe parmi les entrepreneurs, (ii) une dynamique non-monotone de l'output, (iii) améliorations (détériorations) de la protection des investisseurs suite à des ralentissements (accélérations) de l'output agrégé. L'évidence empirique donne un support à ces prédictions de la théorie. Dans le deuxième chapitre "Financial Frictions, Internal Capital Markets, and the Organization of Production", nous examinons comment la présence des frictions financières peut mener à la formation des conglomérats et des "business groups" diversifiées. Particulièrement, nous construisons un modèle d'équilibre général d'entrepreneuriat dans lequel les conglomérats émergent de façon endogène et substituent partiellement le marché du crédit imparfait. Nous montrons que ce modèle est capable d'expliquer quantitativement plusieurs faits stylisés concernant l'organisation de la production, les différences de productivité entre les firmes et les différences en présence des conglomérats entre les pays. Le troisième chapitre "Size and Productivity of Single-segment and Diversified Firms: Evidence from Canadian Manufacturing" étudie empiriquement la relation entre la taille, la productivité, et la structure organisationnelle d'une firme. Utilisant les micro-données sur les établissements manufacturiers canadiens, nous documentons plusieurs faits stylisés concernant la taille et la productivité totale des facteurs des établissements dans les conglomérats et dans les firmes non-diversifiées. Nous trouvons que les établissements dans les conglomérats sont en moyenne plus larges que leurs contreparties dans les firmes non-diversifiées, les petits établissements dans les conglomérats sont moins productifs que les établissements de taille similaire dans les firmes non-diversifiées, mais les larges établissements dans les conglomérats sont plus productifs que ceux de taille similaire dans les firmes non-diversifiées. Cette évidence est consistante avec réallocation interne efficiente des ressources au sein des conglomérats.
Resumo:
Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)
Resumo:
Ce mémoire consiste en une analyse des stratégies de l’offre et de la demande de l’industrie québécoise de la production télévisuelle francophone pour la jeunesse et plus précisément, pour l’auditoire des 12-17 ans. Cette industrie tendrait à investir davantage dans l’importation que dans la production d’émissions pour cet auditoire, dû à la faible écoute de ses productions par leur auditoire cible. Afin de mieux saisir les enjeux politiques, économiques et sociaux qui entourent l’industrie de la production télévisuelle pour la jeunesse, nous proposons d’explorer et de comparer l’offre télévisuelle destinée aux 12-17 ans et leur consommation télévisuelle. Cette analyse quantitative et statistique de l’offre et de la consommation se fait en trois étapes : (i) l’analyse de la structure de réception (émissions à succès, écoute des filles et des garçons, temps passé à l’écoute), (ii) l’analyse de la structure de programmation (mode de diffusion, genres télévisuels, origine des émissions, thématiques des émissions), et (iii) l’analyse de la structure thématique (thématiques associées aux épisodes et des personnages). De ces analyses, divers constats apparaissent. Tout d’abord, les jeunes consomment ce que les télédiffuseurs diffusent à leur intention, malgré l’accès limité à cette offre. De plus, plusieurs tactiques semblent être mises en œuvre afin de rentabiliser la diffusion de ces émissions, principalement la rediffusion. Finalement, ces émissions destinées aux adolescents se distinguent de celles offertes au grand public, non seulement par le public qu’elles tentent de rejoindre, mais aussi par les thématiques qu’elles abordent et la manière dont elles les abordent.
Resumo:
Les cellules T CD4+ humaines sont hétérogènes du point de vue de la permissivité à l’infection par le virus de l’immunodéficience humaine de type 1 (VIH-1). Notre laboratoire a préalablement démontré que les cellules Th1 à phénotype CXCR3+CCR6- sont relativement résistantes à l’infection par le VIH-1 alors que les cellules Th1Th17 à phénotype CXCR3+CCR6+ y sont hautement permissives. La réplication du VIH dépend de plusieurs facteurs cellulaires de restriction ou de permissivité agissant à différentes étapes du cycle viral. Toutefois, malgré plusieurs avancées, la compréhension des voies de signalisation cellulaire impliquées dans la régulation de la réplication du VIH est encore limitée. L’objectif majeur de ce projet de maîtrise est de caractériser les mécanismes moléculaires de la permissivité et de la résistance au VIH respectivement dans les cellules Th1Th17 et Th1. Ce mémoire est divisé en quatre parties qui visent: (i) l’identification des voies canoniques et des fonctions biologiques différemment régulées dans les cellules Th1Th17 versus Th1 par l’analyse de leur transcriptome au niveau du génome entier; (ii) la validation de l’expression différentielle des gènes d’intérêt identifiés par biopuces au niveau des transcrits et des protéines; (iii) la caractérisation du rôle fonctionnel de certains de ces facteurs (i.e., PPARG, AhR) sur la réplication du VIH dans les cellules Th1Th17 versus Th1; et (iv) l’identification du niveau auquel ces facteurs interfèrent avec le cycle de réplication du VIH. Nos résultats d’analyse du transcriptome du génome entier par Gene Set Enrichment Analysis et Ingenuity Pathway Analysis indiquent que les cellules à profil Th1Th17 sont plus susceptibles à l’activation cellulaire et à l’apoptose, favorisent plus l’inflammation et expriment moins fortement les gènes liés à la dégradation protéosomale comparé aux cellules à profil Th1. Ces différences dans la régulation de diverses voies et fonctions biologiques permettent en partie d’expliquer la susceptibilité à l’infection par le VIH dans ces cellules. Nous avons ensuite confirmé l’expression différentielle de certains gènes d’intérêt dans les cellules Th1Th17 (CXCR6, PPARG, ARNTL, CTSH, PTPN13, MAP3K4) versus Th1 (SERPINB6, PTK2) au niveau de l’ARNm et des protéines. Finalement, nous avons démontré le rôle des facteurs de transcription PPARG et AhR dans la régulation de la réplication du VIH. L’activation de la voie PPARG par la rosiglitazone induit la diminution importante de la réplication du VIH dans les cellules T CD4+, alors que l’activation de la voie AhR par les ligands exogènes TCDD et FICZ augmente de façon significative la réplication virale. Nous proposons que la voie PPARG agit comme un régulateur négatif de la réplication du VIH dans ces cellules, en interférant avec la polarisation Th17 et probablement en inhibant l’activité transcriptionnelle du facteur NF-kB. Les rôles des formes nucléaires versus cytoplasmiques du récepteur Ahr semblent être diamétralement opposés, dans la mesure où l’interférence ARN contre AhR s’associe également à l’augmentation de la réplication virale. Il est ainsi possible que la forme cytoplasmique d’AhR, connue par son activité E3 ligase, participe à la dégradation protéosomale des particules virales. Le mécanisme par lequel le AhR nucléaire versus cytoplasmique interfère avec la réplication virale est en cours d’étude au laboratoire. Cette étude représente la première caractérisation de l’expression différentielle de gènes au niveau du génome entier de sous-populations T CD4+ permissives versus résistantes à l’infection par le VIH. Nos résultats identifient de nouvelles cibles moléculaires pour de nouvelles stratégies thérapeutiques visant à limiter la réplication du VIH dans les lymphocytes T CD4+ primaires.
Resumo:
Dans le cadre de cette thèse, nous nous proposons d’explorer la patiente explication que Heidegger a poursuivie avec Hegel à propos de l’origine de la négativité – problème qui s’impose de fait à titre d’« unique pensée d’une pensée qui pose la question de l’être ». Partant du constat d’une affinité insoupçonnée entre les deux penseurs quant au rôle insigne qui doit revenir à la négation en philosophie, nous entendons percer à jour les motifs de la constante fin de non-recevoir que Heidegger oppose néanmoins à la méthode dialectique de son plus coriace adversaire. Afin de rendre justice aux différents rebondissements d’une explication en constante mutation, et qui, de surcroît, traverse l’ensemble de l’œuvre de Heidegger, nous procédons à une division chronologique qui en circonscrit les quatre principaux moments. I. En un premier temps, notre regard se porte ainsi sur l’opposition résolue que le jeune Heidegger manifeste à l’égard de la montée du néo-hégélianisme, au nom d’une appropriation toute personnelle de l’intuitionnisme husserlien. Les transformations auxquelles il soumet la méthode phénoménologique de son maître doivent néanmoins laisser transparaître un furtif emprunt à la dialectique hégélienne, dont le principal mérite serait d’avoir conféré une fonction productrice à la négation. II. Le propos d’Être et temps demeure toutefois bien discret quant à cette dette méthodologique, bien que ses vestiges se laissent exhumer, notamment sous la forme d’une négation contre-déchéante dont l’intervention essentielle ponctue l’analytique existentiale. C’est qu’un désaccord subsiste entre Heidegger et son prédécesseur quant à l’origine ontologique de la néantité, qui semble devoir se dérober à toute forme de sursomption dialectique. III. Loin d’être alors définitivement réglé, le problème de l’origine du négatif rejaillit au cœur d’une nouvelle mouture métaphysique du projet heideggérien, la minant peut-être même en son fond. Il s’agit en l’occurrence de disputer à Hegel une compréhension plus originaire du néant, comprise comme témoignage de la finitude de l’être lui-même et s’inscrivant en faux face à l’accomplissement spécifiquement hégélien de la métaphysique. IV. Des tensions qui ne sont pas étrangères à cette délicate entreprise entraînent toutefois Heidegger sur la voie d’un dépassement de l’onto-théo-logie et de l’achèvement technique que Hegel lui a préparé. Il s’agit dès lors de situer l’origine abyssale du négatif auprès d’un irréductible retrait de l’estre, à l’encontre de l’oubli nihiliste auquel Hegel l’aurait confinée en la résorbant au sein de l’absolue positivité de la présence. Par là même, Heidegger propose un concept de négation qu’il juge plus originaire que son contrepoids dialectique, négation à laquelle il attribue la forme d’une réponse interrogative, patiente et attentive à la réticence hésitante de l’événement appropriant. Mais est-ce suffisant pour soutenir qu’il parvient, en définitive, à se libérer de l’embarras dialectique qui semble coller à sa pensée et qui exige de lui un constant effort de distanciation ? Cette thèse entend contribuer à établir les conditions d’une décision à cet égard.
Resumo:
Streptococcus du Groupe B (GBS) et Streptococcus suis sont deux pathogènes encapsulés qui induisent des pathologies similaires dont la méningite et la septicémie chez les animaux et/ou les humains. Les sérotypes III et V du GBS et les sérotypes 2 et 14 du S. suis (utilisés dans cette étude) sont parmi les plus prévalents et/ou les plus virulents. La capsule polysaccharidique (CPS) définit le sérotype et est considérée comme un facteur de virulence essentiel pour les deux espèces bactériennes. Malgré que plusieurs études aient été réalisées au niveau des interactions entre ces streptocoques et les cellules de l’immunité innée, aucune information n’est disponible sur la régulation de la réponse immunitaire contre ces pathogènes par les cellules dendritiques (DCs) et leur interactions avec d’autres cellules, notamment les cellules ‘natural killer’ (NK). Dans cette étude, différentes approches (in vitro, ex vivo et in vivo) chez la souris ont été développées pour caractériser les interactions entre les DCs, les cellules NK et GBS ou S. suis. L’utilisation de mutants non encapsulés a permis d’évaluer l’importance de la CPS dans ces interactions. Les résultats in vitro avec les DCs infectées par GBS ou S. suis ont démontré que ces deux pathogènes interagissent différemment avec ces cellules. GBS est grandement internalisé par les DCs, et ce, via de multiples mécanismes impliquant notamment les radeaux lipidiques et la clathrine. Le mécanisme d’endocytose utilisé aurait un effet sur la capacité du GBS à survivre intracellulairement. Quant au S. suis, ce dernier est très faiblement internalisé et, si le cas, rapidement éliminé à l’intérieur des DCs. GBS et S. suis activent les DCs via différents récepteurs et favorisent la production de cytokines et chimiokines ainsi que l’augmentation de l’expression de molécules de co-stimulation. Cette activation permet la production d’interferon-gamma (IFN-y) par les cellules NK. Cependant, GBS semble plus efficient à activer les DCs, et par conséquent, les cellules NK que S. suis. La production d’IFN-y, en réponse à la stimulation bactérienne, est principalement assurée par un contact direct entre les DCs et les cellules NK et ne dépend qu’en partie de facteurs solubles. De plus, nos résultats in vivo ont démontré que ces deux streptocoques induisent rapidement la libération d'IFN-y par les cellules NK lors de la phase aiguë de l'infection. Ceci suggère que les interactions entre les DCs et les cellules NK pourraient jouer un rôle dans le développement d’une réponse immune T auxiliaire de type 1 (T ‘helper’ 1 en anglais; Th1). Cependant, la capacité de S. suis à activer la réponse immunitaire in vivo est également plus faible que celle observée pour GBS. En effet, les CPSs de GBS et de S. suis jouent des rôles différents dans cette réponse. La CPS de S. suis empêche une activation optimale des DCs et des cellules NK alors que c’est l’opposé pour la CPS de GBS, indépendamment du sérotype évalué. En résumé, cette étude adresse pour la première fois la contribution des DCs et des cellules NK dans la réponse immunitaire innée lors d’une infection à GBS ou à S. suis et, par extension, dans le développement d’une réponse Th1. Nos résultats renforcent davantage le rôle central des DCs dans le contrôle efficace des infections causées par des bactéries encapsulées.