317 resultados para Modèles animaux
Resumo:
La réadaptation gériatrique reconnaît le loisir comme un indicateur clé des résultats de la réadaptation. Cependant, les connaissances théoriques sur le loisir sont peu développées. L’objectif de ce mémoire est de décrire et critiquer des modèles en lien avec le loisir et publiés dans les écrits scientifiques afin d’en dégager les aspects les plus pertinents pour la réadaptation gériatrique. Dix modèles ont été sélectionnés à partir d’une stratégie de recherche bibliographique. Ils ont été analysés sur la base de six critères : 1) le processus de développement du modèle, 2) les concepts, 3) les interactions entre les concepts, 4) l’aspect pratique, 5) la littérature générée et 6) la compatibilité avec les concepts-clés de la réadaptation gériatrique. Les résultats révèlent quatre modèles particulièrement intéressants pour la réadaptation gériatrique, sans pouvoir en dégager un en particulier, chacun présentant des forces et des limites qui sont discutées. De plus, les concepts rattachés au loisir les plus pertinents à retenir selon l’ensemble des modèles concernent: 1) la participation dans les loisirs, 2) la perception de soi face aux loisirs, 3) la motivation dans les loisirs, 4) la satisfaction dans les loisir, 5) les capacités en lien avec les loisirs et 6) l’environnement physique et social. Les résultats de la présente étude se traduiront par une meilleure connaissance des déterminants, caractéristiques et effets du loisir auprès des personnes âgées en processus de réadaptation.
Resumo:
Suite à une consultation publique, la ministre de la Justice Anne McLellan a voulu répondre aux groupes et aux citoyens en intégrant, dans le projet de loi omnibus C-17, des amendements visant le droit criminel quant à la cruauté envers les animaux. Le projet de loi étant devenu caduc aux dernières élections fédérales, ces nouvelles dispositions étaient reprises par le projet de loi C-15 qui a lui-même été prorogé à la fin de la première session de la 37 législature. Les modifications qu'il proposait sont intégralement reprises par le projet de loi C-IO, déposé en octobre 2002. Les membres du Sénat renvoyaient récemment ce dernier devant le Comité permanent des affaires juridiques et constitutionnelles, chargé de le scinder en deux afin qu'un nouveau projet de loi, le ClOB, soit bientôt déposé et porte exclusivement sur la cruauté envers les animaux. Devant l'imminence de telles modifications, il est intéressant de se questionner autant sur leur contexte que sur leur portée. Dans une première partie, nous présentons quelques éléments du contexte philosophique et sociétal justifiant l'intérêt grandissant pour la question animale. L'émergence de nouvelles théories morales accordant plus de valeur à l'animal, les critiques et revendications des groupes de pression et des citoyens en général, ainsi que les récentes études démontrant un lien entre la cruauté envers les animaux et la violence dirigée contre l'homme, exigent une remise en question des rapports homme/animal. Une révision de ces différents facteurs contextuels permet de mieux comprendre à quoi répondent ces projets de loi. Dans une deuxième partie, nous relevons plusieurs incohérences du droit actuel afin d'identifier ce qui devrait être modifié par le législateur. Les incohérences sont à plusieurs niveaux: cohabitation de lois visant à protéger l'animal défini comme un être sensible et de lois portant sur la gestion des animaux considérés comme de simples ressources utiles à l'homme; intégration d'infractions visant à protéger l'animal dans la section du Code criminel portant sur les biens; gravité relativement importante des crimes contre les animaux par comparaison à certaines infractions contre la personne; problèmes 11 liés au libellé des infractions particulières et distinctions quant au degré de protection des animaux en fonction de leur intérêt pour 1'homme. Ensuite, le droit proposé sera examiné pour vérifier s'il règlera ces problèmes. Retirées de la partie concernant les biens, les infractions porteront davantage sur la sensibilité de l'animal plutôt que vers son utilité pour l'homme. Au niveau des régimes de responsabilité, l'ambiguïté constitutionnelle entraînée par la présomption du paragraphe 446(3) C.cr. sera évacuée. Quant aux peines, le durcissement prévu risque de rendre les infractions démesurément sévères par comparaison à certains crimes contre la personne. Bien qu'actualisées, les infractions seront toujours nombreuses et anecdotiques. Finalement, les changements de nature strictement juridique sont surtout cosmétiques, alors que la valeur symbolique des projets de loi est, quant à elle, plus significative. En effet, si quelques considérations anthropocentriques sont à l'origine des projets de loi, une reconnaissance de la valeur intrinsèque de l'animal semble aussi les avoir inspirés. Malheureusement, le paradigme de l'animal proposé, encore plus que celui qui est actuellement reconnu, se concilie difficilement avec l'utilisation des animaux pour les fins égocentriques de l'homme
Resumo:
Le cancer est la principale cause de mortalité au Canada. Les taxanes (e.g. le paclitaxel et le docétaxel (DCTX)) constituent des remèdes efficaces contre une série de tumeurs solides telles que les cancers du sein, du poumon et de l’ovaire. Par ailleurs, des acides nucléiques (e.g. les oligonucléotides antisens (AON) ou les petits ARN interférents (siRNAs)), capables de supprimer sélectivement certains oncogènes impliqués dans la carcinogénèse, sont actuellement étudiés pour traiter une large gamme de cancers. Bien que l’activité des taxanes et des acides nucléiques soit bien établie sur des modèles humains et/ou animaux, plusieurs aspects physico-chimiques et cliniques restent encore à améliorer. Leur solubilité limitée (pour les taxanes), leur dégradation rapide dans le sang (pour les acides nucléiques), leur élimination précoce, leur absence de sélectivité et leur toxicité envers les tissus sains sont les principaux facteurs limitant leur efficacité. C’est pourquoi de nombreux efforts ont porté sur l’élaboration de systèmes de vectorisation ciblés à base de polymères, dans le but de surmonter les problèmes associés aux thérapies actuelles. Dans cette thèse, deux types de micelles polymères ont été développés pour la vectorisation de DCTX et d’acides nucléiques. D’une part, des micelles de poly(oxyde d’éthylène)-bloc-poly(oxyde de butylène/styrène) ont été étudiées pour la première fois pour solubiliser le DCTX et le protéger de l’hydrolyse. Ces polymères se sont révélés moins toxiques que le surfactant utilisé commercialement pour solubiliser le DCTX (i.e. polysorbate 80) et ont permis une libération prolongée du principe actif. D’autre part, deux systèmes différents de micelles polyioniques (PICM) ont été mis au point pour la vectorisation d’acides nucléiques. De nouveaux conjugués de poly(éthylène glycol) (PEG)-oligonucléotide ont été proposés pour la protection et la libération contrôlée d’AON. Lorsque ces conjugués ont été formulés avec des dendrimères de poly(amidoamine) (PAMAM), des complexes de taille homogène ont été obtenus. Ces PICM ont permis de prolonger la libération de l’AON et de le protéger efficacement contre la dégradation enzymatique. De plus, des polymères de poly(oxyde d’éthylène)-bloc-poly(méthacrylate de propyle-co-acide méthacrylique) ont été incorporés afin de conférer des propriétés acido-sensibles aux PICM. Dans ces micelles, formées de ce dernier polymère formulé avec le dendrimère PAMAM, des oligonucléotides (AON et siRNA) ciblant l’oncogène Bcl-2 ont été encapsulés. L’internalisation cellulaire fut assurée par un fragment d’anticorps monoclonal (Fab’) situé à l’extrémité de la couronne de PEG. Après l’internalisation cellulaire et la protonation des unités d’acide méthacrylique sous l’effet de l’acidification des endosomes, les micelles se sont affranchies de leur couronne. Elles ont ainsi exposé leur cœur composé d’acide nucléique et de dendrimère PAMAM, qui possède une charge positive et des propriétés endosomolytiques. En effet, ces PICM acido-sensibles ciblées ont permis d’augmenter la biodisponibilité des acides nucléiques vectorisés et se sont avérées plus efficaces pour silencer l’oncoprotéine Bcl-2 que les micelles non ciblées ou que le dendrimère de PAMAM commercial seul. Finalement, les nanovecteurs polymères présentés dans cette thèse se révèlent être des systèmes prometteurs pour la vectorisation des anticancéreux et des acides nucléiques.
Resumo:
Les propriétés pharmacocinétiques d’un nouveau médicament et les risques d’interactions médicamenteuses doivent être investigués très tôt dans le processus de recherche et développement. L’objectif principal de cette thèse était de concevoir des approches prédictives de modélisation du devenir du médicament dans l’organisme en présence et en absence de modulation d’activité métabolique et de transport. Le premier volet de recherche consistait à intégrer dans un modèle pharmacocinétique à base physiologique (PBPK), le transport d’efflux membranaire gouverné par les glycoprotéines-P (P-gp) dans le cœur et le cerveau. Cette approche, basée sur des extrapolations in vitro-in vivo, a permis de prédire la distribution tissulaire de la dompéridone chez des souris normales et des souris déficientes pour les gènes codant pour la P-gp. Le modèle a confirmé le rôle protecteur des P-gp au niveau cérébral, et a suggéré un rôle négligeable des P-gp dans la distribution tissulaire cardiaque pour la dompéridone. Le deuxième volet de cette recherche était de procéder à l’analyse de sensibilité globale (ASG) du modèle PBPK précédemment développé, afin d’identifier les paramètres importants impliqués dans la variabilité des prédictions, tout en tenant compte des corrélations entre les paramètres physiologiques. Les paramètres importants ont été identifiés et étaient principalement les paramètres limitants des mécanismes de transport à travers la membrane capillaire. Le dernier volet du projet doctoral consistait à développer un modèle PBPK apte à prédire les profils plasmatiques et paramètres pharmacocinétiques de substrats de CYP3A administrés par voie orale à des volontaires sains, et de quantifier l’impact d’interactions médicamenteuses métaboliques (IMM) sur la pharmacocinétique de ces substrats. Les prédictions des profils plasmatiques et des paramètres pharmacocinétiques des substrats des CYP3A ont été très comparables à ceux mesurés lors d’études cliniques. Quelques écarts ont été observés entre les prédictions et les profils plasmatiques cliniques mesurés lors d’IMM. Cependant, l’impact de ces inhibitions sur les paramètres pharmacocinétiques des substrats étudiés et l’effet inhibiteur des furanocoumarins contenus dans le jus de pamplemousse ont été prédits dans un intervalle d’erreur très acceptable. Ces travaux ont contribué à démontrer la capacité des modèles PBPK à prédire les impacts pharmacocinétiques des interactions médicamenteuses avec une précision acceptable et prometteuse.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
Les logiciels utilisés sont Splus et R.
Resumo:
Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.
Resumo:
Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus élevé en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.
Resumo:
Ce mémoire reconstitue l’histoire des théories, modèles et hypothèses qui ont été formulés, principalement en archéologie, afin d’expliquer la naissance de l’agriculture qui correspond, du point de vue chronologique, à la transition (ou révolution) néolithique. Ces schèmes explicatifs sont décrits chronologiquement depuis la naissance de l’archéologie préhistorique, dans la première moitié du XIXe siècle, jusqu’à maintenant. Ils sont classifiés en fonction des principales écoles qui ont joué un rôle prédominant en archéologie préhistorique depuis son origine, soit : l’évolutionnisme multilinéaire, l’école culturelle-historique, le processualisme, le néodarwinisme et le postprocessualisme. Les théories spécifiques (dites de « niveau mitoyen » ou « régionales ») qui ont été avancées par ces écoles sont présentées dans leur ordre chronologique, soit (principalement) : les théories de la dessiccation ou de l’oasis, des flancs de colline, de la périphérie, du stress démographique, du festin compétitif, de la révolution des symboles, etc. Ce mémoire pose enfin les jalons d’une théorie multifactorielle qui intègre ou synthétise les principaux facteurs qui ont pu influer sur la naissance de l’agriculture et sur la transition néolithique.
Resumo:
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.
Resumo:
Nous présentons nos grilles de modèles d'atmosphères pour les étoiles sous-naines chaudes de type O (sdO) soit : des modèles classiques hors-ETL H, He, des modèles hors-ETL avec, en plus, du C, N, O et finalement des modèles incluant C, N, O, Fe. En utilisant les raies de Balmer et d'hélium dans le domaine du visible, nous avons fait des comparaisons entre les spectres théoriques de nos différentes grilles afin de caractériser les effets des métaux. On trouve que ces effets dépendent à la fois de la température et de la gravité. De plus, l'abondance d'hélium a une influence importante sur les effets des métaux; une abondance d'hélium faible (log N(He)/N(H) < -1,5) occasionne des effets assez importants alors qu'une abondance plus élevée tend à réduire ces mêmes effets. Nous avons aussi trouvé que l'ajout du fer (en abondance solaire) ne cause que des changements relativement faibles à la structure en température et, par le fait même, aux profils des raies d'hydrogène et d'hélium, par rapport aux changements déjà produits par le C, N, O (en abondance solaire). Nous avons utilisé nos grilles pour faire une analyse spectroscopique du spectre à haut signal sur bruit (180) et basse résolution (9 Å) de SDSS J160043.6+074802.9 obtenu au télescope Bok. Notre meilleure ajustement a été obtenu avec notre grille de spectres synthétiques incluant C, N, O et Fe en quantité solaire, menant aux paramètres suivants : Teff = 68 500 ± 1770 K, log g = 6,09 ± 0,07, and log N(He)/N(H) = -0,64 ± 0,05, où les incertitudes proviennent uniquement de la procédure d'ajustement. Ces paramètres atmosphériques, particulièrement la valeur de l'abondance d'hélium, placent notre étoile dans une région où les effets des métaux ne sont pas très marqués.
Resumo:
Streptococcus suis de type 2 est un microorganisme pathogène d’importance chez le porc. Il est la cause de différentes pathologies ayant comme caractéristique commune la méningite. C’est également un agent émergeant de zoonose : des cas cliniques humains ont récemment été rapportés en Asie. Cependant, la pathogénèse de S. suis n’est pas encore complètement élucidée. Jusqu’à présent, la réponse pro-inflammatoire initiée par S. suis n’a été étudiée qu’in vitro. L’étude du choc septique et de la méningite requiert toujours des modèles expérimentaux appropriés. Au cours de cette étude, nous avons développé un modèle in vivo d’infection chez la souris qui utilise la voie d’inoculation intra-péritonéale. Ce modèle a servi à l’étude de la réponse pro-inflammatoire associée à ce pathogène, tant au niveau systémique qu’au niveau du système nerveux central (SNC). Il nous a également permis de déterminer si la sensibilité aux infections à S. suis pouvait être influencée par des prédispositions génétiques de l’hôte. Le modèle d’infection par S. suis a été mis au point sur des souris de lignée CD1. Les résultats ont démontré une bactériémie élevée pendant les trois jours suivant l’infection. Celle-ci était accompagnée d’une libération rapide et importante de différentes cytokines pro-inflammatoires (TNF-α, IL-6, IL-12p40/p70, IFN-ɣ) et de chémokines (KC, MCP-1 and RANTES), qui ont entraîné un choc septique et la mort de 20 % des animaux. Ensuite, pour confirmer le rôle de l’inflammation sur la mortalité et pour déterminer si les caractéristiques génétiques de l’hôte pouvaient influencer la réponse inflammatoire et l’issue de la maladie, le modèle d’infection a été étendu à deux lignées murines consanguines différentes considérées comme résistante : la lignée C57BL/6 (B6), et sensible : la lignée A/J. Les résultats ont démontré une importante différence de sensibilité entre les souris A/J et les souris B6, avec un taux de mortalité atteignant 100 % à 20 h post-infection (p.i.) pour la première lignée et de seulement 16 % à 36 h p.i. pour la seconde. La quantité de bactéries dans le sang et dans les organes internes était similaire pour les deux lignées. Donc, tout comme dans la lignée CD1, la bactériémie ne semblait pas être liée à la mort des souris. La différence entre les taux de mortalité a été attribuée à un choc septique non contrôlé chez les souris A/J infectées par S. suis. Les souris A/J présentaient des taux exceptionnellement élevés de TNF-α, IL-12p40/p70, IL-1β and IFN- γ, significativement supérieurs à ceux retrouvés dans la lignée B6. Par contre, les niveaux de chémokines étaient similaires entre les lignées, ce qui suggère que leur influence est limitée dans le développement du choc septique dû à S. suis. Les souris B6 avaient une production plus élevée d’IL-10, une cytokine anti-inflammatoire, ce qui suppose que la cascade cytokinaire pro-inflammatoire était mieux contrôlée, entraînant un meilleur taux de survie. Le rôle bénéfique potentiel de l’IL-10 chez les souris infectées par S. suis a été confirmé par deux approches : d’une part en bloquant chez les souris B6 le récepteur cellulaire à l’IL-10 (IL-10R) par un anticorps monoclonal anti-IL-10R de souris et d’autre part en complémentant les souris A/J avec de l’IL-10 de souris recombinante. Les souris B6 ayant reçu le anticorps monoclonal anti-IL-10R avant d’être infectées par S. suis ont développé des signes cliniques aigus similaires à ceux observés chez les souris A/J, avec une mortalité rapide et élevée et des taux de TNF-α plus élevés que les souris infectées non traitées. Chez les souris A/J infectées par S. suis, le traitement avec l’IL-10 de souris recombinante a significativement retardé l’apparition du choc septique. Ces résultats montrent que la survie au choc septique dû à S. suis implique un contrôle très précis des mécanismes pro- et anti-inflammatoires et que la réponse anti-inflammatoire doit être activée simultanément ou très rapidement après le début de la réponse pro-inflammatoire. Grâce à ces expériences, nous avons donc fait un premier pas dans l’identification de gènes associés à la résistance envers S. suis chez l’hôte. Une des réussites les plus importantes du modèle d’infection de la souris décrit dans ce projet est le fait que les souris CD1 ayant survécu à la septicémie présentaient dès 4 jours p.i. des signes cliniques neurologiques clairs et un syndrome vestibulaire relativement similaires à ceux observés lors de méningite à S. suis chez le porc et chez l’homme. L’analyse par hybridation in situ combinée à de l’immunohistochimie des cerveaux des souris CD1 infectées a montré que la réponse inflammatoire du SNC débutait avec une augmentation significative de la transcription du Toll-like receptor (TLR)2 et du CD14 dans les microvaisseaux cérébraux et dans les plexus choroïdes, ce qui suggère que S. suis pourrait se servir de ces structures comme portes d’entrée vers le cerveau. Aussi, le NF-κB (suivi par le système rapporteur de l’activation transcriptionnelle de IκBα), le TNF-α, l’IL-1β et le MCP-1 ont été activés, principalement dans des cellules identifiées comme de la microglie et dans une moindre mesure comme des astrocytes. Cette activation a également été observée dans différentes structures du cerveau, principalement le cortex cérébral, le corps calleux, l’hippocampe, les plexus choroïdes, le thalamus, l’hypothalamus et les méninges. Partout, cette réaction pro-inflammatoire était accompagnée de zones extensives d’inflammation et de nécrose, de démyélinisation sévère et de la présence d’antigènes de S. suis dans la microglie. Nous avons mené ensuite des études in vitro pour mieux comprendre l’interaction entre S. suis et la microglie. Pour cela, nous avons infecté des cellules microgliales de souris avec la souche sauvage virulente (WT) de S. suis, ainsi qu’avec deux mutants isogéniques, un pour la capsule (CPS) et un autre pour la production d’hémolysine (suilysine). Nos résultats ont montré que la capsule était un important mécanisme de résistance à la phagocytose pour S. suis et qu’elle modulait la réponse inflammatoire, en dissimulant les composants pro-inflammatoires de la paroi bactérienne. Par contre, l’absence d’hémolysine, qui est un facteur cytotoxique potentiel, n’a pas eu d’impact majeur sur l’interaction de S. suis avec la microglie. Ces études sur les cellules microgliales ont permis de confirmer les résultats obtenus précédemment in vivo. La souche WT a induit une régulation à la hausse du TLR2 ainsi que la production de plusieurs médiateurs pro-inflammatoires, dont le TNF-α et le MCP-1. S. suis a induit la translocation du NF-kB. Cet effet était plus rapide dans les cellules stimulées par le mutant déficient en CPS, ce qui suggère que les composants de la paroi cellulaire représentent de puissants inducteurs du NF-kB. De plus, la souche S. suis WT a stimulé l’expression de la phosphotyrosine, de la PKC et de différentes cascades liées à l’enzyme mitogen-activated protein kinase (MAPK). Cependant, les cellules microgliales infectées par le mutant déficient en CPS ont montré des profils de phosphorylation plus forts et plus soutenus que celles infectées par le WT. Finalement, la capsule a aussi modulé l’expression de l’oxyde nitrique synthétase inductible (iNOS) induite par S. suis et par la production subséquente d’oxyde nitrique par la microglie. Ceci pourrait être lié in vivo à la neurotoxicité et à la vasodilatation. Nous pensons que ces résultats contribueront à une meilleure compréhension des mécanismes sous-tendant l’induction de l’inflammation par S. suis, ce qui devrait permettre, d’établir éventuellement des stratégies plus efficaces de lutte contre la septicémie et la méningite. Enfin, nous pensons que ce modèle expérimental d’infection chez la souris pourra être utilisé dans l’étude de la pathogénèse d’autres bactéries ayant le SNC pour cible.