1000 resultados para Fonctions génératrices
Resumo:
Streptococcus suis est un important pathogène porcin et agent zoonotique responsable de méningites et de septicémies. À ce jour, les mécanismes impliqués dans la réponse immunitaire de l’hôte lors de l’infection par S. suis sont peu connus; et il en est de même pour les stratégies utilisées par S. suis afin de déjouer cette réponse. L’augmentation de l’incidence et de la sévérité des cas humains souligne le besoin d’une meilleure compréhension des interactions entre S. suis et le système immunitaire afin de générer une réponse immunitaire efficace contre ce pathogène. Les cellules dendritiques (DCs) sont de puissantes cellules présentatrices d’antigènes qui stimulent les lymphocytes T et B, assurant la liaison entre l’immunité innée et l’immunité adaptative. L’objectif principal de ce projet était d’évaluer le rôle joué par différents facteurs de virulence de S. suis sur la modulation de la fonction des DCs et de la réponse T-dépendante. Nous avons examiné l’effet des facteurs clés pour la virulence de S. suis, dont la capsule polysaccharidique (CPS), les modifications de la paroi cellulaire (D-alanylation de l’acide lipotéichoïque et N-déacétylation du peptidoglycane) et la toxine suilysine, sur l’activation et la maturation de DCs murines dérivées de la moelle osseuse (bmDCs). Suite à l’infection par S. suis, les bmDCs sont activées et subissent un processus de maturation caractérisé par l’augmentation de l’expression de molécules de co-stimulation et la production de cytokines pro-inflammatoires. La CPS est le principal facteur interférant avec la production de cytokines, même si les modifications de la paroi cellulaire et la suilysine peuvent également moduler la production de certaines cytokines. Enfin, la CPS, les modifications de la paroi cellulaire et la suilysine interfèrent avec la déposition du complément à la surface des bactéries et, en conséquence, avec le « killing » dépendant du complément. Les résultats ont été confirmés à l’aide de bmDCs porcines. Nous avons aussi voulu identifier les récepteurs cellulaires impliqués dans la reconnaissance de S. suis par les DCs. Nous avons démontré que la production de cytokines et l’expression des molécules de co-stimulation par les DCs sont fortement dépendantes de la signalisation par MyD88, suggérant que les DCs reconnaissent S. suis et deviennent activées majoritairement via la signalisation par les récepteurs de type Toll (TLRs). En effet, on remarque une diminution de la production de plusieurs cytokines ainsi que de l’expression de certaines molécules de co-stimulation chez les DCs TLR2-/- ou TLR2-/- et TLR9-/- double négatives. Finalement, le récepteur NOD2 semblait jouer un rôle partiel dans l’activation des DCs suite à une infection par S. suis.Enfin, nous avons évalué les conséquences de la modulation des fonctions des DCs sur le développement de la réponse T-dépendante. Les splénocytes totaux produisent plusieurs cytokines en réponse à S. suis. Des analyses in vivo et ex vivo ont permis d’observer l’implication des cellules T CD4+ et le développement d’une réponse de type « T helper » 1 (TH1) bien que la quantité de cytokines TH1 produites lors de l’infection in vivo par S. suis demeure assez basse. La CPS de S. suis interfère avec la production de plusieurs cytokines par les cellules T in vitro. Expérimentalement, l’infection induite par S. suis résulte en de faibles niveaux de production d’anticorps anti-S. suis, mais aussi d’anticorps dirigés contre l’ovalbumine utilisée comme antigène rapporteur. Cette interférence est corrélée avec la sévérité des signes cliniques, suggérant que S. suis interfère avec le développement d’une réponse immunitaire adaptative appropriée qui serait requise pour contrôler la progression de l’infection. Les résultats de cette étude mèneront à une meilleure compréhension de la réponse immunitaire de l’hôte lors de l’infection par S. suis.
Resumo:
En cette ère de «nouvelle santé publique», les professionnels sont exhortés à détourner leur attention de l’individu afin de pouvoir mettre l’accent sur les déterminants sociaux de la santé. Un phénomène contraire s’opère dans le domaine des sciences biomédicales, où un mouvement vers la santé personnalisée permet d’envisager des soins préventifs et curatifs adaptés à chaque individu, en fonction de son profil de risque génétique. Bien qu’elles n’aient que partiellement fait leur entrée dans notre système de santé, ces avancées scientifiques risquent de changer significativement le visage de la prévention, et dans cette foulée, de susciter des débats de société importants. L'étude proposée vise à contribuer à une réflexion sur l'avenir d'une des fonctions essentielles de la santé publique en tentant de mieux comprendre comment le public perçoit la prévention basée sur le risque génétique. Ce projet de recherche qualitative consiste en l'analyse secondaire des échanges ayant eu lieu lors de quatre ateliers délibératifs auxquels ont participé des membres du public d'horizons divers, et durant lesquels ceux-ci ont débattu de la désirabilité d'une technologie préventive fictive, le «rectificateur cardiaque». La théorie de la structuration d'Anthony Giddens est utilisée comme cadre conceptuel guidant l’analyse des échanges. Celle-ci permet d’émettre les trois constats suivants: a- le « rectificateur cardiaque » est loin d’être interprété par tous les participants comme étant une intervention préventive; b- son utilisation est perçue comme étant légitime ou non dépendamment principalement des groupes de personnes qu’elle viserait; c- l’intervention proposée ne se pense pas hors contexte.
Resumo:
Ce mémoire a pour thèse que les fonctions devraient être transparentes lors de la phase de métaprogrammation. En effet, la métaprogrammation se veut une possibilité pour le programmeur d’étendre le compilateur. Or, dans un style de programmation fonctionnelle, la logique du programme se retrouve dans les définitions des diverses fonctions le composant. Puisque les fonctions sont généralement opaques, l’impossibilité d’accéder à cette logique limite les applications possibles de la phase de métaprogrammation. Nous allons illustrer les avantages que procurent les fonctions transparentes pour la métaprogrammation. Nous donnerons notamment l’exemple du calcul symbolique et un exemple de nouvelles optimisations désormais possibles. Nous illustrerons également que la transparence des fonctions permet de faire le pont entre les datatypes du programme et les fonctions. Nous allons également étudier ce qu'implique la présence de fonctions transparentes au sein d'un langage. Nous nous concentrerons sur les aspects reliés à l'implantation de ces dernières, aux performances et à la facilité d'utilisation. Nous illustrerons nos propos avec le langage Abitbol, un langage créé sur mesure pour la métaprogrammation.
Resumo:
Dues à leur importance croissante dans la dégénérescence musculaire, les mitochondries sont de plus en plus étudiées en relation à diverses myopathies. Leurs mécanismes de contrôle de qualité sont reconnus pour leur rôle important dans la santé mitochondrial. Dans cette étude, nous tentons de déterminer si le déficit de mitophagie chez les souris déficiente du gène Parkin causera une exacerbation des dysfonctions mitochondriales normalement induite par la doxorubicine. Nous avons analysé l’impact de l’ablation de Parkin en réponse à un traitement à la doxorubicine au niveau du fonctionnement cardiaque, des fonctions mitochondriales et de l’enzymologie mitochondriale. Nos résultats démontrent qu’à l’état basal, l’absence de Parkin n’induit pas de pathologie cardiaque mais est associé à des dysfonctions mitochondriales multiples. La doxorubicine induit des dysfonctions respiratoires, du stress oxydant mitochondrial et une susceptibilité à l’ouverture du pore de transition de perméabilité (PTP). Finalement, contrairement à notre hypothèse, l’absence de Parkin n’accentue pas les dysfonctions mitochondriales induites par la doxorubicine et semble même exercer un effet protecteur.
Resumo:
Certaines études ont démontrés que les connexions entre l’aire prémotrice ventrale (PMv) et la région de la main du cortex moteur primaire (M1) sont distribuées non-uniformément, ciblant des sous-régions spécifiques dans M1. Dans la présente étude nous avons voulu développer ces résultats en étudiant la distribution au sein de M1 des projections corticales issues de PMv, l’aire prémotrice dorsale (PMd), l’aire motrice supplémentaire (SMA) et les aires pariétales 1, 2 et 5. Pour se faire, nous avons combiné des approches électrophysiologiques et anatomiques chez trois singes naïfs du Nouveau Monde (Cebus apella) pour examiner l’organisation et la spécificité topographique des projections corticales dans M1. Nos résultats indiquent que quatre sous-régions à l’intérieur de la région dédiée à la main reçoivent des inputs prédominants de différentes aires sensorimotrices. Ces résultats suggèrent que des sous-régions de M1 puissent avoir des fonctions spécifiques pour le contrôle moteur de la main et des doigts.
Resumo:
L'objectif de ce mémoire est de démontrer certaines propriétés géométriques des fonctions propres de l'oscillateur harmonique quantique. Nous étudierons les domaines nodaux, c'est-à-dire les composantes connexes du complément de l'ensemble nodal. Supposons que les valeurs propres ont été ordonnées en ordre croissant. Selon un théorème fondamental dû à Courant, une fonction propre associée à la $n$-ième valeur propre ne peut avoir plus de $n$ domaines nodaux. Ce résultat a été prouvé initialement pour le laplacien de Dirichlet sur un domaine borné mais il est aussi vrai pour l'oscillateur harmonique quantique isotrope. Le théorème a été amélioré par Pleijel en 1956 pour le laplacien de Dirichlet. En effet, on peut donner un résultat asymptotique plus fort pour le nombre de domaines nodaux lorsque les valeurs propres tendent vers l'infini. Dans ce mémoire, nous prouvons un résultat du même type pour l'oscillateur harmonique quantique isotrope. Pour ce faire, nous utiliserons une combinaison d'outils classiques de la géométrie spectrale (dont certains ont été utilisés dans la preuve originale de Pleijel) et de plusieurs nouvelles idées, notamment l'application de certaines techniques tirées de la géométrie algébrique et l'étude des domaines nodaux non-bornés.
Resumo:
Les fluctuations économiques représentent les mouvements de la croissance économique. Celle-ci peut connaître des phases d'accélération (expansion) ou de ralentissement (récession), voire même de dépression si la baisse de production est persistente. Les fluctuations économiques sont liées aux écarts entre croissance effective et croissance potentielle. Elles peuvent s'expliquer par des chocs d'offre et demande, ainsi que par le cycle du crédit. Dans le premier cas, les conditions de la production se trouvent modifiées. C'est le cas lorsque le prix des facteurs de production (salaires, prix des matières premières) ou que des facteurs externes influençant le prix des produits (taux de change) évolue. Ainsi, une hausse du prix des facteurs de production provoque un choc négatif et ralentit la croissance. Ce ralentissement peut être également dû à un choc de demande négatif provoqué par une hausse du prix des produits causée par une appréciation de la devise, engendrant une diminution des exportations. Le deuxième cas concerne les variables financières et les actifs financiers. Ainsi, en période d'expansion, les agents économiques s'endettent et ont des comportements spéculatifs en réaction à des chocs d'offre ou demande anticipés. La valeur des titres et actifs financiers augmente, provoquant une bulle qui finit par éclater et provoquer un effondrement de la valeur des biens. Dès lors, l'activité économique ne peut plus être financée. C'est ce qui génère une récession, parfois profonde, comme lors de la récente crise financière. Cette thèse inclut trois essais sur les fluctuations macroéconomiques et les cycles économiques, plus précisément sur les thèmes décrit ci-dessus. Le premier chapitre s'intéresse aux anticipations sur la politique monétaire et sur la réaction des agents écononomiques face à ces anticipations. Une emphase particulière est mise sur la consommation de biens durables et l'endettement relié à ce type de consommation. Le deuxième chapitre aborde la question de l'influence des variations du taux de change sur la demande de travail dans le secteur manufacturier canadien. Finalement, le troisième chapitre s'intéresse aux retombées économiques, parfois négatives, du marché immobilier sur la consommation des ménages et aux répercussions sur le prix des actifs immobiliers et sur l'endettement des ménages d'anticipations infondées sur la demande dans le marché immobilier. Le premier chapitre, intitulé ``Monetary Policy News Shocks and Durable Consumption'', fournit une étude sur le lien entre les dépenses en biens durables et les chocs monétaires anticipés. Nous proposons et mettons en oeuvre une nouvelle approche pour identifier les chocs anticipés (nouvelles) de politique monétaire, en les identifiant de manière récursive à partir des résidus d’une règle de Taylor estimée à l’aide de données de sondage multi-horizon. Nous utilisons ensuite les chocs anticipés inférer dans un modèle autorégressif vectoriel structurel (ARVS). L’anticipation d’une politique de resserrement monétaire mène à une augmentation de la production, de la consommation de biens non-durables et durables, ainsi qu’à une augmentation du prix réel des biens durables. Bien que les chocs anticipés expliquent une part significative des variations de la production et de la consommation, leur impact est moindre que celui des chocs non-anticipés sur les fluctuations économiques. Finalement, nous menons une analyse théorique avec un modèle d’équilibre général dynamique stochastique (EGDS) avec biens durables et rigidités nominales. Les résultats indiquent que le modèle avec les prix des biens durables rigides peut reproduire la corrélation positive entre les fonctions de réponse de la consommation de biens non-durables et durables à un choc anticipé de politique monétaire trouvées à l’aide du ARVS. Le second chapitre s'intitule ``Exchange Rate Fluctuations and Labour Market Adjustments in Canadian Manufacturing Industries''. Dans ce chapitre, nous évaluons la sensibilité de l'emploi et des heures travaillées dans les industries manufacturières canadiennes aux variations du taux de change. L’analyse est basée sur un modèle dynamique de demande de travail et utilise l’approche en deux étapes pour l'estimation des relations de cointégration en données de panel. Nos données sont prises d’un panel de 20 industries manufacturières, provenant de la base de données KLEMS de Statistique Canada, et couvrent une longue période qui inclut deux cycles complets d’appréciation-dépréciation de la valeur du dollar canadien. Les effets nets de l'appréciation du dollar canadien se sont avérés statistiquement et économiquement significatifs et négatifs pour l'emploi et les heures travaillées, et ses effets sont plus prononcés dans les industries davantage exposées au commerce international. Finalement, le dernier chapitre s'intitule ``Housing Market Dynamics and Macroprudential Policy'', dans lequel nous étudions la relation statistique suggérant un lien collatéral entre le marché immobilier and le reste de l'économique et si ce lien est davantage entraîné par des facteurs de demandes ou d'offres. Nous suivons également la littérature sur les chocs anticipés et examinons un cyle d'expansion-récession peut survenir de façon endogène la suite d'anticipations non-réalisées d'une hausse de la demande de logements. À cette fin, nous construisons un modèle néo-Keynésien au sein duquel le pouvoir d’emprunt du partie des consommateurs est limité par la valeur de leur patrimoine immobilier. Nous estimons le modèle en utilisant une méthode Bayésienne avec des données canadiennes. Nous évaluons la capacité du modèle à capter les caractéristiques principales de la consommation et du prix des maisons. Finalement, nous effectuons une analyse pour déterminer dans quelle mesure l'introduction d'un ratio prêt-à-la-valeur contracyclique peut réduire l'endettement des ménages et les fluctuations du prix des maisons comparativement à une règle de politique monétaire répondant à l'inflation du prix des maisons. Nous trouvons une relation statistique suggérant un important lien collatéral entre le marché immobilier et le reste de l'économie, et ce lien s'explique principalement par des facteurs de demande. Nous constatons également que l'introduction de chocs anticipés peut générer un cycle d'expansion-récession du marché immobilier, la récession faisant suite aux attentes non-réalisées par rapport à la demande de logements. Enfin, notre étude suggère également qu'un ratio contracyclique de prêt-à-la-valeur est une politique utile pour réduire les retombées du marché du logement sur la consommation par l'intermédiaire de la valeur garantie.
Resumo:
La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.
Resumo:
Les immunités législatives pour bonne foi sont une composante importante des règles spécifiques s’appliquant à la responsabilité civile des administrations publiques. Apparues dans les années 1940 au Québec, elles visent à insuffler à la responsabilité civile les considérations propres à l’action étatique (difficulté des tâches, pouvoir discrétionnaire, liberté d’action, etc.). Or, la notion principale de ces immunités, la bonne foi, est d’une nature fragile. Tiraillée entre une vision subjective et objective, elle souffre de nombreuses lacunes. Originalement fondée sur l’évaluation de l’état d’esprit d’une personne, la bonne foi reproduit dorénavant le concept de faute lourde présent en responsabilité civile. Il en résulte un système qui crée de la confusion sur l’état mental nécessaire pour entrainer la responsabilité d’une administration publique. Au surplus, le régime de la bonne foi est variable et change selon les fonctions exercées par les administrations publiques. Ces attributs mettent en exergue le peu d’utilité de cette notion : la bonne foi dédouble plusieurs éléments déjà présents en responsabilité civile québécoise et partant de là, affaiblit sa place comme règle particulière applicable aux administrations publiques. Bref, par son caractère adaptable, la bonne foi est un calque de la responsabilité civile québécoise et son faible apport embrouille le régime de cette dernière.
Resumo:
Les cellules myéloïdes incluant les monocytes, les macrophages et les cellules dendritiques (DCs, dendritic cells) contribuent à la pathogénèse de l’infection à VIH-1 en participant à la dissémination du virus, mais également en représentant des réservoirs viraux potentiels. Leurs fonctions sont exploitées par le VIH-1 afin d’assurer sa propagation à travers l’organisme. Notamment, une infection à VIH-1 est associée à une altération de la présentation antigénique et la perte de lymphocytes T CD4+ spécifiques à des antigènes. L’autophagie est un processus catabolique universel impliqué dans la régulation de la présentation antigénique subséquente à la neutralisation/destruction du pathogène. Des études récentes suggèrent que le VIH-1 altère le mécanisme d’autophagie afin d’assurer sa survie. Le premier volet de ce projet de maîtrise a visé la caractérisation des effets du VIH-1 sur l’autophagie dans les DCs dérivées de monocytes circulants (MDDC, monocyte-derived dendritic cells) et l’identification des stratégies thérapeutiques pour contrecarrer ces effets. Les objectifs spécifiques ont été de : (i) caractériser l’expression de marqueurs de maturation sur des MDDC exposées au VIH-1 in vitro, (ii) quantifier l’expression des protéines liées à la régulation positive (i.e., ATG5, LC3, p62) et négative (i.e., mTOR) de l’autophagie dans les MDDC exposées au VIH, (iii) déterminer le rôle de l’autophagie dans la trans infection du VIH-1 aux lymphocytes T CD4+ et (iv) explorer l’impact de l’autophagie sur la présentation antigénique par les MDDC infectées à VIH-1 in vitro. Nos résultats démontrent qu’une exposition des MDDC au VIH-1 in vitro altère dramatiquement leur maturation et leur habileté à induire la prolifération des cellules T autologues en réponse à Staphylococcus aureus et Cytomegalovirus (CMV) mais pas la réponse induite par Staphylococcal enterotoxin B (SEB). Nous démontrons que l’exposition des MDDC au VIH s’associe à une augmentation de l’expression de la protéine mTOR totale et de sa forme phosphorylée (phospho-mTOR) et de la protéine p62. Le traitement des MDDC à la rapamycine diminue l’expression de mTOR et réduit la capacité de trans infection du VIH-1 par les MDDC, sans toutefois restaurer leur potentiel immunogène. En effet, nous observons que la rapamycine réduit l’expression de CD83 par les MDDC et augmente l’expression de CCR7, indiquant ainsi que l’effet immunosuppresseur documenté de la rapamycine est associé à une défaillance de maturation des MDDC. Le second volet de ce projet de recherche s’est intéressé à la contribution des cellules myéloïdes à la persistance virale chez les sujets infectés par le VIH-1 sous thérapie antirétrovirale. Les objectifs spécifiques ont été : (i) d’évaluer la présence de différentes formes d’ADN viral dans les monocytes circulants de patients infectés par le VIH-1 et (ii) de mesurer l’intégration et la réplication virale dans des macrophages dérivés de monocytes (MDM) de patients infectés sous ART. Nos résultats indiquent que les monocytes portent des formes précoces de transcription virale inverse (ADN du VIH RU5) et que, malgré une charge virale plasmatique indétectable sous ART, les MDM supportent la réplication virale. Ces données très préliminaires apportent des évidences en faveur de la contribution des cellules myéloïdes à la persistance virale sous ART et représentent une ouverture pour un projet de recherche plus complexe dans le futur. En somme, nos résultats démontrent que le VIH-1 altère le potentiel immunogène des MDDC et que la rapamycine peut être employée pour limiter la trans infection des lymphocytes T CD4+ par les MDDC. Néanmoins, l’incapacité de la rapamycine à rétablir le potentiel immunogène des MDDC incite à identifier de nouvelles stratégies manipulant l’autophagie pour une restauration optimale de la compétence immunitaire chez les sujets infectés à VIH-1. Les cellules myéloïdes jouent un rôle primordial dans la dissémination et la persistance virale et doivent donc être ciblées par les stratégies actuelles d’éradication des réservoirs du VIH sous ART.
Resumo:
La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.
Resumo:
clRNG et clProbdist sont deux interfaces de programmation (APIs) que nous avons développées pour la génération de nombres aléatoires uniformes et non uniformes sur des dispositifs de calculs parallèles en utilisant l’environnement OpenCL. La première interface permet de créer au niveau d’un ordinateur central (hôte) des objets de type stream considérés comme des générateurs virtuels parallèles qui peuvent être utilisés aussi bien sur l’hôte que sur les dispositifs parallèles (unités de traitement graphique, CPU multinoyaux, etc.) pour la génération de séquences de nombres aléatoires. La seconde interface permet aussi de générer au niveau de ces unités des variables aléatoires selon différentes lois de probabilité continues et discrètes. Dans ce mémoire, nous allons rappeler des notions de base sur les générateurs de nombres aléatoires, décrire les systèmes hétérogènes ainsi que les techniques de génération parallèle de nombres aléatoires. Nous présenterons aussi les différents modèles composant l’architecture de l’environnement OpenCL et détaillerons les structures des APIs développées. Nous distinguons pour clRNG les fonctions qui permettent la création des streams, les fonctions qui génèrent les variables aléatoires uniformes ainsi que celles qui manipulent les états des streams. clProbDist contient les fonctions de génération de variables aléatoires non uniformes selon la technique d’inversion ainsi que les fonctions qui permettent de retourner différentes statistiques des lois de distribution implémentées. Nous évaluerons ces interfaces de programmation avec deux simulations qui implémentent un exemple simplifié d’un modèle d’inventaire et un exemple d’une option financière. Enfin, nous fournirons les résultats d’expérimentation sur les performances des générateurs implémentés.
Resumo:
L’encéphalopathie hépatique (EH) est une complication neuropsychiatrique de la maladie de foie telle que la cirrhose, caractérisée par des dysfonctions cognitives et motrices. Le seul traitement curatif est la transplantation hépatique (TH). Historiquement, l’EH est considérée comme un désordre métabolique réversible et il est attendu qu’il soit résolu suivant la TH. Cependant, il a été démontré que des complications neurologiques persistent chez 47% des patients transplantés. La TH est une opération chirurgicale complexe accompagnée de stress péri-opératoire telle que la perte sanguine et l’hypotension. L’hypothèse de ce projet d’étude est que l’EH minimale (EHm) rend le cerveau plus susceptible à une perte neuronale suite à une insulte hypotensive. Nous avons donc caractérisé un modèle d’hypotension chez des rats cirrhotiques avec ligation de la voie biliaire (BDL) dans lequel une hypovolémie de l’artère fémorale a été faite. Avec ce modèle, nous avons étudié l’impact de différentes pressions sanguines de 120 minutes sur le compte neuronal. Nos résultats démontrent que les BDL hypotendus à une pression artérielle moyenne de 60 mmHg et 30 mmHg ont une diminution du compte neuronal et que les neurones mourraient par apoptose (observée par la présence de caspase-3 clivée). Nous avons également déterminé que le flot sanguin cérébral était altéré chez les rats cirrhotiques BDL. Le second objectif était d’évaluer si le traitement de l’EHm par l’ornithine phénylacétate (OP) permettait d’éviter la perte neuronale chez les BDL hypotendus. Nos résultats ont démontrés que l’OP permettait de partiellement rétablir les fonctions cognitives chez les rats BDL. De plus, les rats BDL traités avec l’OP peuvent éviter la mort neuronale. Cependant, le processus apoptotique est toujours enclenché. Ce résultat suggère la possibilité de mort cellulaire retardée par l’OP. Ces résultats suggèrent que les patients cirrhotiques avec EHm sont plus susceptibles à une mort neuronale induite par hypotension. La combinaison de l’EHm et l’hypotension permet d’expliquer les complications neurologiques rencontrées chez certains patients. Le diagnostic et le traitement de ce syndrome doit donc être fait chez les patients cirrhotiques pour éviter ces complications post-TH.
Resumo:
La gestion des villes d’Afrique de l’Ouest pose problème à la période contemporaine : extension urbaine non maitrisée, services de base insuffisants, insécurité foncière. À travers l’aide internationale, d’importantes réformes visant à améliorer son efficacité ont pourtant été mises en place, mais elles semblent avoir été inefficaces. Dépassant ce constat d’échec, la thèse vise à comprendre comment se déroule l’acte de gérer la ville dans les circonstances particulières des villes d’Afrique de l’Ouest. La mise en œuvre du Registre foncier urbain (RFU), système d’information foncière municipal multi-fonctions introduit au Bénin à travers des programmes de développement au début des années 1990, constitue le prisme à travers lequel la gestion urbaine est analysée. Celle-ci est ainsi approchée par les actes plutôt que par les discours. S’appuyant sur une démarche socio-anthropologique, la mise en œuvre de l’instrument est analysée depuis le point de vue des acteurs locaux et selon une double grille de lecture : d’une part, il s’agit de saisir les logiques de l’appropriation locale dont le RFU a fait l’objet au sein des administrations; d’autre part, il s’agit de comprendre son interaction avec le territoire, notamment avec les dynamiques complexes d’accès au sol et de sécurisation foncière. Une étude de cas multiple a été menée dans trois communes : Cotonou, Porto-Novo et Bohicon. Deux ensembles de conclusions en découlent. Tout d’abord, le RFU s’est imposé comme l’instrument pivot de la fiscalité locale, mais est mis en œuvre de manière minimale. Ce fonctionnement particulier est une adaptation optimale à un contexte fait de rivalités professionnelles au sein d’administrations cloisonnées, d’enjeux politico-financiers liés aux différentes sources de revenus communaux et de tensions politico-institutionnelles liées à une décentralisation tardive. Les impacts du RFU en termes de développement des compétences professionnelles nationales sont insuffisants pour réformer la gestion urbaine depuis l’intérieur de l’administration municipale. Ensuite, alors qu’il vise à centraliser l’information sur les propriétaires présumés de la terre, le RFU se heurte à la marchandisation de cette information et à la territorialisation de la régulation foncière. La mise en œuvre du RFU s’en trouve affectée de deux manières : d’une part, elle s’insère dans ces circuits marchands de l’information foncière, avec cependant peu de succès ; d’autre part, elle a un impact différencié selon les territoires de la régulation foncière. En définitive, l’acte de gérer la ville au Bénin n’est pas devenu automatique avec l’introduction d’instruments comme le RFU. La municipalité se repose plutôt sur les piliers classiques de l’action publique, l’administration et le politique, pour gérer la ville plurielle de manière différenciée. À l’endroit des concepteurs d’action publique, cette thèse plaide pour une prise en compte des modes de régulation existant dans les sociétés africaines, fussent-ils pluriels, reconnaissant les voies originales que prend la construction des institutions en Afrique.
Resumo:
Dans le cortex visuel des mammifères, une cellule à panier (BC) qui représente un sous-type majoritaire d’interneurones GABAergiques, innerve une centaine de neurones par une multitude de synapses localisées sur le soma et sur les dendrites proximales de chacune de ses cibles. De plus, ces cellules sont importantes pour la génération des rythmes gammas, qui régulent de nombreuses fonctions cognitives, et pour la régulation de la plasticité corticale. Bien que la fonction des BC au sein des réseaux corticaux est à l'étude, les mécanismes qui contrôlent le développement de leur arborisation complexe ainsi que de leurs nombreux contacts synaptiques n’ont pas été entièrement déterminés. En utilisant les récepteurs allatostatines couplés aux protéines G de la drosophile (AlstR), nous démontrons in vitro que la réduction de l'excitation ainsi que la réduction de la libération des neurotransmetteurs par les BCs corticales individuelles des souris, diminuent le nombre de cellules innervées sans modifier le patron d'innervation périsomatique, durant et après la phase de prolifération des synapses périsomatiques. Inversement, lors de la suppression complète de la libération des neurotransmetteurs par les BCs individuelles avec l’utilisation de la chaîne légère de la toxine tétanus, nous observons des effets contraires selon le stade de développement. Les BCs exprimant TeNT-Lc pendant la phase de prolifération sont caractérisées par des arborisations axonales plus denses et un nombre accru de petits boutons homogènes autour des somas innervés. Toutefois, les cellules transfectées avec TeNT-Lc après la phase de la prolifération forment une innervation périsomatique avec moins de branchements terminaux d’axones et un nombre réduit de boutons avec une taille irrégulière autour des somas innervés. Nos résultats révèlent le rôle spécifique des niveaux de l’activité neuronale et de la neurotransmission dans l'établissement du territoire synaptique des cellules GABAergiques corticaux. Le facteur neurotrophique dérivé du cerveau (BDNF) est un modulateur puissant de la maturation activité-dépendante des synapses GABAergiques. Grâce à l'activation et à la signalisation de son récepteur tyrosine kinase B (TrkB), la liaison de mBDNF module fortement la prolifération des synapses périsomatiques GABAergiques formés par les BCs. Par contre, le rôle du récepteur neurotrophique de faible affinité, p75NTR, dans le développement du territoire synaptique des cellules reste encore inconnu. Dans ce projet, nous démontrons que la suppression de p75NTR au niveau des BCs individuelles in vitro provenant de souris p75NTRlox induit la formation d'une innervation périsomatique exubérante. BDNF est synthétisé sous une forme précurseur, proBDNF, qui est par la suite clivée par des enzymes, y compris la plasmine activée par tPA, pour produire une forme mature de BDNF (m)BDNF. mBDNF et proBDNF se lient avec une forte affinité à TrkB et p75NTR, respectivement. Nos résultats démontrent qu’un traitement des cultures organotypiques avec la forme résistante au clivage de proBDNF (mut-proBDNF) réduit fortement le territoire synaptique des BCs. Les cultures traitées avec le peptide PPACK, qui inactive tPA, ou avec tPA altèrent et favorisent respectivement la maturation de l’innervation synaptique des BCs. Nous démontrons aussi que l’innervation exubérante formée par les BCs p75NTR-/- n’est pas affectée par un traitement avec mut-proBDNF. L’ensemble de ces résultats suggère que l'activation de p75NTR via proBDNF régule négativement le territoire synaptique des BCs corticaux. Nous avons ensuite examiné si mut-proBDNF affecte l’innervation périsomatique formée par les BCs in vivo, chez la souris adulte. Nous avons constaté que les boutons GABAergiques périsomatiques sont significativement diminués dans le cortex infusé avec mut-proBDNF par rapport à l’hémisphère non-infusé ou traité avec de la saline. En outre, la plasticité de la dominance oculaire (OD) est rétablie par ce traitement chez la souris adulte. Enfin, en utilisant des souris qui ne possèdent pas le récepteur p75NTR dans leurs BCs spécifiquement, nous avons démontré que l'activation de p75NTR via proBDNF est nécessaire pour induire la plasticité de la OD chez les souris adultes. L’ensemble de ces résultats démontre un rôle critique de l'activation de p75NTR dans la régulation et le maintien de la connectivité des circuits GABAergiques, qui commencent lors du développement postnatal précoce jusqu’à l'âge adulte. De plus, nous suggérons que l'activation contrôlée de p75NTR pourrait être un outil utile pour restaurer la plasticité dans le cortex adulte.