579 resultados para Température de surface du sol
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Les différentes protéines accessoires du VIH-1, l’agent étiologique du SIDA, optimisent la réplication et la propagation du virus in vivo. Parmi ces dernières figure Vpu, l’antagoniste du facteur de restriction nommé Tetherin qui prévient la relâche des particules virales à partir de la surface de cellules infectées. En diminuant son expression de surface, Vpu prévient l’incorporation de ce facteur de restriction dans la particule virale en formation et conséquemment, empêche la formation d’une ancre protéique reliant le virus mature à la membrane plasmique de la cellule infectée. La mécanistique sous-jacente n’était cependant pas connue. Cette présente thèse relate nos travaux exécutés afin d’élucider la dynamique des mécanismes cellulaires responsables de cet antagonisme. Une approche de mutagénèse dirigée a d’abord permis d’identifier deux régions contenant des déterminants de la localisation de Vpu dans le réseau trans-Golgi (RTG), puis de démontrer la relation existante entre cette distribution et l’augmentation de la relâche des particules virales. Des expériences subséquentes de marquage métabolique suivi d’une chasse exécutées dans des systèmes cellulaires où Tetherin est exprimée de façon endogène ont suggéré le caractère dispensable de l’induction par Vpu de la dégradation du facteur de restriction lors de son antagonisme. En revanche, une approche de réexpression de Tetherin conduite en cytométrie en flux, confirmée en microscopie confocale, a mis en évidence une séquestration de Tetherin dans le RTG en présence de Vpu, phénomène qui s’est avéré nécessiter l’interaction entre les deux protéines. L’usage d’un système d’expression de Vpu inductible conjugué à des techniques de cytométrie en flux nous a permis d’apprécier l’effet majeur de Vpu sur la Tetherin néo-synthétisée et plus mineur sur la Tetherin de surface. En présence de Vpu, la séquestration intracellulaire de la Tetherin néo-synthétisée et la légère accélération de l’internalisation naturelle de celle en surface se sont avérées suffisantes à la réduction de son expression globale à la membrane plasmique et ce, à temps pour l’initiation du processus de relâche virale. À la lumière de nos résultats, nous proposons un modèle où la séquestration de la Tetherin néo-synthétisée dans le RTG préviendrait le réapprovisionnement de Tetherin en surface qui, combinée avec l’internalisation naturelle de Tetherin à partir de la membrane plasmique, imposerait l’établissement d’un nouvel équilibre de Tetherin incompatible avec une restriction de la relâche des particules virales. Cette thèse nous a donc permis d’identifier un processus par lequel Vpu augmente la sécrétion de virus matures et établit une base mécanistique nécessaire à la compréhension de la contribution de Vpu à la propagation et à la pathogénèse du virus, ce qui pourrait mener à l’élaboration d’une stratégie visant à contrer l’effet de cette protéine virale.
Resumo:
Les récepteurs couplés aux protéines G (RCPGs) forment la plus grande et la plus diversifiée des familles de protéines localisées à la surface cellulaire et responsables de la transmission de signaux à l’intérieur des cellules. D’intenses recherches effectuées au cours des trente dernières années ont mené à l’identification de dizaines de protéines interagissant avec les RCPGs et contrôlant la signalisation, la désensibilisation, l’internalisation et la dégradation de ces importantes cibles pharmacologiques. Contrairement aux processus régulant l’activité des récepteurs à partir de la membrane plasmique, les mécanismes moléculaires contrôlant la biosynthèse des RCPGs dans le reticulum endoplasmique (RE) et leur transport jusqu’à la surface cellulaire sont très peu caractérisés. Une meilleure compréhension de ces processus nécessite l’identification de la machinerie protéique responsable de la maturation des RCPGs. Un crible protéomique basé sur le transfert d’énergie de résonance de bioluminescence (BRET), qui permet la mesure d’interactions protéiques dans les cellules vivantes, a mené à l’identification de plusieurs nouvelles protéines localisées dans la voie de sécrétion et interagissant potentiellement avec les RCPGs. Ces protéines étant localisées dans les compartiments cellulaires (reticulum endoplasmique et appareil de Golgi) responsables de la synthèse, du repliement adéquat et du transport à la membrane plasmique des récepteurs, il est très probable qu’elles soient impliquées dans le contrôle de l’expression des RCPGs à la surface cellulaire. La caractérisation de l’homologue humain de cornichon 4 (CNIH4), un nouvel intéracteur des RCPGs identifié dans le crible, a démontré que cette protéine localisée dans les compartiments précoces de la voie de sécrétion (RE et ERGIC) interagit de façon sélective avec les RCPGs. De plus, la suppression de l’expression endogène de cette protéine préalablement non-caractérisée, diminue le transport à la membrane plasmique d’un récepteur, indiquant que CNIH4 influence positivement l’export des RCPGs du RE. Ceci est supporté par l’observation que la surexpression de CNIH4 à de faibles niveaux favorise la maturation d’un récepteur mutant normalement retenu dans le RE. Nous avons également pu démontrer que CNIH4 est associée à la protéine Sec23, une des composantes de l’enveloppe des vésicules COPII qui sont responsables du transport des protéines du RE vers le Golgi, suggérant que CNIH4 pourrait favoriser le recrutement des récepteurs dans ces vésicules. La surexpression de CNIH4 à de très hauts niveaux provoque également la rétention intracellulaire des récepteurs. Cet effet dominant négatif pourrait être causé par la titration d’un autre facteur d’export des RCPGs. Une deuxième étude a permis de révéler que la protéine transmembranaire 9 (TMEM9), un nouvel intéracteur des RCPGs également identifié dans le crible, interagit sélectivement avec les récepteurs et avec CNIH4. La surexpression de cette protéine aux fonctions précédemment inconnues, rétablit le transport normal d’un récepteur en présence de CNIH4 surexprimée. De plus, la co-expression de TMEM9 potentialise la capacité de CNIH4 à augmenter la maturation d’un récepteur mutant normalement retenu dans le RE, suggérant que ces deux protéines forment un complexe régulant la maturation des RCPGs. Au cours de cette thèse, de nouvelles protéines interagissant avec les RCPGs et contrôlant leur expression à la membrane plasmique ont donc été identifiées, permettant une meilleure compréhension des mécanismes régulant le transport des récepteurs du RE à la surface cellulaire.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
La transplantation de sang de cordon ombilical (TSCO) est utilisée pour traiter les enfants atteints de maladies hématologiques en l’absence de donneurs apparentés compatibles. Elle est associée avec des risques plus élevés d’échec de greffe et d’infections opportunistes dans les premiers mois qui suivent la transplantation en comparaison avec une greffe de moelle osseuse. Par contre, la TSCO comporte un risque plus faible de maladie du greffon contre l’hôte et une incidence comparable de rechute de leucémie. Ces quatre complications impliquent directement les lymphocytes T. Dans le but de mieux comprendre le schéma particulier des évènements qui suivent la TSCO et d’améliorer le pronostic des patients, nous avons étudié le potentiel fonctionnel, la persistance et la reconstitution antivirale des lymphocytes T au sein d’un groupe d’enfants transplantés de sang de cordon ombilical (SCO). Étant donné que le SCO contient une majorité de lymphocytes T naïfs, nous avons étudié les lymphocytes T spécifiques au HLA-A2:Melan-A26-35 A27L; seul répertoire naïf et abondant caractérisé chez l’homme. Nous avons observé que les lymphocytes T du SCO se différencient en populations effectrices, s’oligoclonalisent, produisent de l’IFN-γ et lysent spécifiquement leur cible suite à la stimulation. Néanmoins, ces cellules produisent moins d’IFN-γ et sont moins bifonctionnelles que leurs homologues issus du sang périphérique d’adultes. Chez les patients, les lymphocytes T du SCO s’épuisent après la TSCO : ils s’oligoclonalisent dramatiquement, sont principalement en différenciation terminale, et une importante fréquence exprime PD-1 (« programmed death-1 ») dans les 3 à 6 premiers mois post-greffe. Très peu de patients sont capables de développer des réponses antivirales durant cette période et la fréquence de lymphocytes T qui expriment PD-1 semble aussi avoir un impact sur le risque subséquent de faire une rechute de leucémie. La deuxième vague de lymphocytes T émergeant à 6 mois post-TSCO mène à une population fonctionnelle et diversifiée. En conclusion, la fonctionnalité des lymphocytes T présents dans les 3 à 6 premiers mois post-TSCO doit être rétablie pour améliorer les risques d’infections opportunistes et de rechute de leucémie.
Resumo:
Les propriétés d'une nouvelle classe de chimie de surface basée sur les monocouches auto-assemblées de liquides ioniques (ILs-SAMs), ont été étudiées pour une utilisation dans la construction de biocapteurs basés sur la résonance des plasmons de surface (SPR). Les biocapteurs sont utiles pour détecter des biomolécules spécifiques dans une matrice biologique complexe. Cependant, le signal analytique de la biomolécule spécifique peut être masqué par l’adsorption non spécifique de la matrice biologique, produisant une réponse faussement positive. Par ailleurs, l'activité des récepteurs moléculaires est souvent réduite par des techniques d'immobilisation chimique. Ainsi, il est essentiel de déterminer une surface idéale pour la préparation de biocapteurs. Les liquides ioniques sont bien connus pour favoriser l'activité des récepteurs moléculaires et cette étude enquête si cette propriété importante peut se traduire sur des capteurs SPR. Différents liquides ioniques ont été utilisés pour former des monocouches auto-assemblées sur une surface d'or. Les ILs-SAMs sont tous basés sur les sels de mercapto-(chaîne alkyle)nCH2-méthylimidazolium avec différentes chaînes alkyles (n = 3, 6, 9, 12) et différents contre-anions (Br-, BF4-, PF6-, NTf2-). Des études cinétiques de l'adsorption non spécifique de sérum bovin ont été réalisées sur des capteurs SPR avec un instrument construit sur mesure, basé sur l'interrogation des longueurs d’ondes SPR sur un prisme d’inversion d’image (dove). Par la suite, l’anti-IgG de chèvre sélective à l’IgG humain a été utilisé en tant que modèle pour la confection de biocapteurs sur les ILs-SAMs. En solution, il est possible d’effectuer des échanges du contre-anion des liquides ioniques pour un contre-anion de plus en plus hydrophobe. Cependant, l’échange inverse, soit vers des anions de plus en plus hydrophile, s’avère impossible. Toutefois, il a été observé par les travaux présentés dans ce mémoire, que les liquides ioniques immobilisés sur une surface d'or ont la capacité d'échanger leurs contre-anions réversiblement, procurant une méthode simple de moduler leurs propriétés physico-chimiques. Ce phénomène a été observé par la mesure d’angles de contacts et par les techniques spectroscopiques de l’infrarouge moyen (mid-IR), des photoélectrons de rayon-X (XPS) et par la diffusion Raman exaltée par les surfaces (SERS) ii ainsi que par la spectrométrie de masse (MS). La connaissance des propriétés d’échange d’anion est importante pour prédire le comportement de ces surfaces de liquides ioniques dans les tampons et fluides biologiques.
Resumo:
Le présent mémoire traite de la description du LaOFeAs, le premier matériau découvert de la famille des pnictures de fer, par la théorie de la fonctionnelle de la densité (DFT). Plus particulièrement, nous allons exposer l’état actuel de la recherche concernant ce matériau avant d’introduire rapidement la DFT. Ensuite, nous allons regarder comment se comparent les paramètres structuraux que nous allons calculer sous différentes phases par rapport aux résultats expérimentaux et avec les autres calculs DFT dans la littérature. Nous allons aussi étudier en détails la structure électronique du matériau sous ses différentes phases magnétiques et structurales. Nous emploierons donc les outils normalement utilisés pour mieux comprendre la structure électronique : structures de bandes, densités d’états, surfaces de Fermi, nesting au niveau de Fermi. Nous tirerons profit de la théorie des groupes afin de trouver les modes phononiques permis par la symétrie de notre cristal. De plus, nous étudierons le couplage électrons-phonons pour quelques modes. Enfin, nous regarderons l’effet de différentes fonctionnelles sur nos résultats pour voir à quel point ceux-ci sont sensibles à ce choix. Ainsi, nous utiliserons la LDA et la PBE, mais aussi la LDA+U et la PBE+U.
Resumo:
L’infection à VIH-1 est associée à une forte déplétion des lymphocytes T CD4+ à polarisation Th17 au niveau des tissus lymphoïdes associés aux muqueuses intestinales (GALT, gut-associated lymphoid tissues). Ceci conduit à la translocation microbienne, qui est une cause d’activation immunitaire chronique et de progression de la maladie. Les cellules épithéliales (CE) jouent un rôle critique dans le maintien de l’intégrité et de l’homéostasie au niveau des muqueuses intestinales via le recrutement des cellules de l’immunité innée (e.g., neutrophiles) et adaptative (e.g., cellules Th17). Les neutrophiles produisent des molécules antivirales (e.g., défensines-) et ont la capacité de limiter la réplication virale au niveau des muqueuses. Les cellules Th17 jouent un double rôle lors de l’infection à VIH. Elles contribuent d’une part à la défense contre différents pathogènes opportunistes en augmentant, via la production d’IL-17, la capacité des CE à attirer les cellules Th17 et les neutrophiles. D’autre part, les cellules Th17 jouent un rôle délétère en tant que cibles de réplication virale et sources de cytokines pro-inflammatoires. La fréquence des cellules Th17 est diminuée dans les GALT mais pas dans les poumons des patients infectés par le VIH, suggérant qu’il existe des mécanismes différents par lesquels les cellules Th17 sont recrutées vers ces sites anatomiques. Nous avons testé l’hypothèse selon laquelle le VIH interfère avec la capacité des CE intestinales et non pas pulmonaires à produire des chimiokines (CK) responsables de l’attraction des cellules Th17 et des neutrophiles. Nous avons démontré que les CE intestinales et pulmonaires produisent des CK spécifiques pour les cellules Th17 (CCL20) et les neutrophiles (CXCL8) en réponse à des stimuli pro-inflammatoires tels que l’IL-1 et le TNF-. Le TNF- agit en synergie avec l’IL-17, un « signal de danger » récemment identifié, et augmente la capacité des CE intestinales mais pas pulmonaires à produire la chimiokine CCL20. Cette synergie s’explique par l’augmentation préférentielle de l’expression du récepteur à l’IL-17 à la surface des CE intestinales suite à la stimulation par le TNF-. L’exposition au VIH n’affecte pas la production de CCL20 et de CXCL8 par les CE intestinales, mais altère la capacité des CE alvéolaires à produire ces chimiokines en accord avec la permissivité sélective de ces dernières à l’infection par le VIH. En conclusion, nos résultats démontrent que (i) le VIH n’interfère pas directement avec la capacité des CE intestinales à recruter des cellules Th17 et des neutrophils et que (ii) la production de CCL20 par ces cellules est dépendantes de la synergie entre le TNF- et l’IL-17. Ainsi, la déplétion des cellules Th17 et la pénurie en IL-17 dans les GALT des sujets infectés pourrait causer de façon préférentielle des altérations fonctionnelles au niveau des CE intestinales, se traduisant par l’altération du recrutement des cellules Th17 en réponse au CCL20.
Resumo:
Alors que la plaquette a un rôle prépondérant dans le maintient de l'hémostase, son implication dans la formation de la thrombose est également incontestée. Il existe à présent des traitements antiplaquettaires mais ceux-ci présentent quelques failles. Le but de ma maîtrise a donc été de caractériser de nouvelles voies d'inhibition de l'activité plaquettaire. Les deux études qui ont été réalisées concernent l'inhibition de récepteurs couplés aux protéines G, soit le récepteur à l'ADP P2Y1 et le récepteur à la thrombine PAR-1. Dans un premier temps, l'étude du récepteur P2Y1 suggère que l'inhibition de celui-ci seul ou en combinaison avec l'inhibition du récepteur P2Y12 présente un potentiel thérapeutique chez des patients coronariens stables. Dans un deuxième temps, l'étude d'un nouvel antiplaquettaire qui est présentement en phase III de son développement clinique, soit le SCH 530348, a été effectuée. Étant un antagoniste du récepteur PAR-1, le SCH 530348 a des effets qui se répercutent à la fois chez la plaquette et les leucocytes qui possèdent eux aussi ce récepteur. Cette deuxième étude suggère que complémentairement à son effet chez la plaquette, cet inhibiteur diminue les marqueurs de l'inflammation systémique.
Resumo:
Le béluga du Saint-Laurent est une espèce menacée au Canada et protégée par la Loi sur les espèces en péril du Canada. La détermination des fonctions biologiques de ses habitats essentiels est nécessaire afin d’assurer le rétablissement de la population. Parcs Canada a entamé en 2009 un suivi des proies du béluga dans deux de ses aires de fréquentation intensive situées dans le Parc marin du Saguenay–Saint-Laurent : l’embouchure de la rivière Saguenay et la baie Sainte-Marguerite. L’étude de l’abondance et de la distribution des proies est réalisée par sondage hydroacoustique le long de transects à l’aide d’un échosondeur multifréquences. Un protocole d’observations systématiques du béluga est mené simultanément aux sondages hydroacoustiques à partir de sites terrestres. Le premier objectif de cette étude est de développer la méthodologie concernant le traitement, la classification et la cartographie des données hydroacoustiques échantillonnées. L’objectif principal consiste à déterminer si l’abondance et la distribution des proies pélagiques ont une influence sur l’utilisation de ces deux habitats par le béluga. La cartographie de la biomasse relative de poissons a été réalisée pour la couche de surface, la couche en profondeur et pour l’ensemble de la colonne d’eau par krigeage ordinaire pour les deux habitats pour les 29 transects. À la baie Sainte-Marguerite, le nombre de bélugas observés augmente avec la biomasse relative des proies en surface et en profondeur. À l’embouchure de la rivière Saguenay, les résultats n’ont pas été concluants. Les résultats suggèrent que l’alimentation pourrait être l’une des fonctions biologiques de la baie Sainte-Marguerite.
Resumo:
La différentiation entre le « soi » et le « non-soi » est un processus biologique essentiel à la vie. Les peptides endogènes présentés par les complexes majeurs d’histocompatibilité de classe I (CMH I) représentent le fondement du « soi » pour les lymphocytes T CD8+. On donne le nom d’immunopeptidome à l’ensemble des peptides présentés à la surface cellulaire par les molécules du CMH I. Nos connaissances concernant l’origine, la composition et la plasticité de l’immunopeptidome restent très limitées. Dans le cadre de cette thèse, nous avons développé une nouvelle approche par spectrométrie de masse permettant de définir avec précision : la nature et l’abondance relative de l’ensemble des peptides composant l’immunopeptidome. Nous avons trouvé que l’immunopeptidome, et par conséquent la nature du « soi » immun, est surreprésenté en peptides provenant de transcrits fortement abondants en plus de dissimuler une signature tissu-spécifique. Nous avons par la suite démontré que l’immunopeptidome est plastique et modulé par l’activité métabolique de la cellule. Nous avons en effet constaté que les modifications du métabolisme cellulaire par l’inhibition de mTOR (de l’anglais mammalian Target Of Rapamycin) provoquent des changements dynamiques dans la composition de l’immunopeptidome. Nous fournissons également la première preuve dans l’étude des systèmes que l’immunopeptidome communique à la surface cellulaire l’activité de certains réseaux biochimiques ainsi que de multiples événements métaboliques régulés à plusieurs niveaux à l’intérieur de la cellule. Nos découvertes ouvrent de nouveaux horizons dans les domaines de la biologie des systèmes et de l’immunologie. En effet, notre travail de recherche suggère que la composition de l’immunopeptidome est modulée dans l’espace et le temps. Il est par conséquent très important de poursuivre le développement de méthodes quantitatives au niveau des systèmes qui nous permettront de modéliser la plasticité de l’immunopeptidome. La simulation et la prédiction des variations dans l’immunopeptidome en réponse à différents facteurs cellulaires intrinsèques et extrinsèques seraient hautement pertinentes pour la conception de traitements immunothérapeutiques.
Resumo:
Cette thèse s’interroge sur le phénomène du jeune téléspectateur contemporain. Je questionne cette « réalité », qui fait l’objet de discours et de pratiques sociales au quotidien. L’idée de l’existence « objective » de l’enfant téléspectateur depuis l’avènement de la télévision est si fertile, qu’elle a même contribué au développement d’un sous-domaine de recherche en communication : la communication jeunesse. J’inclus également ce sous-domaine dans la problématique. Ce faisant, je tente d’esquisser une théorisation de l’enfant téléspectateur, en le comprenant comme une formation discursive et sociale. Suivant le point de vue de l’analyse de discours de Michel Foucault (1969), j’axe son étude en articulant deux éléments qui forment les objets sociaux : le régime de vérité et les formations discursives. Ainsi, je réfléchis au jeune téléspectateur comme objet de savoir et de vérité, et comme fruit d’un ensemble de formations discursives. J’ancre empiriquement le questionnement du jeune téléspectateur contemporain dans le Chili « post-1990 ». Je propose une approche méthodologique et analytique me permettant de rendre compte de l’articulation d’éléments hétérogènes qui participent au façonnement discursif et social de celui-ci. Cet outil exploratoire est « le rhizome », que j’emprunte à Gilles Deleuze et à Félix Guattari (1976). Le rhizome m’est utile pour rendre compte des multiples portes d’entrée dans la formation discursive de l’enfant téléspectateur, du déplacement comme chercheuse à l’intérieur de celle-ci, et des figures qui se forment par l’articulation du discours et des pratiques entreprises à son égard. Ce faisant, je propose une archive d’époque de l’enfant téléspectateur du Chili « post-1990 ». Dans celle-ci, je montre des modalités particulières de sa formation discursive et des figures hétéroclites de celui-ci qui ont émergé dans les analyses. Finalement, je présente un ensemble de pratiques discursives qui ont également fait surface dans les analyses. Ces pratiques emploient la figure de l’enfant téléspectateur pour instaurer discursivement d’autres « réalités », qui ne le concernent pas directement. M’appuyant sur Jean-Michel Berthelot (1992), notamment sur son concept d’« opérateur discursif », je qualifie ainsi ces pratiques observées.
Resumo:
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.
Resumo:
La transmission mère-enfant du VIH-1 (TME) représente le principal mode d’infection chez l’enfant et se produit durant la grossesse (in utero, IU), l’accouchement (intrapartum, IP) ou l’allaitement (postpartum, PP). Les mécanismes qui sous-tendent le passage du VIH-1 à travers le placenta et les muqueuses intestinales du nouveau-né sont encore très peu décrits. « Dendritic cell-specific ICAM-grabbing non-integrin » (DC-SIGN) et son homologue DC-SIGN « related » (DC-SIGNR) sont des récepteurs d’antigènes exprimés au niveau du placenta et capables de capter et de transmettre le VIH-1 aux cellules adjacentes. Ils pourraient donc participer au passage trans placentaire du VIH-1 et le polymorphisme génétique affectant l’expression ou modifiant l’interaction avec le virus aurait une influence sur la TME du VIH-1. Afin d’explorer cette hypothèse, nous avons procédé à une analyse exhaustive du polymorphisme de DC-SIGN et DC-SIGNR dans la population du Zimbabwe. Par la suite, nous avons déterminé l’association entre le polymorphisme de DC-SIGN et DC-SIGNR et la TME du VIH-1 dans une cohorte d’enfants nés de mères VIH-positives à Harare, au Zimbabwe. Enfin, nous avons défini l’impact fonctionnel des mutations associées. Les enfants homozygotes pour les haplotypes H1 et H3 dans le gène de DC-SIGNR sont 4 à 6 fois plus à risque de contracter le VIH-1 par voie IU et IP. H1 et H3 contiennent la mutation du promoteur p-198A et la mutation de l’intron 2, int2-180A, et des études fonctionnelles nous ont permis de démontrer que p-198A diminue l’activité transcriptionnelle du promoteur de DC-SIGNR et l’expression des transcrits d’ARNm dans le placenta, alors que int2-180A modifie le répertoire d’isoformes de DC-SIGNR vers une proportion diminuée d’isoformes membranaires. Les enfants porteurs des haplotypes H4 et H6 de DC-SIGN sont 2 à 6 fois plus à risque de contracter le VIH-1 par voie IU. Ces haplotypes contiennent deux mutations du promoteur (p-336T/C et p-201C/A) et quatre mutations codant pour un changement d’acide aminé dans l’exon 4 (R198Q, E214D, R221Q ou L242V) associées à un risque augmenté de transmission IU, IP et PP du VIH-1. Des études fonctionnelles ont démontré que les mutations du promoteur diminuent l’expression de DC-SIGN dans les macrophages placentaires. Toutefois, l’exposition IU au VIH-1 module le niveau d’expression de DC-SIGN, résultant en des niveaux d’expression similaires entre les macrophages des porteurs des allèles sauvages et mutés. Les mutations de l’exon 4 augmentent l’affinité de DC-SIGN pour le VIH-1 et sa capacité à capturer et à transmettre le virus aux lymphocytes T, favorisant possiblement la dissémination du VIH-1 à travers le placenta. L’association entre les mutations de DC-SIGN et la transmission IP et PP du VIH-1 suggèrent qu’il aurait aussi un rôle à jouer dans les muqueuses intestinales de l’enfant. Notre étude démontre pour la première fois l’implication de DC-SIGN et DC-SIGNR dans la TME du VIH-1. L’augmentation des capacités de capture et de transmission de DC-SIGN résulte en une susceptibilité accrue de l’enfant à l’infection au VIH-1 et concorde avec un rôle dans la dissémination transplacentaire. Toutefois, la diminution préférentielle des transcrits membranaires de DC-SIGNR au placenta augmente la TME du VIH-1 et laisse croire à son implication via un autre mécanisme. Ces mécanismes pourraient aussi s’appliquer à d’autres pathogènes reconnus par DC-SIGN et DC-SIGNR et transmis de la mère à l’enfant.