62 resultados para Pneumocystis jirovecii, sequenciação, polimorfismo de base única
Resumo:
La maladie cœliaque ou sprue cœliaque est une intolérance au gluten. Il s’agit d’une maladie inflammatoire de l’intestin liée à l’ingestion de gluten chez des personnes génétiquement susceptibles. Ce désordre présente une forte prévalence puisqu’il touche 1 % de la population mondiale. En l’état actuel des choses, il n’existe aucun outil pharmacologique pour traiter ou pallier à cette maladie. Cependant, grâce aux avancées dans la compréhension de sa pathogenèse, de nouvelles cibles thérapeutiques ont été identifiées. À l’heure actuelle, le seul traitement efficace consiste à suspendre la consommation de l’agent pathogène, à savoir le gluten. Le gluten est un ensemble de protéines de stockage des céréales contenu dans le blé, l’orge et le seigle. Le gluten du blé se subdivise en gluténines et gliadines. Ce sont ces dernières qui semblent les plus impliquées dans la maladie cœliaque. Les gliadines et ses protéines apparentées (i.e. sécalines et hordéines, respectivement dans le seigle et l’orge) sont riches en prolines et en glutamines, les rendant résistantes à la dégradation par les enzymes digestives et celles de la bordure en brosse. Les peptides résultant de cette digestion incomplète peuvent induire des réponses immunitaires acquises et innées. L’objectif principal de cette thèse était de tester un nouveau traitement d’appoint de la maladie cœliaque utile lors de voyages ou d’évènements ponctuels. Dans les années 80, une observation italienne montra l’inhibition de certains effets induits par des gliadines digérées sur des cultures cellulaires grâce à la co-incubation en présence de mannane: un polyoside naturel composé de mannoses. Malheureusement, ce traitement n’était pas applicable in vivo à cause de la dégradation par les enzymes du tractus gastro-intestinales du polymère, de par sa nature osidique. Les polymères de synthèse, grâce à la diversité et au contrôle de leurs propriétés physico-chimiques, se révèlent être une alternative attrayante à ce polymère naturel. L’objectif de cette recherche était d’obtenir un polymère liant la gliadine, capable d’interférer dans la genèse de la maladie au niveau du tube digestif, afin d’abolir les effets délétères induits par la protéine. Tout d’abord, des copolymères de type poly (hydroxyéthylméthacrylate)-co-(styrène sulfonate) (P(HEMA-co-SS)) ont été synthétisés par polymérisation radicalaire contrôlée par transfert d’atome (ATRP). Une petite bibliothèque de polymères a été préparée en faisant varier la masse molaire, ainsi que les proportions de chacun des monomères. Ces polymères ont ensuite été testés quant à leur capacité de complexer la gliadine aux pH stomacal et intestinal et les meilleurs candidats ont été retenus pour des essais cellulaires. Les travaux ont permis de montrer que le copolymère P(HEMA-co-SS) (45:55 mol%, 40 kDa) permettait une séquestration sélective de la gliadine et qu’il abolissait les effets induits par la gliadine sur différents types cellulaires. De plus, ce composé interférait avec la digestion de la gliadine, suggérant une diminution de peptides immunogènes impliqués dans la maladie. Ce candidat a été testé in vivo, sur un modèle murin sensible au gluten, quant à son efficacité vis-à-vis de la gliadine pure et d’un mélange contenant du gluten avec d’autres composants alimentaires. Le P(HEMA-co-SS) a permis de diminuer les effets sur les paramètres de perméabilité et d’inflammation, ainsi que de moduler la réponse immunitaire engendrée par l’administration de gliadine et celle du gluten. Des études de toxicité et de biodistribution en administration aigüe et chronique ont été réalisées afin de démontrer que ce dernier était bien toléré et peu absorbé suite à son administration par la voie orale. Enfin des études sur des échantillons de tissus de patients souffrants de maladie cœliaque ont montré un bénéfice therapeutique du polymère. L’ensemble des travaux présentés dans cette thèse a permis de mettre en évidence le potentiel thérapeutique du P(HEMA-co-SS) pour prévenir les désordres reliés à l’ingestion de gluten, indiquant que ce type de polymère pourrait être exploité dans un avenir proche.
Resumo:
Réalisé en codirection avec Karen C. Waldron et Dominic Rochefort.
Resumo:
SOMMAIRE Les élèves du primaire éprouvent de la difficulté à transférer, dans leurs productions écrites, les notions d’orthographe grammaticale enseignées en classe de français. La présente recherche souhaite vérifier si l’enseignement de l’identification des classes de mots par la méthode inductive jumelée aux approches spécifique ou intégrée permettrait aux élèves de repérer plus efficacement les déterminants, les noms, les adjectifs et les verbes dans leurs propres productions écrites et, par la suite, d’effectuer correctement les accords grammaticaux. La cueillette de données s’effectue à l’aide de six productions écrites rédigées en autant de semaines par les élèves de trois groupes-classes de la 2e année du 2e cycle du primaire. Les résultats des groupes expérimentaux (un expérimentant l’approche intégrée et l’autre, l’approche spécifique) sont comparés à ceux obtenus par un groupe de contrôle. À la fin de l’expérimentation, les résultats se sont maintenus, entre le prétest et le post-test, en ce qui concerne l’identification des déterminants, des noms et des adjectifs pour les trois groupes. Ils ont cependant diminué pour ce qui est de l’identification des verbes. En ce qui concerne les accords grammaticaux, tous les groupes ont amélioré leurs accords déterminant-nom, le groupe contrôle a présenté de meilleurs résultats pour l’accord de l’adjectif et seul le groupe expérimentant l’approche spécifique a réussi à maintenir ses résultats concernant l’accord du verbe, alors que les deux autres groupes ont obtenu des résultats plus faibles à la fin de l’expérimentation.
Resumo:
Notre contexte pratique — nous enseignons à des élèves doués de cinquième année suivant le programme international — a grandement influencé la présente recherche. En effet, le Programme primaire international (Organisation du Baccalauréat International, 2007) propose un enseignement par thèmes transdisciplinaires, dont un s’intitulant Où nous nous situons dans l’espace et le temps. Aussi, nos élèves sont tenus de suivre le Programme de formation de l’école québécoise (MÉLS Ministère de l'Éducation du Loisir et du Sport, 2001) avec le développement, notamment, de la compétence Résoudre une situation-problème et l’introduction d’une nouveauté : les repères culturels. Après une revue de la littérature, l’histoire des mathématiques nous semble tout indiquée. Toutefois, il existe peu de ressources pédagogiques pour les enseignants du primaire. Nous proposons donc d’en créer, nous appuyant sur l’approche constructiviste, approche prônée par nos deux programmes d’études (OBI et MÉLS). Nous relevons donc les avantages à intégrer l’histoire des mathématiques pour les élèves (intérêt et motivation accrus, changement dans leur façon de percevoir les mathématiques et amélioration de leurs apprentissages et de leur compréhension des mathématiques). Nous soulignons également les difficultés à introduire une approche historique à l’enseignement des mathématiques et proposons diverses façons de le faire. Puis, les concepts mathématiques à l’étude, à savoir l’arithmétique, et la numération, sont définis et nous voyons leur importance dans le programme de mathématiques du primaire. Nous décrivons ensuite les six systèmes de numération retenus (sumérien, égyptien, babylonien, chinois, romain et maya) ainsi que notre système actuel : le système indo-arabe. Enfin, nous abordons les difficultés que certaines pratiques des enseignants ou des manuels scolaires posent aux élèves en numération. Nous situons ensuite notre étude au sein de la recherche en sciences de l’éducation en nous attardant à la recherche appliquée ou dite pédagogique et plus particulièrement aux apports des recherches menées par des praticiens (un rapprochement entre la recherche et la pratique, une amélioration de l’enseignement et/ou de l’apprentissage, une réflexion de l’intérieur sur la pratique enseignante et une meilleure connaissance du milieu). Aussi, nous exposons les risques de biais qu’il est possible de rencontrer dans une recherche pédagogique, et ce, pour mieux les éviter. Nous enchaînons avec une description de nos outils de collecte de données et rappelons les exigences de la rigueur scientifique. Ce n’est qu’ensuite que nous décrivons notre séquence d’enseignement/apprentissage en détaillant chacune des activités. Ces activités consistent notamment à découvrir comment différents systèmes de numération fonctionnent (à l’aide de feuilles de travail et de notations anciennes), puis comment ces mêmes peuples effectuaient leurs additions et leurs soustractions et finalement, comment ils effectuaient les multiplications et les divisions. Enfin, nous analysons nos données à partir de notre journal de bord quotidien bonifié par les enregistrements vidéo, les affiches des élèves, les réponses aux tests de compréhension et au questionnaire d’appréciation. Notre étude nous amène à conclure à la pertinence de cette séquence pour notre milieu : l’intérêt et la motivation suscités, la perception des mathématiques et les apprentissages réalisés. Nous revenons également sur le constructivisme et une dimension non prévue : le développement de la communication mathématique.
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.
Resumo:
On évoque souvent des difficultés à interagir socialement chez les enfants ayant une dysphasie. Ces difficultés sont généralement attribuées aux troubles du langage, mais elles pourraient aussi provenir d’un problème à décoder les émotions des autres. Le but de la présente recherche est d’explorer cette voie chez les enfants dysphasiques de 9 à 12 ans. Différents stimuli émotionnels leur ont été présentés sous forme de vidéos ainsi qu’à des enfants d’un groupe contrôle selon cinq conditions : parole non filtrée, parole filtrée, visage dynamique, visage dynamique accompagné de la parole non filtrée, et visage dynamique avec parole filtrée. Les enfants dysphasiques et les enfants du groupe contrôle ne se comportent pas différemment de manière significative en fonction des émotions présentées et des conditions testées. Par contre, un sous-groupe d’enfants ayant une dysphasie mixte commet significativement plus d’erreurs pour l’ensemble de la tâche que le sous-groupe d’enfants sans dysphasie de même âge chronologique. En fait une part seulement des enfants dysphasiques mixtes ont des scores plus faibles. Ces mêmes enfants présentent un QI non verbal faible tandis que leur compréhension du langage est équivalente à celle de leur sous-groupe (enfants dysphasiques mixtes). Malgré ces différences significatives, les scores des enfants dysphasiques mixtes restent relativement élevés et les difficultés observées sont subtiles. Sur le plan clinique, les praticiens (orthophonistes, psychologues, éducateur) devront systématiser l’évaluation des habiletés de décodage des émotions chez l’enfant dysphasique dont les difficultés ne sont pas forcément évidentes dans la vie quotidienne. La recherche devra développer un outil de dépistage sensible aux troubles de décodage émotionnel et des stratégies thérapeutiques adaptées.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Peu d’études ont exploré l’utilisation du traitement prolongé pour les mammites cliniques et aucune ne portait sur l’utilisation du traitement prolongé à base de ceftiofur pour le traitement des mammites cliniques légères à modérées. L’objectif de cette étude était d’évaluer l’efficacité du traitement intra-mammaire prolongé à base de ceftiofur pour les mammites cliniques légères à modérées, en considérant toutes les bactéries responsables ou seulement Staphylococcus aureus (S. aureus) et les streptocoques. Des vaches laitières (n = 241) de 22 élevages du Québec et de l’Ontario ont été inclues. L’étude a été conçue comme un essai clinique à allocation aléatoire. Pour chaque cas de mammite clinique légère à modérée, 125 mg d’hydrochloride de ceftiofur (Spectramast® LC) a été administré par voie intra-mammaire une fois par jour pour 2 ou 8 jours. Le pourcentage de guérison clinique 21 jours après la fin du traitement était de 89% (n = 98/110 pour chaque groupe, p = 0,95). Les pourcentages de guérison bactériologique 21 jours après la fin du traitement pour les groupes 2 jours et 8 jours étaient 32% (n = 15/47) et 61% (n = 25/41) respectivement pour toutes les bactéries (p < 0,01); 64% (n = 9/14) et 82% (n = 9/11) respectivement pour les streptocoques (p = 0,50); et 0% (n = 0/20) et 47% (n = 9/19) pour S. aureus (p < 0,01). Il n'y avait pas de différence entre les 2 groupes pour les nouvelles infections intra-mammaires (p = 0,30). Le traitement prolongé à base de ceftiofur est un choix raisonnable pour le traitement des mammites cliniques légères à modérées, en particulier causées par S. aureus.
Resumo:
Le sel sodique du carboxyméthylamidon à haute teneur en amylose, HASCA (Amylose 60%-amylopectine 40%), est un polymère hydrophile ionique utilisé pour obtenir des comprimés matriciels à libération prolongée. Il est caractérisé par la formation d'un hydrogel lors de la mise en contact avec le milieu de dissolution. La libération du principe actif (PA) à travers ce polymère est principalement contrôlée par la diffusion fickienne et la relaxation du réseau polymérique. De plus, la solubilité du PA est un facteur qui permet de moduler la libération, cependant, la solubilité d’un médicament dépend de la forme utilisée et du pH. Les bases ou les acides libres présentent une solubilité moins élevée que leurs sels. Nous proposons d’étudier l’effet d’une combinaison entre le sel et la forme acide ou le sel et la forme alcaline dans le même comprimé matriciel d’HASCA. Comme objectif de ce travail, nous étudions l’influence de la nature du polymère sur le profil de libération de PA dans un milieu aqueux en gradient de pH à cause de la nature des matrices à base d’HASCA caractérisées par la présence de groupement carboxyliques, ionisés ou non selon l’acidité du milieu de dissolution. Nous étudions également l’influence de la nature du PA (base libre ou son sel vs acide libre ou son sel) sur le profil de libération, ceci en sélectionnant des PAs modèles représentatifs de chaque catégorie. L’influence de changement de proportions entre la forme libre (acide ou base) et son sel sur le profil de libération est aussi investiguée. Pour ce, des comprimés à base de HASCA avec des proportions différentes de, soit le naproxène acide et le naproxène de sodium (PA acide et son sel), soit la tétracycline et le chlorhydrate de tétracycline (PA alcalin et son sel) ont été utilisés. Ceux-ci sont évalués lors des tests de dissolution dans un milieu simulant le milieu gastro-intestinal, selon les normes de l’USP (spectrophotométrie UV). Nous avons également menés des études de vitesse de dissolution intrinsèque sur les PAs purs, afin de déterminer leur solubilité et vitesse de libération dans les même pH de dissolution étudiés. Nous avons réussit d’obtenir des comprimés matriciels à base de HASCA convenables à être administrés une fois par jour en utilisant une combinaison du naproxène acide et son sel comme PA. Tandis que les résultats ont montré qu’en utilisant la tétracycline et son sel, les temps de libération étaient trop élevés pour permettre la réalisation d’une formulation convenable pour une administration quotidienne unique
Resumo:
La réparation endovasculaire (EVAR) est une technique minimalement invasive permettant de traiter l’anévrisme de l’aorte abdominale (AAA) par l’entremise d’un stent- graft (SG). L’utilisation d’EVAR est actuellement limitée par de fréquentes complications liées à une guérison inadéquate autour de l’implant. Ce manque de guérison est principalement dû au type de recouvrement polymérique des SG, au milieu pro-apoptotique des AAA et à l’accès réduit aux nutriments et à l’oxygène après EVAR. L’objectif de cette thèse consistait à concevoir un revêtement bioactif permettant d’inhiber l’apoptose et stimuler la croissance des cellules musculaires lisses vasculaires (CMLV), pour ainsi favoriser la guérison des tissus vasculaires autour des SG. La chondroïtine-4-sulfate (CS) a d’abord été choisie, car elle a été identifiée comme un médiateur important de la réparation vasculaire. Il a été démontré que la CS en solution influence directement la résistance à l’apoptose des CMLV, en plus de favoriser la différenciation myofibroblastique chez les fibroblastes. Dans le cadre de ce projet, un premier revêtement à base de CS et de collagène a été créé. Bien que le revêtement permettait d’induire une résistance à l’apoptose chez les CMLV, il se désintégrait trop rapidement dans des conditions aqueuses. Une nouvelle méthodologie a donc été adaptée afin de greffer la CS directement sur des surfaces aminées, à l’aide d’un système utilisant un carbodiimide. Dans le but d’accroître la croissance des CMLV à la surface des revêtements, le facteur de croissance de l’épiderme (EGF) a ensuite été sélectionné. En plus de ses propriétés mitogéniques et chimiotactiques, l’EGF stimule la production d’éléments de la matrice extracellulaire, comme le collagène et la fibronectine. De plus, l’activation du récepteur de l’EGF inhibe également l’apoptose des CMLV. L’EGF a donc été greffé sur la CS. Le revêtement de CS+EGF a démontré une bonne uniformité et bioactivité sur des surfaces de verre aminé. iii iv Dans une 3ème étape, afin de permettre de transposer ce revêtement bioactif sur des implants, plusieurs méthodes permettant de créer des groupements d’amines primaires sur les biomatériaux polymériques comme le PET ou le ePTFE ont été étudiées. La polymérisation par plasma a été choisie pour créer le revêtement CS+EGF à la surface de PET. Une fois de plus, celui-ci a permis d’inhiber l’apoptose des CMLV, dans des conditions pro-apoptotiques, et de favoriser la croissance des cellules. Le revêtement de CS et d’EGF, déposé sur des surfaces aminées, possède des caractéristiques biologiques intéressantes et semble donc prometteur pour favoriser une meilleure guérison autour des SG.
Resumo:
Nous présentons une nouvelle approche pour formuler et calculer le temps de séparation des événements utilisé dans l’analyse et la vérification de différents systèmes cycliques et acycliques sous des contraintes linéaires-min-max avec des composants ayant des délais finis et infinis. Notre approche consiste à formuler le problème sous la forme d’un programme entier mixte, puis à utiliser le solveur Cplex pour avoir les temps de séparation entre les événements. Afin de démontrer l’utilité en pratique de notre approche, nous l’avons utilisée pour la vérification et l’analyse d’une puce asynchrone d’Intel de calcul d’équations différentielles. Comparée aux travaux précédents, notre approche est basée sur une formulation exacte et elle permet non seulement de calculer le maximum de séparation, mais aussi de trouver un ordonnancement cyclique et de calculer les temps de séparation correspondant aux différentes périodes possibles de cet ordonnancement.
Resumo:
Le sujet de ce mémoire émane d’une volonté d’intégrer la recherche à ma réalité organisationnelle, celle des Forces canadiennes (FC). De cette aspiration est née l’idée d’étudier comment se dévoilent la face et la figuration lors de l’instruction de base. Partant d’une approche interactionniste, l’attention a été portée sur la face et la figuration d’un stagiaire au cours de trois interactions avec ses supérieurs. C’est plus précisément, la filature et l’analyse de conversation qui ont été mobilisées pour examiner cette problématique. La pertinence de la démarche est qu'elle met de l'avant une perspective de recherche peu présente dans la littérature, mais surtout, qu’elle s’insère dans un contexte organisationnel méconnu. L'entreprise vise d’une part, à nourrir la théorie en raffinant des concepts existants : la face et la figuration. D’autre part, elle cherche à éclairer la pratique en mettant en évidence des actes communicationnels difficilement observables dans le cadre habituel des activités militaires.
Resumo:
Ces travaux ont été réalisés en collaboration avec le groupe du professeur William Skene.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Le traitement du cancer à l’aide d’une exposition aux radiations ionisantes peut mener au développement de plusieurs effets secondaires importants, dont un retard de réparation et de régénération du tissu hématopoïétique. Les mécanismes responsables de ces effets demeurent encore inconnus, ce qui limite le développement de nouvelles approches thérapeutiques. À l’aide d’un modèle murin de prise de greffe, nos résultats démontrent que l’endommagement du microenvironnement par l’irradiation a un impact limitant sur le nichage hématopoïétique. Parce que le microenvironnement est composé principalement de cellules dérivées des cellules souches mésenchymateuses (CSM), nous avons évalué le potentiel des CSM à régénérer le tissu hématopoïétique par la reconstitution de la niche osseuse. Cette thérapie a mené à une augmentation remarquable du nichage hématopoïétique chez les souris irradiées. Les causes moléculaires impliquées dans le nichage hématopoïétiques sont encore inconnues, mais nous avons remarqué l’augmentation de la sécrétion de la cytokine « granulocyte-colony stimulating factor » (G-CSF) dans l’espace médullaire suite à l’irradiation. Le G-CSF est impliqué dans la mobilisation cellulaire et est fort possiblement nuisible à une prise de greffe. Nous avons évalué le potentiel d’une thérapie à base de CSM sécrétant le récepteur soluble du G-CSF afin de séquestrer le G-CSF transitoirement et les résultats obtenus démontrent que le blocage du G-CSF favorise le nichage hématopoïétique. Globalement, les données présentées dans ce mémoire démontrent que le microenvironnement osseux et le niveau de G-CSF dans la moelle sont importants dans le processus de nichage hématopoïétique et que la baisse du potentiel de régénération du tissu hématopoïétique suite à l’irradiation peut être renversée à l’aide d’une thérapie cellulaire de CSM génétiquement modifiées ou non.