451 resultados para Dualismes classiques
Resumo:
L’école et les programmes de formation à l’enseignement ont connu beaucoup de transformations au cours des dernières décennies. Ces changements sont notamment associés au mouvement de la professionnalisation de l’enseignement qui met l’accent, entre autres, sur l’importance de développer une réflexivité critique chez les futurs enseignants à travers des cours théoriques et des stages. Dans cette optique, le Ministère de l’éducation, des loisirs et du sport (MELS) et les institutions universitaires ont la responsabilité d’interpréter les caractéristiques propres à une pensée critique et de les intégrer à la formation initiale des enseignants. Cependant, bien que le concept de pensée critique ait fait l’objet de nombreuses recherches théoriques et empiriques depuis les travaux sur la pensée réfléchie de Dewey, il n’existe toujours pas une définition consensuelle du concept. Néanmoins les philosophes « classiques » (Ennis, McPeck, Paul, Siegel, Lipman) s’entendent pour soutenir qu’une pensée critique présuppose un doute méthodique qui conduit à la mobilisation d’habiletés et d’attitudes intellectuelles complexes, reliées à l’évaluation des faits et des situations. De leur côté, des épistémologues issus du champ de la psychologie développementale (King & Kitchener, Kuhn, Perry, et d’autres) ont élaboré des modèles de développement d’une pensée critique basés sur l’identification de stades. L’un des plus récents modèles est issu des sciences de l’éducation (Daniel et al.) et sera utilisé comme grille pour analyser nos données. Il présuppose quatre modes de pensée (logique, métacognitif, créatif et responsable) et leur complexification à partir de trois perspectives épistémologiques (égocentrisme, relativisme et intersubjectivité). La présente étude, de nature qualitative, cherche à d’identifier la réflexivité (simple ou critique) visée par les textes officiels du MELS, stimulée par l’Université de Montréal (UdeM) dans le cadre de la formation initiale des étudiants inscrits en Éducation physique et à la santé (ÉPS) et manifestée par ces étudiants en fin de formation. Pour ce faire, nous avons eu recours à une analyse de contenu, et à une analyse basée sur le modèle développemental de Daniel et ses collègues. Ces analyses ont été conduites sur le référentiel de compétences du MELS, sur les indicateurs de compétences et les consignes de rédaction des rapports synthèses de l’UdeM, ainsi que sur des verbatim d’entrevues individuelles et de groupe et sur les rapports synthèses des participants (au nombre de neuf). Les résultats d’analyse du référentiel de compétences et des indicateurs de compétences montrent que les réflexivités visée et stimulée sont de l’ordre d’une pensée réfléchie mais pas nécessairement d’une pensée critique. Parallèlement, la réflexivité manifestée par les stagiaires lors des entrevues ainsi que dans leurs rapports synthèse s’est révélée être de l’ordre d’une pensée réfléchie pas nécessairement critique même si des manifestations d’une pensée critique ont occasionnellement pu être observées.
Resumo:
De plus en plus de recherches sur les Interactions Humain-Machine (IHM) tentent d’effectuer des analyses fines de l’interaction afin de faire ressortir ce qui influence les comportements des utilisateurs. Tant au niveau de l’évaluation de la performance que de l’expérience des utilisateurs, on note qu’une attention particulière est maintenant portée aux réactions émotionnelles et cognitives lors de l’interaction. Les approches qualitatives standards sont limitées, car elles se fondent sur l’observation et des entrevues après l’interaction, limitant ainsi la précision du diagnostic. L’expérience utilisateur et les réactions émotionnelles étant de nature hautement dynamique et contextualisée, les approches d’évaluation doivent l’être de même afin de permettre un diagnostic précis de l’interaction. Cette thèse présente une approche d’évaluation quantitative et dynamique qui permet de contextualiser les réactions des utilisateurs afin d’en identifier les antécédents dans l’interaction avec un système. Pour ce faire, ce travail s’articule autour de trois axes. 1) La reconnaissance automatique des buts et de la structure de tâches de l’utilisateur, à l’aide de mesures oculométriques et d’activité dans l’environnement par apprentissage machine. 2) L’inférence de construits psychologiques (activation, valence émotionnelle et charge cognitive) via l’analyse des signaux physiologiques. 3) Le diagnostic de l‘interaction reposant sur le couplage dynamique des deux précédentes opérations. Les idées et le développement de notre approche sont illustrés par leur application dans deux contextes expérimentaux : le commerce électronique et l’apprentissage par simulation. Nous présentons aussi l’outil informatique complet qui a été implémenté afin de permettre à des professionnels en évaluation (ex. : ergonomes, concepteurs de jeux, formateurs) d’utiliser l’approche proposée pour l’évaluation d’IHM. Celui-ci est conçu de manière à faciliter la triangulation des appareils de mesure impliqués dans ce travail et à s’intégrer aux méthodes classiques d’évaluation de l’interaction (ex. : questionnaires et codage des observations).
Resumo:
The media attribute a great significance to criminal events. However, those are not all reported in the same way. The media treatment of one generally depends of its sensationalism. The more impressive the event is, the more importance will be given by the media. Although street gangs have been very much present in the news content for several years, very few studies have assessed the extent to which the phenomenon is appealing to the media in relation to all criminal news. Considering the importance of media content and its impact on our society, the present study focuses on this question in order to determine whether the news about street gangs are treated differently. The sample of this study consists of 417 reports from Radio-Canada’s TV channel and Internet content, from that 210 are related to street gangs and 207 don’t bear on the phenomenon. The results suggest that the audiovisual and digital media present a more specific aspect of the phenomenon. Reports about street gangs are also more detailed and benefit from a greater mediatic treatment, regardless the medium of information used. Independently of the components that determine what make good news, the events involving street gangs and their members seem to receive a special media treatment.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Tant auprès des chercheurs que des praticiens, la socialisation organisationnelle semble représenter un sujet d’intérêt à l’heure actuelle (Fang, Duffy, & Shaw, 2011). Dans cette lignée, la présente thèse cherche à approfondir notre compréhension de la socialisation organisationnelle, afin d’en dresser un portrait plus complet et étayé, mais aussi d’y arrimer des pratiques porteuses pour les organisations et leurs employés. Plus précisément, les aspects relationnels inhérents au vécu des nouveaux employés, largement ignorés à ce jour dans la documentation (Ashforth, Sluss, & Harrison, 2007), sont examinés à partir de données recueillies à trois temps de mesure distincts auprès d’un échantillon de 224 nouveaux employés. Avec comme point de départ la théorie de l’échange social (Blau, 1964) et le concept de confiance affective (McAllister, 1995), le premier des deux articles qui composent la thèse démontre que, par rapport aux approches dites classiques (i.e., exprimant une vision cognitive de la socialisation organisationnelle), une approche relationnelle de la socialisation organisationnelle permet de mieux rendre compte du lien psychologique qui s’établit entre les nouveaux employés et l’organisation, alors que les approches cognitives classiques sont davantage explicatives de la performance des employés. Les deux approches semblent donc complémentaires pour expliquer l’adaptation des nouveaux employés. Le second article s’appuie sur la démonstration effectuée dans le premier article et cherche à approfondir davantage les aspects relationnels inhérents au vécu des nouveaux employés, de même que leur influence sur l’adaptation de ces derniers. À cette fin, la théorie de la conservation des ressources (Hobfoll, 1989) est considérée et l’engagement affectif (Meyer & Herscovitch, 2001) est mis de l’avant comme concept focal. Les résultats suggèrent que l’engagement affectif envers le supérieur compense pour un déclin de l’engagement affectif envers l’organisation, tel qu’il résulte d’un bris de la relation avec l’organisation. Les relations semblent donc, dans certaines circonstances, avoir une portée qui dépasse leurs protagonistes directs. La présente thèse démontre donc que les aspects relationnels inhérents au vécu des nouveaux employés ont une influence distincte, prépondérante et complexe sur leur adaptation en emploi. Ce faisant, elle s’insère dans un courant de recherche visant à remettre à l’avant-plan et mieux comprendre la sphère relationnelle dans les organisations (Ragins & Dutton, 2007). Les implications théoriques et pratiques qui en découlent seront discutées.
Resumo:
Hongyi (1860-1942) est le maître de l’école bouddhiste appelée « Terre Pure » en Chine moderne. Dans l'histoire du bouddhisme chinois, il est le seul maître bouddhiste qui peut se classer parmi les plus grands calligraphes chinois. Dans l'histoire de la calligraphie chinoise, il est le premier moine-calligraphe qui allie sa foi bouddhiste avec son art calligraphique tout en appliquant des principes de la peinture occidentale à son travail de calligraphie. Son art serve bien sa croyance religieuse et n’est pas indépendent de celle-ci, ce qui est extraordinaire dans l’histoire calligraphique. Il utilise le concept bouddhiste de «une forme sans forme» pour interpréter la calligraphie chinoise, et propose une série de théories calligraphiques bouddhistes pour guider sa pratique. D’ailleurs, sa calligraphie ne sert qu'à retranscrire les textes bouddhistes classiques et contemporains. Ses œuvres illustrent donc l'influence du bouddhisme chinois sur la calligraphie chinoise. Traditionnellement, la dernière œuvre d'un calligraphe est souvent considérée comme son chef-d'œuvre en fonction de deux critères: sa technique et son contenu moral. En outre, quelques-unes des dernières œuvres de grands calligraphes ont survécu. La rareté les rend encore plus précieuses. Bei xin ji jiao («悲欣交集») est la dernière œuvre de Hongyi, qui a été achevée trois jours avant son nirvana. Ce mémoire sera d'étudier et d'analyser l'influence de sa pensée bouddhiste sur le contenu littéraire et la forme artistique de cette œuvre, et d’expliciter qu’elle guide pleinement vers l'état ultime de sa pratique bouddhiste au plus haut niveau de sa calligraphie.
Resumo:
On révise les prérequis de géométrie différentielle nécessaires à une première approche de la théorie de la quantification géométrique, c'est-à-dire des notions de base en géométrie symplectique, des notions de groupes et d'algèbres de Lie, d'action d'un groupe de Lie, de G-fibré principal, de connexion, de fibré associé et de structure presque-complexe. Ceci mène à une étude plus approfondie des fibrés en droites hermitiens, dont une condition d'existence de fibré préquantique sur une variété symplectique. Avec ces outils en main, nous commençons ensuite l'étude de la quantification géométrique, étape par étape. Nous introduisons la théorie de la préquantification, i.e. la construction des opérateurs associés à des observables classiques et la construction d'un espace de Hilbert. Des problèmes majeurs font surface lors de l'application concrète de la préquantification : les opérateurs ne sont pas ceux attendus par la première quantification et l'espace de Hilbert formé est trop gros. Une première correction, la polarisation, élimine quelques problèmes, mais limite grandement l'ensemble des observables classiques que l'on peut quantifier. Ce mémoire n'est pas un survol complet de la quantification géométrique, et cela n'est pas son but. Il ne couvre ni la correction métaplectique, ni le noyau BKS. Il est un à-côté de lecture pour ceux qui s'introduisent à la quantification géométrique. D'une part, il introduit des concepts de géométrie différentielle pris pour acquis dans (Woodhouse [21]) et (Sniatycki [18]), i.e. G-fibrés principaux et fibrés associés. Enfin, il rajoute des détails à quelques preuves rapides données dans ces deux dernières références.
Resumo:
L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire.
Resumo:
Nous introduisons un nouveau modèle de la communication à deux parties dans lequel nous nous intéressons au temps que prennent deux participants à effectuer une tâche à travers un canal avec délai d. Nous établissons quelques bornes supérieures et inférieures et comparons ce nouveau modèle aux modèles de communication classiques et quantiques étudiés dans la littérature. Nous montrons que la complexité de la communication d’une fonction sur un canal avec délai est bornée supérieurement par sa complexité de la communication modulo un facteur multiplicatif d/ lg d. Nous présentons ensuite quelques exemples de fonctions pour lesquelles une stratégie astucieuse se servant du temps mort confère un avantage sur une implémentation naïve d’un protocole de communication optimal en terme de complexité de la communication. Finalement, nous montrons qu’un canal avec délai permet de réaliser un échange de bit cryptographique, mais que, par lui-même, est insuffisant pour réaliser la primitive cryptographique de transfert équivoque.
Resumo:
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).
Resumo:
Le neuroblastome (NB) est une tumeur fréquente et agressive du jeune enfant. Les tumeurs de haut grade de forme métastatique, généralement développées chez l'enfant de plus de 1 an, sont associées à une importante mortalité malgré un traitement lourd incluant une chimiothérapie à haute dose. La chimiorésistance est donc un problème majeur qui caractérise ces NB de haut grade. Une des hypothèses pour expliquer cette chimiorésistance est celle de l’activation de l’autophagie, un mécanisme auquel recourent les cellules afin de faire face aux situations de stress. D’ailleurs, plusieurs études ont démontré que l'autophagie était activée à la suite des thérapies anticancéreuses. Son inhibition pourrait donc représenter une stratégie thérapeutique très intéressante pour le traitement de cancers. Le but de ce projet de recherche a été de mettre en évidence l'importance de l'autophagie dans les cellules du NB ainsi que l'effet de son inhibition sur la sensibilité des cellules du NB à la chimiothérapie conventionnelle. La présence d'autophagie dans les cellules de NB et sa valeur pronostic ont été évaluées par une étude immunohistochimique et par western blot sur 184 tumeurs patient. Ensuite, dans le but de déterminer l'effet de la chimiothérapie conventionnelle sur le niveau d'autophagie, des études in vitro sur 6 lignées cellulaires ont été effectuées utilisant des tests de mesure d'autophagie (MDC, monodanylcadaverine), de viabilité cellulaire (MTT) et de western blot. Celles ci ont été suivies par des tests d'inhibition de l'autophagie par deux méthodes: l’inactivation du gène ATG5 par un lentivirus contenant un shRNA ciblant ATG5 ou de l'hydroxychloroquine (HCQ), un inhibiteur pharmacologique de l’autophagie. Cette inhibition a été testée seule ou en combinaison avec une chimiothérapie conventionnelle dans le but de déterminer le rôle de l'autophagie dans la sensibilisation des cellules de NB à la chimiothérapie. Ensuite, l’intérêt de l’inhibition de l’autophagie a été évalué sur des modèles murins. Enfin, le niveau d'autophagie a été testé dans des cellules souches de NB. Notre étude a démonté que l'autophagie est présente à un niveau basal dans une majorité des NB mais qu'elle ne représentait pas un facteur pronostic dans ce type de tumeur. Les différentes chimiothérapies testées induisent une augmentation de l'autophagie dans les cellules du NB. Les deux tests d'inhibition ont démontré in vitro que l'autophagie participe à la résistance des cellules aux traitements chimiothérapeutiques classiques du NB. Le blocage de l’autophagie in vivo augmente l’efficacité de la chimiothérapie, cependant certaines données associées au traitement par HCQ devront être complétées. Cette étude démontre que l'inhibition de l'autophagie en combinaison avec la chimiothérapie classique représente une approche thérapeutique prometteuse dans le traitement du NB.
Resumo:
L’imagerie médicale a longtemps été limitée à cause des performances médiocres des fluorophores organiques. Récemment la recherche sur les nanocristaux semi-conducteurs a grandement contribué à l’élargissement de la gamme d’applications de la luminescence dans les domaines de l’imagerie et du diagnostic. Les points quantiques (QDs) sont des nanocristaux de taille similaire aux protéines (2-10 nm) dont la longueur d’onde d’émission dépend de leur taille et de leur composition. Le fait que leur surface peut être fonctionnalisée facilement avec des biomolécules rend leur application particulièrement attrayante dans le milieu biologique. Des QDs de structure « coeur-coquille » ont été synthétisés selon nos besoins en longueur d’onde d’émission. Dans un premier article nous avons modifié la surface des QDs avec des petites molécules bi-fonctionnelles portant des groupes amines, carboxyles ou zwitterions. L’effet de la charge a été analysé sur le mode d’entrée des QDs dans deux types cellulaires. À l’aide d’inhibiteurs pharmacologiques spécifiques à certains modes d’internalisation, nous avons déterminé le mode d’internalisation prédominant. L’endocytose par les radeaux lipidiques représente le mode d’entrée le plus employé pour ces QDs de tailles similaires. D’autres modes participent également, mais à des degrés moindres. Des disparités dans les modes d’entrée ont été observées selon le ligand de surface. Nous avons ensuite analysé l’effet de l’agglomération de différents QDs sur leur internalisation dans des cellules microgliales. La caractérisation des agglomérats dans le milieu de culture cellulaire a été faite par la technique de fractionnement par couplage flux-force (AF4) associé à un détecteur de diffusion de la lumière. En fonction du ligand de surface et de la présence ou non de protéines du sérum, chacun des types de QDs se sont agglomérés de façon différente. À l'aide d’inhibiteur des modes d’internalisation, nous avons corrélé les données de tailles d’agglomérats avec leur mode d’entrée cellulaire. Les cellules microgliales sont les cellules immunitaires du système nerveux central (CNS). Elles répondent aux blessures ou à la présence d’inflammagènes en relâchant des cytokines pro-inflammatoires. Une inflammation non contrôlée du CNS peut conduire à la neurodégénérescence neuronale et est souvent observée dans les cas de maladies chroniques. Nous nous sommes intéressés au développement d’un nanosenseur pour mesurer des biomarqueurs du début de l’inflammation. Les méthodes classiques pour étudier l’inflammation consistent à mesurer le niveau de protéines ou molécules relâchées par les cellules stressées (par exemple monoxyde d’azote, IL-1β). Bien que précises, ces méthodes ne mesurent qu’indirectement l’activité de la caspase-1, responsable de la libération du l’IL-1β. De plus ces méthode ne peuvent pas être utilisées avec des cellules vivantes. Nous avons construit un nanosenseur basé sur le FRET entre un QD et un fluorophore organique reliés entre eux par un peptide qui est spécifiquement clivé par la caspase-1. Pour induire l’inflammation, nous avons utilisé des molécules de lipopolysaccharides (LPS). La molécule de LPS est amphiphile. Dans l’eau le LPS forme des nanoparticules, avec des régions hydrophobes à l’intérieure. Nous avons incorporé des QDs dans ces régions ce qui nous a permis de suivre le cheminement du LPS dans les cellules microgliales. Les LPS-QDs sont internalisés spécifiquement par les récepteurs TLR-4 à la surface des microglies. Le nanosenseur s’est montré fonctionnel dans la détermination de l’activité de la caspase-1 dans cellules microgliales activées par le LPS. Éventuellement, le senseur permettrait d’observer en temps réel l’effet de thérapies ciblant l’inflammation, sur l’activité de la caspase-1.
Resumo:
La présentation antigénique par le complexe majeur d’histocompatibilité (MHC) I est un processus ubiquitaire permettant la présentation de protéines endogènes qui reflètent l'état de la cellule à la surface cellulaire aux lymphocytes T CD8+ dans le contexte de la surveillance et la réponse immunitaires. Ainsi, l'expression des molécules du MHC I classiques est induite en réponse aux stimuli inflammatoires afin de favoriser la reconnaissance immunitaire et l'élimination des pathogènes. HFE est une molécule du MHC Ib non-classique qui sert de régulateur négatif de l'absorption du fer. HFE est associé au développement de l'hémochromatose héréditaire (HH), maladie associée au métabolisme du fer mais souvent accompagnée de défauts immunitaires. Ainsi, nous avons en premier lieu étudié l'impact de HFE sur la présentation antigénique par MHC I, afin d'expliquer en partie les défauts immunitaires liés à l'HH associée à HFEC282Y. Puis, compte tenu de l'impact de l'inflammation sur l'expression des molécules du MHC I classiques, nous avons étudié la régulation de l'expression de HFE en réponse aux stimuli inflammatoires induits par les cellules du sang périphérique mononucléées (PBMC). Nous avons mis au point un système d’expression antigénique dans lequel nous contrôlons l’expression de MHC I, de HFE et d’un antigène pour lequel nous avons généré des lymphocytes T CD8+ spécifiques. Nos résultats démontrent que la forme sauvage de HFE (HFEWT), contrairement à sa forme mutée (HFEC282Y), inhibe la reconnaissance de complexes MHC I/peptide (pMHC). Nous avons également démontré que l'inhibition de la reconnaissance est maintenue, indépendamment des niveaux d'expression de MHC I à la surface, d'une compétition pour la β2-microglobuline, de la capacité de HFE d'interagir avec le récepteur de la transferrine, de l'origine de l'antigène ou de l'affinité de celui-ci. Par ailleurs, nous avons identifié les domaines α1-2 de HFEWT comme étant responsables de l'inhibition de la reconnaissance antigénique. Par contre, la reconnaissance de peptides chargés de manière externe sur les molécules du MHC I présentes à la surface n'a démontré aucune inhibition en présence de HFEWT, suggérant que HFEWT pourrait affecter la reconnaissance en interférant avec le processus d'apprêtement antigénique intracellulaire. À l’inverse, nous avons souhaité déterminer si les lymphocytes T activés pouvaient influencer les niveaux d'expression de HFE. En termes de régulation de l'expression de HFE, nous avons établi que HFE est exprimé dans les tissus sains chez l'humain et induit chez les lignées de cancers du colon, du sein, du poumon, du rein et du mélanome. Par ailleurs, en co-cultivant des lymphocytes T activés avec ces lignées tumorales, nous avons démontré que l'expression de HFE est fortement inhibée dans toutes ces lignées tumorales lorsqu'exposées à des lymphocytes T activés. Finalement, la modulation de l'expression de HFE est indépendante du contact cellulaire et semble médiée en partie par le GM-CSF, l'IFN-γ et le TNF. En somme, ces résultats suggèrent que les lymphocytes T de l'hôte modulent l'expression de HFE dans le microenvironnement inflammatoire, ce qui pourrait promouvoir la reconnaissance des antigènes présentés sur les molécules du MHC I présentées aux lymphocytes T CD8+ antigène-spécifiques. De plus, ces études soulèvent la possibilité d'un nouveau rôle physiologique de HFEWT dans la voie de présentation antigénique par MHC I, qui pourrait moduler l'immunogénicité des antigènes et la réponse immunitaire cellulaire chez l'hôte.
Resumo:
Les cellules dendritiques (DC) sont parmi les premières cellules à rencontrer le virus d’immunodéficience humaine (VIH) au niveau des muqueuses. De plus, le fait que les DC sont, de manière directe ou indirecte par le virus et ses composantes, altérées tant par leur nombre, leur phénotype et leur fonction suggère leur implication dans les dérégulations des cellules B. Selon cette hypothèse, des études longitudinales impliquant des individus infectés au VIH-1 présentant différents profils de progression clinique menées dans notre laboratoire ont démontré que les altérations des cellules B sont concomitantes à une augmentation de l’expression de BLyS/BAFF dans le sang ainsi que par les DC myéloïdes (mDC) sanguines. De plus, lors de travaux antérieurs utilisant le modèle murin VIH-transgénique, les altérations des cellules B ont démontré une implication des DC et d’un excès de BLyS/BAFF, et ce, dépendamment du facteur négatif du VIH (Nef). Dans cette optique, nous investiguons dans cette présente étude l’implication de Nef dans la modulation du phénotype des DC ainsi que dans les dérégulations des cellules B. Chez tous les patients virémiques infectés au VIH-1, nous avons détecté la présence de Nef dans le plasma ainsi qu’au niveau des mDC et de leurs précurseurs d’origine monocytaire, tout au long du suivi de la progression clinique et au-delà de la thérapie antirétrovirale (ART). La surexpression de BLyS/BAFF est associée à la présence de Nef au niveau des mDC et de leur précurseur.. Des essais in vitro ont permis de démontrer l’induction d’un phénotype proinflammatoire par des mDC dérivés de monocytes lorsqu’en présence de Nef soluble, via l’augmentation de l’expression de BLyS/BAFF et de TNF-α, et où cet effet est bloqué par l’ajout de l’acide rétinoïque. Nos résultats suggèrent donc que Nef est impliquée dans le déclenchement et la persistance des dérégulations des cellules B retrouvées chez les individus infectés au VIH-1. Basé sur nos observations, une thérapie adjointe impliquant le blocage de BLyS/BAFF et/ou Nef pourrait contribuer au contrôle de l’inflammation et des altérations des cellules B. De plus, la quantification de Nef post-ART pourrait s’avérer utile dans l’évaluation du statut des réservoirs. Précédemment, nous avons démontré que les dérégulations des cellules B sanguines de ces mêmes individus présentant un profil de progression rapide et classique sont accompagnées par l’augmentation de la fréquence d’une population partageant des caractéristiques des cellules B transitionnelles immatures (TI) et des cellules B de la zone marginale (ZM), que nous avons nommé les cellules B précurseur de la ZM. Toutefois, cette population est préservée chez les contrôleurs élites, chez qui nous avons trouvé une diminution significative de la fréquence des cellules B de la ZM présentant des marqueurs phénotypiques plus matures. Récemment, ces cellules ont été associées à un potentiel de fonction régulatrice (Breg), motivant ainsi notre poursuite, dans cette étude, de la caractérisation de ces cellules B. Comme pour les individus non infectés au VIH-1, nous avons démontré que les cellules B matures de la ZM contrôlent leur capacité de production d’IL-10 chez les contrôleurs élites, contrairement à une augmentation chez les progresseurs rapides et classiques. Aussi, les cellules B précurseur de la ZM des contrôleurs élites fournissent une expression importante de LT-α lorsque comparés aux individus non infectés au VIH-1, alors que cet apport de LT-α est attribué aux cellules B TI chez les progresseurs. Le contrôle de la progression clinique semble associé à un ratio en faveur de LT-α vs IL-10 au niveau des cellules B précurseur de la ZM. Nos résultats suggèrent qu’un maintien de l’intégrité du potentiel régulateur ainsi qu’une expression augmentée de LT-α par les cellules B de première ligne, telles les populations de la ZM, sont impliqués dans le contrôle de la progression clinique du VIH-1, possiblement par leur contribution à la modulation et l’homéostasie immunitaire. De telles populations doivent être considérées lors de l’élaboration de vaccins, ces derniers cherchant à générer une réponse protectrice de première ligne et adaptative.
Resumo:
Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.