637 resultados para Taux de cisaillement
Resumo:
On note un taux élevé de résistance aux traitements dans la leucémie myéloïde aiguë (LMA). Cette résistance peut être associée aux altérations de TP53. Les « ubiquitin specific peptidases » (USP) sont impliquées dans plusieurs cancers mais leurs rôles ne sont pas élucidés dans les LMA. L’analyse de l’expression génique par RT-PCR quantitative de 21 USP et des gènes de l’axe USP7-MDM2-TP53-CDKN1A dans 111 échantillons de LMA a montré une dérégulation de USP44, USP1, USP28 et CDKN1A dans respectivement 72%, 44%, 25% et 42% des cas. CDKN1A, une cible importante de TP53, pourrait avoir un rôle dans la résistance au traitement. Nous avons développé un modèle expérimental pour évaluer la réponse des cellules leucémiques à la doxorubicine et au nutlin 3, un modulateur non génotoxique de TP53, selon l’expression initiale de CDKN1A. Ce travail préliminaire suggère que certains membres de la famille des USP et CDKN1A pourraient représenter de nouvelles cibles thérapeutiques dans les LMA.
Resumo:
Full Text / Article complet
Resumo:
Full Text / Article complet
Resumo:
L’hyperchylomicronémie familiale est un trait monogénique caractérisé par un taux de triglycérides plasmatiques à jeun supérieur à 10 mmol/L (la normale étant de 1,7 mmol/L). L’hyperchylomicronémie familiale est le plus souvent causée par une déficience dans le gène LPL (pour lipoprotéine lipase). La déficience en lipoprotéine lipase (LPLD) est aussi associée à un risque élevé de pancréatite. La pancréatite en soi est reconnue comme un trait complexe génétique dont plusieurs gènes sont associés à sa susceptibilité. Étant donné l’expression variable de la pancréatite chez les patients LPLD, les résultats de ce mémoire présentent certains facteurs génétiques pouvant être responsables du risque de l’expression de la pancréatite aigüe récurrente chez les sujets LPLD. L’analyse par séquençage des régions codantes et promotrices des gènes CTRC (pour « Chymotrypsin C ») et SPINK1 (pour « Serine protease inhibitor Kazal type 1 ») a été effectuée chez 38 patients LPLD et 100 témoins. Ces deux gènes codent pour des protéines impliquées dans le métabolisme des protéases au niveau du pancréas et ont déjà été associés avec la pancréatite dans la littérature. Notre étude a permis d’identifier une combinaison de deux polymorphismes (CTRC-rs545634 et SPINK1-rs11319) associée significativement avec la récidive d’hospitalisations pour douleur abdominale sévère ou pour pancréatite aigüe récurrente chez les patients LPLD (p<0,001). Ces résultats suggèrent que le risque de récidive de pancréatite chez les patients LPLD peut être influencé par des variants dans des gènes de susceptibilité à la pancréatite. L’identification de biomarqueurs génétiques améliore la compréhension des mécanismes physiopathologiques de la pancréatite chez les patients LPLD ce qui, par conséquent, permet de mieux évaluer et caractériser les risques de pancréatite afin d'adapter un plan d'intervention préventif pour ces patients.
Resumo:
Problématique : L’édentement et les troubles du sommeil sont des affections chroniques fréquentes chez les personnes âgées et qui peuvent avoir des conséquences défavorables sur le bien-être de ces personnes, ainsi que sur leur qualité de vie. L’édentement pourrait perturber le sommeil par la modification de la structure crânio-faciale et des tissus mous environnants. Cependant, cette relation n'est pas suffisamment documenté. Objectifs : Le but de cette étude pilote était de préparer la mise en œuvre d’une étude clinique randomisée contrôlée concernant l’effet du port nocturne des prothèses complètes sur la qualité du sommeil. Méthodologie : Treize aînés édentés ont participé à cette étude clinique randomisée contrôlée de type croisé. L’intervention consistait à dormir avec ou sans les prothèses durant la nuit. Les participants à l'étude ont été assignés à porter et ne pas porter leurs prothèses dans des ordres alternatifs pour des périodes de 30 jours. La qualité du sommeil a été évaluée par la polysomnographie portable et le questionnaire Pittburgh Sleep Quality Index (PSQI). Les données supplémentaires incluent la somnolence diurne, évaluée par le questionnaire Epworth Sleepiness Scale (ESS), et la qualité de vie liée à la santé buccodentaire, évaluée par le questionnaire Oral Health Impact Profile 20 (OHIP-20). De plus, à travers les examens cliniques et radiologiques, les données des caractéristiques sociodémographiques, de la morphologie oropharyngée, des caractéristiques buccodentaires et des prothèses ont été recueillies. Les modèles de régression linéaire pour les mesures répétées ont été utilisés pour analyser les résultats. Résultats : L’étude de faisabilité a atteint un taux de recrutement à l’étude de 59,1% et un taux de suivi de 100%. Le port nocturne des prothèses dentaires augmentait l’index d'apnée-hypopnée (IAH) et le score PSQI par rapport au non port nocturne des prothèses : (IAH : Médiane = 20,9 (1,3 - 84,7) versus 11,2 (1,9 - 69,6), p = 0,237; le score PSQI : Médiane = 6,0 (3,0 - 11,0) versus 5,0 (1,0 - 11,0), p = 0,248). Cependant, ces différences n'étaient pas statistiquement significatives, sauf que pour le temps moyen d’apnée (plus long avec des prothèses) (p < 0,005) et le temps de ronflement relatif (moins élevé avec des prothèses) (p < 0,05). La somnolence diurne excessive et la qualité de vie liée à la santé buccodentaire étaient semblables pour les deux interventions (le score ESS : Médiane = 4,0 (3,0-10,0) versus 5,0 (2,0-10,0), p = 0,746; le score OHIP-20: Médiane = 31,0 (20,0-64,0) versus 27,0 (20,0-49,0), p = 0,670). L’impact néfaste du port nocturne des prothèses complètes sur le sommeil a été statistiquement significatif chez les personnes souffrant de l’apnée-hypopnée moyenne à sévère (p < 0,005). Conclusion : L’essai clinique pilote a montré que le port nocturne des prothèses complètes a un impact négatif sur la qualité du sommeil des gens âgés édentés, surtout chez les personnes avec l’apnée obstructive du sommeil modérée à sévère. Les résultats doivent être confirmés par l’étude clinique randomisée contrôlée de phase II.
Resumo:
Essai présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Doctorat en psychologie option psychologie clinique
Resumo:
La pression artérielle est un déterminant potentiellement majeur de l’évolution de pathologies telles que la FA et l’insuffisance cardiaque. Pourtant, il demeure plusieurs incertitudes quant à la prise en charge optimale de la pression artérielle chez ces patients. Le rôle potentiel de la pression artérielle sur l’efficacité du maintien en rythme sinusal est inconnu. De plus, en présence d’insuffisance cardiaque, non seulement une pression artérielle élevée, mais aussi une pression artérielle basse pourrait augmenter la mortalité. Les travaux présentés ont pour but d’évaluer l’impact de la pression artérielle sur l’efficacité du contrôle du rythme et la mortalité ainsi que d’évaluer le rôle potentiel de l’insuffisance cardiaque sur cette interaction. Une étude post-hoc utilisant une banque de données combinant les études AFFIRM et AF-CHF a été réalisée. Les patients ont d’abord été classés selon leur FEVG (>40%, ≤40%), puis nous avons évalué l’impact de la PAS (<120 mmHg, 120-140 mmHg, >140 mmHg) sur les issues. Premièrement, chez les 2715 patients randomisés au contrôle du rythme, nous avons évalué la survie sans récidive de FA. Deuxièmement, chez tous les 5436 patients inclus dans les 2 études sources, nous avons évalué la mortalité et la morbidité. Chez les patients avec FEVG >40%, aucune des issues n’a été affectée par la PAS dans des analyses de régression multivariées de Cox. Par contraste, chez les patients avec FEVG ≤40%, le taux de récidive de FA était plus élevé avec une PAS >140 mmHg et une PAS <120 mmHg, par rapport à une PAS de 120-140 mmHg [HR, 1.47; IC 95% (1.12-1.93)] et [HR 1.15; IC 95% (0.92-1.43)], respectivement. La mortalité s’est également avérée augmentée chez ces patients avec une PAS >140 mmHg et une PAS <120 mmHg [HR 1.75; IC 95% (1.41-2.17)] et [HR 1.40; IC 95% (1.04-1.90)], respectivement. En conclusion, le maintien en rythme sinusal et la survie sont influencés par la PAS chez les patients avec FA et FEVG diminuée, mais non chez les patients avec FEVG normale. Une courbe en forme de U a été identifiée, où les pression plus basses (<120 mmHg) et plus hautes (>140 mmHg) sont associées à un moins bon pronostic.
Resumo:
À une époque où l'immigration internationale est de plus en plus difficile et sélective, le statut de réfugié constitue un bien public précieux qui permet à certains non-citoyens l'accès et l'appartenance au pays hôte. Reposant sur le jugement discrétionnaire du décideur, le statut de réfugié n’est accordé qu’aux demandeurs qui établissent une crainte bien fondée de persécution en cas de retour dans leur pays d'origine. Au Canada, le plus important tribunal administratif indépendant, la Commission de l'immigration et du statut de réfugié du Canada (CISR), est chargé d’entendre les demandeurs d'asile et de rendre des décisions de statut de réfugié. Cette thèse cherche à comprendre les disparités dans le taux d’octroi du statut de réfugié entre les décideurs de la CISR qui sont politiquement nommés. Au regard du manque de recherches empiriques sur la manière avec laquelle le Canada alloue les possibilités d’entrée et le statut juridique pour les non-citoyens, il était nécessaire de lever le voile sur le fonctionnement de l’administration sur cette question. En explorant la prise de décision relative aux réfugiés à partir d'une perspective de Street Level Bureaucracy Theory (SLBT) et une méthodologie ethnographique qui combine l'observation directe, les entretiens semi-structurés et l'analyse de documents, l'étude a d'abord cherché à comprendre si la variation dans le taux d’octroi du statut était le résultat de différences dans les pratiques et le raisonnement discrétionnaires du décideur et ensuite à retracer les facteurs organisationnels qui alimentent les différences. Dans la lignée des travaux de SLBT qui documentent la façon dont la situation de travail structure la discrétion et l’importance des perceptions individuelles dans la prise de décision, cette étude met en exergue les différences de fond parmi les décideurs concernant les routines de travail, la conception des demandeurs d’asile, et la meilleure façon de mener leur travail. L’analyse montre comment les décideurs appliquent différentes approches lors des audiences, allant de l’interrogatoire rigide à l’entrevue plus flexible. En dépit des contraintes organisationnelles qui pèsent sur les décideurs pour accroître la cohérence et l’efficacité, l’importance de l’évaluation de la crédibilité ainsi que l’invisibilité de l’espace de décision laissent suffisamment de marge pour l’exercice d’un pouvoir discrétionnaire. Même dans les environnements comme les tribunaux administratifs où la surabondance des règles limite fortement la discrétion, la prise de décision est loin d’être synonyme d’adhésion aux principes de neutralité et hiérarchie. La discrétion est plutôt imbriquée dans le contexte de routines d'interaction, de la situation de travail, de l’adhésion aux règles et du droit. Même dans les organisations qui institutionnalisent et uniformisent la formation et communiquent de façon claire leurs demandes aux décideurs, le caractère discrétionnaire de la décision est par la nature difficile, voire impossible, à contrôler et discipliner. Lorsqu'ils sont confrontés à l'ambiguïté des objectifs et aux exigences qui s’opposent à leur pouvoir discrétionnaire, les décideurs réinterprètent la définition de leur travail et banalisent leurs pratiques. Ils formulent une routine de rencontre qui est acceptable sur le plan organisationnel pour évaluer les demandeurs face à eux. Cette thèse montre comment les demandeurs, leurs témoignages et leurs preuves sont traités d’une manière inégale et comment ces traitements se répercutent sur la décision des réfugiés.
Resumo:
L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.
Resumo:
OBJECTIF: Évaluer si la prééclampsie (PE) récidivante présente un taux de prématurité (< 37 semaines de gestation) plus élevé qu'une première PE. Les critères de jugement secondaires étaient le retard de croissance intra-utérin (RCIU) et la morbidité maternelle. MÉTHODES: Il s'agit d'une étude rétrospective de cohorte conduite sur 383 femmes avec un diagnostic de prééclampsie et ayant accouché au CHU Sainte-Justine à Montréal (Canada) entre 2001 et 2011. Parmi elles, 128 ont développé une récidive de PE à la grossesse successive. RÉSULTATS: Chez les femmes récidivantes (n = 128), les taux de prématurité et de RCIU étaient similaires dans les 2 épisodes de PE, bien que plus atteintes d'hypertension chronique (p = 0.001) et de diabète gestationnel (p = 0.021) dans leur seconde PE. Comparativement aux femmes non récidivantes (n = 255), les récidivantes (n = 128) présentaient, à leur première PE, un profil clinique caractérisé par un taux élevé de PE sévère (p < 0.001), éclampsie et critères adverses (p = 0.007). Le risque relatif de récidive de PE chez une femme avec ce profil clinique à sa première PE a été évalué à 1, 60 (95%IC: 1, 17 – 2, 18). CONCLUSION: La récidive de PE est associée à des taux similairement élevés de prématurité et de RCIU comparativement à la première PE. Les femmes qui à leur première PE ont un profil clinique défini par prééclampsie sévère, éclampsie ou présence de critères adverses sont plus à risque de récidive de PE à la grossesse subséquente. Mots clés: prééclampsie, récidive, issues périnatales, prématurité
Resumo:
Les modèles animaux d’arthrose permettent d’évaluer le potentiel d’agents thérapeutiques en phase préclinique de développement. Le présent ouvrage tient compte du chien comme modèle d’arthrose naturelle (chez l’animal de compagnie) ou expérimentale (par sectionnement chirurgical du ligament croisé crânial). Au sein des expérimentations, la force de réaction au sol verticale maximale, mesurée lors de l’analyse cinétique de la locomotion, est proposée comme témoin d’effets fonctionnels et structuraux sur ces modèles d’arthrose. Sur un modèle canin d’arthrose naturelle, le seuil de changement minimal détectable a été déterminé. Les changements au dysfonctionnement locomoteur peuvent désormais être cernés en s’affranchissant de la marge d’erreur inhérente à la mesure de la force verticale maximale. Il en découle l’identification de répondants lors d’essais cliniques entrepris chez le chien arthrosique. Une analyse rétrospective a, par la suite, déterminé un taux de répondants de 62.8% et d’une taille d’effet de 0.7 pour des approches thérapeutiques actuellement proposées aux chiens arthrosiques. Cette analyse détermina également que la démonstration d’une réponse thérapeutique était favorisée en présence d’un fort dysfonctionnement locomoteur. Sur un modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial, la force verticale maximale a démontré une relation inverse avec certains types de lésions arthrosiques évaluées à l’aide d’imagerie par résonance magnétique. Également, la sensibilité de la force verticale maximale a été mise en évidence envers la détection d’effets structuraux, au niveau de l’os sous-chondral, par un agent anti-résorptif (le tiludronate) sur ce même modèle. Les expérimentations en contexte d’arthrose naturelle canine permettent de valider davantage les résultats d’essais cliniques contrôlés utilisant la force verticale maximale comme critère d’efficacité fonctionnelle. Des évidences cliniques probantes nécessaires à la pratique d’une médecine basée sur des faits sont ainsi escomptées. En contexte d’arthrose expérimentale, la pertinence d’enregistrer le dysfonctionnement locomoteur est soulignée, puisque ce dernier est en lien avec l’état des structures. En effectuant l’analyse de la démarche, de pair avec l’évaluation des structures, il est escompté de pouvoir établir la répercussion de bénéfices structurels sur l’inconfort articulaire. Cet ouvrage suggère qu’une plateforme d’investigations précliniques, qui combine le modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial à un essai clinique chez le chien arthrosique, soit un moyen de cerner des bénéfices structuraux ayant des impacts fonctionnels. Le potentiel inférentiel de ces modèles canins d’arthrose vers l’Homme serait ainsi favorisé en utilisant la force verticale maximale.
Resumo:
Les alertes que nos logiciels antivirus nous envoient ou encore les différents reportages diffusés dans les médias nous font prendre conscience de l'existence des menaces dans le cyberespace. Que ce soit les pourriels, les attaques par déni de service ou les virus, le cyberespace regorge de menaces qui persistent malgré les efforts qui sont déployés dans leur lutte. Est-ce que cela a à voir avec l'efficacité des politiques en place actuellement pour lutter contre ce phénomène? Pour y répondre, l'objectif général du présent mémoire est de vérifier quelles sont les politiques de prévention (lois anti-pourriel, partenariats publics-privés et démantèlements de botnets) qui influencent le plus fortement le taux de menaces informatiques détectées, tout en s'attardant également à l'effet de différents facteurs socio-économiques sur cette variable. Les données collectées par le logiciel antivirus de la compagnie ESET ont été utilisées. Les résultats suggèrent que les partenariats publics-privés offrant une assistance personnalisée aux internautes s'avèrent être la politique de prévention la plus efficace. Les démantèlements de botnets peuvent également s'avérer efficaces, mais seulement lorsque plusieurs acteurs/serveurs importants du réseau sont mis hors d'état de nuire. Le démantèlement du botnet Mariposa en est un bon exemple. Les résultats de ce mémoire suggèrent que la formule partenariats-démantèlements serait le choix le plus judicieux pour lutter contre les cybermenaces. Ces politiques de prévention possèdent toutes deux des méthodes efficaces pour lutter contre les menaces informatiques et c'est pourquoi elles devraient être mises en commun pour assurer une meilleure défense contre ce phénomène.
Resumo:
Le cancer du pancréas est l’un des plus chimiorésistants, avec un taux de survie sur 5 ans inférieur à 5%. La chimiorésistance pourrait être due à la présence de cellules initiatrices de tumeur (TICs), une petite sous-population des cellules tumorales possédant la capacité de régénérer une nouvelle tumeur. Il a été démontré que la metformine cible les TICs par un mécanisme non élucidé. Il est connu que la metformine affecte le métabolisme du carbone. Il a également été démontré que le métabolisme du carbone, plus précisément la glycine décarboxylase (GLDC), est à la fois nécessaire et suffisant à l’acquisition de propriétés d’initiation tumorale. Nous proposons que la metformine cible les cellules initiatrices de tumeur en affectant le métabolisme du carbone. Nous avons utilisé des lignées cellulaires dérivées d’un modèle murin de cancer du pancréas pour comparer l’expression génique de lésions bénignes versus malignes. Les cellules malignes surexpriment Gldc. La metformine diminue l’expression de Gldc, et la surexpression de Gldc diminue la sensibilité à la metformine dans un essai de sphères tumorales. La metformine induit une augmentation du ratio NADP+/NADPH, et la surexpression de Gldc empêche cette augmentation. Nous proposons que la metformine diminue l’expression de Gldc, ce qui cause une diminution du flux du métabolisme du carbone, et donc une diminution de la production de NADPH par ce dernier. L’augmentation du ratio NADP+/NADPH inhibe la synthèse des acides gras et la régénération de la glutathione, ce qui pourrait expliquer la diminution de la formation de sphères tumorales sous traitement metformine.
Resumo:
Dans le contexte actuel de la mondialisation, l’immigration a un impact sur la question identitaire des pays d’accueil et bien que l’exemple du Japon ne soit pas un cas isolé, il comporte tout de même ses particularités. En effet, il est curieux de voir un pays de l’OCDE avec un si bas taux d’immigration, d’autant plus que le vieillissement de sa population le place au cœur de cette problématique. De plus, le cas du Japon est particulièrement intéressant dans la mesure où la question de l’homogénéité ethnique et culturelle, présentée par le nihonjinron, est centrale dans la définition de l’identité nationale. C’est donc en s’appuyant sur la théorie des communautés imaginées d’Anderson et sur la théorie des frontières ethniques de Barth qu’ont été analysés de nombreux ouvrages et articles d’ordre analytique et idéologique afin de démontrer l’influence que le maintien d’une identité nationale forte peut avoir sur le développement et la mise en place de politiques d’immigration au Japon. Ainsi, après avoir passé en revue les origines et l’évolution du peuple japonais moderne, autant sur le plan politique, éducatif, social, qu’économique et en présentant le développement des politiques migratoires jusqu’à aujourd’hui, il est possible de voir à quel point la question identitaire est profondément ancrée et soutenue par les élites du pays et que cela mène par conséquent à des politiques d’immigration strictes et contraignantes.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.