50 resultados para Reproductibilité
Resumo:
Messages à retenir: La scanographie hélicoïdale à collimation fine sur l'ensemble du thorax est l'examen de référence pour le diagnostic et l'évaluation de la distributiontopographique et de l'étendue des bronchectasies.Les reformations multiplanaires et les techniques de projection d'intensité maximum et minimum améliorent les performances diagnostiques et permettent unemeilleure détection des lésions associées des petites voies aériennes (bronchiolite infectieuse, bronchiolite oblitérative).Chez les patients atteints de bronchectasies, le degré d'épaississement pariétal bronchique ainsi que l'étendue des zones hypodenses hypoperfusées traduisantdes lésions d'obstruction bronchiolaire sont parfaitement corrélés à la sévérité du retentissement fonctionnel de la maladie .La scanographie est peu fiable pour reconnaître le diagnostic étiologique des bronchectasies. Résumé: La scanographie hélicoïdale multidétecteur à collimation fine sur l'ensemble du thorax au cours d'une seule et même apnée inspiratoire est supérieure auxexamens en coupes fines incrémentales haute résolution avec un intervalle de coupes de 10 mm, pour le diagnostic et l'évaluation de l'étendue desbronchectasies. L'usage des reformations multiplanaires améliore la détection des bronchectasies, augmente la reproductibilité des radiologues pour lediagnostic des bronchectasies ainsi que leur niveau de confiance pour apprécier la distribution lésionnelle . L'examen scanographique évalue le nombre et ladistribution des impactions mucoïdes dans des bronches dilatées et le retentissement de l'atteinte bronchique sur les voies aériennes distales et le parenchymepulmonaire. La recherche d'atteinte associée des petites voies aériennes est systématique : détection des foyers de bronchiolite infectieuse et évaluation de l'étendue des zones hypodenses, hypoperfusées, avec piégeage, qui reflètent les lésions de bronchiolite oblitérative . Ces dernières sont corrélées au degré desévérité de l'obstruction fonctionnelle. La scanographie reste peu fiable pour le diagnostic étiologique des bronchectasies. Inversement, certains mécanismessont facilement identifiés, tels que les bronchectasies post-obstructives et les bronchectasies par traction des fibroses pulmonaires .
Resumo:
Fondements : La recherche sur l'oedème postopératoire consécutif à la chirurgie prothétique du genou est peu développée, notamment en raison de l'absence d'une méthode de mesure adaptée. Une collaboration entre physiothérapeutes et ingénieurs a permis de développer et valider une méthode de mesure innovante et facilement applicable. Les physiothérapeutes ont identifié un besoin clinique, les ingénieurs ont apporté leur savoir technologique, et l'équipe a conjointement élaboré le protocole de mesure et effectué l'étude de validation. Introduction : La bioimpédance est fréquemment utilisée pour évaluer l'oedème par l'analyse d'un signal électrique passant au travers du corps, en extrapolant la résistance théorique à une fréquence égale à zéro (R0). La mesure s'avère fiable et rapide, mais n'a jamais été appliquée et validée pour l'évaluation de l'oedème en chirurgie orthopédique. Objectif : L'objectif de l'étude est de valider la mesure de l'oedème du membre inférieur par bioimpédance, chez des patients ayant bénéficié d'une prothèse totale de genou (PTG). Questionnement : Après nous être assurés de l'absence d'influence de l'implant métallique de la PTG sur la mesure, nous nous questionnions sur la validité et la fiabilité des mesures de bioimpédance dans ce contexte. Méthodes : Deux évaluateurs ont mesuré à tour de rôle et à deux reprises successives l'oedème chez 24 patients opérés d'une PTG, à trois temps différents (préopératoire, J+2, J+8). L'oedème a été évalué par bioimpédance (R0) et par conversion en volume de mesures centimétriques du membre inférieur (MI). Nous avons calculé le ratio moyen des MI pour chaque méthode. Nous avons évalué la reproductibilité intra- et inter-observateurs de la bioimpédance (coefficient de corrélation intraclasse, CCI) et la corrélation entre méthodes (Spearman). Résultats : Le ratio moyen opéré/sain du volume des MI est de 1.04 (SD ± 0.06) en préopératoire, 1.18 (SD ± 0.09) à J+2 et 1.17 (SD ± 0.10) à J+8. Le ratio sain/opéré des MI de R0 est de 1.04 (SD ± 0.07) en préopératoire, 1.51 (SD ± 0.22) à J+2 et 1.65 (SD ± 0.21) à J+8. En préopératoire, à J+2 et J+8, les CCI tous supérieurs à 0.95 pour la reproductibilité intra- et inter-observateurs de la bioimpédance. La corrélation entre méthodes est de 0.71 en préopératoire, 0.61 à J2 et 0.33 à J8. Analyse et conclusion : La variation du ratio des MI entre les temps préopératoire, J+2 et J+8 est plus marquée pour R0. La mesure de bioimpédance bénéficie d'une excellente reproductibilité intra- et inter-observateurs. L'évolution dans le temps de la corrélation entre méthodes peut être expliquée par l'influence potentielle de facteurs confondants sur R0 (modification de la composition liquidienne) et par l'influence de l'atrophie musculaire postopératoire sur la mesure de volume. La collaboration physiothérapeutes-ingénieurs a permis le développement et l'évaluation d'une nouvelle méthode de mesure.
Resumo:
La planification scanographique (3D) a démontré son utilité pour une reconstruction anatomique plus précise de la hanche (longueur du fémur, centre de rotation, offset, antéversion et rétroversion). Des études ont montré que lors de la planification 2D 50% seulement correspondaient à l'implant définitif du fémur alors que dans une autre étude ce taux s'élevait à 94% pour une planification 3D. Les erreurs étaient liées à l'agrandissement des radiographies. L'erreur sur la taille de la tige est liée à l'estimation inadéquate de la morphologie osseuse ainsi qu'à la densité osseuse. L'erreur de l'antéversion, augmentée par l'inclinaison du bassin, a pu être éliminée par la planification 3D et l'offset restauré dans 98%. Cette étude est basée sur une nouvelle technique de planification scanographique en trois dimensions pour une meilleure précision de la reconstruction de la hanche. Le but de cette étude est de comparer l'anatomie post-opératoire à celle préopératoire en comparant les tailles d'implant prévu lors de la planification 3D à celle réellement utilisée lors de l'opération afin de déterminer l'exactitude de la restauration anatomique avec étude des différents paramètres (centre de rotation, densité osseuse, L'offset fémoral, rotations des implants, longueur du membre) à l'aide du Logiciel HIP-PLAN (Symbios) avec évaluation de la reproductibilité de notre planification 3D dans une série prospective de 50 patients subissant une prothèse totale de hanche non cimentée primaire par voie antérieure. La planification pré-opératoire a été comparée à un CTscan postopératoire par fusion d'images. CONCLUSION ET PRESPECTIVE Les résultats obtenus sont les suivants : La taille de l'implant a été prédit correctement dans 100% des tiges, 94% des cupules et 88% des têtes (longueur). La différence entre le prévu et la longueur de la jambe postopératoire était de 0,3+2,3 mm. Les valeurs de décalage global, antéversion fémorale, inclinaison et antéversion de la cupule étaient 1,4 mm ± 3,1, 0,6 ± 3,3 0 -0,4 0 ± 5 et 6,9 ° ± 11,4, respectivement. Cette planification permet de prévoir la taille de l'implant précis. Position de la tige et de l'inclinaison de la cupule sont exactement reproductible. La planification scanographique préopératoire 3D permet une évaluation précise de l'anatomie individuelle des patients subissant une prothèse totale de hanche. La prédiction de la taille de l'implant est fiable et la précision du positionnement de la tige est excellente. Toutefois, aucun avantage n'est observée en termes d'orientation de la cupule par rapport aux études impliquant une planification 2D ou la navigation. De plus amples recherches comparant les différentes techniques de planification pré-opératoire à la navigation sont nécessaire.
Resumo:
RESUME : Valganciclovir (Valcyte®) is an orally administered ester prodrug of the standard anticytomegalovirus (CMV) drug ganciclovir. This drug enabled an important reduction of the burden of CMV morbidity and mortality in solid organ transplant recipients. Prevention of CMV infection and treatment of CMV disease requires drug administration during many weeks. Oral drug administration is therefore convenient. Valganciclovir has been developed to overcome the poor oral availability of ganciclovir, which limits its concentration exposure after oral administration and thus its efficacy. This prodrug crosses efficiently the intestinal barrier, is then hydrolyzed into ganciclovir, providing exposure similar to intravenous ganciclovir. Valganciclovir is now preferred for the prophylaxis and treatment of CMV infection in solid organ transplant recipients. Nevertheless, adequate dosage adjustment is necessary to optimize its use, avoiding either insufficient or exaggerate exposure related to differences in its pharmacokinetic profile between patients. The main goal of this thesis was to better describe the pharmacokinetic and pharmacodynamic profile of valganciclovir in solid organ transplant recipients, to assess their reproducibility and their predictability, and thus to evaluate the current recommendations for valganciclovir dosage adjustment and the potential contribution of routine therapeutic drug monitoring (TDM) to patients' management. A total of 437 ganciclovir plasma concentration data from 65 transplant patients (41 kidney, 12 lung, 10 heart and 2 liver recipients, 58 under oral valganciclovir prophylaxis, 8 under oral valganciclovir treatment and 2 under intravenous ganciclovir) were measured using a validated chromatographic method (HPLC) developed for this study. The results were analyzed by non-linear mixed effect modeling (NONMEM). A two-compartment model with first-order absorption appropriately described the data. Systemic clearance was markedly influenced by GFR, with further differences between graft types and sex (CL/GFR = 1.7 in kidney, 0.9 in heart and 1.2 in lung and liver recipients) with interpatient variability (CV%) of 26% and interoccasion variability of 12%. Body weight and sex influenced central volume of distribution (V1 = 0.34 l/kg in males and 0.27 l/kg in females) with an interpatient variability of 20%. Residual intrapatient variability was 21 %. No significant drug interaction influenced GCV disposition. VGC prophylactic efficacy and tolerability were good, without detectable dependence on GCV profile. In conclusion, this analysis highlights the importance of thorough adjustment of VGC dosage to renal function and body weight. Considering the good predictability and reproducibility of GCV profile after oral VGC in solid organ transplant recipients, routine TDM does not appear to be clinically indicated. However, GCV plasma measurement may still be helpful in specific clinical situations such as documentation of appropriate exposure in patients with potentially compromised absorption, or lack of response to CMV disease treatment, or under renal replacement therapy. RESUME : Le valganciclovir (Valcyte®) est un promédicament oral du ganciclovir qui est un anti-infectieux de référence contre les infections à cytomegalovirus (CMV). Cet antiviral a permis de réduire les effets délétères de cette infection jusqu'ici responsable d'une importante morbidité et mortalité chez les transplantés d'organe. La prévention et le traitement de l'infection à CMV sont donc nécessaires mais requièrent l'administration d'un agent antiviral sur une longue période. Un médicament administré par voie orale représente donc un avantage évident. Le valganciclovir a été développé dans le but d'améliorer la faible absorption orale du ganciclovir, et donc son efficacité. Cet ester valylique du ganciclovir traverse plus facilement la barrière gastro-intestinale, puis est hydrolysé en ganciclovir dans la circulation sanguine, produisant une exposition comparable à celle d'une perfusion intraveineuse de ganciclovir. De ce fait, le valganciclovir est devenu largement utilisé pour la prophylaxie mais aussi le traitement de l'infection à CMV. Néanmoins une utilisation optimale de ce nouveau médicament nécessite de bonnes connaissances sur son profil pharmacocinétique afin d'établir un schéma de dose adapté pour éviter tant une surexposition qu'une sous-exposition résultant des différences d'élimination entre les patients. Le but de cette thèse a été d'étudier le profil pharmacocinétique et pharmacodynamique du valganciclovir chez les transplantés d'organe ainsi que sa reproductibilité et sa prédictibilité. Il s'agissait d'apprécier de manière critique le schéma actuellement recommandé pour l'adaptation des doses de valganciclovir, mais aussi la contribution éventuelle d'un suivi des concentrations sanguines en routine. Un total de 437 taux sanguins de ganciclovir ont été mesurés, provenant de 65 patients transplantés d'organe (41 rénaux, 12 pulmonaires, 10 cardiaques et 2 hépatiques, 58 sous une prophylaxie orale de valganciclovir, 8 sous un traitement de valganciclovir et 2 sous un traitement intraveineux). Une méthode de chromatographie liquide à haute performance a été développée et validée pour cette étude. Les résultats ont été ensuite analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle à deux compartiments avec absorption de premier ordre a permis de décrire les données. La clairance systémique était principalement influencée par le débit de filtration glomérulaire (GFR), avec une différence entre les types de greffe et les sexes (CL/GFR = 1.7 chez les greffés rénaux, 0.9 pour les greffés cardiaques et 1.2 pour le groupe des greffés pulmonaires et hépatiques) avec un variabilité inter-individuelle de 26% (CV%) et une variabilité inter-occasion de 12%. Le poids corporel ainsi que le sexe avaient une influence sur le volume central de distribution (V1 = 0.34 l/kg chez les hommes et 0.27 l/kg chez les femmes) avec une variabilité inter-individuelle de 20%. La variabilité intra-individuelle résiduelle était de 21 %. Aucune interaction médicamenteuse n'a montré d'influence sur le profil du ganciclovir. La prophylaxie avec le valganciclovir s'est révélée efficace et bien tolérée. En conclusion, cette analyse souligne l'importance d'une adaptation de la dose du valganciclovir à la fonction rénale et au poids du patient. Au vu de la bonne reproductibilité et prédictibilité du profil pharmacocinétique du ganciclovir chez les patients transplantés recevant du valganciclovir, un suivi des concentrations sanguines en routine ne semble pas cliniquement indiqué. Néanmoins, la mesure des taux plasmatiques de ganciclovir peut être utile dans certaines situations particulières, comme la vérification d'une exposition appropriée chez des patients susceptibles d'absorption insuffisante, ou ne répondant pas au traitement d'une infection à CMV ou encore sous épuration extra-rénale. RESUME LARGE PUBLIC : Le valganciclovir est un précurseur capable de libérer du ganciclovir, récemment développé pour améliorer la faible absorption orale de ce dernier. Une fois le valganciclovir absorbé, le ganciclovir libéré dans la circulation sanguine devient efficace contre les infections à cytomégalovirus. Ce virus largement répandu est responsable de maladies insidieuses et parfois graves chez les personnes présentant une baisse des défenses immunitaires, comme les greffés d'organe recevant un traitement anti-rejet. Le ganciclovir est administré pendant plusieurs mois consécutifs soit pour prévenir une infection après la transplantation, soit pour traiter une infection déclarée. La facilité d'administration du valganciclovir par voie orale représente un avantage sur une administration du ganciclovir par perfusion, qui nécessite une hospitalisation. Toutefois, la voie orale peut être une source supplémentaire de variabilité chez les patients, avec un impact potentiel sur l'efficacité ou la toxicité du médicament. Le but de cette étude a été - de décrire le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline de la pharmacocinétique) - de définir les facteurs cliniques pouvant expliquer les différences de concentration sanguine observées entre les patients sous une posologie donnée - d'explorer les relations entre les concentrations du médicament dans le sang et son efficacité ou la survenue d'effets indésirables (dont l'étude relève de la discipline de la pharmacodynamie). Cette étude a nécessité le développement et la validation, d'une méthode d'analyse pour mesurer la concentration sanguine du ganciclovir, puis son application à 437 échantillons provenant de 65 patients transplantés d'organe solide (41 rénaux, 12 pulmonaires, 10 cardiaques et 2 hépatiques) recevant du valganciclovir. Les résultats des mesures effectuées ont été analysés à l'aide d'un outil mathématique afin d'élaborer un modèle du devenir du médicament dans le sang chez chaque patient et à chaque occasion. Cette étude a permis d'évaluer chez des patients recevant le valganciclovir, la vitesse à laquelle l'organisme absorbe, distribue, puis élimine le médicament. La vitesse d'élimination dépendait étroitement de la fonction rénale, du type de greffe et du sexe alors que la distribution dépendait du poids et du sexe du patient. La variabilité non expliquée par ces facteurs cliniques était modérée et vraisemblablement sans conséquence clinique évidente soit sur l'efficacité ou la tolérance, qui se révèlent très satisfaisantes chez les patients de l'étude. Les observations n'ont pas révélé de relation entre les concentrations de médicament et l'efficacité thérapeutique ou la survenue d'effets indésirables, confirmant que les doses relativement faibles utilisées dans notre collectif de patients suffisaient à produire une exposition reproductible à des concentrations adéquates. En conclusion, le profil (et par conséquent l'absorption) du valganciclovir chez les patients transplantés semble bien prédictible après une adaptation de la dose à la fonction rénale et au poids du patient. Un contrôle systématique des concentrations sanguines n'est probablement pas indiqué en routine, mais cette mesure peut présenter un intérêt dans certaines conditions particulières.
Resumo:
RésuméLe PESI (Pulmonary Embolism Severity Index) est un score clinique pronostique s'appliquant à des patients présentant un diagnostic d'embolie pulmonaire. Notre objectif était de démontrer la reproductibilité de ce score entre différents médecins chez des patients présentant une embolie pulmonaire. Nous avons donc identifié, de façon prospective, des patients présentant une embolie pulmonaire nouvellement diagnostiquée aux urgences d'un Hôpital Universitaire (CHUV, Lausanne). Pour tous ces patients, le médecin assistant en charge ainsi que le chef de clinique superviseur ont individuellement collecté les différentes variables permettant d'établir le score selon le PESI. Ils ont, ensuite, de façon indépendante, classifié les patients dans 5 classes de risque (1-V) ainsi qu'en deux groupes à bas risque versus haut risque, respectivement les classes i-ll et les classes III à V.Nous avons examiné la reproductibilité des données entre deux groupes de médecins (médecins assistants vs chefs de clinique), pour chacune des variables constituant le PESI, pour le score total en points, pour l'attribution aux 5 classes de risque ainsi que pour la classification en deux groupes à haut risque versus bas risque. Cette évaluation de la reproductibilité des résultats obtenus par les différents médecins s'est basée sur le calcul du Kappa (K) ainsi sur les Coefficients de Corrélation Intra-classe (ICC).Parmi les 48 patients présentant une Embolie Pulmonaire inclus dans notre étude, les coefficients de reproductibilité entre médecins assistants et chefs de clinique étaient supérieurs à 0.60 pour 10 des 11 variables du PESI. La reproductibilité entre les 2 groupes de médecins, pour le total des points, pour l'attribution à une classe de risque I à V, ainsi que pour la classification en bas versus haut risque était presque parfaite.Nos résultats démontrent la haute reproductibilité du PESI, et appuient donc l'intérêt de son utilisation pour la stratification du risque chez des patients présentant une embolie pulmonaire.
Resumo:
Résumé pour un large public: La vaccination a eu un impact énorme sur la santé mondiale. Mais, quel est le principe d'un vaccin? Il est basé sur la 'mémoire immunologique', qui est une particularité exclusive des systèmes immunitaires des organismes évolués. Suite à une infection par un pathogène, des cellules spécialisées de notre système immunitaire (les lymphocytes) le reconnaissent et initient une réaction immunitaire qui a pour but son élimination. Pendant cette réaction se développent aussi des cellules, appelées cellules lymphocytaires mémoire, qui persistent pour longue durée et qui ont la capacité de stimuler une réaction immunitaire très efficace immédiatement après une seconde exposition à ce même pathogène. Ce sont ces cellules mémoires (lymphocytes B et T) qui sont à la base de la 'mémoire immunologique' et qui sont stimulées lors de la vaccination. Chez l'homme, deux populations distinctes des lymphocytes T mémoires ont été identifiées: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et essentiels dans l'immunité protectrice. Typiquement, les cellules effectrices mémoires sont capables de tuer immédiatement le pathogène tandis que les cellules centrales mémoires sont responsables d'initier une réponse immunitaire complète. Pourtant, les mécanismes biochimiques qui contrôlent les fonctions de ces cellules ont été jusqu'à présent peu étudiés à cause de la faible fréquence de ces cellules et de la quantité limitée de tissus humains disponibles pour les analyses. La compréhension de ces mécanismes est cruciale pour la réalisation de vaccins efficaces et pour le développement de nouveaux médicaments capables de moduler la réponse immunitaire lymphocytaire. Dans cette thèse, nous avons d'abord développé et amélioré une technologie appelée 'protéine array en phase inverse' qui possède un niveau de sensibilité beaucoup plus élevé par rapport aux technologies classiquement utilisées dans l'étude des protéines. Grâce à cette technique, nous avons pu comparer la composition protéique du système de transmission des signaux d'activation des cellules CM et EM humaines. L'analyse de 8 à 13 sujets sains a montré que ces populations des cellules mémoires possèdent un système de signalisation protéique différent. En effet, les cellules EM possèdent, par rapport aux cellules CM, des niveaux réduits d'une protéine régulatrice (appelée c-Cbl) que nous avons démontré comme étant responsable des fonctions spécifiques de ces cellules. En effet, en augmentant artificiellement l'expression de cette protéine régulatrice dans les cellules EM jusqu'au niveau de celui des cellules CM, nous avons induit dans les cellules EM des capacités fonctionnelles caractéristiques des cellules CM. En conclusion, notre étude a identifié, pour la première fois chez l'homme, un mécanisme biochimique qui contrôle les fonctions des populations des cellules mémoires. Résumé en Français: Les cellules mémoires persistent inertes dans l'organisme et produisent des réactions immunitaires rapides et robustes contre les pathogènes précédemment rencontrés. Deux populations distinctes des cellules mémoires ont été identifiées chez l'homme: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et critiques dans l'immunité protectrice. Les mécanismes biochimiques qui contrôlent leurs fonctions ont été jusqu'à présent peu étudiés, bien que leur compréhension soit cruciale pour le développement des vaccins et des nouveaux traitements/médicaments. Les limites majeures à ces études sont la faible fréquence de ces populations et la quantité limitée de tissus humains disponibles. Dans cette thèse nous avons d'abord développé et amélioré la technologie de 'protéine array en phase inverse' afin d'analyser les molécules de signalisation des cellules mémoires CD4 et CD8 humaines isolées ex vivo. L'excellente sensibilité, la reproductibilité et la linéarité de la détection, ont permis de quantifier des variations d'expression protéiques supérieures à 20% dans un lysat équivalent à 20 cellules. Ensuite, grâce à l'analyse de 8 à 13 sujets sains, nous avons prouvé que les cellules mémoires CD8 ont une composition homogène de leur système de signalisation tandis que les cellules CD4 EM expriment significativement de plus grandes quantités de SLP-76 et des niveaux réduits de c-Cbl, Syk, Fyn et LAT par rapport aux cellules CM. En outre, l'expression réduite du régulateur négatif c-Cbl est corrélée avec l'expression des SLP-76, PI3K et LAT uniquement dans les cellules EM. L'évaluation des propriétés fonctionnelles des cellules mémoires a permis de démontrer que l'expression réduite du c-Cbl dans les cellules EM est associé à une diminution de leur seuil d'activation. En effet, grâce a la technique de transduction cytosolique, nous avons augmenté la quantité de c-Cbl des cellules EM à un niveau comparable à celui des cellules CM et constaté une réduction de la capacité des cellules EM à proliférer et sécréter des cytokines. Ce mécanisme de régulation dépend principalement de l'activité d'ubiquitine ligase de c-Cbl comme démontré par l'impact réduit du mutant enzymatiquement déficient de c-Cbl sur les fonctions de cellules EM. En conclusion, cette thèse identifie c-Cbl comme un régulateur critique des réponses fonctionnelles des populations de cellules T mémoires et fournit, pour la première fois chez l'homme, un mécanisme contrôlant l'hétérogénéité fonctionnelle des ces cellules. De plus, elle valide l'utilisation combinée des 'RPP arrays' et de la transduction cytosolique comme outil puissant d'analyse quantitative et fonctionnel des protéines de signalisation. Summary : Memory cells persist in a quiescent state in the body and mediate rapid and vigorous immune responses toward pathogens previously encountered. Two subsets of memory cells, namely central (CM) and effector (EM) memory cells, have been identified in humans. These subsets display high functional heterogeneity and assert critical and distinct roles in the control of protective immunity. The biochemical mechanisms controlling their functional properties remain so far poorly investigated, although their clarification is crucial for design of effective T-cell vaccine and drug development. Major limitations to these studies lie in the low frequency of memory T cell subsets and the limited amount of human specimen available. In this thesis we first implemented the innovative reverse phase protein array approach to profile 15 signalling components in human CD8 and CD4 memory T cells isolated ex vivo. The high degree of sensitivity, reproducibility and linearity achieved, allowed an excellent quantification of variations in protein expression higher than 20% in as few as 20-cell equivalent per spot. Based on the analysis of 8 to 13 healthy subjects, we showed that CD8 memory cells have a homogeneous composition of their signaling machinery while CD4 EM cells express statistically significant increased amounts of SLP-76 and reduced levels of c- Cbl, Syk, Fyn and LAT as compared to CM cells. Moreover, in EM but not CM cells, reduced expression of negative regulator c-Cbl correlated with the expression of SLP-76, PI3K and LAT. Subsequently, we demonstrated that the higher functional properties and the lower functional threshold of EM cells is associated with reduced expression of c-Cbl. Indeed, by increasing c-Cbl content of EM cells to the same level of CM cells using cytosolic transduction, we impaired their proliferation and cytokine production. This regulatory mechanism was primarily dependent on c-Cbl E3 ubiquitin ligase activity as evidenced by the weaker impact of enzymatically deficient c-Cbl C381A mutant on EM cell functions. Together, these results identify c-Cbl as a critical regulator of the functional responses of memory T cell subsets and provides, for the first time in humans, a mechanism controlling the functional heterogeneity of memory CD4 cells. Moreover it validates the combined use of RPP arrays and cytosolic transduction approaches as a powerful tool to quantitatively analyze signalling proteins and functionally assess their roles.
Resumo:
L'ARN polymérase 3 transcrit un petit groupe de gènes fortement exprimés et impliqués dans plusieurs mécanismes moléculaires. Les ARNs de transfert ou ARNt représentent plus ou moins la moitié du transcriptome de l'ARN polymérase 3. Ils sont directement impliqués dans la traduction des protéines en agissant comme transporteurs d'acides aminés qui sont incorporés à la chaîne naissante de polypeptides. Chez des levures cultivées dans un milieu jusqu'à épuisement des nutriments, Maf1 réprime la transcription par l'ARN polymérase 3, favorisant ainsi l'économie énergétique cellulaire. Dans un modèle de cellules de mammifères, MAF1 réprime aussi la transcription de l'ARN polymérase 3 dans des conditions de stress, cependant il n'existe aucune donnée quant à son rôle chez un mammifère vivant. Pendant mon doctorat, j'ai utilisé une souris délétée pour le gène Maf1 afin de connaître les effets de ce gène chez un mammifère. Etonnamment, la souris Maf1-‐/-‐ est résistante à l'obésité même si celle-‐ci est nourrie avec une nourriture riche en matières grasses. Des études moléculaires et de métabolomiques ont montré qu'il existe des cycles futiles de production et dégradation des lipides et des ARNt, ce qui entraîne une augmentation de la dépense énergique et favorise la résistance à l'obésité. En plus de la caractérisation de la souris Maf1-‐/-‐, pendant ma thèse j'ai également développé une méthode afin de normaliser les données de ChIP-‐sequencing. Cette méthode est fondée sur l'utilisation d'un contrôle interne, représenté ici par l'ajout d'une quantité fixe de chromatine provenant d'un organisme différent de celui étudié. La méthode a amélioré considérablement la reproductibilité des valeurs entre réplicas biologiques. Elle a aussi révélé des différences entre échantillons issus de conditions différentes. Une occupation supérieure de l'ARN polymérase 3 sur les gènes Pol 3 chez les souris Maf1 KO entraîne une augmentation du niveau de précurseurs d'ARNt, ayant pour effet probable la saturation de la machinerie de maturation des ARNt. En effet, chez les souris Maf1 KO, le pourcentage d'ARNt modifiés est plus faible que chez les souris type sauvage. Ce déséquilibre entre le niveau de précurseurs et d'ARNt matures entraîne une diminution de la traduction protéique. Ces résultats ont permis d'identifier de nouvelles fonctions pour la protéine MAF1, comme étant une protéine régulatrice à la fois de la transcription mais aussi de la traduction et en étant un cible potentielle au traitement à l'obésité. -- RNA polymerase III (Pol 3) transcribes a small set of highly expressed genes involved in different molecular mechanisms. tRNAs account for almost half of the Pol 3 transcriptome and are involved in translation, bringing a new amino into the nascent polypeptide chain. In yeast, under nutrient deprivation, Maf1 acts for cell energetic economy by repressing Pol 3 transcription. In mammalian cells, MAF1 also represses Pol 3 activity under conditions of serum deprivation or DNA damages but nothing is known about its role in a mammalian organism. During my thesis studies, I used a Maf1 KO mouse model to characterize the effects of Maf1 deletion in a living animal. Surprisingly, the MAF1 KO mouse developed an unexpected phenotype, being resistant to high fat diet-‐induced obesity and displaying an extended lifespan. Molecular and metabolomics characterizations revealed futile cycles of lipids and tRNAs, which are produced and immediately degraded, which increases energy consumption in the Maf1 KO mouse and probably explains in part the protection to obesity. Additionally to the mouse characterization, I also developed a method to normalize ChIP-‐seq data, based on the addition of a foreign chromatin to be used as an internal control. The method improved reproducibility between replicates and revealed differences of Pol 3 occupancy between WT and Maf1 KO samples that were not seen without normalization to the internal control. I then established that increased Pol 3 occupancy in the Maf1 KO mouse liver was associated with increased levels of tRNA precursor but not of mature tRNAs, the effective molecules involved in translation. The overproduction of precursor tRNAs associated with the deletion of Maf1 apparently overwhelms the tRNA processing machinery as the Maf1 KO mice have lower levels of fully modified tRNAs. This maturation defect directly impacts on translation efficiency as polysomic fractions and newly synthetized protein levels were reduced in the liver of the Maf1 KO mouse. Altogether, these results indicate new functions for MAF1, a regulator of both transcription and translation as well as a potential target for obesity treatment.
Resumo:
La dermatite irritative est décrite comme une réaction réversible, non immunologique caractérisée par des lésions d'aspect très variable, allant de la simple rougeur jusqu'à la formation de bulles voire d'une nécrose, accompagnée de prurit ou d'une sensation de brûlure suite à I' application d'une substance chimique. Le teste de prédiction d'irritation cutanée est traditionnellement depuis les années 1940 le Test de Draize. Ce test consiste en l'application d'une substance chimique sur une peau rasée de lapin pendant 4h et de regarder à 24h si des signes cliniques d'irritations sont présents. Cette méthode critiquable autant d'un point de vue éthique que qualitative reste actuellement le teste le plus utilisé. Depuis le début des années 2000 de nouvelles méthodes in vitro se sont développées tel que le model d'épiderme humain recombiné (RHE). Il s agit d'une multicouche de kératinocyte bien différencié obtenu depuis une culture de don d'ovocyte. Cependant cette méthode en plus d'être très couteuse n'obtient au mieux que 76% de résultat similaire comparé au test in vivo humain. Il existe donc la nécessité de développer une nouvelle méthode in vitro qui simulerait encore mieux la réalité anatomique et physiologique retrouvée in vivo. Notre objectif a été de développer cette nouvelle méthode in vitro. Pour cela nous avons travaillé avec de la peau humaine directement prélevée après une abdominoplastie. Celle ci après préparation avec un dermatome, un couteau dont la lame est réglable pour découper l'épaisseur souhaitée de peau, est montée dans un système de diffusion cellulaire. La couche cornée est alors exposée de manière optimale à 1 ml de la substance chimique testée pendant 4h. L'échantillon de peau est alors fixé dans du formaldéhyde pour permettre la préparation de lames standards d'hématoxyline et éosine. L'irritation est alors investiguée selon des critères histopathologiques de spongioses, de nécroses et de vacuolisations cellulaires. Les résultats de ce.tte première batterie de testes sont plus que prometteurs. En effet, comparé au résultat in vivo, nous obtenons 100% de concordance pour les 4 même substances testes irritantes ou non irritantes, ce qui est supérieur au model d épiderme humain recombiné (76%). De plus le coefficient de variation entre les 3 différentes séries est inférieur à 0.1 ce qui montre une bonne reproductibilité dans un même laboratoire. Dans le futur cette méthode va devoir être testée avec un plus grand nombre de substances chimiques et sa reproductibilité évaluée dans différents laboratoires. Mais cette première evaluation, très encourageante, ouvre des pistes précieuses pour l'avenir des tests irritatifs.
Resumo:
Introduction : L’évaluation clinique du contrôle neuromusculaire des muscles du tronc est criante en réhabilitation et en entraînement. L’objectif principal de cette étude a été d’évaluer la reproductibilité intra et inter-évaluateur d’un test clinique le soulèvement actif de la jambe tendue (SAJT) chez une population active et saine. Méthode : Chaque sujet (18 joueurs de tennis) a été testé à deux reprises par 2 physiothérapeutes avec le SAJT. Résultats : La reproductibilité intra-évaluateur s’est avérée élevée à très élevée (ICC = 0.81 à 0.93) tandis la reproductibilité inter-évaluateur s’est avérée cliniquement non viable. Conclusion : À notre connaissance, le SAJT est le premier test clinique reproductible évaluant le contrôle neuromusculaire du tronc avec des compensations musculaires et cinétiques chez des sujets actifs et sains. Une formation plus importante des évaluateurs aurait certainement amélioré la reproductibilité inter-évaluateur.
Resumo:
Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.
Resumo:
Ce mémoire décrit l’imaginaire sonore tel qu’il s’est transformé par l’apparition de dispositifs de reproduction (téléphone, phonographe et radio) à la fin du 19ème siècle et au début du 20ème siècle. Si ces appareils de reproduction sonore signalent un nouveau contexte socioculturel permettant la captation, la conservation et la transmission de manifestations sensibles, ils transforment également la manière de concevoir le son, ils modifient le statut de l’audition par rapport aux autres sens et reconfigurent un imaginaire qui traduit un rapport à soi, à autrui et au monde. Cette étude littéraire de la reproductibilité sonore propose une réflexion entre technologie et poétique en questionnant l’idée de communication. L’élément spécifique qui caractérise les appareils de reproduction sonore est un objet technique nommé «transducteur ». Je considère le transducteur à la fois comme métaphore et matérialité de médiation; conçu en termes de dispositif de transduction, ce concept permet une différente compréhension des pratiques sociales et de l’imaginaire constituant cet artefact culturel.
Resumo:
Objectif : Déterminer la fiabilité et la précision d’un prototype d’appareil non invasif de mesure de glucose dans le tissu interstitiel, le PGS (Photonic Glucose Sensor), en utilisant des clamps glycémiques multi-étagés. Méthodes : Le PGS a été évalué chez 13 sujets avec diabète de type 1. Deux PGS étaient testés par sujet, un sur chacun des triceps, pour évaluer la sensibilité, la spécificité, la reproductibilité et la précision comparativement à la technique de référence (le Beckman®). Chaque sujet était soumis à un clamp de glucose multi-étagé de 8 heures aux concentrations de 3, 5, 8 et 12 mmol/L, de 2 heures chacun. Résultats : La corrélation entre le PGS et le Beckman® était de 0,70. Pour la détection des hypoglycémies, la sensibilité était de 63,4%, la spécificité de 91,6%, la valeur prédictive positive (VPP) 71,8% et la valeur prédictive négative (VPN) 88,2%. Pour la détection de l’hyperglycémie, la sensibilité était de 64,7% et la spécificité de 92%, la VPP 70,8% et la VPN : 89,7%. La courbe ROC (Receiver Operating Characteristics) démontrait une précision de 0,86 pour l’hypoglycémie et de 0,87 pour l’hyperglycémie. La reproductibilité selon la « Clark Error Grid » était de 88% (A+B). Conclusion : La performance du PGS était comparable, sinon meilleure que les autres appareils sur le marché(Freestyle® Navigator, Medtronic Guardian® RT, Dexcom® STS-7) avec l’avantage qu’il n’y a pas d’aiguille. Il s’agit donc d’un appareil avec beaucoup de potentiel comme outil pour faciliter le monitoring au cours du traitement intensif du diabète. Mot clés : Diabète, diabète de type 1, PGS (Photonic Glucose Sensor), mesure continue de glucose, courbe ROC, « Clark Error Grid».
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.