31 resultados para Reproductibilité
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Objectif: L'objectif primaire de cette étude était d'évaluer la validité, la fiabilité et la reproductibilité des mesures dentaires obtenues sur les modèles digitaux iTero (Align Technology, San Jose, Californie) et Unitek TMP Digital (3M, Monrovia, Californie) en comparaison avec celles obtenues sur les modèles de plâtre (gold standard). L'objectif secondaire était de comparer les deux différents matériaux à empreinte (l'alginate et le polyvinylsiloxane-PVS) afin de déterminer si le choix du matériau affectait la précision des mesures. Méthodes: Le premier volet de l'étude impliquait les modèles digitaux Unitek et iTero, obtenus à partir de 25 paires de modèles de plâtre choisis de façon randomisée et provenant de la pratique privée d'un des co-auteurs. Des empreintes d'alginate et de PVS ont été prises sur les modèles de plâtre et numérisées par le scanner Unitek. Les modèles ont ensuite été numérisés avec le scanner iTero. Le deuxième volet de l'étude cherchait à comparer les modèles digitaux iTero (numérisation intra-orale) avec les modèles de plâtre (empreintes d'alginate et de PVS) obtenus à partir de 25 patients de la clinique d'orthodontie de l'Université de Montréal ayant besoin d'un traitement orthodontique. Dans les deux volets de l'étude, deux auteurs ont pris les mesures suivantes sur les différents modèles: largeur mésio-distale de chaque dent de la première molaire à l'autre première molaire, le périmètre d'arcade, les distances intermolaire et intercanine, le surplomb vertical et le surplomb horizontal. Les ratios et excès Bolton 6 et 12, l'espace requis et les différentiels d'espace au maxillaire et à la mandibule, ont été calculés. Résultats: La fiabilité (ICC) entre les modèles digitaux (Unitek et iTero) et les modèles de plâtre était bonne à excellente pour toutes les mesures [ICC=0,762–0,998], et la fiabilité entre les deux matériaux à empreinte était excellente [ICC=0,947–0,996]. Dans les deux volets de l'étude, les mesures faites sur les modèles iTero étaient généralement plus grandes que celles faites sur les modèles de plâtre. Les plus grandes différences moyennes pour la comparaison iTero-plâtre étaient trouvées au niveau de l'espace disponible au maxillaire et à la mandibule (systématiquement plus grande pour cette variable), soit 2,24 mm et 2,02 mm respectivement dans le premier volet, et 1,17 mm et 1,39 mm respectivement dans le deuxième volet. Les différences étaient considérées cliniquement non significatives pour toutes les variables. La reproductibilité intra-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux, à l'exception du différentiel d'espace à la mandibule pour les modèles Unitek [ICC=0,690-0,692]. La reproductibilité inter-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux dans les deux volets de l'étude, mais acceptable à modérée pour les modèles Unitek au niveau des analyses Bolton 6 et 12, et des différentiels d'espace au maxillaire et à la mandibule [ICC=0,362-0,548]. Conclusions: La précision et la fiabilité des mesures dentaires faites sur les modèles digitaux Unitek et iTero étaient cliniquement acceptables et reproductibles en comparaison avec les celles faites sur les modèles de plâtre. Le choix de matériel à empreinte entre l'alginate et le PVS n'affectait pas la précision des mesures. Cette étude semble démontrer que les modèles digitaux Unitek et iTero, utilisés avec leur logiciel respectif, sont une alternative fiable et reproductible aux modèles de plâtre pour le diagnostic et l’analyse des modèles orthodontiques.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
Introduction : L’évaluation clinique du contrôle neuromusculaire des muscles du tronc est criante en réhabilitation et en entraînement. L’objectif principal de cette étude a été d’évaluer la reproductibilité intra et inter-évaluateur d’un test clinique le soulèvement actif de la jambe tendue (SAJT) chez une population active et saine. Méthode : Chaque sujet (18 joueurs de tennis) a été testé à deux reprises par 2 physiothérapeutes avec le SAJT. Résultats : La reproductibilité intra-évaluateur s’est avérée élevée à très élevée (ICC = 0.81 à 0.93) tandis la reproductibilité inter-évaluateur s’est avérée cliniquement non viable. Conclusion : À notre connaissance, le SAJT est le premier test clinique reproductible évaluant le contrôle neuromusculaire du tronc avec des compensations musculaires et cinétiques chez des sujets actifs et sains. Une formation plus importante des évaluateurs aurait certainement amélioré la reproductibilité inter-évaluateur.
Resumo:
Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.
Resumo:
Ce mémoire décrit l’imaginaire sonore tel qu’il s’est transformé par l’apparition de dispositifs de reproduction (téléphone, phonographe et radio) à la fin du 19ème siècle et au début du 20ème siècle. Si ces appareils de reproduction sonore signalent un nouveau contexte socioculturel permettant la captation, la conservation et la transmission de manifestations sensibles, ils transforment également la manière de concevoir le son, ils modifient le statut de l’audition par rapport aux autres sens et reconfigurent un imaginaire qui traduit un rapport à soi, à autrui et au monde. Cette étude littéraire de la reproductibilité sonore propose une réflexion entre technologie et poétique en questionnant l’idée de communication. L’élément spécifique qui caractérise les appareils de reproduction sonore est un objet technique nommé «transducteur ». Je considère le transducteur à la fois comme métaphore et matérialité de médiation; conçu en termes de dispositif de transduction, ce concept permet une différente compréhension des pratiques sociales et de l’imaginaire constituant cet artefact culturel.
Resumo:
Objectif : Déterminer la fiabilité et la précision d’un prototype d’appareil non invasif de mesure de glucose dans le tissu interstitiel, le PGS (Photonic Glucose Sensor), en utilisant des clamps glycémiques multi-étagés. Méthodes : Le PGS a été évalué chez 13 sujets avec diabète de type 1. Deux PGS étaient testés par sujet, un sur chacun des triceps, pour évaluer la sensibilité, la spécificité, la reproductibilité et la précision comparativement à la technique de référence (le Beckman®). Chaque sujet était soumis à un clamp de glucose multi-étagé de 8 heures aux concentrations de 3, 5, 8 et 12 mmol/L, de 2 heures chacun. Résultats : La corrélation entre le PGS et le Beckman® était de 0,70. Pour la détection des hypoglycémies, la sensibilité était de 63,4%, la spécificité de 91,6%, la valeur prédictive positive (VPP) 71,8% et la valeur prédictive négative (VPN) 88,2%. Pour la détection de l’hyperglycémie, la sensibilité était de 64,7% et la spécificité de 92%, la VPP 70,8% et la VPN : 89,7%. La courbe ROC (Receiver Operating Characteristics) démontrait une précision de 0,86 pour l’hypoglycémie et de 0,87 pour l’hyperglycémie. La reproductibilité selon la « Clark Error Grid » était de 88% (A+B). Conclusion : La performance du PGS était comparable, sinon meilleure que les autres appareils sur le marché(Freestyle® Navigator, Medtronic Guardian® RT, Dexcom® STS-7) avec l’avantage qu’il n’y a pas d’aiguille. Il s’agit donc d’un appareil avec beaucoup de potentiel comme outil pour faciliter le monitoring au cours du traitement intensif du diabète. Mot clés : Diabète, diabète de type 1, PGS (Photonic Glucose Sensor), mesure continue de glucose, courbe ROC, « Clark Error Grid».
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.
Resumo:
L’obésité et la sédentarité sont considérées comme des problèmes importants de santé publique. L’augmentation de l’activité physique est une des stratégies recommandées pour obtenir un bilan énergétique positif dans les interventions de perte de poids. Deux accéléromètres, le Sensewear Armband (SWA) et l’Actical (ACT), sont des outils simples à utiliser en recherche clinique, mais à notre connaissance, aucune étude n’a évalué leur capacité à détecter des hausses de la dépense énergétique. De plus, très peu d’études, avec des résultats par ailleurs contradictoires, ont été effectuées afin de déterminer la fiabilité de ces accéléromètres pour la mesure de la dépense énergétique au repos et au cours d’une activité physique au vélo stationnaire. Ainsi, les objectifs de cette étude étaient: 1) évaluer, pendant 3 journées consécutives, la reproductibilité des valeurs de la dépense énergétique obtenues avec le SWA et l’ACT, au repos et au cours d’une activité physique de 45 minutes sur un vélo stationnaire, 2) déterminer la capacité de ces accéléromètres à détecter des hausses de 5% et 10 % de la dépense énergétique totale (DET) au moyen de la modification d’une activité physique au tapis roulant pendant 45 minutes. Cette étude transversale effectuée auprès de 20 sujets en santé, âgés de 20 à 32 ans et avec un IMC moyen de 23 kg/m2, consistait en 5 visites à la clinique. Les 3 dernières visites, sous supervision directe pendant 10 heures, comportaient des activités programmées sur le vélo stationnaire et la marche sur tapis roulant pendant 45 minutes. Les résultats montrent que le SWA et l’ACT donnent des valeurs reproductibles pour estimer la dépense énergétique au repos et la dépense énergétique au vélo (corrélations intra classe, p<0,001). Par contre, pour des hausses préétablies de la DET de 5% et 10%, les estimations respectives obtenues étaient de 1,4% et 7,8% avec le SWA et de 3,4% et 13,1% avec l’ACT. Le SWA sous-estime les hausses de 5% et de 10% et l’ACT sous-estime la hausse de 5% et surestime la hausse de 10% de la DET. Plus de recherches sont nécessaires avant de confirmer l’usage du SWA et de l’ACT dans l’estimation des hausses de la dépense énergétique totale.
Resumo:
Comme la représentation théâtrale est une forme d’art fugitive qui, en raison de son caractère performatif, possède son propre monde fictionnel, la question de l’oposition entre représentation et réalité occupe une place centrale dans les études théâtrales. Ainsi, les œuvres scèniques d’un metteur en scène comme Frank Castorf représentent des objets d’analyse particulièrement appropriés. Parce que Castorf met d’abord l’accent sur le moment présent et la réalité de la représentation théâtrale, il est légitime de se demander quelle est la part qu’occupe la représentation d’un monde fictionel dans ses spectacles. Ce travail vise précisément à identifier l’importance qu’accorde Castorf à la performativité dans deux adaptations théâtrales des romans de Dostoïevski Les démons et l’Idiot. Comme notre société donne une place grandissante aux médias reproductibles tels que la télévision et le cinéma, et que l’être humain tend toujours davantage à se méditiaser lui-même, le théâtre comme toutes les autres formes d’art s’en trouve transformé. C’est dans cette optique que ces deux adaptations théâtrales ont donné lieu à d’autres manifestations artistiques, soit deux films et deux livres. Cet ouvrage retrace également le processus de re-représentation, c’est-à-dire du passage d’un média à un autre, dans le but d’analyser l’interrelation entre ces œuvres ainsi que de comprendre les raisons qui ont poussé le metteur en scène et son théâtre, la Volksbühne Berlin, à transposer d’abord des romans en spectacle de théâtre pour ensuite en faire des films et des livres. De plus, malgré son utilisation croissante au théâtre, la vidéo représente encore pour certains puristes un envahisseur à bannir. Elle introduirait la perte de l’essence du théâtre : le caractère performatif, qui consiste en une rencontre du public et des acteurs dans un même espace-temps. Par contre, les images vidéo-projetées en direct peuvent conserver une part de performativité puisqu’elles sont susceptibles d’influer sur le spectateur, et inversement. En prenant comme exemple l’Idiot de Frank Castorf, ce travail montre comment les caméras et leur dispositif de transmission en direct ont la capacité de se substituer aux principaux objets du spectacle théâtral : les acteurs.
Resumo:
Le diabète de type 1 (DT1) est une maladie complexe qui requiert une implication importante des patients pour contrôler leur glycémie et ainsi prévenir les complications et comorbidités. L’activité physique (AP) régulière et une attention constante pour les glucides ingérés sont des adjuvants essentiels au traitement insulinique. Nous avons démontré que le questionnaire BAPAD-1, spécifiquement développé pour des adultes atteints de DT1, est un outil valide (validité prédictive, fiabilité interne et reproductibilité) pour définir des barrières associées à l’AP. Bien que le niveau de barrières envers l’AP soit faible, la crainte de l’hypoglycémie est la barrière la plus importante chez cette population. L’adoption d’un mode de vie actif est associée à un profil corporel favorable. Les adultes, avec un DT1 et non diabétique, qui maintiennent un bon niveau d’AP, soit un ratio entre la dépense énergétique totale et celle au repos ≥ 1.7, ont une masse grasse, un indice de masse corporelle et un tour de taille significativement inférieurs à ceux d’adultes moins actifs. Le niveau d’AP peut être estimé au moyen d’un moniteur d’AP comme le SenseWear Armband™. Afin de compléter les études de validation de cet outil, nous avons évalué et démontré la reproductibilité des mesures. Toutefois, la dépense énergétique est sous-estimée durant les 10 premières minutes d’une AP d’intensité modérée sur ergocycle. L’utilisation de cet appareil est donc justifiée pour une évaluation de la dépense énergétique sur de longues périodes. Le calcul des glucides est une méthode largement utilisée pour évaluer la quantité d’insuline à injecter lors des repas. Nous avons évalué dans un contexte de vie courante, sans révision de la technique, la précision des patients pour ce calcul. L’erreur moyenne est de 15,4 ± 7,8 g par repas, soit 20,9 ± 9,7 % du contenu glucidique. L’erreur moyenne est positivement associée à de plus grandes fluctuations glycémiques mesurées via un lecteur de glucose en continu. Une révision régulière du calcul des glucides est probablement nécessaire pour permettre un meilleur contrôle glycémique. Nous avons développé et testé lors d’un essai clinique randomisé contrôlé un programme de promotion de l’AP (PEP-1). Ce programme de 12 semaines inclut une séance hebdomadaire en groupe ayant pour but d’initier l’AP, d’établir des objectifs et d’outiller les adultes atteints de DT1 quant à la gestion de la glycémie à l’AP. Bien que n’ayant pas permis d’augmenter la dépense énergétique, le programme a permis un maintien du niveau d’AP et une amélioration de la condition cardio-respiratoire et de la pression artérielle. À la fin du programme, une plus grande proportion de patients connaissait la pharmacocinétique de l’insuline et une plus grande variété de méthodes pour contrer l’hypoglycémie associée à l’AP était utilisée. En conclusion, le diabète de type 1 engendre des défis quotidiens particuliers. D’une part, le calcul des glucides est une tâche complexe et son imprécision est associée aux fluctuations glycémiques quotidiennes. D’autre part, l’adoption d’un mode de vie actif, qui est associée à un meilleur profil de composition corporelle, est limitée par la crainte des hypoglycémies. Le programme PEP-1 offre un support pour intégrer l’AP dans les habitudes de vie des adultes avec un DT1 et ainsi améliorer certains facteurs de risque cardio-vasculaire.
Resumo:
Ce travail a été réalisé en cotutelle.