23 resultados para precision and accuracy
em Université de Montréal, Canada
Resumo:
L’entérotoxine B staphylococcique (SEB) est une toxine entérique hautement résistante à la chaleur et est responsable de plus de 50 % des cas d’intoxication d’origine alimentaire par une entérotoxine. L’objectif principal de ce projet de maîtrise est de développer et valider une méthode basée sur des nouvelles stratégies analytiques permettant la détection et la quantification de SEB dans les matrices alimentaires. Une carte de peptides tryptiques a été produite et 3 peptides tryptiques spécifiques ont été sélectionnés pour servir de peptides témoins à partir des 9 fragments protéolytiques identifiés (couverture de 35 % de la séquence). L’anhydride acétique et la forme deutérée furent utilisés afin de synthétiser des peptides standards marqués avec un isotope léger et lourd. La combinaison de mélanges des deux isotopes à des concentrations molaires différentes fut utilisée afin d’établir la linéarité et les résultats ont démontré que les mesures faites par dilution isotopique combinée au CL-SM/SM respectaient les critères généralement reconnus d’épreuves biologiques avec des valeurs de pente près de 1, des valeurs de R2 supérieure à 0,98 et des coefficients de variation (CV%) inférieurs à 8 %. La précision et l’exactitude de la méthode ont été évaluées à l’aide d’échantillons d’homogénat de viande de poulet dans lesquels SEB a été introduite. SEB a été enrichie à 0,2, 1 et 2 pmol/g. Les résultats analytiques révèlent que la méthode procure une plage d’exactitude de 84,9 à 91,1 %. Dans l’ensemble, les résultats présentés dans ce mémoire démontrent que les méthodes protéomiques peuvent être utilisées efficacement pour détecter et quantifier SEB dans les matrices alimentaires. Mots clés : spectrométrie de masse; marquage isotopique; protéomique quantitative; entérotoxines
Resumo:
Triple quadrupole mass spectrometers coupled with high performance liquid chromatography are workhorses in quantitative bioanalyses. It provides substantial benefits including reproducibility, sensitivity and selectivity for trace analysis. Selected Reaction Monitoring allows targeted assay development but data sets generated contain very limited information. Data mining and analysis of non-targeted high-resolution mass spectrometry profiles of biological samples offer the opportunity to perform more exhaustive assessments, including quantitative and qualitative analysis. The objectives of this study was to test method precision and accuracy, statistically compare bupivacaine drug concentration in real study samples and verify if high resolution and accurate mass data collected in scan mode can actually permit retrospective data analysis, more specifically, extract metabolite related information. The precision and accuracy data presented using both instruments provided equivalent results. Overall, the accuracy was ranging from 106.2 to 113.2% and the precision observed was from 1.0 to 3.7%. Statistical comparisons using a linear regression between both methods reveal a coefficient of determination (R2) of 0.9996 and a slope of 1.02 demonstrating a very strong correlation between both methods. Individual sample comparison showed differences from -4.5% to 1.6% well within the accepted analytical error. Moreover, post acquisition extracted ion chromatograms at m/z 233.1648 ± 5 ppm (M-56) and m/z 305.2224 ± 5 ppm (M+16) revealed the presence of desbutyl-bupivacaine and three distinct hydroxylated bupivacaine metabolites. Post acquisition analysis allowed us to produce semiquantitative evaluations of the concentration-time profiles for bupicavaine metabolites.
Resumo:
De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n’est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu’elle permet de quantifier l’exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d’études sur les animaux, et les données chez l’humain sont limitées. Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l’exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d’intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l’acide phtalique, dans le plasma et l’urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant des volontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l’acide phtalique qui a été mesuré seulement dans l’urine; iii) de valider les biomarqueurs d’exposition sélectionnés et d’évaluer l’exposition réelle des travailleurs et les voies prédominantes d’exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d’activités de traitement et d’effeuillage pendant sept jours consécutifs. Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l’exposition au captan et au folpet, respectivement, chez l’humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d’ailleurs une élimination rapide, avec une demi-vie d’élimination dans l’urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu’une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d’exposition. Des profils parallèles sont aussi observés entre le PI et l’acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d’acide phtalique que de PI. Quant à l’étude des agriculteurs, elle montre que la voie principale d’exposition de ces travailleurs est la voie cutanée. Il est aussi souligné qu’il est important 1) de favoriser les collectes d’urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d’associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s’appliquer à d’autres fongicides, voire d’autres substances.
Resumo:
L’utilisation de lentilles cornéennes peut servir à améliorer le profil d’administration d’un principe actif dans les yeux. Avec une efficacité d’administration de 5% par l’utilisation de gouttes, on comprend rapidement que l’administration oculaire doit être améliorée. Cette faible administration a donné naissance à plusieurs tentatives visant à fabriquer des lentilles cornéennes médicamentées. Cependant, à cause de multiples raisons, aucune de ces tentatives n’a actuellement été mise sur le marché. Nous proposons dans cette étude, une possible amélioration des systèmes établis par le développement d’une lentille cornéenne à base de 2-(hydroxyéthyle)méthacrylate (HEMA), dans laquelle des microgels, à base de poly N-isopropylacrylamide (pNIPAM) thermosensible encapsulant un principe actif, seront incorporé. Nous avons donc débuté par développer une méthode analytique sensible par HPCL-MS/MS capable de quantifier plusieurs molécules à la fois. La méthode résultante a été validée selon les différents critères de la FDA et l’ICH en démontrant des limites de quantifications et de détections suffisamment basses, autant dans des fluides simulés que dans les tissus d’yeux de lapins. La méthode a été validée pour sept médicaments ophtalmiques : Pilocarpine, lidocaïne, proparacaïne, atropine, acétonide de triamcinolone, timolol et prednisolone. Nous avons ensuite fait la synthèse des microgels chargés négativement à base de NIPAM et d’acide méthacrylique (MAA). Nous avons encapsulé une molécule modèle dans des particules ayant une taille entre 200 et 600 nm dépendant de la composition ainsi qu’un potentiel zêta variant en fonction de la température. L’encapsulation de la rhodamine 6G (R6G) dans les microgels a été possible jusqu’à un chargement (DL%) de 38%. L’utilisation des isothermes de Langmuir a permis de montrer que l’encapsulation était principalement le résultat d’interactions électrostatiques entre les MAA et la R6G. Des cinétiques de libérations ont été effectuées à partir d’hydrogels d’acrylamide chargés en microgels encapsulant la R6G. Il a été trouvé que la libération des hydrogels chargés en microgels s’effectuait majoritairement selon l’affinité au microgel et sur une période d’environ 4-24 heures. La libération à partir de ces systèmes a été comparée à des formules d’hydrogels contenant des liposomes ou des nanogels de chitosan. Ces trois derniers (liposomes, microgels et nanogels) ont présenté des résultats prometteurs pour différentes applications avec différents profils de libérations. Enfin, nous avons transposé le modèle développé avec les gels d’acrylamide pour fabriquer des lentilles de contact de 260 à 340 µm d’épaisseur à base de pHEMA contenant les microgels avec une molécule encapsulée devant être administrée dans les yeux. Nous avons modifié la composition de l’hydrogel en incorporant un polymère linéaire, la polyvinylpyrrolidone (PVP). L’obtention d’hydrogels partiellement interpénétrés améliore la rétention d’eau dans les lentilles cornéennes. L’encapsulation dans les microgels chargés négativement a donné de meilleurs rendements avec la lidocaïne et cette dernière a été libérée de la lentille de pHEMA en totalité en approximativement 2 heures qu’elle soit ou non encapsulée dans des microgels. Ainsi dans cette étude pilote, l’impact des microgels n’a pas pu être déterminé et, de ce fait, nécessitera des études approfondies sur la structure et les propriétés de la lentille qui a été développée. En utilisant des modèles de libération plus représentatifs de la physiologie de l’œil, nous pourrions conclure avec plus de certitude concernant l’efficacité d’un tel système d’administration et s’il est possible de l’optimiser.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Ketamine is widely used in medicine in combination with several benzodiazepines including midazolam. The objectives of this study were to develop a novel HPLC-MS/SRM method capable of quantifying ketamine and norketamine using an isotopic dilution strategy in biological matrices and study the formation of norketamine, the principal metabolite of ketamine with and without the presence of midazolam, a well-known CYP3A substrate. The chromatographic separation was achieved using a Thermo Betasil Phenyl 100 x 2 mm column combined with an isocratic mobile phase composed of acetonitrile, methanol, water and formic acid (60:20:20:0.4) at a flow rate of 300 μL/min. The mass spectrometer was operating in selected reaction monitoring mode and the analytical range was set at 0.05–50 μM. The precision (%CV) and accuracy (%NOM) observed were ranging from 3.9–7.8 and 95.9.2–111.1% respectively. The initial rate of formation of norketamine was determined using various ketamine concentration and Km values of 18.4 μM, 13.8 μM and 30.8 μM for rat, dog and human liver S9 fractions were observed respectively. The metabolic stability of ketamine on liver S9 fractions was significantly higher in human (T1/2 = 159.4 min) compared with rat (T1/2 = 12.6 min) and dog (T1/2 = 7.3 min) liver S9 fractions. Moreover significantly lower IC50 and Ki values observed in human compared with rat and dog liver S9 fractions. Experiments with cDNA expressed CYP3A enzymes showed the formation of norketamine is mediated by CYP3A but results suggest an important contribution from others isoenzymes, most likely CYP2C particularly in rat.
Resumo:
L'avancement des communications sans-fil permet l'obtention de nouveaux services bases sur l'habileté des fournisseurs de services sans-fil à déterminer avec précision, et avec l'utilisation de technologies de pistage, la localisation et position géographiquement d'appareils sans-fil Cette habileté permet d'offrir aux utilisateurs de sans-fil de nouveaux services bases sur la localisation et la position géographique de leur appareil. Le développement des services basés sur la localisation des utilisateurs de sans-fil soulevé certains problèmes relatifs à la protection de la vie privée qui doivent être considérés. En effet, l'appareil sans-fil qui suit et enregistre les mouvements de I 'utilisateur permet un système qui enregistre et entrepose tous les mouvements et activités d'un tel utilisateur ou encore qui permet l'envoi de messages non anticipes à ce dernier. Pour ce motif et afin de protéger la vie privée des utilisateurs de sans-fil, une compagnie désirant développer ou déployer une technologie permettant d'offrir ce genre de services personnalisés devra analyser l'encadrement légal touchant la protection des données personnelles--lequel est dans certains cas vague et non approprié à ce nouveau contexte--ainsi que la position de l'industrie dans ce domaine, et ce, afin d'être en mesure de traduire cet encadrement en pratiques commerciales. Cette analyse permettra d'éclairer le fournisseur de ces services sur la façon d'établir son modèle d'affaires et sur le type de technologie à développer afin d'être en mesure de remédier aux nouveaux problèmes touchant la vie privée tout en offrant ces nouveaux services aux utilisateurs de sans-fil.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Objectif : Déterminer la fiabilité et la précision d’un prototype d’appareil non invasif de mesure de glucose dans le tissu interstitiel, le PGS (Photonic Glucose Sensor), en utilisant des clamps glycémiques multi-étagés. Méthodes : Le PGS a été évalué chez 13 sujets avec diabète de type 1. Deux PGS étaient testés par sujet, un sur chacun des triceps, pour évaluer la sensibilité, la spécificité, la reproductibilité et la précision comparativement à la technique de référence (le Beckman®). Chaque sujet était soumis à un clamp de glucose multi-étagé de 8 heures aux concentrations de 3, 5, 8 et 12 mmol/L, de 2 heures chacun. Résultats : La corrélation entre le PGS et le Beckman® était de 0,70. Pour la détection des hypoglycémies, la sensibilité était de 63,4%, la spécificité de 91,6%, la valeur prédictive positive (VPP) 71,8% et la valeur prédictive négative (VPN) 88,2%. Pour la détection de l’hyperglycémie, la sensibilité était de 64,7% et la spécificité de 92%, la VPP 70,8% et la VPN : 89,7%. La courbe ROC (Receiver Operating Characteristics) démontrait une précision de 0,86 pour l’hypoglycémie et de 0,87 pour l’hyperglycémie. La reproductibilité selon la « Clark Error Grid » était de 88% (A+B). Conclusion : La performance du PGS était comparable, sinon meilleure que les autres appareils sur le marché(Freestyle® Navigator, Medtronic Guardian® RT, Dexcom® STS-7) avec l’avantage qu’il n’y a pas d’aiguille. Il s’agit donc d’un appareil avec beaucoup de potentiel comme outil pour faciliter le monitoring au cours du traitement intensif du diabète. Mot clés : Diabète, diabète de type 1, PGS (Photonic Glucose Sensor), mesure continue de glucose, courbe ROC, « Clark Error Grid».
Resumo:
Problématique : La quantification de l’intégrité du tendon d’Achille (TA) représente un défi en réadaptation. L’adoption de mesures quantitatives du TA, extraites à partir d’une image ultrasonographique (QUS), pourrait remédier à cette lacune. Objectifs : 1) Évaluer la fiabilité test-retest et la précision de mesures QUS du TA; 2) Déterminer le meilleur protocole de collecte de mesures QUS à employer en pratique clinique. Méthodologie : Un total de 23 TAs présentant des symptômes d’une tendinopathie achilléenne et 63 TAs asymptomatiques ont été évalués. Pour chaque TA, 8 images ont été enregistrées (2 visites * 2 évaluatrices * 2 images). Différents types de mesures QUS ont été prises : géométriques (épaisseur, largeur, aire), dérivées d’un histogramme des niveaux de gris et dérivées d’une matrice de co-occurrence. Une étude de généralisabilité a quantifié la fiabilité et la précision de chaque mesure QUS et une étude de décision a fait ressortir les meilleurs protocoles de prise de mesures. Résultats : Les mesures géométriques ont démontré une excellente fiabilité et précision. Les mesures dérivées de l’histogramme des niveaux de gris ont démontré une fiabilité et précision médiocres. Les mesures dérivées d’une matrice de co-occurrence ont démontré une fiabilité modérée à excellente et une précision variable. En pratique clinique, il est recommandé de moyenner les résultats de trois images collectées par un évaluateur lors d’une visite. Conclusion : L’utilisation des mesures QUS géométriques permet de quantifier l’intégrité du TA (clinique et recherche). Davantage d’études sur les mesures QUS dérivées d’une matrice de co-occurrence s’avèrent nécessaires.
Resumo:
L’archive erronée dans l’œuvre d’Anne Carson enquête sur les effets que peuvent entraîner l’archive classique sur la poésie d’Anne Carson et révèle que le travail de cette dernière est issu de l’espace situé entre la critique et la créativité, ce qui génère ce qu’on appellera une « poétique de l’erreur ». La poésie de Carson se démarque par sa prédilection pour les accidents, les imperfections et les impondérables de la transmission. La présente dissertation émerge des attitudes critiques ambivalentes face à la dualité de l’identité de Carson, autant poète qu’universitaire, et leur offrira une réponse. Alors que l’objectif traditionnel du philologue classique est de reconstruire le sens du texte « original », l’approche poétique de Carson sape en douce les prétentions universitaires d’exactitude, de précision et de totalisation. La rencontre de Carson avec l’archive classique embrasse plutôt les bourdes, les mauvaises lectures et les erreurs de traduction inhérentes à la transmission et à la réception de traductions classiques. La poésie de Carson est ludique, sexuée et politique. Sa manière de jouer avec l’épave du passé classique torpille la patri-archive, telle que critiquée par Derrida dans Mal d’Archive ; c’est-à-dire cette archive considérée comme un point d’origine stable grâce auquel s’orienter. De plus, en remettant en question la notion de l’archive classique en tant qu’origine de la civilisation occidentale, Carson offre simultanément une critique de l’humanisme, en particulier au plan de la stabilité, du caractère mesurable et de l’autonomie de « l’homme ». L’archive, pour Carson, est ouverte, en cours et incomplète ; les manques linguistiques, chronologiques et affectifs de l’archive classique représentent ainsi des sources d’inspiration poétique. La présente dissertation étudie quatre dimensions de l’archive classique : la critique, la saphique, l’élégiaque et l’érotique. Grâce à ces coordonnées, on y établit le statut fragmentaire et fissuré du passé classique, tel que conçu par Carson. Si le fondement classique sur lequel la culture occidentale a été conçue est fissuré, qu’en est-il de la stabilité, des frontières et des catégories que sont le genre, la langue et le texte ? L’ouverture de l’archive critique de manière implicite les désirs de totalité associés au corps du texte, à la narration, à la traduction et à l’érotisme. En offrant une recension exhaustive de sa poétique, L’archive erronée dans l’œuvre d’Anne Carson tente d’analyser l’accueil hostile qu’elle a subi, contribue à renforcer la documentation sans cesse croissante dont elle fait l’objet et anticipe sa transmutation actuelle de médium et de genre, sa migration de la page à la scène.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
L’objectif de la présente étude visait à évaluer les effets différentiels de la privation de sommeil (PS) sur le fonctionnement cognitif sous-tendu par les substrats cérébraux distincts, impliqués dans le réseau fronto-pariétal attentionnel, lors de l’administration d’une tâche simple et de courte durée. Les potentiels évoqués cognitifs, avec sites d’enregistrement multiples, ont été prévilégiés afin d’apprécier les effets de la PS sur l’activité cognitive rapide et ses corrélats topographiques. Le matin suivant une PS totale d’une durée de 24 heures et suivant une nuit de sommeil normale, vingt participants ont exécuté une tâche oddball visuelle à 3 stimuli. L’amplitude et la latence ont été analysées pour la P200 et la N200 à titre d’indices frontaux, tandis que la P300 a été analysée, à titre de composante à contribution à la fois frontale et pariétale. Suite à la PS, une augmentation non spécifique de l’amplitude de la P200 frontale à l’hémisphère gauche, ainsi qu’une perte de latéralisation spécifique à la présentation des stimuli cibles, ont été observées. À l’opposé, l’amplitude de la P300 était réduite de façon prédominante dans la région pariétale pour les stimuli cibles. Enfin, un délai de latence non spécifique pour la N200 et la P300, ainsi qu’une atteinte de la performance (temps de réaction ralentis et nombre d’erreurs plus élevé) ont également été objectivées. Les résultats confirment qu’une PS de durée modérée entraîne une altération des processus attentionnels pouvant être objectivée à la fois par les mesures comportementales et électrophysiologiques. Ces modifications sont présentes à toutes les étapes de traitement, tel que démontré par les effets touchant la P200, la N200 et la P300. Qui plus est, la PS affecte différemment les composantes à prédominance frontale et pariétale.
Resumo:
Les pyréthrinoïdes et les pyréthrines sont des insecticides neurotoxiques auxquels on attribue également des effets néfastes sur les systèmes immunitaire, hormonal et reproducteur. Ils sont abondamment utilisés en agriculture, mais aussi en horticulture, en extermination et dans le traitement d’infestations parasitaires humaines et animales (gale, poux). Il y a donc un intérêt en santé environnementale à connaître l’ampleur de l’exposition humaine à ces pesticides. La mesure des métabolites urinaires des pyréthrinoïdes et des pyréthrines apparaît une approche de choix pour arriver à cette fin puisqu’elle permet, en théorie, d’obtenir un portrait global de l’exposition. Or,traditionnellement et par soucis de simplicité les concentrations volumiques ou ajustées pour la créatinine) de ces biomarqueurs dans des urines ponctuelles sont déterminées, mais l’effet de l’utilisation de ces unités sur la validité des estimations de dose quotidienne absorbée n’a jamais été vérifié. L’objectif général de cette thèse était donc de développer, appliquer et valider une nouvelle stratégie de mesure et d’analyse de biomarqueurs pour améliorer la précision et la fiabilité des évaluations de l’exposition individuelles et populationnelles aux pyréthrinoïdes et pyréthrines. Les objectifs spécifiques étaient : i) de caractériser l’exposition humaine à ces contaminants en région urbaine et rurale au Québec et ii) de comparer la validité de la nouvelle stratégie de mesure et d’analyse de biomarqueurs urinaires proposée avec les autres méthodes plus usuelles utilisées pour estimer l’exposition individuelle et populationnelle et les doses absorbées de pyréthrinoïdes. Des adultes et des enfants, recrutés dans la population de l’Île de Montréal et de la Montérégie ont recueilli leurs urines pendant une période d’au moins douze heures et complété un questionnaire documentant les sources potentielles d’exposition. Les quantités de métabolites de pyréthrinoïdes et pyréthrines (pmol) mesurées dans les urines ont été ajustées pour une période de douze heures exactement et pour le poids corporel. Les quantités excrétées en région urbaine ont été comparées à celles excrétées en région rurale et les données individuelles et populationnelles ont été comparées à celles qui auraient été obtenues si des concentrations volumiques ou ajustées pour la créatinine avaient été mesurées. Les résultats montrent que l’exposition à ces pesticides est ubiquiste puisque plus de 90% des participants excrétaient les principaux métabolites de pyréthrinoïdes et pyréthrines à un niveau supérieur au seuil de détection analytique. Les résultats suggèrent que l’alimentation pourrait être à l’origine de ce niveau de base puisque les autres sources d’exposition connues n’ont été que rarement rapportées. Au Québec, l’exposition en milieu rural apparaissait légèrement plus importante qu’en milieu urbain et certains facteurs d’exposition, comme l’utilisation de pesticides domestiques, ont été rapportés plus fréquemment en milieu rural. Enfin, il a été démontré que la mesure des concentrations volumiques ou ajustées pour la créatinine de biomarqueurs est une approche qui peut entraîner des biais importants (jusqu’à 500% d’erreur et plus) en particulier lors de l’évaluation de l’exposition individuelle. Il est évident que les autorités de santé publique et de santé environnementale employant des biomarqueurs urinaires afin d’évaluer l’exposition aux pyréthrinoïdes et aux pyréthrines (ainsi qu’à d’autres molécules ayant des demi-vies d’élimination similaire)devraient diriger leurs efforts vers la mesure des quantités excrétées pendant une période d’au moins douze heures pour obtenir un portrait le plus valide possible de l’exposition. Il serait aussi souhaitable de mieux documenter la toxicocinétique de ces molécules chez l’humain afin d’établir avec une plus grande confiance la relation entre les quantités excrétées de biomarqueurs et les doses absorbées de ces contaminants.
Resumo:
Les logiciels utilisés sont Splus et R.