14 resultados para Condition monitoring, SWOT analysis
em Université de Montréal, Canada
Resumo:
Targeted peptide methods generally use HPLC-MS/MRM approaches. Although dependent on the instrumental resolution, interferences may occur while performing analysis of complex biological matrices. HPLC-MS/MRM3 is a technique, which provides a significantly better selectivity, compared with HPLC-MS/MRM assay. HPLC-MS/MRM3 allows the detection and quantitation by enriching standard MRM with secondary product ions that are generated within the linear ion trap. Substance P (SP) and neurokinin A (NKA) are tachykinin peptides playing a central role in pain transmission. The objective of this study was to verify whether HPLC-HPLCMS/ MRM3 could provide significant advantages over a more traditional HPLC-MS/MRM assay for the quantification of SP and NKA in rat spinal cord. The results suggest that reconstructed MRM3 chromatograms display significant improvements with the nearly complete elimination of interfering peaks but the sensitivity (i.e. signal-to-noise ratio) was severely reduced. The precision (%CV) observed was between 3.5% - 24.1% using HPLC-MS/MRM and in the range of 4.3% - 13.1% with HPLC-MS/MRM3, for SP and NKA. The observed accuracy was within 10% of the theoretical concentrations tested. HPLC-MS/MRM3 may improve the assay sensitivity to detect difference between samples by reducing significantly the potential of interferences and therefore reduce instrumental errors.
Resumo:
Affiliation: Faculté de médicine, Université de Montréal
Resumo:
Affiliation: Département de microbiologie et immunologie, Faculté de médecine, Université de Montréal
Resumo:
Affiliation: Département de biochimie, Faculté de médecine, Université de Montréal
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Bien que le changement dans le choix des substrats énergétiques des acides gras (AGs) vers les glucides soit considéré comme bénéfique pour le cœur insuffisant, il n’est pas clair à savoir pourquoi les patients atteints de désordres de la β-oxydation (β-OX) des AGs à chaîne longue (AGCLs) développent des troubles du rythme et des cardiomyopathies. De plus, le traitement actuel ne permet pas de prévenir l’apparition du phénotype clinique chez tous les patients, spécifiquement en condition de jeûne ou de stress. Ainsi, plusieurs modèles de souris déficientes pour des enzymes impliquées dans l’oxydation des acides gras ont été développés de manière à améliorer les connaissances de la maladie ainsi que les traitements offerts aux patients. À cet égard, cette étude vise à évaluer le phénotype métabolique et fonctionnel des cœurs de souris déficientes pour le récepteur activé de la prolifération des peroxysomes-α (PPARα), un facteur de transcription des gènes impliqués notamment dans la β-OX des AGs, et pour la déshydrogénase des acyl-CoA à très longue chaîne (very-long chain acyl-CoA dehydrogenase, VLCAD), le déficit de l’oxydation des AGCLs le plus commun chez l’humain. L’approche expérimentale utilisée comprend plusieurs techniques dont (i) la perfusion ex vivo de cœur de souris au travail combinée à l’utilisation de substrats marqués au carbone 13 (13C) et à l’analyse par chromatographie gazeuse-spectrométrie de masse (GCMS), (ii) l’analyse de l’expression génique par qPCR et (iii) l’analyse de l’activité électrique du cœur in vivo par télémétrie. De manière inattendue, les résultats de cette étude menée chez la souris ont permis de mettre en évidence que des déficits pour des protéines impliquées dans l’oxydation des AGCLs sont associés à des altérations du métabolisme (i) des glucides, (ii) des AGs polyinsaturés (AGPIs), et (iii) mitochondrial, incluant l’anaplérose, en plus d’être liés à des désordres de la fonction électrique du cœur, à savoir une prolongation du segment QTc. Pris dans leur ensemble, les résultats de cette thèse pourraient servir à l’élaboration de nouvelles interventions métaboliques destinées à améliorer les traitements possibles et donc, la qualité de vie des patients atteints de désordres héréditaires de la β-OX des AGCLs.
Resumo:
Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.
Resumo:
Thèse effectuée en cotutelle (Université de Poitiers, France)
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) en sciences infirmières, option expertise-conseil
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
Contexte : L’hypertension artérielle (HTA) est reconnue comme un important facteur de risque des maladies cardiovasculaires et de la mortalité prématurée. Les données montrent qu’un adulte sur 4 dans le monde souffrait d’hypertension en 2000 et ce chiffre serait en augmentation. Dans les pays africains, les estimations prévoient une progression plus rapide de la prévalence de l’HTA engendrant ainsi un problème additionnel à gérer pour le système de santé qui est toujours aux prises avec les maladies transmissibles. Les progrès économiques et l’urbanisation semblent entraîner des modifications des habitudes de vie dans ces pays qui seraient associés à une émergence des maladies non transmissibles, dont l’HTA. Le Burkina Faso, pays de l’Afrique de l’Ouest classé comme un pays à faibles revenus, aurait amorcé sa transition épidémiologique et il importe de faire un état sur les maladies non transmissibles en émergence. Afin de contribuer à la connaissance des aspects épidémiologiques de l’HTA au Burkina Faso, trois objectifs spécifiques ont été retenus pour la présente recherche : 1) Estimer la prévalence de l’HTA et identifier les facteurs associés dans la population rurale et la population semi-urbaine du Système de Surveillance démographique et de Santé de Kaya (Kaya HDSS) ; 2) Déterminer la différence de prévalence de l’HTA entre la zone lotie et la zone non lotie de la ville de Ouagadougou et identifier les facteurs associés ; 3) Déterminer la détection, le traitement, le contrôle de l’HTA et estimer la fréquentation des centres de santé par les personnes hypertendues nouvellement dépistées dans la population adulte du Centre Nord du Burkina Faso. Méthodologie : Le cadre de notre recherche est le Burkina Faso. Deux sites ont fait l’objet de nos investigations. Kaya HDSS, situé dans la région du Centre Nord du Burkina Faso a servi de site pour les enquêtes ayant permis l’atteinte du premier et du troisième objectif général. Une étude transversale a été menée en fin 2012 sur un échantillon aléatoire de 1645 adultes résidents du site. Un entretien suivi de mesures anthropométriques et de la pression artérielle (PA) ont été réalisés au domicile des participants. Toutes les personnes qui avaient une PA élevée (PA systolique ≥ 140 mm Hg et/ou PA diastolique ≥ 90 mm Hg) et qui n’avaient pas été diagnostiquées auparavant ont été référées à une formation sanitaire. Un second entretien a été réalisé avec ces personnes environ un mois après. Pour le second objectif général, c’est le système de surveillance démographique et de santé de Ouagadougou (Ouaga HDSS) qui a été retenu comme site. Ouaga HDSS couvre 5 quartiers de la zone nord de Ouagadougou. Une étude transversale a été réalisée en 2010 sur un échantillon aléatoire représentatif de la population adulte résidante du site (N = 2041). Des entretiens suivis de mesures anthropométriques et de la PA ont été réalisés durant l’enquête. Résultats : Notre premier article examine la prévalence de l’HTA et les facteurs associés en milieu rural et en milieu semi-urbain. Au total 1481 participants ont été dépistés et la prévalence totale pondérée était de 9,4 % (95 % IC : 7,3 % - 11,4 %) avec une grande différence entre le milieu semi-urbain et le milieu rural : un adulte sur 10 était hypertendu en milieu semi-urbain contre un adulte sur 20 en milieu rural. L’analyse multivariée nous a permis d’identifier l’âge avancé, le milieu semi-urbain et l’histoire familiale de l’HTA comme des facteurs de risque. Dans le deuxième article, nous avons déterminé la différence entre la zone lotie et la zone non lotie du milieu urbain en ce qui concerne l’HTA. Sur 2 041 adultes enquêtés, la prévalence totale est estimée à 18,6 % (95 % IC : 16,9 % - 20,3 %). Après ajustement avec l’âge, il n’y avait pas de différence de prévalence entre la zone lotie et la zone non lotie de la ville de Ouagadougou. Dans ce milieu urbain, l’obésité et l’inactivité physique sont confirmées comme des facteurs à risque. En plus des personnes âgées qui constituent un groupe à risque, les migrants venant du milieu rural et les veuves ont été identifiés comme des personnes à risque. Notre troisième article examine la détection, le traitement, le contrôle de l’HTA ainsi que la fréquentation des structures de santé par les personnes nouvellement dépistées hypertendues dans le milieu non urbain. Sur les 1481 participants à l’étude, 41 % n’avaient jamais mesuré leur PA. Sur les 123 participants (9,4 %) dépistés comme hypertendus, 26,8 % avaient déjà bénéficié d’un diagnostic et 75,8 % de ces derniers étaient sous traitement anti hypertensif. Parmi les participants sous traitement, 60 % (15 sur 25) avaient leur PA sous contrôle. Le suivi de 2 mois a permis de retrouver 72 des 90 personnes nouvellement dépistées. Seulement 50 % ont été en consultation et parmi ces derniers 76 % (28 personnes sur les 37) ont reçu une confirmation de leur hypertension. Conclusion : Notre recherche montre l’évolution de l’HTA en fonction du niveau d’urbanisation de la population. Même si les maladies infectieuses restent la priorité du système de santé, la lutte contre l’HTA doit s’inscrire dans un cadre général de lutte contre les maladies cardiovasculaires. Cette lutte doit être amorcée maintenant avant que des proportions inquiétantes ne soient atteintes. Des actions de prévention telles que la promotion de saines habitudes de vie, le dépistage de masse et un renforcement des capacités du système de soins sont à mettre en œuvre.
Resumo:
Triple quadrupole mass spectrometers coupled with high performance liquid chromatography are workhorses in quantitative bioanalyses. It provides substantial benefits including reproducibility, sensitivity and selectivity for trace analysis. Selected Reaction Monitoring allows targeted assay development but data sets generated contain very limited information. Data mining and analysis of non-targeted high-resolution mass spectrometry profiles of biological samples offer the opportunity to perform more exhaustive assessments, including quantitative and qualitative analysis. The objectives of this study was to test method precision and accuracy, statistically compare bupivacaine drug concentration in real study samples and verify if high resolution and accurate mass data collected in scan mode can actually permit retrospective data analysis, more specifically, extract metabolite related information. The precision and accuracy data presented using both instruments provided equivalent results. Overall, the accuracy was ranging from 106.2 to 113.2% and the precision observed was from 1.0 to 3.7%. Statistical comparisons using a linear regression between both methods reveal a coefficient of determination (R2) of 0.9996 and a slope of 1.02 demonstrating a very strong correlation between both methods. Individual sample comparison showed differences from -4.5% to 1.6% well within the accepted analytical error. Moreover, post acquisition extracted ion chromatograms at m/z 233.1648 ± 5 ppm (M-56) and m/z 305.2224 ± 5 ppm (M+16) revealed the presence of desbutyl-bupivacaine and three distinct hydroxylated bupivacaine metabolites. Post acquisition analysis allowed us to produce semiquantitative evaluations of the concentration-time profiles for bupicavaine metabolites.
Resumo:
La recherche vise à élaborer la condition tragique qui émane de la figure de l'enfant au cinéma – à travers ses traumas, ses blessures, voire sa destruction et sa perte – devant laquelle le spectateur adulte éprouve un certain malaise. Nous pouvons voir au cinéma des enfants aux prises avec des conditions de vie traumatisantes, voire inhumaines. Que ce soit les enfants abandonnés ou orphelins, les enfants violés, les enfants maltraités, les enfants victimes de guerre – incluant la dualité paradoxale qu’instaure l'enfant-soldat, de Ivan (« L’enfance d’Ivan », Tarkovski, 1962) à Komona (« Rebelle », Kim Nguyen, 2012) – ou les enfants face à la mort, diverses situations peuvent contribuer à inscrire l'enfance dans le registre du tragique, par la destruction ou la perte de l'enfance. L'enfance détruite porte en elle une blessure (trauma) – qu'elle soit physique ou psychique – qui renvoie au « manque », ou à la fragilité humaine que traduit l'image de l'enfant dit « sans secours ». Quand l’enfant doit faire face à une situation tragique où il est sans défense et confronté à son propre anéantissement, sa figure devient pour nous traumatique. Nous suggérons que le tragique place l’enfant au cinéma dans un après-coup qui renvoie à un traumatisme premier fondamental, prototype de toute situation traumatique. Pour le psychanalyste Sigmund Freud, ce serait un traumatisme lié à la détresse infantile – le « Hilflosigkeit » – qui correspond à la première angoisse vécue par le nourrisson dû à son impuissance (« Inhibition, symptôme et angoisse », [1926] 1951, Paris : PUF). Dans cette lignée, certains psychanalystes (comme Otto Rank ou Jean-Marie Delassus) préciseraient que le traumatisme s'installe dès la naissance, qui marque de manière universelle le premier sentiment de perte et d'angoisse suite à l'éjection dans un monde étranger et d'abord impossible, ce qui correspond à une dislocation première (suivant le sens qu’en propose Benoit Goetz dans « La dislocation » (2002, Paris : Éditions de la Passion)). L'enfant au cinéma, qui traverse des épreuves qui nous sont difficiles à concevoir, nous regarde et pointe en nous nos propres faiblesses, et cela interagit avec nos propres traumatismes. Quelques exemples filmiques viendront soutenir la recherche, avec principalement l’analyse d’un film exemplaire, « Les tortues volent aussi » de Bahman Ghobadi (2004).
Resumo:
Study Design. Reliability study. Objectives. To assess between-acquisition reliability of new multilevel trunk cross sections measurements, in order to define what is a real change when comparing 2 trunk surface acquisitions of a same patient, before and after surgery or throughout the clinical monitoring. Summary of Background Data. Several cross-sectional surface measurements have been proposed in the literature for noninvasive assessment of trunk deformity in patients with adolescent idiopathic scoliosis (AIS). However, only the maximum values along the trunk are evaluated and used for monitoring progression and assessing treatment outcome. Methods. Back surface rotation (BSR), trunk rotation (TR), and coronal and sagittal trunk deviation are computed on 300 cross sections of the trunk. Each set of 300 measures is represented as a single functional data, using a set of basis functions. To evaluate between-acquisition variability at all trunk levels, a test-retest reliability study is conducted on 35 patients with AIS. A functional correlation analysis is also carried out to evaluate any redundancy between the measurements. Results. Each set of 300 measures was successfully described using only 10 basis functions. The test-retest reliability of the functional measurements is good to very good all over the trunk, except above the shoulders level. The typical errors of measurement are between 1.20° and 2.2° for the rotational measures and between 2 and 6 mm for deviation measures. There is a very strong correlation between BSR and TR all over the trunk, a moderate correlation between coronal trunk deviation and both BSR and TR, and no correlation between sagittal trunk deviation and any other measurement. Conclusion. This novel representation of trunk surface measurements allows for a global assessment of trunk surface deformity. Multilevel trunk measurements provide a broader perspective of the trunk deformity and allow a reliable multilevel monitoring during clinical follow-up of patients with AIS and a reliable assessment of the esthetic outcome after surgery.