816 resultados para Gold standard.
Resumo:
L'otite moyenne est une condition fréquente chez le veau et peut parfois être subclinique, rendant difficile son diagnostic à la ferme. L'objectif de cette étude est d’estimer la sensibilité et la spécificité de l'échographie des bulles tympaniques pour le diagnostic d'otite moyenne clinique et subclinique et de déterminer sa répétabilité. Quarante veaux âgés entre 19 et 50 jours ont été sélectionnés dans une ferme de veaux de grain, en fonction des résultats de l'échographie réalisée à la ferme (A). L'échographie a été réalisée une seconde fois par le même échographiste (A') et par un second échographiste (B), et le diagnostic noté pour chaque bulle tympanique comme étant négatif, suspect ou positif. Les images ont été enregistrées pour relecture et le diagnostic noté. Les veaux ont été euthanasiés, soumis en nécropsie et l'histologie a été utilisée comme méthode de référence. À l'histologie, 45 bulles tympaniques étaient atteintes d'otite moyenne et 35 bulles tympaniques étaient saines. Selon l'échographiste et la classification des bulles tympaniques suspectes, la sensibilité de l'échographie variait de 32% à 63% et la spécificité variait de 84% à 100%. La répétabilité était modérée, avec des valeurs de kappa de 0,53 entre A' et B, de 0,48 entre A et A', et de 0,58 et 0,75 pour la relecture de leurs images par A' et B respectivement.
Resumo:
Le traitement chirurgical des anévrismes de l'aorte abdominale est de plus en plus remplacé par la réparation endovasculaire de l’anévrisme (« endovascular aneurysm repair », EVAR) en utilisant des endoprothèses (« stent-grafts », SGs). Cependant, l'efficacité de cette approche moins invasive est compromise par l'incidence de l'écoulement persistant dans l'anévrisme, appelé endofuites menant à une rupture d'anévrisme si elle n'est pas détectée. Par conséquent, une surveillance de longue durée par tomodensitométrie sur une base annuelle est nécessaire ce qui augmente le coût de la procédure EVAR, exposant le patient à un rayonnement ionisants et un agent de contraste néphrotoxique. Le mécanisme de rupture d'anévrisme secondaire à l'endofuite est lié à une pression du sac de l'anévrisme proche de la pression systémique. Il existe une relation entre la contraction ou l'expansion du sac et la pressurisation du sac. La pressurisation résiduelle de l'anévrisme aortique abdominale va induire une pulsation et une circulation sanguine à l'intérieur du sac empêchant ainsi la thrombose du sac et la guérison de l'anévrisme. L'élastographie vasculaire non-invasive (« non-invasive vascular elastography », NIVE) utilisant le « Lagrangian Speckle Model Estimator » (LSME) peut devenir une technique d'imagerie complémentaire pour le suivi des anévrismes après réparation endovasculaire. NIVE a la capacité de fournir des informations importantes sur l'organisation d'un thrombus dans le sac de l'anévrisme et sur la détection des endofuites. La caractérisation de l'organisation d'un thrombus n'a pas été possible dans une étude NIVE précédente. Une limitation de cette étude était l'absence d'examen tomodensitométrique comme étalon-or pour le diagnostic d'endofuites. Nous avons cherché à appliquer et optimiser la technique NIVE pour le suivi des anévrismes de l'aorte abdominale (AAA) après EVAR avec endoprothèse dans un modèle canin dans le but de détecter et caractériser les endofuites et l'organisation du thrombus. Des SGs ont été implantés dans un groupe de 18 chiens avec un anévrisme créé dans l'aorte abdominale. Des endofuites de type I ont été créés dans 4 anévrismes, de type II dans 13 anévrismes tandis qu’un anévrisme n’avait aucune endofuite. L'échographie Doppler (« Doppler ultrasound », DUS) et les examens NIVE ont été réalisés avant puis à 1 semaine, 1 mois, 3 mois et 6 mois après l’EVAR. Une angiographie, une tomodensitométrie et des coupes macroscopiques ont été réalisées au moment du sacrifice. Les valeurs de contrainte ont été calculées en utilisant l`algorithme LSME. Les régions d'endofuite, de thrombus frais (non organisé) et de thrombus solide (organisé) ont été identifiées et segmentées en comparant les résultats de la tomodensitométrie et de l’étude macroscopique. Les valeurs de contrainte dans les zones avec endofuite, thrombus frais et organisé ont été comparées. Les valeurs de contrainte étaient significativement différentes entre les zones d'endofuites, les zones de thrombus frais ou organisé et entre les zones de thrombus frais et organisé. Toutes les endofuites ont été clairement caractérisées par les examens d'élastographie. Aucune corrélation n'a été trouvée entre les valeurs de contrainte et le type d'endofuite, la pression de sac, la taille des endofuites et la taille de l'anévrisme.
Resumo:
Le Cancer du Col Utérin (CCU) chez la femme est provoqué par le virus oncogénique VPH. La métastase lymphatique ganglionnaire est un facteur pronostique majeur pour l’évolution de ce cancer et sa présence influence la décision thérapeutique. En général, l’envahissement ganglionnaire est diagnostiqué par histologie, mais cette méthode est laborieuse et parfois prise en défaut pour détecter les micrométastases et les cellules cancéreuses isolées et pour donner des résultats rapides en per opératoire. L’outil moléculaire que nous désirons développer pour combler cette lacune est basé sur une analyse d’ARN des gènes du VPH exprimés par les cellules du CCU. Ceci sera fait par transcription réverse de l’ARN cellulaire couplé à une réaction quantitative en chaine par polymérase en temps réel (RT-qPCR). Cette technique devrait nous permettre une détection et une évaluation rapide des micrométastases pour aider à déterminer immédiatement un pronostic fiable et la thérapie associée. C’est un test précis, sensible et rapide pour détecter un envahissement ganglionnaire dans le CCU visant à améliorer la gestion thérapeutique. Le projet est basé sur trois objectifs. En premier lieu, valider les marqueurs moléculaires E6 et E7 de VPH16 et 18 à partir des échantillons frais et des échantillons fixés dans des blocs de paraffine. En deuxième lieu, déterminer la fiabilité et la sensibilité des marqueurs pour la détection des macrométastases, des micrométastases et les cellules tumorales isolées en utilisant la technique de RT-qPCR. En troisième lieu et parallèlement au travail présenté dans ce mémoire, il est nécessaire de constituer une base de données des patientes qui ont le virus VPH16 et 18 intégré dans leur génome, qui ont été traitées et dont nous connaissons déjà le diagnostic final afin de valider la méthode (biobanque). Nous avons réussi à extraire de l’ARNm de haute qualité à partir d’échantillons complexes, à détecter les gènes E6 et E7 de VPH16 et 18 en RT-qPCR, et à déterminer précisément la limite de détection de E6 et E7 dans les échantillons frais qui est une proportion de 0,008% de cellules cancéreuses. Dans les échantillons fixés dans la paraffine, cette limite est de 0,02% et 0,05% pour E6-E7-VPH16 et E6-E7-VPH18 respectivement. Ceci comparativement à une limite de détection histologique de 1% qui est déterminée par immunohistochimie de CK19. Enfin, notre protocole est validé pour VPH18 dans les ganglions lymphatiques du CCU.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Objectif: L'objectif primaire de cette étude était d'évaluer la validité, la fiabilité et la reproductibilité des mesures dentaires obtenues sur les modèles digitaux iTero (Align Technology, San Jose, Californie) et Unitek TMP Digital (3M, Monrovia, Californie) en comparaison avec celles obtenues sur les modèles de plâtre (gold standard). L'objectif secondaire était de comparer les deux différents matériaux à empreinte (l'alginate et le polyvinylsiloxane-PVS) afin de déterminer si le choix du matériau affectait la précision des mesures. Méthodes: Le premier volet de l'étude impliquait les modèles digitaux Unitek et iTero, obtenus à partir de 25 paires de modèles de plâtre choisis de façon randomisée et provenant de la pratique privée d'un des co-auteurs. Des empreintes d'alginate et de PVS ont été prises sur les modèles de plâtre et numérisées par le scanner Unitek. Les modèles ont ensuite été numérisés avec le scanner iTero. Le deuxième volet de l'étude cherchait à comparer les modèles digitaux iTero (numérisation intra-orale) avec les modèles de plâtre (empreintes d'alginate et de PVS) obtenus à partir de 25 patients de la clinique d'orthodontie de l'Université de Montréal ayant besoin d'un traitement orthodontique. Dans les deux volets de l'étude, deux auteurs ont pris les mesures suivantes sur les différents modèles: largeur mésio-distale de chaque dent de la première molaire à l'autre première molaire, le périmètre d'arcade, les distances intermolaire et intercanine, le surplomb vertical et le surplomb horizontal. Les ratios et excès Bolton 6 et 12, l'espace requis et les différentiels d'espace au maxillaire et à la mandibule, ont été calculés. Résultats: La fiabilité (ICC) entre les modèles digitaux (Unitek et iTero) et les modèles de plâtre était bonne à excellente pour toutes les mesures [ICC=0,762–0,998], et la fiabilité entre les deux matériaux à empreinte était excellente [ICC=0,947–0,996]. Dans les deux volets de l'étude, les mesures faites sur les modèles iTero étaient généralement plus grandes que celles faites sur les modèles de plâtre. Les plus grandes différences moyennes pour la comparaison iTero-plâtre étaient trouvées au niveau de l'espace disponible au maxillaire et à la mandibule (systématiquement plus grande pour cette variable), soit 2,24 mm et 2,02 mm respectivement dans le premier volet, et 1,17 mm et 1,39 mm respectivement dans le deuxième volet. Les différences étaient considérées cliniquement non significatives pour toutes les variables. La reproductibilité intra-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux, à l'exception du différentiel d'espace à la mandibule pour les modèles Unitek [ICC=0,690-0,692]. La reproductibilité inter-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux dans les deux volets de l'étude, mais acceptable à modérée pour les modèles Unitek au niveau des analyses Bolton 6 et 12, et des différentiels d'espace au maxillaire et à la mandibule [ICC=0,362-0,548]. Conclusions: La précision et la fiabilité des mesures dentaires faites sur les modèles digitaux Unitek et iTero étaient cliniquement acceptables et reproductibles en comparaison avec les celles faites sur les modèles de plâtre. Le choix de matériel à empreinte entre l'alginate et le PVS n'affectait pas la précision des mesures. Cette étude semble démontrer que les modèles digitaux Unitek et iTero, utilisés avec leur logiciel respectif, sont une alternative fiable et reproductible aux modèles de plâtre pour le diagnostic et l’analyse des modèles orthodontiques.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).
Resumo:
Scoliosis is a 3D deformity of the spine and rib cage. Extensive validation of 3D reconstruction methods of the spine from biplanar radiography has already been published. In this article, we propose a novel method to reconstruct the rib cage, using the same biplanar views as for the 3D reconstruction of the spine, to allow clinical assessment of whole trunk deformities. This technique uses a semi-automatic segmentation of the ribs in the postero-anterior X-ray view and an interactive segmentation of partial rib edges in the lateral view. The rib midlines are automatically extracted in 2D and reconstructed in 3D using the epipolar geometry. For the ribs not visible in the lateral view, the method predicts their 3D shape. The accuracy of the proposed method has been assessed using data obtained from a synthetic bone model as a gold standard and has also been evaluated using data of real patients with scoliotic deformities. Results show that the reconstructed ribs enable a reliable evaluation of the rib axial rotation, which will allow a 3D clinical assessment of the spine and rib cage deformities.
Resumo:
Dental caries persists to be the most predominant oral disease in spite of remarkable progress made during the past half- century to reduce its prevalence. Early diagnosis of carious lesions is an important factor in the prevention and management of dental caries. Conventional procedures for caries detection involve visual-tactile and radiographic examination, which is considered as “gold standard. These techniques are subjective and are unable to detect the lesions until they are well advanced and involve about one-third of the thickness of enamel. Therefore, all these factors necessitate the need for the development of new techniques for early diagnosis of carious lesions. Researchers have been trying to develop various instruments based on optical spectroscopic techniques for detection of dental caries during the last two decades. These optical spectroscopic techniques facilitate noninvasive and real-time tissue characterization with reduced radiation exposure to patient, thereby improving the management of dental caries. Nonetheless, a costeffective optical system with adequate sensitivity and specificity for clinical use is still not realized and development of such a system is a challenging task.Two key techniques based on the optical properties of dental hard tissues are discussed in this current thesis, namely laser-induced fluorescence (LIF) and diffuse reflectance (DR) spectroscopy for detection of tooth caries and demineralization. The work described in this thesis is mainly of applied nature, focusing on the analysis of data from in vitro tooth samples and extending these results to diagnose dental caries in a clinical environment. The work mainly aims to improve and contribute to the contemporary research on fluorescence and diffuse reflectance for discriminating different stages of carious lesions. Towards this, a portable and compact laser-induced fluorescence and reflectance spectroscopic system (LIFRS) was developed for point monitoring of fluorescence and diffuse reflectance spectra from tooth samples. The LIFRS system uses either a 337 nm nitrogen laser or a 404 nm diode laser for the excitation of tooth autofluorescence and a white light source (tungsten halogen lamp) for measuring diffuse reflectance.Extensive in vitro studies were carried out on extracted tooth samples to test the applicability of LIFRS system for detecting dental caries, before being tested in a clinical environment. Both LIF and DR studies were performed for diagnosis of dental caries, but special emphasis was given for early detection and also to discriminate between different stages of carious lesions. Further the potential of LIFRS system in detecting demineralization and remineralization were also assessed.In the clinical trial on 105 patients, fluorescence reference standard (FRS) criteria was developed based on LIF spectral ratios (F500/F635 and F500/F680) to discriminate different stages of caries and for early detection of dental caries. The FRS ratio scatter plots developed showed better sensitivity and specificity as compared to clinical and radiographic examination, and the results were validated with the blindtests. Moreover, the LIF spectra were analyzed by curve-fitting using Gaussian spectral functions and the derived curve-fitted parameters such as peak position, Gaussian curve area, amplitude and width were found to be useful for distinguishing different stages of caries. In DR studies, a novel method was established based on DR ratios (R500/R700, R600/R700 and R650/R700) to detect dental caries with improved accuracy. Further the diagnostic accuracy of LIFRS system was evaluated in terms of sensitivity, specificity and area under the ROC curve. On the basis of these results, the LIFRS system was found useful as a valuable adjunct to the clinicians for detecting carious lesions.
Resumo:
Introducción: el gold estándar para el error refractivo es la retinoscopía. Los docentes de optometría al evaluar estudiantes, aceptan una diferencia de ±0,50D en la refracción pero no se ha evaluado estadísticamente si es adecuado para ametropías bajas y altas. El objetivo fue cuantificar el grado de concordancia interobservadores en retinoscopía estática entre docentes y estudiantes, para ametropías altas y bajas. Metodología: estudio de concordancia entre 4 observadores en 40 ojos, 20 con ametropías altas y 20 con bajas; muestreo no probabilístico por conveniencia. Análisis estadístico con coeficiente de correlación intraclase, confiabilidad 95%, poder 90%, y con método gráfico de límites de acuerdo al 95%. Resultados: concordancia para el equivalente esférico entre docentes 0,96 y entre estudiantes 0,56. En estudiantes concordancia de 0,89 para defectos refractivos bajos y docentes 0,96 para defectos altos. Concordancia entre cuatro examinadores 0,78, defectos bajos 0,86 y para altos 0,67. Margen de error entre docentes ±0,87D y estudiantes ±3,15D. En defectos bajos ±0,61D para docentes y ±0,80D para estudiantes y en defectos altos ±1,10D y ±4,22D respectivamente. Discusión: hubo mayor confiabilidad en retinoscopía entre profesionales experimentados. Se comparó la concordancia entre docentes y estudiantes, por eso puede haberse encontrado menor concordancia que la descrita por otros estudios que compararon entre profesionales a pesar haber sido elegidos por sus buenas calificaciones. Se deben formular estrategias de enseñanza que permitan reducir los márgenes de error obtenidos y mejorar la concordancia entre docentes y estudiantes.
Resumo:
Introducción: En Colombia, no existe una herramienta para cuantificar el grado de congestión de los servicios de urgencias que sea aplicable a su realidad. Por esta razón, este trabajo busca determinar si la escala NEDOCS es una herramienta válida para medir el grado de congestión en este medio. Métodos: Se calculó la escala durante un período de tres semanas, durante 6 veces en el día a la misma hora en las tres instituciones. Para la validación, se comparó la escala NEDOCS contra dos escalas tipo Likert de 6 preguntas. Además, se describió el porcentaje de la demanda no atendida y del número de quejas. Resultados: Para la escala, la variabilidad se explica en 88 %. Por otro lado, la correlación entre la severidad en la congestión de los últimos 3 ítems de la escala con las opiniones subjetivas fue directa y significativa (r = 1,000., p < 0.000). Se obtuvo una correspondencia significativa con las siguientes variables: a) disponibilidad de camas (r = 0.7, p < 0.001); b) promedio de tiempo de espera, (r = 0,56, p < 0.021). Discusión: Dado que no existe gold standard, las mediciones de la escala en comparación con las opiniones del personal arrojan que la escala NEDOCS aplicada en los servicios de urgencias colombianos es útil para medir congestión. Se observó como fenómeno especial que el personal se encuentra acostumbrado a vivir con la congestión, por lo cual el personal considera como congestión del servicio los momentos de alto stress laboral.
Resumo:
Resumen Introducción: el tratamiento de cicatrices de acné y post-quirúrgicas con láseres fraccionales abre una frontera en el manejo de una patología con una alta incidencia alrededor del mundo y sobre la cual no existe un tratamiento gold-standar. Objetivo: determinar la efectividad de los láseres fraccionales en el manejo de cicatrices post acné y postquirúrgicas y al determinar los eventos adversos más comunes asociados al uso de esta tecnología. Materiales y métodos: Se realizó una búsqueda sistemática (Cochrane, Pub Med, Science Direct, Ovid, Hinari, Interscience y Lilacs,) de ensayos clínicos controlados publicados hasta diciembre de 2009. Se seleccionaron cuatro ensayos clínicos controlados aleatorizados con base en su calidad metodológica y se extrajeron los siguientes datos: tamaño de la muestra, parámetros, tipo de cicatrices, resultados, eventos adversos y grado de satisfacción. Igualmente se estudiaron una amplia variedad de revisiones en cuanto a la fisiopatología, morfología y severidad de las cicatrices y los métodos actuales de tratamiento. Resultados: la tecnología fraccional es efectiva en el tratamiento de cicatrices de acné y post-quirúrgicas al lograr mejoría en textura, color y aspecto general, que osciló entre el 50 y 70% evidenciada en los estudios incluidos en la revisión (24, 25, 26, 27). La satisfacción de los pacientes superó el 60%. Se observó una baja incidencia de efectos adversos de carácter leve y transitorio, corta incapacidad y la principal de ellas fue la hiperpigmentación postinflamatoria. Conclusión: la fototermólisis fraccional es efectiva y segura en el tratamiento de cicatrices de acné y post-quirúrgicas y presenta ventajas frente a otros sistemas (26, 27). Los métodos que combinan diferentes láseres aportan un mayor beneficio. Palabras clave: fototermólisis fraccional, láseres fraccionados, cicatrices post-acné, cicatrices postquirúrgicas, cicatrización.
Resumo:
Este trabajo tuvo como utilidad básica determinar cuál es la correlación del diagnóstico clínico con los criterios de Gibss y con el Gold estándar que es la patología en las paciente con corioamnionitis para así poder establecer si el diagnostico se realizó en forma adecuada y cuáles son los criterios más relevantes para su diagnóstico. Dicha investigación se realizó de la siguiente manera: 1. Se Identificaron las pacientes que ingresaron al servicio de urgencias o al servicio de ginecología de la Clínica san Rafael con diagnóstico de Corioamnionitis (teniendo en cuenta los criterios de Gibbs), pacientes que desarrollaron la entidad durante el trabajo de parto o a las cuales se les hizo el diagnostico durante el mismo parto se establecieron los criterios de Gibss para cada una como parte del diagnóstico clínico de corioamnionitis 2. se revisaron los estudios anatomo-patologico realizado a las placentas culminado el proceso de trabajo de parto ya fuera por vía vaginal o cesárea y se realizó un estudio de asociación entre el resultado patológico de corioamnionitis y el diagnóstico clínico. Con esta investigación se estableció el diagnóstico clínico se correlaciono con la patología en el 54% de los casos 1. la asociación de los criterios de Gibbs con el diagnostico patológico, encontrando que individualmente los criterios que se asocian con el diagnóstico definitivo de corioamnionitis fueron: la taquicardia materna OR (8,53), taquicardia fetal OR (7,7), y leucocitosis OR (2,86), la descarga vaginal fétida y la hipersensibilidad uterina tuvieron menor significancia con OR de 1,24 y 1,1 respectivamente. e En la regresión logística se encontró que los criterios de Gibbs fueron estadísticamente significativos en donde para la taquicardia materna OR (7,29), taquicardia fetal OR (4,107), hipersensibilidad uterina OR (2,96), leucocitosis OR (4,93) y descarga vaginal OR (2,65)
Resumo:
Objetivo: Reportar la experiencia obtenida con la realización de Nefrectomía Parcial para el tratamiento de masas renales en la Fundación Santa Fe de Bogotá y Fundación Cardioinfantil. Materiales y Métodos: Se revisó el registro de procedimientos quirúrgicos de las dos instituciones entre enero de 2005 y marzo de 2011. Se incluyeron los pacientes llevados a nefrectomía parcial y se revisaron las historias clínicas. Se excluyeron pacientes operados por patología no tumoral. Se registraron variables preoperatorias, intraoperatorias y postoperatorias. Se creó una base de datos en Excel y se elaboró un análisis descriptivo de las variables utilizando el paquete estadístico Stata 10.0. Resultados: Se realizaron un total de 63 nefrectomías parciales. Se analizaron 59 que fueron realizadas por sospecha de patología tumoral (quistes complejos o cáncer). El promedio de edad fué 60.7 años. En los pacientes con sospecha de tumor renal, la principal indicación para el procedimiento conservador fue el tamaño de la masa (82.53%). La creatinina preoperatoria fue 1.01 mg/dl en promedio. El abordaje utilizado con mayor frecuencia fue la lumbotomía (89.8%). En 79.6% de los casos se realizó isquemia fría. El sangrado fue 354 cc en promedio. En 6.77 % de los pacientes fue necesario ampliar el margen. El diagnóstico definitivo más frecuente fue carcinoma de células claras en el 72.8% de los casos. La creatinina postoperatoria fue de 1.14mg/dl en promedio. Un 98.3% de los pacientes permanecen libres de recaída con un seguimiento promedio de 27 meses. Conclusiones: La nefrectomía parcial por abordaje a cielo abierto es un procedimiento oncológicamente efectivo, con baja morbimortalidad y que permite mantener la función renal, en manos experimentadas. Es considerada el patrón de oro para el tratamiento de masas renales en estado T1a, tumores bilaterales, en pacientes con falla renal o en aquellos que tengan enfermedades que potencialmente la afecten.
Resumo:
La úlcera venosa es una revelación clínica severa de la insuficiencia venosa crónica. Es la causa del 54-76% de las úlceras venosas de miembros inferiores. La ciencia médica ha generado diversos procedimientos en el manejo de esta patología, es así como a partir de conocimientos en fisiopatología de la ulceración venosa, se han aplicado procedimientos como opción de tratamiento. Objetivos: Valorar si el uso de rutina de la oclusión endoluminal con espuma guiada por ecografía del sistema venoso superficial insuficiente, en adicción al manejo convencional de la ulcera venosa (vendaje no compresivo, gasa vaselinada y curaciones) podría mejorar la tasa de curación a las 24 semanas de tratamiento. Diseño: Estudio clínico aleatorizado prospectivo de pacientes de la consulta externa de cirugía vascular del Hospital Occidente de Kennedy-Bogotá, durante el 01 de junio del 2011 hasta el 30 junio del 2012. Métodos: Un total de 44 pacientes con ulcera activa que cumplieron criterios de selección ingresaron al estudio, correspondientes a 48 extremidades con clasificación CEAP (C6), los pacientes fueron a aleatorizados a manejo convencional (control) o con manejo adicional de oclusión endoluminal con espuma eco-guiada. El objetivo principal fue el cierre de la ulcera a las 24 semanas. Resultados: La Curación de la ulcera a las 24 semanas de la aleatorización fue de 20 (83.3%) extremidades del grupo de oclusión endoluminal con espuma eco-guiada Vs 3(12.5%) para el grupo de control P: 0.0005 Discusión: Las tasas de curación de la ulcera luego de la oclusión endoluminal con espuma eco-guiada es muy superior al manejo convencional con curaciones y vendaje no compresivo, las tasa de curación son tan altas como las reportadas con sistemas de alta compresión y cirugía a las 24 semanas. La oclusión endoluminal eco-guiada es segura, mínimamente invasiva y clínicamente efectiva.