955 resultados para Dollar-gold standard


Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Présentement, le diagnostic d’otite moyenne-interne chez le veau est basé sur la présence de signes cliniques appropriés ainsi que les tests diagnostiques tels que la radiographie et la tomodensitométrie. L’objectif de cette étude prospective était d’évaluer les valeurs prédictives de l’examen neurologique, l’examen otoscopique et le test des potentiels auditifs évoqués (PAE) dans le diagnostic d’otite moyenne-interne chez le veau, en utilisant la tomodensitométrie comme test standard. Le deuxième objectif était de définir les valeurs de référence pour le PAE chez le veau normal et d’en décrire les anomalies chez des veaux atteints d’otite moyenne-interne. Dix-sept veaux de race Holstein entre 5-7 semaines d’âge ont été inclus. Tous les veaux ont eu un examen neurologique, un examen otoscopique et une évaluation des PAEs. Les veaux ont été tranquillisés avec de la xylazine intraveineuse (0,05-0,15mg/kg) pour la tomodensitométrie des bulles tympaniques afin d’évaluer pour la présence d’otite moyenne-interne. Selon les résultats de la tomodensitométrie, 11 des 17 veaux étaient atteints avec otite moyenne, 4 de façon unilatérale et 7 bilatéralement. Cinq ondes ont été identifiées de façon constante sur les tracés des PAEs des 6 veaux normaux. Les valeurs positives prédictives pour le PAE, l’examen neurologique et l’examen otoscopique étaient 94,7%, 91,7% et 66,7% respectivement. D’un point de vue clinique, le test le plus fiable dans le diagnostic d’otite moyenne-interne chez le veau est le PAE. Les anomalies ont été observées au PAE avant le développement des signes neurologiques chez certains veaux.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le raton laveur (Procyon lotor) est porteur de nombreux parasites dont certains sont des agents de zoonose. Il nous est apparu opportun d’étudier la faune parasitaire intestinale du raton laveur québécois, particulièrement l’espèce Baylisascaris procyonis. L’étude a donc porté sur l’examen de matières fécales (n = 301) et de contenus intestinaux (n = 203) de 351 ratons laveurs provenant de deux programmes gouvernementaux sur la rage du raton laveur et d’excréments (n = 409) provenant de latrines dans des parcs nationaux du Québec. Des oeufs de B. procyonis étaient excrétés par 23,3 % des ratons laveurs, alors que 29,1 % étaient porteurs de vers. La charge parasitaire moyenne des vers B. procyonis de tout stade variait de 8,5 chez les adultes à 27,1 chez les juvéniles. Chez ces derniers, la charge parasitaire était 11,4 fois supérieure à celle des ratons adultes (p < 0,0001) dont 23,7 fois plus de vers immatures (p < 0,0001) et 9,1 fois plus de vers matures (p = 0,01). Le nombre d’oeufs était 24,7 fois plus élevé chez les ratons juvéniles (p = 0,02) et 50,0 fois moins élevé chez la femelle allaitante. La probabilité du raton d’excréter des oeufs l’automne était de 11,1 (IC95 %: 1,21-101,60) par rapport au printemps et de 21,1 (IC95 %: 2,91-153,18) par rapport à l’été (p < 0,01). La sensibilité (Se) et la spécificité (Sp) de la coproscopie comparée à la nécropsie (norme étalon) ont été calculées en se basant sur l’observation des vers matures (Se : 81,8 %; Sp : 97,7 %) et des vers de tout stade (Se : 53,9 %; Sp : 97,0 %). De plus, la recherche des parasites intestinaux nous a permis de découvrir des ookystes de Giardia (6/159), espèce parasitaire nouvellement rapportée chez le raton. En 2007, nous avons trouvé, par échantillonnage unique, des oeufs de B. procyonis dans 15,8 % des latrines (n = 165) identifiées dans des parcs nationaux du sud du Québec et en 2008, par échantillonnage multiple, dans 89,7 % des latrines (n = 26) actives situées dans des secteurs accessibles à l’homme dans trois parcs nationaux de la Montérégie. Le potentiel zoonotique de B. procyonis est un problème de santé publique qui pourrait devenir sérieux étant donné le pourcentage élevé de ratons laveurs qui excrètent le parasite et qui contaminent des secteurs accessibles par les humains.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La mesure de l’activité physique des personnes âgées dans des études populationnelles est un défi. Peu des outils de mesure trouvés dans la littérature sont jugés suffisamment valides ou fiables pour être utilisés dans une étude internationale et longitudinale sur les déterminants de perte de mobilité de personnes âgées. Une étude pilote a été conduite en 2009 pour déterminer la meilleure forme d’évaluation. Les objectifs de ce mémoire sont l’étude des validité, fiabilité et capacité prédictive des données d’un accéléromètre (gold standard), de deux questionnaires choisis (PAQ, IPAQ 7d-recall). Le but est de combiner des éléments des questionnaires dans un seul pour une étude longitudinale projetée au Canada, au Brésil et en Colombie. Le PAQ évalue la fréquence et la durée d’activités de loisirs, l’IPAQ 7d-recall évalue la durée et l’intensité perçue des activités et le temps assis. La collecte de données s’est faite auprès de participants de Saint-Bruno (n=64) et de Santa Cruz (n=60), de 65 à 74 ans. Le PAQ, l’IPAQ-7d-recall et un test de performance (SPPB) ont été complétés puis des accéléromètres remis. À Saint-Bruno, la validité de critère pour l’IPAQ et le PAQ, et la validité de construit pour l’IPAQ sont bonnes. Le refus de l’accéléromètre à Santa Cruz a empêché les analyses de validité. Le PAQ présente une bonne fiabilité mais ajoute peu d’amélioration au pouvoir de prédiction de la dépense énergétique de l’IPAQ. La recherche populationnelle, voulant estimer la dépense énergétique par l’activité physique des personnes âgées, devrait utiliser des instruments mesurant l’intensité perçue (IPAQ) plutôt que les fréquence et durée d’activités concrètes (PAQ).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La notion d’aléa moral est le gold standard de la politique de la demande en santé et justifie les politiques de partage des coûts visant à faire payer le patient. Sous l’effet des critiques théoriques dont elle a fait l’objet, la notion d’aléa moral a été progressivement vidée de son ambition originelle pour en appeler à la moralisation du comportement du patient. Elle a débouché sur une segmentation des patients distinguant ceux qui doivent être mis à contribution financière au non de la responsabilité individuelle et ceux qui doivent être protégés de cette responsabilisation. Ce texte montre que la constitution d’ordres de priorité en matière de santé est peu compatible avec l’approche en termes d’aléa moral. Les ordres de priorité ne répondent pas à une conception instrumentale. Ils reposent sur des valeurs sociétales partagées et des préférences éthiques qui sont en opposition avec la conception standard de la responsabilité et la promotion de l’individualisme.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La quantité de données générée dans le cadre d'étude à grande échelle du réseau d'interaction protéine-protéine dépasse notre capacité à les analyser et à comprendre leur sens; d'une part, par leur complexité et leur volume, et d'un autre part, par la qualité du jeu de donnée produit qui semble bondé de faux positifs et de faux négatifs. Cette dissertation décrit une nouvelle méthode de criblage des interactions physique entre protéines à haut débit chez Saccharomyces cerevisiae, la complémentation de fragments protéiques (PCA). Cette approche est accomplie dans des cellules intactes dans les conditions natives des protéines; sous leur promoteur endogène et dans le respect des contextes de modifications post-traductionnelles et de localisations subcellulaires. Une application biologique de cette méthode a permis de démontrer la capacité de ce système rapporteur à répondre aux questions d'adaptation cellulaire à des stress, comme la famine en nutriments et un traitement à une drogue. Dans le premier chapitre de cette dissertation, nous avons présenté un criblage des paires d'interactions entre les protéines résultant des quelques 6000 cadres de lecture de Saccharomyces cerevisiae. Nous avons identifié 2770 interactions entre 1124 protéines. Nous avons estimé la qualité de notre criblage en le comparant à d'autres banques d'interaction. Nous avons réalisé que la majorité de nos interactions sont nouvelles, alors que le chevauchement avec les données des autres méthodes est large. Nous avons pris cette opportunité pour caractériser les facteurs déterminants dans la détection d'une interaction par PCA. Nous avons remarqué que notre approche est sous une contrainte stérique provenant de la nécessité des fragments rapporteurs à pouvoir se rejoindre dans l'espace cellulaire afin de récupérer l'activité observable de la sonde d'interaction. L'intégration de nos résultats aux connaissances des dynamiques de régulations génétiques et des modifications protéiques nous dirigera vers une meilleure compréhension des processus cellulaires complexes orchestrés aux niveaux moléculaires et structuraux dans les cellules vivantes. Nous avons appliqué notre méthode aux réarrangements dynamiques opérant durant l'adaptation de la cellule à des stress, comme la famine en nutriments et le traitement à une drogue. Cette investigation fait le détail de notre second chapitre. Nous avons déterminé de cette manière que l'équilibre entre les formes phosphorylées et déphosphorylées de l'arginine méthyltransférase de Saccharomyces cerevisiae, Hmt1, régulait du même coup sont assemblage en hexamère et son activité enzymatique. L'activité d'Hmt1 a directement un impact dans la progression du cycle cellulaire durant un stress, stabilisant les transcrits de CLB2 et permettant la synthèse de Cln3p. Nous avons utilisé notre criblage afin de déterminer les régulateurs de la phosphorylation d'Hmt1 dans un contexte de traitement à la rapamycin, un inhibiteur de la kinase cible de la rapamycin (TOR). Nous avons identifié la sous-unité catalytique de la phosphatase PP2a, Pph22, activé par l'inhibition de la kinase TOR et la kinase Dbf2, activé durant l'entrée en mitose de la cellule, comme la phosphatase et la kinase responsable de la modification d'Hmt1 et de ses fonctions de régulations dans le cycle cellulaire. Cette approche peut être généralisée afin d'identifier et de lier mécanistiquement les gènes, incluant ceux n'ayant aucune fonction connue, à tout processus cellulaire, comme les mécanismes régulant l'ARNm.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction: L’arthrose est une maladie fréquente chez le chien. Même si des traitements palliatifs ont prouvé leur efficacité pour soulager les signes cliniques associés, aucun n’a permis de restaurer la structure des cartilages ou la fonction des patients. De nouvelles modalités de traitement sont proposées mais très peu d’évidences existent quant à leur efficacité. Un problème récurrent pour apporter plus d’évidence est le manque d’outils d’évaluation dûment validés. Objectif: Evaluer l’efficacité d’une diète contenant de la moule verte, ainsi que la validité de différentes méthodes pour évaluer les effets de ce traitement sur la condition arthrosique de chiens de propriétaire. Méthodes: Une étude prospective croisée contrôlée en aveugle a été conduite sur 30 chiens de propriétaires. Leur condition était stable et non traitée. Ils ont reçu une diète contrôle pendant 30 jours puis la diète thérapeutique pendant 60 jours. A J0 (inclusion), J30 (fin de la période contrôle) et J90 (fin du traitement), les concentrations plasmatiques en acides gras ω–3 (EPA et DHA), le pic de force verticale (PVF – critère de référence), un questionnaire multifactoriel standardisé (MFQ), et la conductance électrodermique (EDA) ont été mesurés. Deux fois par semaine, les propriétaires remplissaient un questionnaire sur la fonction spécifique à leur animal (CODI). L’activité locomotrice (actimétrie) a été enregistrée en continu sur 7 chiens. Résultats: Aucun effet secondaire n’a été documenté excepté une augmentation du poids des chiens durant la période traitement. La localisation -thoracique ou pelvienne- du membre étudié et le poids ont interagi avec PVF. Les taux d’EPA et DHA ont augmenté durant la période traitement (p=0.026 et p<0.001, respectivement), tout comme PVF corrigé pour l’effet du poids et de la localisation du membre (p=0.003). La validité technique de PVF a été vérifiée. La validité technique et selon-critère du CODI ont été vérifiées. MFQ n’a pas montré d’homogénéité suffisante entre ses différents composants, bien que les résultats du composite convergent partiellement avec PVF. L’EDA n’a pas montré de validité technique suffisante. L’actimétrie a montré une validité technique satisfaisante ainsi que des résultats convergeant avec ceux de PVF. Conclusions: La méthode choisie comme référence a montré un effet bénéfique de la diète testée et sa validité technique a été vérifiée. À la fois, CODI et l’actimétrie ont été validés. La validité d’EDA et de MFQ a été remise en question. L’actimétrie a donné des résultats prometteurs, probablement complémentaires de PVF.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire rapporte l’optimisation et l’évaluation d’une nouvelle version du test PAMPA (Parallel Artificial Membrane Permeability Assay) appelée Néo-PAMPA. Ce test qui permet la prédiction de l’absorption intestinale de médicaments consiste en l’utilisation d’une membrane modèle de la paroi intestinale composée d’une bicouche lipidique déposée sur un coussin de polydopamine recouvrant un filtre poreux. En effet, nous nous sommes intéressés lors de ce projet à la mise en place d’une membrane artificielle qui serait plus représentative de la paroi intestinale humaine. Nous avons pu déterminer, suite à une étude comparative des propriétés de huit médicaments ainsi que les coefficients de perméabilité obtenus, que les filtres en polycarbonate présentaient le meilleur choix de support solide pour la membrane. Nous avons également vérifié la déposition du coussin de polydopamine qui apporte le caractère fluide à la bicouche lipidique. Les résultats des tests de perméabilité ont démontré que le coussin de polymère n’obstrue pas les pores du filtre après un dépôt de 4h. Nous avons par la suite étudié la déposition de la bicouche lipidique sur le filtre recouvert de polydopamine. Pour ce faire, deux méthodes de préparation de liposomes ainsi que plusieurs tailles de liposomes ont été testées. Aussi, la composition en phospholipides a été sujette à plusieurs changements. Tous ces travaux d’optimisation ont permis d’aboutir à des liposomes préparés selon la méthode du « film lipidique » à partir d’un mélange de dioléoylphosphatidylcholine (DOPC) et de cholestérol. Une dernière étape d’optimisation de la déposition de la bicouche reste à améliorer. Enfin, le test standard Caco-2, qui consiste à évaluer la perméabilité des médicaments à travers une monocouche de cellules cancéreuses du colon humain, a été implémenté avec succès dans le but de comparer des données de perméabilité avec un test de référence.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'otite moyenne est une condition fréquente chez le veau et peut parfois être subclinique, rendant difficile son diagnostic à la ferme. L'objectif de cette étude est d’estimer la sensibilité et la spécificité de l'échographie des bulles tympaniques pour le diagnostic d'otite moyenne clinique et subclinique et de déterminer sa répétabilité. Quarante veaux âgés entre 19 et 50 jours ont été sélectionnés dans une ferme de veaux de grain, en fonction des résultats de l'échographie réalisée à la ferme (A). L'échographie a été réalisée une seconde fois par le même échographiste (A') et par un second échographiste (B), et le diagnostic noté pour chaque bulle tympanique comme étant négatif, suspect ou positif. Les images ont été enregistrées pour relecture et le diagnostic noté. Les veaux ont été euthanasiés, soumis en nécropsie et l'histologie a été utilisée comme méthode de référence. À l'histologie, 45 bulles tympaniques étaient atteintes d'otite moyenne et 35 bulles tympaniques étaient saines. Selon l'échographiste et la classification des bulles tympaniques suspectes, la sensibilité de l'échographie variait de 32% à 63% et la spécificité variait de 84% à 100%. La répétabilité était modérée, avec des valeurs de kappa de 0,53 entre A' et B, de 0,48 entre A et A', et de 0,58 et 0,75 pour la relecture de leurs images par A' et B respectivement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le traitement chirurgical des anévrismes de l'aorte abdominale est de plus en plus remplacé par la réparation endovasculaire de l’anévrisme (« endovascular aneurysm repair », EVAR) en utilisant des endoprothèses (« stent-grafts », SGs). Cependant, l'efficacité de cette approche moins invasive est compromise par l'incidence de l'écoulement persistant dans l'anévrisme, appelé endofuites menant à une rupture d'anévrisme si elle n'est pas détectée. Par conséquent, une surveillance de longue durée par tomodensitométrie sur une base annuelle est nécessaire ce qui augmente le coût de la procédure EVAR, exposant le patient à un rayonnement ionisants et un agent de contraste néphrotoxique. Le mécanisme de rupture d'anévrisme secondaire à l'endofuite est lié à une pression du sac de l'anévrisme proche de la pression systémique. Il existe une relation entre la contraction ou l'expansion du sac et la pressurisation du sac. La pressurisation résiduelle de l'anévrisme aortique abdominale va induire une pulsation et une circulation sanguine à l'intérieur du sac empêchant ainsi la thrombose du sac et la guérison de l'anévrisme. L'élastographie vasculaire non-invasive (« non-invasive vascular elastography », NIVE) utilisant le « Lagrangian Speckle Model Estimator » (LSME) peut devenir une technique d'imagerie complémentaire pour le suivi des anévrismes après réparation endovasculaire. NIVE a la capacité de fournir des informations importantes sur l'organisation d'un thrombus dans le sac de l'anévrisme et sur la détection des endofuites. La caractérisation de l'organisation d'un thrombus n'a pas été possible dans une étude NIVE précédente. Une limitation de cette étude était l'absence d'examen tomodensitométrique comme étalon-or pour le diagnostic d'endofuites. Nous avons cherché à appliquer et optimiser la technique NIVE pour le suivi des anévrismes de l'aorte abdominale (AAA) après EVAR avec endoprothèse dans un modèle canin dans le but de détecter et caractériser les endofuites et l'organisation du thrombus. Des SGs ont été implantés dans un groupe de 18 chiens avec un anévrisme créé dans l'aorte abdominale. Des endofuites de type I ont été créés dans 4 anévrismes, de type II dans 13 anévrismes tandis qu’un anévrisme n’avait aucune endofuite. L'échographie Doppler (« Doppler ultrasound », DUS) et les examens NIVE ont été réalisés avant puis à 1 semaine, 1 mois, 3 mois et 6 mois après l’EVAR. Une angiographie, une tomodensitométrie et des coupes macroscopiques ont été réalisées au moment du sacrifice. Les valeurs de contrainte ont été calculées en utilisant l`algorithme LSME. Les régions d'endofuite, de thrombus frais (non organisé) et de thrombus solide (organisé) ont été identifiées et segmentées en comparant les résultats de la tomodensitométrie et de l’étude macroscopique. Les valeurs de contrainte dans les zones avec endofuite, thrombus frais et organisé ont été comparées. Les valeurs de contrainte étaient significativement différentes entre les zones d'endofuites, les zones de thrombus frais ou organisé et entre les zones de thrombus frais et organisé. Toutes les endofuites ont été clairement caractérisées par les examens d'élastographie. Aucune corrélation n'a été trouvée entre les valeurs de contrainte et le type d'endofuite, la pression de sac, la taille des endofuites et la taille de l'anévrisme.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le Cancer du Col Utérin (CCU) chez la femme est provoqué par le virus oncogénique VPH. La métastase lymphatique ganglionnaire est un facteur pronostique majeur pour l’évolution de ce cancer et sa présence influence la décision thérapeutique. En général, l’envahissement ganglionnaire est diagnostiqué par histologie, mais cette méthode est laborieuse et parfois prise en défaut pour détecter les micrométastases et les cellules cancéreuses isolées et pour donner des résultats rapides en per opératoire. L’outil moléculaire que nous désirons développer pour combler cette lacune est basé sur une analyse d’ARN des gènes du VPH exprimés par les cellules du CCU. Ceci sera fait par transcription réverse de l’ARN cellulaire couplé à une réaction quantitative en chaine par polymérase en temps réel (RT-qPCR). Cette technique devrait nous permettre une détection et une évaluation rapide des micrométastases pour aider à déterminer immédiatement un pronostic fiable et la thérapie associée. C’est un test précis, sensible et rapide pour détecter un envahissement ganglionnaire dans le CCU visant à améliorer la gestion thérapeutique. Le projet est basé sur trois objectifs. En premier lieu, valider les marqueurs moléculaires E6 et E7 de VPH16 et 18 à partir des échantillons frais et des échantillons fixés dans des blocs de paraffine. En deuxième lieu, déterminer la fiabilité et la sensibilité des marqueurs pour la détection des macrométastases, des micrométastases et les cellules tumorales isolées en utilisant la technique de RT-qPCR. En troisième lieu et parallèlement au travail présenté dans ce mémoire, il est nécessaire de constituer une base de données des patientes qui ont le virus VPH16 et 18 intégré dans leur génome, qui ont été traitées et dont nous connaissons déjà le diagnostic final afin de valider la méthode (biobanque). Nous avons réussi à extraire de l’ARNm de haute qualité à partir d’échantillons complexes, à détecter les gènes E6 et E7 de VPH16 et 18 en RT-qPCR, et à déterminer précisément la limite de détection de E6 et E7 dans les échantillons frais qui est une proportion de 0,008% de cellules cancéreuses. Dans les échantillons fixés dans la paraffine, cette limite est de 0,02% et 0,05% pour E6-E7-VPH16 et E6-E7-VPH18 respectivement. Ceci comparativement à une limite de détection histologique de 1% qui est déterminée par immunohistochimie de CK19. Enfin, notre protocole est validé pour VPH18 dans les ganglions lymphatiques du CCU.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objectif: L'objectif primaire de cette étude était d'évaluer la validité, la fiabilité et la reproductibilité des mesures dentaires obtenues sur les modèles digitaux iTero (Align Technology, San Jose, Californie) et Unitek TMP Digital (3M, Monrovia, Californie) en comparaison avec celles obtenues sur les modèles de plâtre (gold standard). L'objectif secondaire était de comparer les deux différents matériaux à empreinte (l'alginate et le polyvinylsiloxane-PVS) afin de déterminer si le choix du matériau affectait la précision des mesures. Méthodes: Le premier volet de l'étude impliquait les modèles digitaux Unitek et iTero, obtenus à partir de 25 paires de modèles de plâtre choisis de façon randomisée et provenant de la pratique privée d'un des co-auteurs. Des empreintes d'alginate et de PVS ont été prises sur les modèles de plâtre et numérisées par le scanner Unitek. Les modèles ont ensuite été numérisés avec le scanner iTero. Le deuxième volet de l'étude cherchait à comparer les modèles digitaux iTero (numérisation intra-orale) avec les modèles de plâtre (empreintes d'alginate et de PVS) obtenus à partir de 25 patients de la clinique d'orthodontie de l'Université de Montréal ayant besoin d'un traitement orthodontique. Dans les deux volets de l'étude, deux auteurs ont pris les mesures suivantes sur les différents modèles: largeur mésio-distale de chaque dent de la première molaire à l'autre première molaire, le périmètre d'arcade, les distances intermolaire et intercanine, le surplomb vertical et le surplomb horizontal. Les ratios et excès Bolton 6 et 12, l'espace requis et les différentiels d'espace au maxillaire et à la mandibule, ont été calculés. Résultats: La fiabilité (ICC) entre les modèles digitaux (Unitek et iTero) et les modèles de plâtre était bonne à excellente pour toutes les mesures [ICC=0,762–0,998], et la fiabilité entre les deux matériaux à empreinte était excellente [ICC=0,947–0,996]. Dans les deux volets de l'étude, les mesures faites sur les modèles iTero étaient généralement plus grandes que celles faites sur les modèles de plâtre. Les plus grandes différences moyennes pour la comparaison iTero-plâtre étaient trouvées au niveau de l'espace disponible au maxillaire et à la mandibule (systématiquement plus grande pour cette variable), soit 2,24 mm et 2,02 mm respectivement dans le premier volet, et 1,17 mm et 1,39 mm respectivement dans le deuxième volet. Les différences étaient considérées cliniquement non significatives pour toutes les variables. La reproductibilité intra-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux, à l'exception du différentiel d'espace à la mandibule pour les modèles Unitek [ICC=0,690-0,692]. La reproductibilité inter-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux dans les deux volets de l'étude, mais acceptable à modérée pour les modèles Unitek au niveau des analyses Bolton 6 et 12, et des différentiels d'espace au maxillaire et à la mandibule [ICC=0,362-0,548]. Conclusions: La précision et la fiabilité des mesures dentaires faites sur les modèles digitaux Unitek et iTero étaient cliniquement acceptables et reproductibles en comparaison avec les celles faites sur les modèles de plâtre. Le choix de matériel à empreinte entre l'alginate et le PVS n'affectait pas la précision des mesures. Cette étude semble démontrer que les modèles digitaux Unitek et iTero, utilisés avec leur logiciel respectif, sont une alternative fiable et reproductible aux modèles de plâtre pour le diagnostic et l’analyse des modèles orthodontiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.