924 resultados para amperometric detection (L)-dopa
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Advances in therapeutic risk management through signal detection and risk minimisation tool analyses
Resumo:
Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.
Resumo:
L’amusie congénitale est un trouble neuro-développemental se définissant par des difficultés à percevoir la musique, et ce malgré une ouïe et une intelligence normales. Un déficit de discrimination fine des hauteurs serait à l’origine de ce trouble, qui se traduit notamment par une incapacité à détecter les fausses notes. afin de mieux comprendre les facteurs génétiques contribuant à la manifestation de l’amusie congénitale, la présente étude avait pour objectif: (a) de déterminer si la performance sur diverses tâches musicales et auditives était plus similaire chez les jumeaux identiques (monozygotes ; MZ) que chez les jumeaux non-identiques (dizygotes ; DZ) et (b) d’explorer les variables relatives à l’environnement musical des jumeaux, afin de mieux comprendre les contributions de l’environnement et de la génétique dans les différences sous-tendant les habiletés musicales. De plus, le profil des sujets amusiques a été analysé afin de vérifier s’il correspondait à celui décrit dans la littérature, faisant état de difficultés tonales, mais non rythmiques. Huit paires de jumeaux MZ et six paires de jumeaux DZ, parmi lesquelles au moins un des co-jumeaux était potentiellement amusique, ont pris part à cette étude. Les tâches consistaient en un test en ligne de perception mélodique et rythmique, un test de détection des différences de hauteurs, ainsi qu’un test de chant. L’analyse de la performance et de l’environnement musical des jumeaux MZ et DZ ne révèle aucune distinction comportementale entre ces deux groupes en ce qui concerne les habiletés musicales. Cela suggère que celles-ci puissent être davantage influencées par l’environnement partagé que par les facteurs génétiques. Enfin, les jumeaux amusiques ont le profil habituel d’habiletés musicales. En effet, ils commettent des erreurs de perception et de production musicale au niveau mélodique, mais ont une perception rythmique préservée. D’autres études, notamment avec de plus grands échantillons de jumeaux, seront nécessaires afin d’élucider la possible étiologie génétique sous-tendant l’amusie congénitale.
Resumo:
Les papillomavirus humains (VPHs) sont reconnus comme les agents étiologiques du cancer du col de l’utérus. Notre étude a pour but de décrire le polymorphisme de la région régulatrice virale (LCR) et du gène E6 du VPH52 chez 216 femmes canadiennes avec différents grades de lésion du col et d’établir s’il existe une association entre les variantes décrites et la présence de lésions intraépithéliales de haut-grade (CIN2,3) du col de l’utérus ou de cancer invasif. L’âge (OR 1.1, 95% CI 1.02-1.17, p=0.005) fut significativement associé à la présence de cancer invasif. Une variante de la région régulatrice virale, MTL-52-LCR-02, présentant une substitution nucléotidique au niveau du nucléotide 7436, fut aussi associée à la présence de cancer du col de l’utérus (p=0.015). Dans une analyse multivariée, après ajustement pour l’âge, l’ethnicité et le site de recrutement, une délétion au niveau du nucléotide 7695 (OR 5.7, 95% CI 1.2-27.9) ainsi qu’une substitution au niveau du nucléotide 7744 (OR 8.3, 95% CI 1.1-61.0) du LCR, et la variante K93R de la protéine E6 (OR 9.5, 95% CI 1.3-68.9) furent associées de façon significative avec la présence de CIN2,3. Ainsi, le polymorphisme du LCR et du gène E6 du VPH52 est associé avec la présence de CIN2,3 et probablement avec celle d’un cancer invasif.
Resumo:
Problématique : Bien que le tabac et l’alcool soient les facteurs causaux principaux des cancers épidermoïdes de l’oropharynx, le virus du papillome humain (VPH) serait responsable de l’augmentation récente de l’incidence de ces cancers, particulièrement chez les patients jeunes et/ou non-fumeurs. La prévalence du VPH à haut risque, essentiellement de type 16, est passée de 20% à plus de 60% au cours des vingt dernières années. Certaines études indiquent que les cancers VPH-positifs ont un meilleur pronostic que les VPH- négatifs, mais des données prospectives à cet égard sont rares dans la littérature, surtout pour les études de phase III avec stratification basée sur les risques. Hypothèses et objectifs : Il est présumé que la présence du VPH est un facteur de bon pronostic. L’étude vise à documenter la prévalence du VPH dans les cancers de l’oropharynx, et à établir son impact sur le pronostic, chez des patients traités avec un schéma thérapeutique incluant la chimio-radiothérapie. Méthodologie : Les tumeurs proviennent de cas traités au CHUM pour des cancers épidermoïdes de la sphère ORL à un stade localement avancé (III, IVA et IVB). Elles sont conservées dans une banque tumorale, et les données cliniques sur l’efficacité du traitement et les effets secondaires, recueillies prospectivement. La présence du VPH est établie par biologie moléculaire déterminant la présence du génome VPH et son génotype. Résultats: 255 spécimens ont été soumis au test de génotypage Linear Array HPV. Après amplification par PCR, de l’ADN viral a été détecté dans 175 (68.6%) échantillons tumoraux ; le VPH de type 16 était impliqué dans 133 cas (52.25 %). Conclusion: Une proportion grandissante de cancers ORL est liée au VPH. Notre étude confirme que la présence du VPH est fortement associée à une amélioration du pronostic chez les patients atteints de cancers ORL traités par chimio-radiothérapie, et devrait être un facteur de stratification dans les essais cliniques comprenant des cas de cancers ORL.
Resumo:
La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.
Resumo:
Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.
Resumo:
Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.
Resumo:
Les cellules dendritiques (DC) sont parmi les premières cellules à rencontrer le virus d’immunodéficience humaine (VIH) au niveau des muqueuses. De plus, le fait que les DC sont, de manière directe ou indirecte par le virus et ses composantes, altérées tant par leur nombre, leur phénotype et leur fonction suggère leur implication dans les dérégulations des cellules B. Selon cette hypothèse, des études longitudinales impliquant des individus infectés au VIH-1 présentant différents profils de progression clinique menées dans notre laboratoire ont démontré que les altérations des cellules B sont concomitantes à une augmentation de l’expression de BLyS/BAFF dans le sang ainsi que par les DC myéloïdes (mDC) sanguines. De plus, lors de travaux antérieurs utilisant le modèle murin VIH-transgénique, les altérations des cellules B ont démontré une implication des DC et d’un excès de BLyS/BAFF, et ce, dépendamment du facteur négatif du VIH (Nef). Dans cette optique, nous investiguons dans cette présente étude l’implication de Nef dans la modulation du phénotype des DC ainsi que dans les dérégulations des cellules B. Chez tous les patients virémiques infectés au VIH-1, nous avons détecté la présence de Nef dans le plasma ainsi qu’au niveau des mDC et de leurs précurseurs d’origine monocytaire, tout au long du suivi de la progression clinique et au-delà de la thérapie antirétrovirale (ART). La surexpression de BLyS/BAFF est associée à la présence de Nef au niveau des mDC et de leur précurseur.. Des essais in vitro ont permis de démontrer l’induction d’un phénotype proinflammatoire par des mDC dérivés de monocytes lorsqu’en présence de Nef soluble, via l’augmentation de l’expression de BLyS/BAFF et de TNF-α, et où cet effet est bloqué par l’ajout de l’acide rétinoïque. Nos résultats suggèrent donc que Nef est impliquée dans le déclenchement et la persistance des dérégulations des cellules B retrouvées chez les individus infectés au VIH-1. Basé sur nos observations, une thérapie adjointe impliquant le blocage de BLyS/BAFF et/ou Nef pourrait contribuer au contrôle de l’inflammation et des altérations des cellules B. De plus, la quantification de Nef post-ART pourrait s’avérer utile dans l’évaluation du statut des réservoirs. Précédemment, nous avons démontré que les dérégulations des cellules B sanguines de ces mêmes individus présentant un profil de progression rapide et classique sont accompagnées par l’augmentation de la fréquence d’une population partageant des caractéristiques des cellules B transitionnelles immatures (TI) et des cellules B de la zone marginale (ZM), que nous avons nommé les cellules B précurseur de la ZM. Toutefois, cette population est préservée chez les contrôleurs élites, chez qui nous avons trouvé une diminution significative de la fréquence des cellules B de la ZM présentant des marqueurs phénotypiques plus matures. Récemment, ces cellules ont été associées à un potentiel de fonction régulatrice (Breg), motivant ainsi notre poursuite, dans cette étude, de la caractérisation de ces cellules B. Comme pour les individus non infectés au VIH-1, nous avons démontré que les cellules B matures de la ZM contrôlent leur capacité de production d’IL-10 chez les contrôleurs élites, contrairement à une augmentation chez les progresseurs rapides et classiques. Aussi, les cellules B précurseur de la ZM des contrôleurs élites fournissent une expression importante de LT-α lorsque comparés aux individus non infectés au VIH-1, alors que cet apport de LT-α est attribué aux cellules B TI chez les progresseurs. Le contrôle de la progression clinique semble associé à un ratio en faveur de LT-α vs IL-10 au niveau des cellules B précurseur de la ZM. Nos résultats suggèrent qu’un maintien de l’intégrité du potentiel régulateur ainsi qu’une expression augmentée de LT-α par les cellules B de première ligne, telles les populations de la ZM, sont impliqués dans le contrôle de la progression clinique du VIH-1, possiblement par leur contribution à la modulation et l’homéostasie immunitaire. De telles populations doivent être considérées lors de l’élaboration de vaccins, ces derniers cherchant à générer une réponse protectrice de première ligne et adaptative.
Resumo:
La fonction des canaux ioniques est finement régulée par des changements structuraux de sites clés contrôlant l’ouverture du pore. Ces modulations structurales découlent de l’interaction du canal avec l’environnement local, puisque certains domaines peuvent être suffisamment sensibles à des propriétés physico-chimiques spécifiques. Les mouvements engendrés dans la structure sont notamment perceptibles fonctionnellement lorsque le canal ouvre un passage à certains ions, générant ainsi un courant ionique mesurable selon le potentiel électrochimique. Une description détaillée de ces relations structure-fonction est cependant difficile à obtenir à partir de mesures sur des ensembles de canaux identiques, puisque les fluctuations et les distributions de différentes propriétés individuelles demeurent cachées dans une moyenne. Pour distinguer ces propriétés, des mesures à l’échelle de la molécule unique sont nécessaires. Le but principal de la présente thèse est d’étudier la structure et les mécanismes moléculaires de canaux ioniques par mesures de spectroscopie de fluorescence à l’échelle de la molécule unique. Les études sont particulièrement dirigées vers le développement de nouvelles méthodes ou leur amélioration. Une classe de toxine formeuse de pores a servi de premier modèle d’étude. La fluorescence à l’échelle de la molécule unique a aussi été utilisée pour l’étude d’un récepteur glutamate, d’un récepteur à la glycine et d’un canal potassique procaryote. Le premier volet porte sur l’étude de la stœchiométrie par mesures de photoblanchiment en temps résolu. Cette méthode permet de déterminer directement le nombre de monomères fluorescents dans un complexe isolé par le décompte des sauts discrets de fluorescence suivant les événements de photoblanchiment. Nous présentons ici la première description, à notre connaissance, de l’assemblage dynamique d’une protéine membranaire dans un environnement lipidique. La toxine monomérique purifiée Cry1Aa s’assemble à d’autres monomères selon la concentration et sature en conformation tétramérique. Un programme automatique est ensuite développé pour déterminer la stœchiométrie de protéines membranaires fusionnées à GFP et exprimées à la surface de cellules mammifères. Bien que ce système d’expression soit approprié pour l’étude de protéines d’origine mammifère, le bruit de fluorescence y est particulièrement important et augmente significativement le risque d’erreur dans le décompte manuel des monomères fluorescents. La méthode présentée permet une analyse rapide et automatique basée sur des critères fixes. L’algorithme chargé d’effectuer le décompte des monomères fluorescents a été optimisé à partir de simulations et ajuste ses paramètres de détection automatiquement selon la trace de fluorescence. La composition de deux canaux ioniques a été vérifiée avec succès par ce programme. Finalement, la fluorescence à l’échelle de la molécule unique est mesurée conjointement au courant ionique de canaux potassiques KcsA avec un système de fluorométrie en voltage imposé. Ces enregistrements combinés permettent de décrire la fonction de canaux ioniques simultanément à leur position et densité alors qu’ils diffusent dans une membrane lipidique dont la composition est choisie. Nous avons observé le regroupement de canaux KcsA pour différentes compositions lipidiques. Ce regroupement ne paraît pas être causé par des interactions protéine-protéine, mais plutôt par des microdomaines induits par la forme des canaux reconstitués dans la membrane. Il semble que des canaux regroupés puissent ensuite devenir couplés, se traduisant en ouvertures et fermetures simultanées où les niveaux de conductance sont un multiple de la conductance « normale » d’un canal isolé. De plus, contrairement à ce qui est actuellement suggéré, KcsA ne requiert pas de phospholipide chargé négativement pour sa fonction. Plusieurs mesures indiquent plutôt que des lipides de forme conique dans la phase cristalline liquide sont suffisants pour permettre l’ouverture de canaux KcsA isolés. Des canaux regroupés peuvent quant à eux surmonter la barrière d’énergie pour s’ouvrir de manière coopérative dans des lipides non chargés de forme cylindrique.
Resumo:
Le Cancer du Col Utérin (CCU) chez la femme est provoqué par le virus oncogénique VPH. La métastase lymphatique ganglionnaire est un facteur pronostique majeur pour l’évolution de ce cancer et sa présence influence la décision thérapeutique. En général, l’envahissement ganglionnaire est diagnostiqué par histologie, mais cette méthode est laborieuse et parfois prise en défaut pour détecter les micrométastases et les cellules cancéreuses isolées et pour donner des résultats rapides en per opératoire. L’outil moléculaire que nous désirons développer pour combler cette lacune est basé sur une analyse d’ARN des gènes du VPH exprimés par les cellules du CCU. Ceci sera fait par transcription réverse de l’ARN cellulaire couplé à une réaction quantitative en chaine par polymérase en temps réel (RT-qPCR). Cette technique devrait nous permettre une détection et une évaluation rapide des micrométastases pour aider à déterminer immédiatement un pronostic fiable et la thérapie associée. C’est un test précis, sensible et rapide pour détecter un envahissement ganglionnaire dans le CCU visant à améliorer la gestion thérapeutique. Le projet est basé sur trois objectifs. En premier lieu, valider les marqueurs moléculaires E6 et E7 de VPH16 et 18 à partir des échantillons frais et des échantillons fixés dans des blocs de paraffine. En deuxième lieu, déterminer la fiabilité et la sensibilité des marqueurs pour la détection des macrométastases, des micrométastases et les cellules tumorales isolées en utilisant la technique de RT-qPCR. En troisième lieu et parallèlement au travail présenté dans ce mémoire, il est nécessaire de constituer une base de données des patientes qui ont le virus VPH16 et 18 intégré dans leur génome, qui ont été traitées et dont nous connaissons déjà le diagnostic final afin de valider la méthode (biobanque). Nous avons réussi à extraire de l’ARNm de haute qualité à partir d’échantillons complexes, à détecter les gènes E6 et E7 de VPH16 et 18 en RT-qPCR, et à déterminer précisément la limite de détection de E6 et E7 dans les échantillons frais qui est une proportion de 0,008% de cellules cancéreuses. Dans les échantillons fixés dans la paraffine, cette limite est de 0,02% et 0,05% pour E6-E7-VPH16 et E6-E7-VPH18 respectivement. Ceci comparativement à une limite de détection histologique de 1% qui est déterminée par immunohistochimie de CK19. Enfin, notre protocole est validé pour VPH18 dans les ganglions lymphatiques du CCU.
Resumo:
Le mouvement de la marche est un processus essentiel de l'activité humaine et aussi le résultat de nombreuses interactions collaboratives entre les systèmes neurologiques, articulaires et musculo-squelettiques fonctionnant ensemble efficacement. Ceci explique pourquoi une analyse de la marche est aujourd'hui de plus en plus utilisée pour le diagnostic (et aussi la prévention) de différents types de maladies (neurologiques, musculaires, orthopédique, etc.). Ce rapport présente une nouvelle méthode pour visualiser rapidement les différentes parties du corps humain liées à une possible asymétrie (temporellement invariante par translation) existant dans la démarche d'un patient pour une possible utilisation clinique quotidienne. L'objectif est de fournir une méthode à la fois facile et peu dispendieuse permettant la mesure et l'affichage visuel, d'une manière intuitive et perceptive, des différentes parties asymétriques d'une démarche. La méthode proposée repose sur l'utilisation d'un capteur de profondeur peu dispendieux (la Kinect) qui est très bien adaptée pour un diagnostique rapide effectué dans de petites salles médicales car ce capteur est d'une part facile à installer et ne nécessitant aucun marqueur. L'algorithme que nous allons présenter est basé sur le fait que la marche saine possède des propriétés de symétrie (relativement à une invariance temporelle) dans le plan coronal.
Resumo:
Thèse réalisée en collaboration avec le Département de neurosciences et pharmacologie de l'Université de Copenhague, Danemark.
Resumo:
Les objectifs de cette étude étaient (1) de décrire la localisation et la sévérité des lésions d’ostéoarthrose (OA) chroniques acquises naturellement au niveau du grasset équin grâce à l’échographie (US), la radiographie (XR), la tomodensitométrie (CT) et l’évaluation macroscopique (ME), (2) de comparer la performance diagnostique de chacune des modalities d’imagerie avec ME et (3) d’évaluer quantitativement la densité osseuse sous-chondrale lors d’OA du grasset chez le cheval à la tomodensitométrie. Des évaluations post mortem radiographique, tomodensitométrique et échographique ont été réalisées sur 23 grassets cadavériques et comparées à l’évaluation macroscopique. Des associations significatives ont été notées entre le «osteophytes global score» de toutes les modalités (US, p=0.04; XR, p=0.005; CT, p˂0.0001) et ME. De plus, la tomodensitométrie a démontré la plus forte association. Les ostéophytes étaient principalement localisés au niveau de l’articulation fémorotibiale médiale et cette articulation présentait également les scores d’ostéophytes les plus sévères. Un patron spécifique d’ostéophytes associé à l’insertion de la capsule articulaire sur le condyle fémoral médial a été mis en évidence. La nouvelle projection radiographique (Ca10Pr5L-CrDiMO) a été utile dans la détection des ostéophytes de la région intercondylaire. Les grades d’ostéophytes (0-3) ne différaient pas significativement selon la modalité dans la majorité des sites. La faible sensibilité/spécificité a indiqué que la sclérose de l’os sous-chondral et l’applatissement des condyles fémoraux ne semblent pas être des indicateurs fiables d’OA du grasset équin. L’OA du grasset équin est associée à une réduction de la densité osseuse sous-chondrale et des sites spécifiques de résorption/kystes sous-chondraux ont été notés chez certains spécimens.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.