991 resultados para Marqueurs spécifiques
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Différents dessins d’implants de prothèse totale de genou (PTG) sont utilisés en pratique clinique et chacun présente des caractéristiques biomécaniques spécifiques. Aucun implant n’a réussi à ce jour à reproduire parfaitement la biomécanique du genou naturel. Les objectifs de cette étude sont de comparer les résultats cliniques et biomécaniques tridimensionnels (3D) de deux types de PTG chez le même patient, puis de comparer la cinématique des PTG à celle d’un groupe de genoux asymptomatiques. Une cohorte de quinze patients avec un implant traditionnel dans un genou et un implant de nouvelle génération permettant un pivot dans le genou contralatéral a été étudiée. Le groupe contrôle était composé de trente-cinq genoux asymptomatiques. L’analyse de la cinématique 3D a été réalisée avec l’outil KneeKG (Emovi Inc. Canada) lors de la marche sur tapis roulant. L’évaluation clinique comprenait l’amplitude de mouvement ainsi que les questionnaires de perception articulaire, KOOS, Womac et SF-12. La comparaison de la cinématique des deux types de PTG a démontré quelques différences statistiquement significatives dans les plans sagittal et frontal alors que la comparaison des PTG et des genoux asymptomatiques a révélé plusieurs différences significatives dans les trois plans. Les scores cliniques des deux PTG ne comportaient pas de différence significative. Dans notre cohorte de patients, le design de l’implant a eu peu d’influence sur les résultats biomécaniques et cliniques. Les PTG n’ont pas reproduit une cinématique normale de genou. Beaucoup de travail et de recherche dans le développement de nouveaux implants sont encore nécessaires afin d’améliorer les résultats cliniques et de mieux reproduire la cinématique du genou naturel.
Resumo:
La concentration locale des messagers chimiques sécrétés par les cellules peut être mesurée afin de mieux comprendre les mécanismes moléculaires liés à diverses maladies, dont les métastases du cancer. De nouvelles techniques analytiques sont requises pour effectuer ces mesures locales de marqueurs biologiques à proximité des cellules. Ce mémoire présentera le développement d’une nouvelle technique basée sur la réponse plasmonique sur des leviers AFM, permettant d’étudier les réactions chimiques et biologiques à la surface des leviers grâce au phénomène de résonance des plasmons de surface (SPR), ainsi qu’à la diffusion Raman exaltée par effet de pointe (TERS). En effet, il est possible de localiser l’amplification du signal Raman à la pointe d’un levier AFM, tout comme le principe de la diffusion Raman exaltée par effet de surface (SERS) basée sur la diffusion de la lumière par des nanoparticules métalliques, et permettant une large amplification du signal Raman. La surface du levier est recouverte d’une nano-couche métallique d’or, suivi par des réactions biologiques pour l’immobilisation d’un récepteur moléculaire, créant ainsi un biocapteur sur la pointe du levier. Une détection secondaire utilisant des nanoparticules d’or conjuguées à un anticorps secondaire permet également une amplification du signal SPR et Raman lors de la détection d’antigène. Ce mémoire démontrera le développement et la validation de la détection de l’immunoglobuline G (IgG) sur la pointe du levier AFM.Dans des projets futurs, cette nouvelle technique d’instrumentation et d’imagerie sera optimisée grâce à la création d’un micro-détecteur protéique généralement adapté pour l’étude de la communication cellulaire. En intégrant le signal SPR à la microscopie AFM, il sera alors possible de développer des biocapteurs SPR couplés à une sonde à balayage, ce qui permettra d’effectuer une analyse topographique et de l’environnement chimique d’échantillons cellulaires en temps réel, pour la mesure des messagers moléculaires sécrétés dans la matrice extracellulaire, lors de la communication cellulaire.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Les tests PAMPA et les tests Caco-2 sont des essais in vitro de l’évaluation de la perméabilité intestinale des médicaments. Ils sont réalisés lors de la phase de découverte du médicament. Les tests PAMPA ne sont pas biologiquement représentatifs de la paroi intestinale, mais ils sont rapides et peu coûteux. Les tests Caco-2 nécessitent plus de 21 jours pour la culture cellulaire et des installations spécifiques sont requises. Ils sont constitués d’une monocouche d’entérocytes à confluence et donc plus biologiquement représentatifs. Il y a un besoin pour le développement d’un essai qui est biologiquement représentatif de la membrane intestinale humaine, rapide et peu coûteux. Le premier but de ce projet était de développer une méthode analytique qui permettrait l’évaluation simultanée de huit médicaments témoins utilisés pour la validation de l’essai de perméabilité. Le deuxième but de ce projet était donc d’améliorer la membrane des tests PAMPA pour proposer un nouveau test : le néoPAMPA. Contrairement au test PAMPA traditionnel, cette membrane est constituée de trois composantes : (1) un filtre poreux qui agit à titre de support, (2) un coussin polydopamine chargé négativement qui sert d’ancrage et qui assure la fluidité de la bicouche et (3) une bicouche lipidique formée par fusion de vésicules. Une méthode analytique HPLC-MS/MS a été validée selon les spécifications de la FDA et de la EMA. Cette méthode a permis de quantifier simultanément les huit médicaments standards utilisés pour le test néoPAMPA. Le test PAMPA traditionnel a été mis en place à titre d’essai control. Les coefficients de perméabilité mesurés pour les huit médicaments au travers de la membrane PAMPA comparaient favorablement aux résultats de la littérature. Les composantes de la membrane néoPAMPA ont été optimisées. Les conditions optimales retenues étaient les filtres de polycarbonate hydrophile ayant des pores de 15 nm, les plaques Costar 12 puits comme dispositif des tests de perméabilité, une bicouche lipidique composée de 70 % DOPC et de 30 % cholestérol cationique ainsi qu’une déposition des liposomes en présence de 150 mM NaCl suivi d’un équilibre d’1 h en présence d’une solution saturée en DOPC. Les stabilités de la cassette de médicaments et des liposomes sont insuffisantes pour le conditionnement commercial des membranes néoPAMPA. Les différentes optimisations réalisées ont permis d’améliorer la membrane néoPAMPA sans toutefois la rendre fonctionnelle. La membrane néoPAMPA n’est toujours pas en mesure de discriminer des molécules en fonction de leur perméabilité attendue.
Resumo:
Cette thèse interroge les pratiques de mémoire hétérogènes qui ont émergé à propos de l’équipe de hockey du Canadien de Montréal dans le cadre du centenaire de l’équipe en 2009. Elle a le double objectif 1) d’apporter un éclairage théorique communicationnel sur l’objet « mémoire » et 2) de développer une analyse contextuelle des pratiques de mémoire et des enjeux qu’elles rendent effectifs. Mon travail s’inscrit dans le champ des memory studies, et particulièrement dans le tournant médiatique actuel, ainsi que dans celui des cultural studies. Au cours du chapitre consacré à la problématisation, je développe une approche communicationnelle de la mémoire en interrogeant la matérialité des pratiques de mémoire ainsi que leur relation co‐constitutive avec les médias de mémoire, réalisées dans le cadre du centenaire. Dans les deux chapitres analytiques, je procède à une analyse d’archives hétérogènes (articles de journaux, captures de sites internet, notes d’observation, interviews, émissions spéciales, publireportages etc.) issues de registres de mémoire différents. Le deuxième chapitre questionne les pratiques de mémoire à propos de l’ancien joueur du Canadien Léo Gravelle, telle la numérisation d’archives et la constitution de la « boîte à chaussures », la « biographisation », la conservation et la fétichisation, ainsi que leurs façons spécifiques de rendre présent des passés. Ce chapitre met en évidence comment des rapports familiaux, des enjeux liés au vieillissement et des formes de camaraderie sont réarticulés par ces pratiques. Le troisième chapitre investigue les pratiques de mémoire développées par l’organisation du Canadien de Montréal, telle la commémoration et la patrimonialisation de l’équipe ainsi que du hockey, et leur manière particulière de réarticuler la relation du sport professionnel à la ville ainsi que des enjeux liés à la philanthropie et au consumer activism. Le quatrième chapitre propose une discussion sur les faire mémoire, comme moyen d’ « espacer », de s’engager « en public » et comme projet qui mobilise et organise. Cette thèse conclue finalement sur ce qui constitue la singularité de ce centenaire.
Resumo:
Cette thèse a pour objectif de comparer les expressions émotionnelles évoquées par la musique, la voix (expressions non-linguistiques) et le visage sur les plans comportemental et neuronal. Plus précisément, le but est de bénéficier de l’indéniable pouvoir émotionnel de la musique afin de raffiner notre compréhension des théories et des modèles actuels associés au traitement émotionnel. Qui plus est, il est possible que cette disposition surprenante de la musique pour évoquer des émotions soit issue de sa capacité à s’immiscer dans les circuits neuronaux dédiés à la voix, bien que les évidences à cet effet demeurent éparses pour le moment. Une telle comparaison peut potentiellement permettre d’élucider, en partie, la nature des émotions musicales. Pour ce faire, différentes études ont été réalisées et sont ici présentées dans deux articles distincts. Les études présentées dans le premier article ont comparé, sur le plan comportemental, les effets d’expressions émotionnelles sur la mémoire entre les domaines musical et vocal (non-linguistique). Les résultats ont révélé un avantage systématique en mémoire pour la peur dans les deux domaines. Aussi, une corrélation dans la performance individuelle en mémoire a été trouvée entre les expressions de peur musicales et vocales. Ces résultats sont donc cohérents avec l’hypothèse d’un traitement perceptif similaire entre la musique et la voix. Dans le deuxième article, les corrélats neuronaux associés à la perception d’expressions émotionnelles évoquées par la musique, la voix et le visage ont été directement comparés en imagerie par résonnance magnétique fonctionnelle (IRMf). Une augmentation significative du signal « Blood Oxygen Level Dependent » (BOLD) a été trouvée dans l’amygdale (et à l’insula postérieure) en réponse à la peur, parmi l’ensemble des domaines et des modalités à l’étude. Une corrélation dans la réponse BOLD individuelle de l’amygdale, entre le traitement musical et vocal, a aussi été mise en évidence, suggérant à nouveau des similarités entre les deux domaines. En outre, des régions spécifiques à chaque domaine ont été relevées. Notamment, le gyrus fusiforme (FG/FFA) pour les expressions du visage, le sulcus temporal supérieur (STS) pour les expressions vocales ainsi qu’une portion antérieure du gyrus temporal supérieur (STG) particulièrement sensible aux expressions musicales (peur et joie), dont la réponse s’est avérée modulée par l’intensité des stimuli. Mis ensemble, ces résultats révèlent des similarités mais aussi des différences dans le traitement d’expressions émotionnelles véhiculées par les modalités visuelle et auditive, de même que différents domaines dans la modalité auditive (musique et voix). Plus particulièrement, il appert que les expressions musicales et vocales partagent d’étroites similarités surtout en ce qui a trait au traitement de la peur. Ces données s’ajoutent aux connaissances actuelles quant au pouvoir émotionnel de la musique et contribuent à élucider les mécanismes perceptuels sous-jacents au traitement des émotions musicales. Par conséquent, ces résultats donnent aussi un appui important à l’utilisation de la musique dans l’étude des émotions qui pourra éventuellement contribuer au développement de potentielles interventions auprès de populations psychiatriques.
Resumo:
Les connaissances que nous avons sur les personnes familières et célèbres représentent un des grands domaines de la mémoire sémantique. Elles ont une valeur sociale importante puisqu'elles nous permettent de reconnaître et d'identifier les personnes que nous connaissons et de les distinguer de personnes que nous ne connaissons pas. La présente thèse comporte deux volets : le premier volet porte sur l’étude des substrats cérébraux du traitement sémantique sur les personnes célèbres chez le jeune adulte, alors que le deuxième volet porte sur l’étude des connaissances sémantiques sur les personnes célèbres chez la personne âgée sans troubles cognitifs, atteinte d’un Trouble cognitif léger de type amnésique (TCLa), d’un Trouble cognitif léger de type amnésique avec symptômes dépressifs (TCLa-D) ou de dépression tardive. Plus précisément, ce dernier volet étudie la relation entre les troubles sémantiques et la présence de symptômes dépressifs. Le premier volet a donc pour objectif d’explorer en imagerie par résonance magnétique fonctionnelle (IRMf) les substrats cérébraux sous-tendant le traitement sémantique de visages célèbres comparé au traitement perceptif (Article 1). Le rôle des régions temporales postérieures (occipito-temporales) dans le traitement perceptif des visages est aujourd’hui bien établi. Les lobes temporaux antérieurs (LTA) semblent avoir un rôle particulièrement important dans l’identification des visages familiers et connus, mais le rôle précis de cette région dans le traitement sémantique des visages connus demeure encore mal compris. Le premier article met ainsi en lumière les régions corticales impliquées dans le processus de reconnaissance de visages, soit du traitement perceptif au traitement sémantique qui nous permet d’identifier et de retrouver des informations biographiques sur le visage qui nous est présenté. Les présents résultats appuient le modèle proposé par Haxby et collègues (2000) selon lequel la région des lobes temporaux antérieurs (LTA) soit associée au traitement sémantique des visages de personnes célèbres. Quant au deuxième volet, il a pour objectif d’étudier au niveau comportemental l’intégrité des connaissances sémantiques biographiques spécifiques et générales chez des personnes âgées sans troubles cognitifs, atteinte d’un TCLa ou d’un TCLa avec symptômes dépressifs (TCLa-D) ou de dépression tardive. (Article 2). La dépression a été jugée comme étant un facteur interdépendant pouvant jouer un rôle dans la variabilité de la présentation clinique des individus TCLa. En effet, il semble que la présence de symptômes dépressifs influence le profil cognitif des individus TCLa, surtout en ce qui à trait aux fonctions exécutives et à la mémoire épisodique. Cependant, aucune étude n’a à ce jour étudié l’impact des symptômes dépressifs sur la mémoire sémantique des personnes célèbres chez les individus TCLa. Les présents résultats indiquent que les individus TCLa montrent des déficits pour le traitement sémantique des personnes célèbres, et que ces déficits sont modulés par la présence d’une symptomatologie dépressive. La dépression à elle seule ne peut toutefois engendrer des déficits sémantiques puisque le groupe ayant une dépression tardive n’a démontré aucune atteinte de la mémoire sémantique. Les implications théoriques et cliniques de ces résultats seront discutées, ainsi que les limites et perspectives futures.
Resumo:
La fonction des canaux ioniques est finement régulée par des changements structuraux de sites clés contrôlant l’ouverture du pore. Ces modulations structurales découlent de l’interaction du canal avec l’environnement local, puisque certains domaines peuvent être suffisamment sensibles à des propriétés physico-chimiques spécifiques. Les mouvements engendrés dans la structure sont notamment perceptibles fonctionnellement lorsque le canal ouvre un passage à certains ions, générant ainsi un courant ionique mesurable selon le potentiel électrochimique. Une description détaillée de ces relations structure-fonction est cependant difficile à obtenir à partir de mesures sur des ensembles de canaux identiques, puisque les fluctuations et les distributions de différentes propriétés individuelles demeurent cachées dans une moyenne. Pour distinguer ces propriétés, des mesures à l’échelle de la molécule unique sont nécessaires. Le but principal de la présente thèse est d’étudier la structure et les mécanismes moléculaires de canaux ioniques par mesures de spectroscopie de fluorescence à l’échelle de la molécule unique. Les études sont particulièrement dirigées vers le développement de nouvelles méthodes ou leur amélioration. Une classe de toxine formeuse de pores a servi de premier modèle d’étude. La fluorescence à l’échelle de la molécule unique a aussi été utilisée pour l’étude d’un récepteur glutamate, d’un récepteur à la glycine et d’un canal potassique procaryote. Le premier volet porte sur l’étude de la stœchiométrie par mesures de photoblanchiment en temps résolu. Cette méthode permet de déterminer directement le nombre de monomères fluorescents dans un complexe isolé par le décompte des sauts discrets de fluorescence suivant les événements de photoblanchiment. Nous présentons ici la première description, à notre connaissance, de l’assemblage dynamique d’une protéine membranaire dans un environnement lipidique. La toxine monomérique purifiée Cry1Aa s’assemble à d’autres monomères selon la concentration et sature en conformation tétramérique. Un programme automatique est ensuite développé pour déterminer la stœchiométrie de protéines membranaires fusionnées à GFP et exprimées à la surface de cellules mammifères. Bien que ce système d’expression soit approprié pour l’étude de protéines d’origine mammifère, le bruit de fluorescence y est particulièrement important et augmente significativement le risque d’erreur dans le décompte manuel des monomères fluorescents. La méthode présentée permet une analyse rapide et automatique basée sur des critères fixes. L’algorithme chargé d’effectuer le décompte des monomères fluorescents a été optimisé à partir de simulations et ajuste ses paramètres de détection automatiquement selon la trace de fluorescence. La composition de deux canaux ioniques a été vérifiée avec succès par ce programme. Finalement, la fluorescence à l’échelle de la molécule unique est mesurée conjointement au courant ionique de canaux potassiques KcsA avec un système de fluorométrie en voltage imposé. Ces enregistrements combinés permettent de décrire la fonction de canaux ioniques simultanément à leur position et densité alors qu’ils diffusent dans une membrane lipidique dont la composition est choisie. Nous avons observé le regroupement de canaux KcsA pour différentes compositions lipidiques. Ce regroupement ne paraît pas être causé par des interactions protéine-protéine, mais plutôt par des microdomaines induits par la forme des canaux reconstitués dans la membrane. Il semble que des canaux regroupés puissent ensuite devenir couplés, se traduisant en ouvertures et fermetures simultanées où les niveaux de conductance sont un multiple de la conductance « normale » d’un canal isolé. De plus, contrairement à ce qui est actuellement suggéré, KcsA ne requiert pas de phospholipide chargé négativement pour sa fonction. Plusieurs mesures indiquent plutôt que des lipides de forme conique dans la phase cristalline liquide sont suffisants pour permettre l’ouverture de canaux KcsA isolés. Des canaux regroupés peuvent quant à eux surmonter la barrière d’énergie pour s’ouvrir de manière coopérative dans des lipides non chargés de forme cylindrique.
Resumo:
Une des voies les plus étudiées dans le contrôle locomoteur est la voie dopaminergique ascendante, vu son importance dans les maladies qui touchent la locomotion, comme la maladie du Parkinson. La substance noire pars compacta (A9; SNc) et l’aire tegmentaire ventrale (A10; VTA) envoient des projections dopaminergiques (DA+) vers les ganglions de la base (GB) qui à leur tour projettent vers la région locomotrice mésencéphalique (RLM), une région de tronc cérébral qui contrôle la locomotion chez les vertébrés. Des terminaisons DA+ au niveau de la RLM ont récemment été découvertes chez le singe. Donc, il semblait intéressant de savoir d’où provenaient ces projections DA+ et si elles étaient maintenues de manière équivalente dans l’évolution des espèces animales. Nous nous sommes donc penchés sur deux espèces animales en particulier, la lamproie et le triton. Dans ce travail, nous avons observé une voie DA+ descendante du tubercule postérieur (PT; homologue à la substance noire pars compacta et à l’aire tegmentaire ventrale chez les mammifères) directement vers la RLM, sans passer par l’intermédiaire des GB. Cette voie DA+ descendante a été observée autant chez la lamproie que chez le triton, à la suite d’injections de marqueurs rétrogrades et de détection immunohistochimique de la tyrosine hydroxylase (TH) ou de la dopamine (DA). La voie DA+ descendante semble donc conservée au cours de l’évolution des espèces vertébrés, bien que l’importance relative de la voie ascendante DA+ semble augmenter au cours de l’évolution.
Resumo:
Ce mémoire a pour objet d’étude les échanges épistolaires entre Robert Choquette et Louis Dantin, Alfred DesRochers et, dans une moindre mesure, Claude-Henri Grignon, Émile Coderre et Albert Pelletier. Les lettres en question, qui n'ont jamais été publiées, sont conservées pour l’essentiel dans le Fonds d'archives Robert-Choquette, qui n’est accessible aux chercheurs que depuis 2006. L'objectif de cette étude est de mesurer la voix et la part de Robert Choquette au sein des réseaux littéraires des années vingt et trente. La première partie du premier chapitre de ce mémoire est essentiellement théorique; la position de la lettre au sein de l'œuvre d'un écrivain, la constitution, par les lettres, d'un réseau littéraire ainsi que les rapports entre destinateur et destinataire y sont définis. Par la suite, les échanges épistolaires entre Choquette et ses correspondants sont examinés afin de mettre en lumière les rapports de force exploités dans ce réseau. Cette étude, qui se base sur un corpus de lettres rédigées entre 1927 et 1943, montre également l'évolution des ambitions poétiques du poète. Dans le but d'observer l'empreinte des correspondants de Choquette sur son projet littéraire, les deuxième et troisième chapitres du mémoire sont consacrés à l'analyse de ses recueils Metropolitan Museum et Suite marine. L'étude des échanges spécifiques portant sur ces deux œuvres expose une transformation quant au choix des images utilisées par Choquette pour se représenter, ainsi que l'évolution de ses attentes envers ses destinataires.
Resumo:
L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.
Resumo:
Les récepteurs nucléaires (RN) sont des facteurs de transcription ligand dépendants qui contrôlent une grande variété de processus biologiques de la physiologie humaine, ce qui a fait d'eux des cibles pharmacologiques privilégiées pour de nombreuses maladies. L'un de ces récepteurs, le récepteur de l’œstrogène alpha (ERα), peut activer la prolifération cellulaire dans certaines sections de l'épithélium mammaire tandis qu’un autre, le récepteur de l'acide rétinoïque alpha (RARα), peut provoquer un arrêt de la croissance et la différenciation cellulaire. La signalisation de ces deux récepteurs peut être altérée dans le cancer du sein, contribuant à la tumorigénèse mammaire. L’activité d’ERα peut être bloquée par les anti-oestrogènes (AE) pour inhiber la prolifération des cellules tumorales mammaires. Par contre, l’activation des voies de RARα avec des rétinoïdes dans un contexte clinique a rencontré peu de succès. Ceci pourrait résulter du manque de spécificité des ligands testés pour RARα et/ou de leur activité seulement dans certains sous-types de tumeurs mammaires. Puisque les récepteurs nucléaires forment des homo- et hétéro-dimères, nous avons cherché à développer de nouveaux essais pharmacologiques pour étudier l'activité de complexes dimériques spécifiques, leur dynamique d’association et la structure quaternaire des récepteurs des œstrogènes. Nous décrivons ici une nouvelle technique FRET, surnommée BRET avec renforcement de fluorescence par transferts combinés (BRETFect), qui permet de détecter la formation de complexes de récepteurs nucléaires ternaires. Le BRETFect peut suivre l'activation des hétérodimères ERα-ERβ et met en évidence un mécanisme allostérique d'activation que chaque récepteur exerce sur son partenaire de dimérisation. L'utilisation de BRETFect en combinaison avec le PCA nous a permis d'observer la formation de multimères d’ERα fonctionnels dans des cellules vivantes pour la première fois. La formation de multimères est favorisée par les AE induisant la dégradation du récepteur des oestrogènes, ce qui pourrait contribuer à leurs propriétés spécifiques. Ces essais de BRET apportent une nette amélioration par rapport aux tests de vecteurs rapporteur luciférase classique, en fournissant des informations spécifiques aux récepteurs en temps réel sans aucune interférence par d'autres processus tels que la transcription et de la traduction. L'utilisation de ces tests nous a permis de caractériser les propriétés de modulation de l’activité des récepteurs nucléaires d’une nouvelle classe de molécules hybrides qui peuvent à la fois lier ERa ou RAR et inhiber les HDACs, conduisant au développement de nouvelles molécules prometteuses bifonctionnelles telles que la molécule hybride RAR-agoniste/HDACi TTNN-HA.
Resumo:
Le Cancer du Col Utérin (CCU) chez la femme est provoqué par le virus oncogénique VPH. La métastase lymphatique ganglionnaire est un facteur pronostique majeur pour l’évolution de ce cancer et sa présence influence la décision thérapeutique. En général, l’envahissement ganglionnaire est diagnostiqué par histologie, mais cette méthode est laborieuse et parfois prise en défaut pour détecter les micrométastases et les cellules cancéreuses isolées et pour donner des résultats rapides en per opératoire. L’outil moléculaire que nous désirons développer pour combler cette lacune est basé sur une analyse d’ARN des gènes du VPH exprimés par les cellules du CCU. Ceci sera fait par transcription réverse de l’ARN cellulaire couplé à une réaction quantitative en chaine par polymérase en temps réel (RT-qPCR). Cette technique devrait nous permettre une détection et une évaluation rapide des micrométastases pour aider à déterminer immédiatement un pronostic fiable et la thérapie associée. C’est un test précis, sensible et rapide pour détecter un envahissement ganglionnaire dans le CCU visant à améliorer la gestion thérapeutique. Le projet est basé sur trois objectifs. En premier lieu, valider les marqueurs moléculaires E6 et E7 de VPH16 et 18 à partir des échantillons frais et des échantillons fixés dans des blocs de paraffine. En deuxième lieu, déterminer la fiabilité et la sensibilité des marqueurs pour la détection des macrométastases, des micrométastases et les cellules tumorales isolées en utilisant la technique de RT-qPCR. En troisième lieu et parallèlement au travail présenté dans ce mémoire, il est nécessaire de constituer une base de données des patientes qui ont le virus VPH16 et 18 intégré dans leur génome, qui ont été traitées et dont nous connaissons déjà le diagnostic final afin de valider la méthode (biobanque). Nous avons réussi à extraire de l’ARNm de haute qualité à partir d’échantillons complexes, à détecter les gènes E6 et E7 de VPH16 et 18 en RT-qPCR, et à déterminer précisément la limite de détection de E6 et E7 dans les échantillons frais qui est une proportion de 0,008% de cellules cancéreuses. Dans les échantillons fixés dans la paraffine, cette limite est de 0,02% et 0,05% pour E6-E7-VPH16 et E6-E7-VPH18 respectivement. Ceci comparativement à une limite de détection histologique de 1% qui est déterminée par immunohistochimie de CK19. Enfin, notre protocole est validé pour VPH18 dans les ganglions lymphatiques du CCU.
Resumo:
La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.