101 resultados para Tuteur médicamenté
em Université de Montréal, Canada
Resumo:
Les nouvelles technologies médicales contribuent aux dépenses en santé qui ne cessent de croître, alors que les budgets se trouvent limités. L’évaluation économique des technologies devraient permettre d’identifier quelles sont celles qui sont les plus rentables. Malgré cela, plusieurs technologies dont le rapport coût-efficacité reste plutôt limite ou défavorable sont utilisées en médecine moderne et remboursées par notre système public de santé. Ce mémoire se concentre sur deux technologies en santé cardiovasculaire dont le rapport coût-efficacité est plutôt limite mais qui sont fréquemment utilisées au Canada; les tuteurs médicamentés ou pharmaco-actifs et les défibrillateurs cardiaques implantables (DCI). Nous avons fait une évaluation contingente de ces technologies dans le but d’examiner si ce type d’évaluation économique complémentaire pouvait procurer un point de vue nouveau sur la valeur économique et sociétaire des ces technologies. Les résultats de ces deux évaluations indiquent que les patients accordent une grande importance aux bénéfices que procurent ces deux technologies. Nos résultats soutiennent les politiques de santé actuelles de rembourser de façon libérale ces deux technologies.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit". Ce mémoire a été accepté à l'unanimité et classé parmi les 10% des mémoires de la discipline.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les artéfacts métalliques entraînent un épaississement artéfactuel de la paroi des tuteurs en tomodensitométrie (TDM) avec réduction apparente de leur lumière. Cette étude transversale prospective, devis mesures répétées et observateurs avec méthode en aveugle, chez 24 patients consécutifs/71 tuteurs coronariens a pour objectif de comparer l’épaisseur de paroi des tuteurs en TDM après reconstruction par un algorithme avec renforcement des bords et un algorithme standard. Une angiographie coronarienne par TDM 256 coupes a été réalisée, avec reconstruction par algorithmes avec renforcement des bords et standard. L’épaisseur de paroi des tuteurs était mesurée par méthodes orthogonale (diamètres) et circonférentielle (circonférences). La qualité d’image des tuteurs était évaluée par échelle ordinale, et les données analysées par modèles linéaire mixte et régression logistique des cotes proportionnelles. L’épaisseur de paroi des tuteurs était inférieure avec l’algorithme avec renforcement des bords comparé à l’algorithme standard, avec les méthodes orthogonale (0,97±0,02 vs 1,09±0,03 mm, respectivement; p<0,001) et circonférentielle (1,13±0,02 vs 1,21±0,02 mm, respectivement; p<0,001). Le premier causait moins de surestimation par rapport à l’épaisseur nominale comparé au second, avec méthodes orthogonale (0,89±0,19 vs 1,00±0,26 mm, respectivement; p<0,001) et circonférentielle (1,06±0,26 vs 1,13±0,31 mm, respectivement; p=0,005) et diminuait de 6 % la surestimation. Les scores de qualité étaient meilleurs avec l’algorithme avec renforcement des bords (OR 3,71; IC 95% 2,33–5,92; p<0,001). En conclusion, la reconstruction des images avec l’algorithme avec renforcement des bords génère des parois de tuteurs plus minces, moins de surestimation, et de meilleurs scores de qualité d’image que l’algorithme standard.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
L’exercice d’allocation de ressources en santé, relevant du Ministère de la santé, se voit fortement influencé autant par les besoins variés de la population que par les exigences des intervenants en santé. Quel rôle ces différents intérêts peuvent-ils jouer dans l’intégration de nouvelles technologies dans la distribution des soins de santé ? La pharmacogénomique, branche émergente de la pharmacologie intégrant les données issues du projet génome humain au processus de développement du médicament, est perçue comme une technologie qui permettrait de personnaliser la médecine. Son intégration aux processus de développement ou de prescription de médicaments promet de minimiser l’apparition d’effets secondaires néfastes découlant de la prise de médicaments. Serait-il alors judicieux pour le gouvernement du Québec, considérant la conjoncture actuelle d’allocation de ressources, d’investir dans la pharmacogénomique en tant que nouvel outil de développement du médicament ou nouveau mode pronostic de médication pour sa population ? Nous aborderons cette question à l’aide de critères de sélection dictés par Caulfield et ses collaborateurs (2001)[1] pour évaluer la pertinence de l’investissement public dans la mise sur pied d’un test génétique, soit l’acceptabilité, l’utilité, la non-malfaisance et la présence d’un bénéfice clair – à coût raisonnable – pour la population. La génomique avoisinant la génétique, ces facteurs s’avèrent applicables dans notre discussion.
Resumo:
Le trouble du déficit de l’attention/hyperactivité (TDA/H) est un des troubles comportementaux le plus commun chez les enfants. TDAH a une étiologie complexe et des traitements efficaces. Le médicament le plus prescrit est le méthylphénidate, un psychostimulant qui bloque le transporteur de la dopamine et augmente la disponibilité de la dopamine dans la fente synaptique. Des études précliniques et cliniques suggèrent que le cortisol peut potentialiser les effets de la dopamine. Un dysfonctionnement du système hypothalamo-hypophyso-surrénalien (HHS) est associé avec plusieurs maladies psychiatriques comme la dépression, le trouble bipolaire, et l’anxiété. Nous avons fait l’hypothèse que le cortisol influence l’efficacité du traitement des symptômes du TDAH par le méthylphénidate. L’objectif de cette étude est de mesurer les niveaux de cortisol le matin au réveil et en réponse à une prise de sang dans un échantillon d’enfants diagnostiqué avec TDAH âgé de 8 ans. Le groupe était randomisé dans un protocole en chassé croisé et en double aveugle avec trois doses de méthylphénidate et un placebo pour une période de quatre semaines. Les enseignants et les parents ont répondu aux questionnaires SWAN et à une échelle d’évaluation des effets secondaires. Les résultats ont démontrés qu’un niveau de cortisol élevé au réveil prédit les sujets qui ne répondent pas au traitement du TDAH, si on se fie aux rapports des parents. En plus, la réactivité au stress élevé suggère un bénéfice additionnel d’une dose élevée de méthylphénidate selon les enseignants. Aussi, les parents rapportent une association entre la présence de troubles anxieux co-morbide avec le TDAH et une meilleure réponse à une dose élevée. Cette étude suggère qu’une forte réactivité de l’axe HHS améliore la réponse clinique à des doses élevées, mais qu’une élévation chronique du niveau de cortisol pourrait être un marqueur pour les non répondeurs. Les résultats de cette étude doivent être considérés comme préliminaires et nécessitent des tests plus approfondis des interactions possibles entre les médicaments utilisés pour traiter le TDAH et l’axe HHS.
Resumo:
Nous avons mené une étude prospective randomisée dans le but de comparer l'effet de l'irrigation du cathéter de type PICC avec deux types d'anticoagulants: Héparine standard et Tinzaparine, une héparine de faible poids moléculaire. Notre étude s'adresse aux patients de la clinique externe d'oncologie de l'hôpital Maisonneuve-Rosemont. Entre début Mai 2005 et Mars 2008, nous avons recruté 131 patients dont 70 ont été randomisés. Parmi les 61 patients exclus, 23 n'ont pas rencontré les critères d'inclusion, 30 ont refusé de participer et 8 ne sont pas inclus pour d'autres raisons. Sur les 70, 36 sujets sont randomisés dans le groupe Héparine standard et 34 dans le groupe Tinzaparine. La population en intention de traiter comprend 65 sujets dont 32 dans le groupe Héparine standard et 33 dans le groupe Tinzaparine. Le médicament a été administré pendant un mombre maximal de 30 jours et les sujets ont été suivis pendant 90 jours. La thrombose veineuse associée au cathéter (TVAC) a été objectivée par une phlébographie ou une échographie-Doppler à la fin de la période de 30 jours suivant l'installation du cathéter. L'incidence de la TVAC sur 30 jours est de 14,39 par 1000 cathéter-jours (IC à 95%:[9,0;19,79]/1000 cathéter-jours ou 41,5% (27/65). L'incidence de la thrombose veineuse profonde (TVP) symptômatique du membre supérieur sur la période de suivi de 90 jours est de 0,41 par 1000 cathéter-jours (IC à 95%:[0,08;0,81]/1000 cathéter-jours ou 3% (2/65). Nous n'avons observé aucune différence entre les deux groupes par rapport à la fréquence de la TVAC ni de la TVP. Nous ne pouvons conclure à une différence dans l'efficacité de la Tinzaparine par rapport à l'Héparine standard dans la prévention de la TVAC.
Resumo:
Le virus de l’Herpès simplex de type 1 (HSV-1) est le pathogène humain responsable des lésions herpétiques labiales, plus communément appelé « feux sauvages ». Annuellement, il est responsable de plusieurs cas d’encéphalites et d’infections de l’appareil visuel qui sont la principale cause de cécité en Amérique du Nord. Bien qu’il existe quelques traitements antiviraux, aucun vaccin ou médicament ne permet de prévenir ou de guérir les infections causées par ce virus. Aujourd’hui, les infections produites par l’HSV-1 sont présentes partout sur la planète. Récemment, une étude en protéomique effectuée sur les virus matures extracellulaires a permis d’identifier la présence d’ubiquitines libres et d’enzymes reliées à la machinerie d’ubiquitination dans le virus. De plus, le virus exploite cette machinerie au cours de l’infection. Il est connu que certaines protéines virales sont ubiquitinées durant une infection et que le virus imite même certaines enzymes d’ubiquitination. Nous avons donc entrepris des recherches afin d’identifier des protéines virales ubiquitinées qui pourraient être présentes dans les virus matures ainsi que leurs rôles potentiels. La protéine majeure de la capside, VP5, un constituant très important du virus, a été identifiée. Nos recherches nous ont permis de caractériser le type d’ubiquitination, une monoubiquitination sur les lysines K810 et/ou K1275 de VP5. Le rôle que pourrait jouer l’ubiquitination de VP5 dans le cycle de réplication virale et dans les virus matures n’est toutefois pas encore connu.
Resumo:
L’émergence de l’utilisation du méthylphénidate (MPH; Ritalin) par des étudiants universitaires afin d’améliorer leur concentration et leurs performances universitaires suscite l’intérêt du public et soulève d’importants débats éthiques auprès des spécialistes. Les différentes perspectives sur l’amélioration des performances cognitives représentent une dimension importante des défis sociaux et éthiques autour d’un tel phénomène et méritent d’être élucidées. Ce mémoire vise à examiner les discours présents dans les reportages internationaux de presse populaire, les discours en bioéthique et en en santé publique sur le thème de l’utilisation non médicale du méthylphénidate. Cette recherche a permis d’identifier et d’analyser des « lacunes » dans les perspectives éthiques, sociales et scientifiques de l’utilisation non médicale du méthylphénidate pour accroître la performance cognitive d’individus en santé. Une analyse systématique du contenu des discours sur l’utilisation non médicale du méthylphénidate pour accroître la performance cognitive a identifié des paradigmes divergents employés pour décrire l’utilisation non médicale du méthylphénidate et discuter ses conséquences éthiques. Les paradigmes « choix de mode de vie », « abus de médicament » et « amélioration de la cognition » sont présents dans les discours de la presse populaire, de la bioéthique et de la santé publique respectivement. Parmi les principales différences entre ces paradigmes, on retrouve : la description de l’utilisation non médicale d’agents neuropharmacologiques pour l’amélioration des performances, les risques et bénéfices qui y sont associés, la discussion d’enjeux éthiques et sociaux et des stratégies de prévention et les défis associés à l’augmentation de la prévalence de ce phénomène. La divergence de ces paradigmes reflète le pluralisme des perceptions de l’utilisation non médicale d’agents neuropharmacologiques Nos résultats suggèrent la nécessité de débats autour de l’amélioration neuropharmacologique afin de poursuivre l’identification des enjeux et de développer des approches de santé publique cohérentes.