58 resultados para Tests accuracy
Resumo:
Utiliser des tests génétiques de prédisposition en recherche pédiatrique pourrait aider à parvenir à une meilleure compréhension des maladies ou désordres affectant les adultes. Cela pourrait aussi possiblement aider à la détection précoce et au développement de soins préventifs ou cliniques pour les personnes héréditairement plus à risque. De plus en plus, les tests génétiques de prédisposition deviennent un élément de la recherche génétique pédiatrique. Or, la rareté des textes normatifs encadrant l’utilisation des tests génétiques de prédisposition en recherche pédiatrique soulève plusieurs enjeux éthiques et légaux complexes. Après avoir exposé l’encadrement normatif entourant l’utilisation des tests génétiques de prédisposition en recherche ainsi que celui de la recherche pédiatrique, nous présenterons les éléments de consensus ou de divergence ainsi que nos recommandations ayant trait à l’utilisation des tests génétiques de prédisposition en recherche pédiatrique.
Resumo:
L'information génétique, de manière intrinsèque, concerne non seulement un individu, mais également les personnes qui lui sont liées par le sang. Dans l'hypothèse où une personne refusait de communiquer des informations cruciales pour la santé des membres de sa famille, les professionnels de la santé qui détiennent ces renseignements pourraient se retrouver confrontés à un dilemme, soit le choix entre le respect de la confidentialité ou la communication des infonnations pertinentes dans l'intérêt de la famille. Ce mémoire propose une analyse des règles régissant la confidentialité des résultats des tests génétiques en regard des droits des membres de la famille et des obligations des professionnels de la santé. Une analyse comparative entre le droit québécois et français est effectuée. La législation portant sur la confidentialité est essentiellement fondée sur la protection des droits individuels. Des exceptions législatives sont toutefois prévues dans l'intérêt de certains membres de la famille, mais elles s'adressent uniquement à la famille biologique. La notion de famille est ainsi restreinte spécifiquement dans le cadre de la génétique. Le bris de la confidentialité ne semble pas la solution optimale pour résoudre le conflit entre les droits de la personne concernée et ceux de sa famille et n'est d'ailleurs pas envisagé par les systèmes juridiques québécois et français. Les professionnels de la santé doivent alors mettre l'accent sur l'information et le dialogue avec le patient, ce qui est davantage garant de la protection des droits de toutes les personnes en cause.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en Droit option Droit, Biotechnologies et Société"
Resumo:
Problématique : L’arrivée des tests de pharmacogénétique a été annoncée dans les médias et la littérature scientifique telle une révolution, un tournant vers la médecine personnalisée. En réalité, cette révolution se fait toujours attendre. Plusieurs barrières législatives, scientifiques, professionnelles et éthiques sont décrites dans la littérature comme étant la cause du délai de la translation des tests de pharmacogénétique, du laboratoire vers la clinique. Cet optimisme quant à l’arrivée de la pharmacogénétique et ces barrières existent-elles au Québec? Quel est le contexte de translation des tests de pharmacogénétique au Québec? Actuellement, il n’existe aucune donnée sur ces questions. Il est pourtant essentiel de les évaluer. Alors que les attentes et les pressions pour l’intégration rapide de technologies génétiques sont de plus en plus élevées sur le système de santé québécois, l’absence de planification et de mécanisme de translation de ces technologies font craindre une translation et une utilisation inadéquates. Objectifs : Un premier objectif est d’éclairer et d’enrichir sur les conditions d’utilisation et de translation ainsi que sur les enjeux associés aux tests de pharmacogénétique dans le contexte québécois. Un deuxième objectif est de cerner ce qui est véhiculé sur la PGt dans différentes sources, dont les médias. Il ne s’agit pas d’évaluer si la pharmacogénétique devrait être intégrée dans la clinique, mais de mettre en perspective les espoirs véhiculés et la réalité du terrain. Ceci afin d’orienter la réflexion quant au développement de mécanismes de translation efficients et de politiques associées. Méthodologie : L’analyse des discours de plusieurs sources documentaires (n=167) du Québec et du Canada (1990-2005) et d’entretiens avec des experts québécois (n=19) a été effectuée. Quatre thèmes ont été analysés : 1) le positionnement et les perceptions envers la pharmacogénétique; 2) les avantages et les risques reliés à son utilisation; 3) les rôles et les tensions entre professionnels; 4) les barrières et les solutions de translation. Résultats : L’analyse des représentations véhiculées sur la pharmacogénétique dans les sources documentaires se cristallise autour de deux pôles. Les représentations optimistes qui révèlent une fascination envers la médecine personnalisée, créant des attentes (« Génohype ») en regard de l’arrivée de la pharmacogénétique dans la clinique. Les représentations pessimistes qui révèlent un scepticisme (« Génomythe ») envers l’arrivée de la pharmacogénétique et qui semblent imprégnés par l’historique des représentations médiatiques négatives de la génétique. Quant à l’analyse des entretiens, celle-ci a permis de mettre en lumière le contexte actuel du terrain d’accueil. En effet, selon les experts interviewés, ce contexte comporte des déficiences législatives et un dysfonctionnement organisationnel qui font en sorte que l’utilisation des tests de pharmacogénétique est limitée, fragmentée et non standardisée. S’ajoute à ceci, le manque de données probantes et de dialogue entre des acteurs mal ou peu informés, la résistance et la crainte de certains professionnels. Discussion : Plusieurs changements dans la réglementation des systèmes d’innovation ainsi que dans le contexte d’accueil seront nécessaires pour rendre accessibles les tests de pharmacogénétique dans la pratique clinique courante. Des mécanismes facilitateurs de la translation des technologies et des facteurs clés de réussite sont proposés. Enfin, quelques initiatives phares sont suggérées. Conclusion : Des efforts au niveau international, national, provincial et local sont indispensables afin de résoudre les nombreux obstacles de la translation des tests de pharmacogénétique au Québec et ainsi planifier l’avenir le plus efficacement et sûrement possible.
Resumo:
Introduction: Le but de l’étude était d’examiner l’effet des matériaux à empreintes sur la précision et la fiabilité des modèles d’études numériques. Méthodes: Vingt-cinq paires de modèles en plâtre ont été choisies au hasard parmi les dossiers de la clinique d’orthodontie de l’Université de Montréal. Une empreinte en alginate (Kromopan 100), une empreinte en substitut d’alginate (Alginot), et une empreinte en PVS (Aquasil) ont été prises de chaque arcade pour tous les patients. Les empreintes ont été envoyées chez Orthobyte pour la coulée des modèles en plâtre et la numérisation des modèles numériques. Les analyses de Bolton 6 et 12, leurs mesures constituantes, le surplomb vertical (overbite), le surplomb horizontal (overjet) et la longueur d’arcade ont été utilisés pour comparaisons. Résultats : La corrélation entre mesures répétées était de bonne à excellente pour les modèles en plâtre et pour les modèles numériques. La tendance voulait que les mesures répétées sur les modèles en plâtre furent plus fiables. Il existait des différences statistiquement significatives pour l’analyse de Bolton 12, pour la longueur d’arcade mandibulaire, et pour le chevauchement mandibulaire, ce pour tous les matériaux à empreintes. La tendance observée fut que les mesures sur les modèles en plâtre étaient plus petites pour l’analyse de Bolton 12 mais plus grandes pour la longueur d’arcade et pour le chevauchement mandibulaire. Malgré les différences statistiquement significatives trouvées, ces différences n’avaient aucune signification clinique. Conclusions : La précision et la fiabilité du logiciel pour l’analyse complète des modèles numériques sont cliniquement acceptables quand on les compare avec les résultats de l’analyse traditionnelle sur modèles en plâtre.
Resumo:
La scoliose idiopathique (SI) est une déformation tridimensionnelle (3D) de la colonne vertébrale et de la cage thoracique à potentiel évolutif pendant la croissance. Cette déformation 3D entraîne des asymétries de la posture. La correction de la posture est un des objectifs du traitement en physiothérapie chez les jeunes atteints d’une SI afin d’éviter la progression de la scoliose, de réduire les déformations morphologiques et leurs impacts sur la qualité de vie. Les outils cliniques actuels ne permettent pas de quantifier globalement les changements de la posture attribuables à la progression de la scoliose ou à l’efficacité des interventions thérapeutiques. L’objectif de cette thèse consiste donc au développement et à la validation d’un nouvel outil clinique permettant l’analyse quantitative de la posture auprès de personnes atteintes d’une SI. Ce projet vise plus spécifiquement à déterminer la fidélité et la validité des indices de posture (IP) de ce nouvel outil clinique et à vérifier leur capacité à détecter des changements entre les positions debout et assise. Suite à une recension de la littérature, 34 IP représentant l’alignement frontal et sagittal des différents segments corporels ont été sélectionnés. L’outil quantitatif clinique d’évaluation de la posture (outil 2D) construit dans ce projet consiste en un logiciel qui permet de calculer les différents IP (mesures angulaires et linéaires). L’interface graphique de cet outil est conviviale et permet de sélectionner interactivement des marqueurs sur les photographies digitales. Afin de vérifier la fidélité et la validité des IP de cet outil, la posture debout de 70 participants âgés entre 10 et 20 ans atteints d'une SI (angle de Cobb: 15º à 60º) a été évaluée à deux occasions par deux physiothérapeutes. Des marqueurs placés sur plusieurs repères anatomiques, ainsi que des points de référence anatomique (yeux, lobes des oreilles, etc.), ont permis de mesurer les IP 2D en utilisant des photographies. Ces mêmes marqueurs et points de référence ont également servi au calcul d’IP 3D obtenus par des reconstructions du tronc avec un système de topographie de surface. Les angles de Cobb frontaux et sagittaux et le déjettement C7-S1 ont été mesurés sur des radiographies. La théorie de la généralisabilité a été utilisée pour déterminer la fidélité et l’erreur standard de la mesure (ESM) des IP de l’outil 2D. Des coefficients de Pearson ont servi à déterminer la validité concomitante des IP du tronc de l’outil 2D avec les IP 3D et les mesures radiographiques correspondantes. Cinquante participants ont été également évalués en position assise « membres inférieurs allongés » pour l’étude comparative de la posture debout et assise. Des tests de t pour échantillons appariés ont été utilisés pour détecter les différences entre les positions debout et assise. Nos résultats indiquent un bon niveau de fidélité pour la majorité des IP de l’outil 2D. La corrélation entre les IP 2D et 3D est bonne pour les épaules, les omoplates, le déjettement C7-S1, les angles de taille, la scoliose thoracique et le bassin. Elle est faible à modérée pour la cyphose thoracique, la lordose lombaire et la scoliose thoraco-lombaire ou lombaire. La corrélation entre les IP 2D et les mesures radiographiques est bonne pour le déjettement C7-S1, la scoliose et la cyphose thoracique. L’outil est suffisamment discriminant pour détecter des différences entre la posture debout et assise pour dix des treize IP. Certaines recommandations spécifiques résultents de ce projet : la hauteur de la caméra devrait être ajustée en fonction de la taille des personnes; la formation des juges est importante pour maximiser la précision de la pose des marqueurs; et des marqueurs montés sur des tiges devraient faciliter l’évaluation des courbures vertébrales sagittales. En conclusion, l’outil développé dans le cadre de cette thèse possède de bonnes propriétés psychométriques et permet une évaluation globale de la posture. Cet outil devrait contribuer à l’amélioration de la pratique clinique en facilitant l’analyse de la posture debout et assise. Cet outil s’avère une alternative clinique pour suivre l’évolution de la scoliose thoracique et diminuer la fréquence des radiographies au cours du suivi de jeunes atteints d’une SI thoracique. Cet outil pourrait aussi être utile pour vérifier l’efficacité des interventions thérapeutiques sur la posture.
Resumo:
Most panel unit root tests are designed to test the joint null hypothesis of a unit root for each individual series in a panel. After a rejection, it will often be of interest to identify which series can be deemed to be stationary and which series can be deemed nonstationary. Researchers will sometimes carry out this classification on the basis of n individual (univariate) unit root tests based on some ad hoc significance level. In this paper, we demonstrate how to use the false discovery rate (FDR) in evaluating I(1)=I(0) classifications based on individual unit root tests when the size of the cross section (n) and time series (T) dimensions are large. We report results from a simulation experiment and illustrate the methods on two data sets.
Resumo:
Les commotions cérébrales d’origine sportive sont fréquentes chez les athlètes professionnels et semblent l’être tout autant chez les jeunes sportifs. Chez l’adulte, les symptômes se résorbent dans la majorité des cas assez rapidement (7-10 jours), mais la récupération peut s’avérer différente chez les jeunes. Plusieurs études utilisant les potentiels évoqués cognitifs ont découvert des anomalies cérébrales en l’absence de symptômes cliniques observables chez l'adulte. Toutefois, peu de données scientifiques sont disponibles sur les répercussions d’un tel impact sur le cerveau en développement. Le but de l’étude était de déterminer s’il existe une relation entre l’âge de survenue au moment de la commotion et la gravité des déficits. Cette étude transversale a évalué le fonctionnement cognitif de sportifs par des tests neuropsychologiques ainsi que les mécanismes neuronaux de l’orientation de l’attention (P3a) et de mise à jour de l’information en mémoire de travail (P3b) à l’aide de potentiels évoqués cognitifs. Les athlètes étaient répartis selon trois groupes d’âge [9-12 ans (n=32); 13-16 ans (n=34); adultes (n=30)], la moitié ayant subi une commotion dans la dernière année. Les comparaisons entre les groupes ont été effectuées par une série d’ANOVAs. Comparativement au groupe contrôle, les adolescents commotionnés présentaient des déficits de mémoire de travail. Les athlètes commotionnés démontraient une réduction de l’amplitude de la P3b comparativement aux non-commotionnés. Les résultats illustrent la présence de déficits neurophysiologiques persistants et ce, au moins six mois suivant l’impact. Les enfants semblent aussi sensibles que les adultes aux effets délétères d’une commotion cérébrale et les conséquences s’avèrent plus sévères chez l’adolescent.
Resumo:
Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes
Resumo:
Objectif : Déterminer la fiabilité et la précision d’un prototype d’appareil non invasif de mesure de glucose dans le tissu interstitiel, le PGS (Photonic Glucose Sensor), en utilisant des clamps glycémiques multi-étagés. Méthodes : Le PGS a été évalué chez 13 sujets avec diabète de type 1. Deux PGS étaient testés par sujet, un sur chacun des triceps, pour évaluer la sensibilité, la spécificité, la reproductibilité et la précision comparativement à la technique de référence (le Beckman®). Chaque sujet était soumis à un clamp de glucose multi-étagé de 8 heures aux concentrations de 3, 5, 8 et 12 mmol/L, de 2 heures chacun. Résultats : La corrélation entre le PGS et le Beckman® était de 0,70. Pour la détection des hypoglycémies, la sensibilité était de 63,4%, la spécificité de 91,6%, la valeur prédictive positive (VPP) 71,8% et la valeur prédictive négative (VPN) 88,2%. Pour la détection de l’hyperglycémie, la sensibilité était de 64,7% et la spécificité de 92%, la VPP 70,8% et la VPN : 89,7%. La courbe ROC (Receiver Operating Characteristics) démontrait une précision de 0,86 pour l’hypoglycémie et de 0,87 pour l’hyperglycémie. La reproductibilité selon la « Clark Error Grid » était de 88% (A+B). Conclusion : La performance du PGS était comparable, sinon meilleure que les autres appareils sur le marché(Freestyle® Navigator, Medtronic Guardian® RT, Dexcom® STS-7) avec l’avantage qu’il n’y a pas d’aiguille. Il s’agit donc d’un appareil avec beaucoup de potentiel comme outil pour faciliter le monitoring au cours du traitement intensif du diabète. Mot clés : Diabète, diabète de type 1, PGS (Photonic Glucose Sensor), mesure continue de glucose, courbe ROC, « Clark Error Grid».
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal