22 resultados para GLAUCOMA PROBABILITY SCORE
em Université de Montréal, Canada
Flippable Pairs and Subset Comparisons in Comparative Probability Orderings and Related Simple Games
Resumo:
We show that every additively representable comparative probability order on n atoms is determined by at least n - 1 binary subset comparisons. We show that there are many orders of this kind, not just the lexicographic order. These results provide answers to two questions of Fishburn et al (2002). We also study the flip relation on the class of all comparative probability orders introduced by Maclagan. We generalise an important theorem of Fishburn, Peke?c and Reeds, by showing that in any minimal set of comparisons that determine a comparative probability order, all comparisons are flippable. By calculating the characteristics of the flip relation for n = 6 we discover that the regions in the corresponding hyperplane arrangement can have no more than 13 faces and that there are 20 regions with 13 faces. All the neighbours of the 20 comparative probability orders which correspond to those regions are representable. Finally we define a class of simple games with complete desirability relation for which its strong desirability relation is acyclic, and show that the flip relation carries all the information about these games. We show that for n = 6 these games are weighted majority games.
Resumo:
La transplantation hépatique est le seul traitement définitif des enfants ayant une hépatite fulminante sans résolution spontanée. L’évolution de cette maladie dans la population pédiatrique diffère de celle adulte, particulièrement en regard de l’encéphalopathie. Pour définir les indications de transplantation hépatique, plusieurs indicateurs précoces de pronostic furent étudiés chez les adultes. Ces indicateurs n’ont pu être transposés à la population pédiatrique. Objectif primaire : Déterminer les marqueurs de risque de mortalité des enfants recevant une transplantation hépatique pour une hépatite fulminante, se définissant par une insuffisance hépatique sévère sans antécédent au cours des huit semaines précédentes. Méthode : Il s’agit d’une étude rétrospective incluant tous les enfants ayant reçu une transplantation hépatique pour une hépatite fulminante à l’hôpital Sainte-Justine entre 1985 et 2005. Le score PELOD (Pediatric Logistic Organ Dysfunction) est une mesure de sévérité clinique d’un enfant aux soins intensifs. Il fut calculé à l’admission et avant la transplantation hépatique. Résultats : Quatorze enfants (cinq mois à seize ans) reçurent une transplantation hépatique pour une hépatite fulminante. Neuf enfants (64%) survécurent et cinq (36%) décédèrent. L’utilisation de la ventilation mécanique fut associée à un mauvais pronostic (p = 0,027). Entre l’admission et la transplantation hépatique, 88% des enfants ayant eu une variation du score PELOD inférieure à cinq survécurent. Tous ceux ayant eu une variation supérieure à cinq décédèrent. (p = 0,027) Conclusion : La variation du score PELOD pourrait aider à définir un indicateur précoce de l’évolution d’un enfant après une transplantation hépatique pour une hépatite fulminante.
Resumo:
[Support Institutions:] Department of Administration of Health, University of Montreal, Canada Public Health School of Fudan University, Shanghai, China
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Le glaucome est la deuxième cause de cécité irréversible dans le monde. La perte de vision qui se produit lors du glaucome s’explique par une dégénérescence du nerf optique et une mort progressive et sélective des cellules ganglionnaires de la rétine (CRG). L'hypertension oculaire est un facteur de risque majeur dans le glaucome, mais des défauts du champ visuel continuent à se développer chez un contingent de patients malgré l'administration de médicaments qui abaissent la pression intraoculaire (PIO). Par conséquent, bien que la PIO représente le seul facteur de risque modifiable dans le développement du glaucome, son contrôle ne suffit pas à protéger les CRGs et préserver la fonction visuelle chez de nombreux patients. Dans ce contexte, j'ai avancé l'hypothèse centrale voulant que les stratégies de traitement du glaucome visant à promouvoir la protection structurale et fonctionnelle des CRGs doivent agir sur les mécanismes moléculaires qui conduisent à la mort des ces neurones. Dans la première partie de ma thèse, j'ai caractérisé l'effet neuroprotecteur de la galantamine, un inhibiteur de l'acétylcholinestérase qui est utilisé cliniquement dans le traitement de la maladie d'Alzheimer. Cette étude s’est basée sur l'hypothèse que la galantamine, en modulant l'activité du récepteur de l'acétylcholine, puisse améliorer la survie des CRGs lors du glaucome. Nous avons utilisé un modèle expérimental bien caractérisé d'hypertension oculaire induite par l’administration d'une solution saline hypertonique dans une veine épisclérale de rats Brown Norway. Les résultats de cette étude (Almasieh et al. Cell Death and Disease, 2010) ont démontré que l'administration quotidienne de galantamine améliore de manière significative la survie des corps cellulaires et des axones CRGs. La protection structurelle des CRGs s’accompagne d’une préservation remarquable de la fonction visuelle, évaluée par l'enregistrement des potentiels évoqués visuels (PEV) dans le collicule supérieur, la cible principale des CRGs chez le rongeur. Une autre constatation intéressante de cette étude est la perte substantielle de capillaires rétiniens et la réduction du débit sanguin associé à la perte des CRGs dans le glaucome expérimental. Il est très intéressant que la galantamine ait également favorisé la protection de la microvascularisation et amélioré le débit sanguin rétinien des animaux glaucomateux (Almasieh et al. en préparation). J'ai notamment démontré que les neuro-et vasoprotections médiées par la galantamine se produisent par iv l'activation des récepteurs muscariniques de l'acétylcholine. Dans la deuxième partie de ma thèse, j'ai étudié le rôle du stress oxydatif ainsi que l'utilisation de composés réducteurs pour tester l'hypothèse que le blocage d'une augmentation de superoxyde puisse retarder la mort des CRG lors du glaucome expérimental. J'ai profité d'un composé novateur, un antioxydant à base de phosphineborane (PB1), pour tester sur son effet neuroprotecteur et examiner son mécanisme d'action dans le glaucome expérimental. Les données démontrent que l'administration intraoculaire de PB1 entraîne une protection significative des corps cellulaire et axones des CRGs. Les voies moléculaires conduisant à la survie neuronale médiée par PB1 ont été explorées en déterminant la cascade de signalisation apoptotique en cause. Les résultats démontrent que la survie des CRGs médiée par PB1 ne dépend pas d’une inhibition de signalisation de protéines kinases activées par le stress, y compris ASK1, JNK ou p38. Par contre, PB1 induit une augmentation marquée des niveaux rétiniens de BDNF et une activation en aval de la voie de survie des ERK1 / 2 (Almasieh et al. Journal of Neurochemistry, 2011). En conclusion, les résultats présentés dans cette thèse contribuent à une meilleure compréhension des mécanismes pathologiques qui conduisent à la perte de CRGs dans le glaucome et pourraient fournir des pistes pour la conception de nouvelles stratégies neuroprotectrices et vasoprotectrices pour le traitement et la gestion de cette maladie.
Resumo:
Cette présentation examinera le degré de certitude qui peut être atteint dans le domaine scientifique. Le paradigme scientifique est composé de deux extrêmes; causalité et déterminisme d'un côté et probabilité et indéterminisme de l'autre. En faisant appel aux notions de Hume de la ressemblance et la contiguïté, on peut rejeter la causalité ou le hasard objectif comme étant sans fondement et non empirique. Le problème de l'induction et le sophisme du parieur proviennent d’une même source cognitif / heuristique. Hume décrit ces tendances mentales dans ses essais « Of Probability » et « Of the Idea of Necessary Connexion ». Une discussion sur la conception de la probabilité de Hume ainsi que d'autres interprétations de probabilité sera nécessaire. Même si la science glorifie et idéalise la causalité, la probabilité peut être comprise comme étant tout aussi cohérente. Une attitude probabiliste, même si elle est également non empirique, pourrait être plus avantageuse que le vieux paradigme de la causalité.
Resumo:
Le stress oxydatif et la formation des radicaux libres sont impliqués dans plusieurs mécanismes de la mort neuronale qui caractérisent la maladie d'Alzheimer. Les antioxydants sont reconnus comme une source de protection contre le stress oxydatif et peuvent avoir un effet protecteur sur le développement de la maladie d’Alzheimer. Cette étude visait à évaluer le potentiel antioxydant, par le biais du score « oxygen radical absorbance capacity » (ORAC), de l’alimentation habituelle de personnes âgées atteintes de la maladie d’Alzheimer en comparaison avec des témoins appariés pour l’âge sans problèmes cognitifs. L’hypothèse stipulait que les patients atteints de la maladie d’Alzheimer ont une alimentation dont le potentiel antioxydant est inférieur à celui des témoins sans problèmes cognitifs. L’étude a consisté en des analyses secondaires de données provenant de l’étude « Nutrition-Mémoire » (NMS), durant laquelle quarante-deux patients avec une démence du type Alzheimer (DTA) probable et leurs aidants étaient suivis pendant une période de dix-huit mois. Pour la présente étude, les données provenaient de trois jours de collecte alimentaire, ont été colligées au début (T0) de l’étude NMS, selon la méthode « Multiple-Pass ». Le potentiel antioxydant de l’alimentation a été déterminé à l’aide de la description des aliments énumérés dans la base de données des valeurs ORAC de l’USDA. Les résultats de l’étude ont montré que les patients avaient une alimentation dont le potentiel antioxydant était inférieur à celui des témoins (13784,07 ± 7372,70 μmol TE/100g contre 23220,54 ± 10862,55 μmol TE/100g, patients et témoins, respectivement; p<0,0001). Les analyses de régression hiérarchique pas à pas montraient que l’IMC, l’éducation, et le groupe (patients, témoins) étaient des facteurs influençant le score ORAC total. La consommation des aliments riches en antioxydants est un comportement préventif à faible risque qui pourrait bénéficier des individus susceptibles de développer la maladie d'Alzheimer.
Resumo:
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.
Resumo:
La surveillance de l’influenza s’appuie sur un large spectre de données, dont les données de surveillance syndromique provenant des salles d’urgences. De plus en plus de variables sont enregistrées dans les dossiers électroniques des urgences et mises à la disposition des équipes de surveillance. L’objectif principal de ce mémoire est d’évaluer l’utilité potentielle de l’âge, de la catégorie de triage et de l’orientation au départ de l’urgence pour améliorer la surveillance de la morbidité liée aux cas sévères d’influenza. Les données d’un sous-ensemble des hôpitaux de Montréal ont été utilisées, d’avril 2006 à janvier 2011. Les hospitalisations avec diagnostic de pneumonie ou influenza ont été utilisées comme mesure de la morbidité liée aux cas sévères d’influenza, et ont été modélisées par régression binomiale négative, en tenant compte des tendances séculaires et saisonnières. En comparaison avec les visites avec syndrome d’allure grippale (SAG) totales, les visites avec SAG stratifiées par âge, par catégorie de triage et par orientation de départ ont amélioré le modèle prédictif des hospitalisations avec pneumonie ou influenza. Avant d’intégrer ces variables dans le système de surveillance de Montréal, des étapes additionnelles sont suggérées, incluant l’optimisation de la définition du syndrome d’allure grippale à utiliser, la confirmation de la valeur de ces prédicteurs avec de nouvelles données et l’évaluation de leur utilité pratique.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique