35 resultados para Proportional
em Université de Montréal, Canada
Resumo:
This paper presents a new model of voter behaviour under methods of proportional representation (PR). We abstract away from rounding, and assume that a party securing k percent of the vote wins exactly k percent of the available seats. Under this assumption PR is not manipulable by any voter aiming at maximisation of the number of seats in the parliament of her most preferred party. However in this paper we assume that voters are concerned, first and foremost, with the distribution of power in the post-election parliament. We show that, irrespective of which positional scoring rule is adopted, there will always exist circumstances where a voter would have an incentive to vote insincerely. We demonstrate that a voter’s attitude toward uncertainty can influence her incentives to make an insincere vote. Finally, we show that the introduction of a threshold - a rule that a party must secure at least a certain percentage of the vote in order to reach parliament - creates new opportunities for strategic voting. We use the model to explain voter behaviour at the most recent New Zealand general election.
Resumo:
This paper studies the proposition that an inflation bias can arise in a setup where a central banker with asymmetric preferences targets the natural unemployment rate. Preferences are asymmetric in the sense that positive unemployment deviations from the natural rate are weighted more (or less) severely than negative deviations in the central banker's loss function. The bias is proportional to the conditional variance of unemployment. The time-series predictions of the model are evaluated using data from G7 countries. Econometric estimates support the prediction that the conditional variance of unemployment and the rate of inflation are positively related.
Resumo:
We survey recent axiomatic results in the theory of cost-sharing. In this litterature, a method computes the individual cost shares assigned to the users of a facility for any profile of demands and any monotonic cost function. We discuss two theories taking radically different views of the asymmetries of the cost function. In the full responsibility theory, each agent is accountable for the part of the costs that can be unambiguously separated and attributed to her own demand. In the partial responsibility theory, the asymmetries of the cost function have no bearing on individual cost shares, only the differences in demand levels matter. We describe several invariance and monotonicity properties that reflect both normative and strategic concerns. We uncover a number of logical trade-offs between our axioms, and derive axiomatic characterizations of a handful of intuitive methods: in the full responsibility approach, the Shapley-Shubik, Aumann-Shapley, and subsidyfree serial methods, and in the partial responsibility approach, the cross-subsidizing serial method and the family of quasi-proportional methods.
Resumo:
Affiliation: Mark Daniel: Département de médecine sociale et préventive, Faculté de médecine, Université de Montréal et Centre de recherche du Centre hospitalier de l'Université de Montréal
Resumo:
We ask how the three known mechanisms for solving cost sharing problems with homogeneous cost functions - the value, the proportional, and the serial mechanisms - should be extended to arbitrary problem. We propose the Ordinality axiom, which requires that cost shares be invariante under all transactions preserving the nature of a cost sharing problem.
Resumo:
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins
Resumo:
Résumé: La Scoliose Idiopathique de l’Adolescent (SIA) est une condition débilitante qui peut avoir comme résultat une douleur importante, une altération du fonctionnement quotidien et une détérioration de la qualité de vie. Pour les patients qui ne répondent pas au traitement conservateur, la fusion vertébrale, en utilisant des greffes osseuses, est devenue un traitement de choix pour stabiliser la colonne. Des connaissances plus pointues à propos des facteurs impliqués dans l’ostéogénèse et la formation de l’os peuvent raccourcir le processus de guérison et permettre aux patients de réintégrer leurs activités dans un laps de temps plus court. Les plaquettes peuvent jouer un rôle important dans la première étape de la guérison des fractures car elles sont une source autologue de plusieurs facteurs de croissance qui soutiennent la prolifération et la différenciation des ostéoblastes in vivo et in vitro. Au cours des dernières années, plusieurs tentatives ont été réalisées afin de trouver des traitements additionnels pour : 1) Raccourcir le temps de guérison des fractures relativement long ; 2) Obtenir une plus courte période de convalescence pour les patients qui ont besoin de prothèses ; 3) Corriger plus facilement plusieurs maladies congénitales; 4) Améliorer le processus de fusion vertébrale et 5) Développer de nouvelles approches thérapeutiques, notamment au niveau des processus régularisant le remodelage osseux et la régénération des tissus osseux. Dans le cadre de la présente étude, j’ai étudié la contribution possible du facteur de croissance de l’insuline (IGF) et du facteur vasculaire endothélial de croissance (VEGF) sur la maturation de l’ostéoblaste scoliotique dans des cultures cellulaires in vitro et j’ai comparé les résultats avec celles obtenues dans les mêmes conditions mais en stimulant les ostéoblastes avec de la mélatonine. Cette étude préliminaire a été réalisée sur des échantillons d’os récoltés de quatre patients atteints par la Scoliose Idiopathique de l‘Adolescent (SIA), ainsi que sur des échantillons d’os issus de quatre sujets témoins (cas traumatiques). Les résultats montrent que l’IGFs et le VEGFs possèdent une action d’inhibition sur la prolifération d’ostéoblastes scoliotiques et non scoliotiques, et que cette action est proportionnelle à la concentration de ces facteurs. Les ostéoblastes scoliotiques tendent à avoir une prolifération cellulaire plus rapide et plus élevée que les témoins non scoliotiques. De façon générale les ostéoblastes provenant de patients scoliotiques ont une ostéogénèse in vitro plus accélérée que le sujet non scoliotique. De plus, il semble que la mélatonine joue un rôle physiologique dans la différenciation de l’ostéoblaste scoliotique et elle semble aider à avoir une différenciation plus précoce que chez les non traités. Les ostéoblastes scoliotiques expriment un défaut d’expression de l’IGF 1 et d’IGF 1R en présence de la mélatonine. En conclusion, le VEGF A et l’IGF 1 peuvent également promouvoir la différenciation et la prolifération des ostéoblastes humains scoliotiques en culture primaire.
Resumo:
Cette étude vise à estimer l’apport en glutamine (Gln) alimentaire chez des athlètes soumis à un protocole de supplémentation en glutamine ainsi qu’à clarifier les informations diffusées au grand public en ce qui concerne les sources alimentaires de glutamine. Des études cliniques ont démontré que la supplémentation en glutamine pouvait réduire la morbidité et la mortalité chez des sujets en phase critique (grands brulés, chirurgie…). Le mécanisme en cause semble impliquer le système immunitaire. Cependant, les études chez les sportifs, dont le système immunitaire a de fortes chances d’être affaibli lors de périodes d’entraînement prolongées impliquant des efforts longs et intenses, n’ont pas été concluantes. Or, ces études négligent systématiquement l’apport alimentaire en glutamine, si bien qu’il est probable que les résultats contradictoires observés puissent en partie être expliqués par les choix alimentaires des sujets. Puisque la méthode conventionnelle de dosage des acides aminés dans les protéines alimentaires transforme la glutamine en glutamate, les tables de composition des aliments présentent la glutamine et le glutamate ensemble sous la dénomination « glutamate » ou « Glu », ce qui a comme conséquence de créer de l’ambiguïté. La dénomination « Glx » devrait être utilisée. Partant de la probabilité qu’un apport en Glx élevé soit un bon indicateur de l’apport en glutamine, nous avons créé un calculateur de Glx et avons évalué l’alimentation de 12 athlètes faisant partie d’une étude de supplémentation en glutamine. Nous avons alors constaté que l’apport en Glx était directement proportionnel à l’apport en protéines, avec 20,64 % ± 1,13 % de l’apport protéique sous forme de Glx. Grâce à quelques données sur la séquence primaire des acides aminés, nous avons pu constater que le rapport Gln/Glx pouvait être très variable d’un type de protéine à l’autre. Alors que le ratio molaire Gln/Glx est de ~95 % pour les α et β-gliadines, il n’est que de ~43 % pour la caséine, de ~36 % pour la β-lactoglobuline, de ~31 % pour l’ovalbumine et de ~28 % pour l’actine. Il est donc possible que certaines protéines puissent présenter des avantages par rapport à d’autres, à quantité égale de Glx.
Resumo:
La phagocytose est un processus par lequel des cellules spécialisées du système immunitaire comme les macrophages ingèrent des microorganismes envahisseurs afin de les détruire. Les microbes phagocytés se retrouvent dans un compartiment intracellulaire nommé le phagosome, qui acquiert graduellement de nombreuses molécules lui permettant de se transformer en phagolysosome possédant la capacité de tuer et dégrader son contenu. L’utilisation de la protéomique a permis de mettre en évidence la présence de microdomaines (aussi nommés radeaux lipidiques ou radeaux membranaires) sur les phagosomes des macrophages. Notre équipe a démontré que ces radeaux exercent des fonctions cruciales au niveau de la membrane du phagosome. D’abord nous avons observé que la survie du parasite intracellulaire L. donovani est possible dans un phagosome dépourvu de radeaux lipidiques. Parallèlement nous avons constaté qu’un mutant de L. donovani n’exprimant pas de LPG à sa surface(LPG-) est rapidement tué dans un phagosome arborant des radeaux membranaires. Pour comprendre le mécanisme de perturbation des microdomaines du phagosome par la molécule LPG, nous avons provoqué la phagocytose de mutants LPG- du parasite et comparé par microscopie les différences avec le parasite de type sauvage. Nous avons ainsi démontré que le LPG de L. donovani est nécessaire et suffisant au parasite pour empêcher la maturation normale du phagosome. Nous avons également découvert que la molécule LPG permet d’empêcher la formation des radeaux lipidiques sur le phagosome et peut aussi désorganiser les radeaux lipidiques préexistants. Enfin, nous avons montré que l’action de LPG est proportionnelle au nombre d’unités répétitives de sucres (Gal(β1,4)-Manα1-PO4) qui composent cette molécule. Nos travaux ont démontré pour la première fois le rôle important de ces sous-domaines membranaires dans la maturation du phagosome. De plus, nos conclusions seront des pistes à suivre au cours des études cliniques ayant pour but d’enrayer la leishmaniose. Le second objectif de ce travail consistait à effectuer la caractérisation des radeaux lipidiques par une analyse protéomique et lipidomique à l’aide de la spectrométrie de masse. Nous avons ainsi entrepris l’identification systématique des protéines présentes dans les radeaux membranaires des phagosomes et ce, à trois moments clés de leurmaturation. Le traitement des phagosomes purifiés avec un détergent nous a permis d’isoler les «Detergent Resistent Membranes» (DRMs) des phagosomes, qui sont l’équivalent biochimique des radeaux membranaires. Nous avons ainsi établi une liste de 921 protéines associées au phagosome, dont 352 sont présentes dans les DRMs. Les protéines du phagosome sont partagées presque également entre trois tendances cinétiques (augmentation, diminution et présence transitoire). Cependant, une analyse plus spécifique des protéines des DRMs démontre qu’une majorité d’entre elles augmentent en fonction de la maturation. Cette observation ainsi que certains de nos résultats montrent que les radeaux lipidiques des phagosomes précoces sont soit très peu nombreux, soit pauvres en protéines, et qu’ils sont recrutés au cours de la maturation du phagosome. Nous avons aussi analysé les phospholipides du phagosome et constaté que la proportion entre chaque classe varie lors de la maturation. De plus, en regardant spécifiquement les différentes espèces de phospholipides nous avons constaté que ce ne sont pas uniquement les espèces majoritaires de la cellule qui dominent la composition de la membrane du phagosome. L’ensemble de nos résultats a permis de mettre en évidence plusieurs fonctions potentielles des radeaux lipidiques, lesquelles sont essentielles à la biogenèse des phagolysosomes (signalisation, fusion membranaire, action microbicide, transport transmembranaire, remodelage de l’actine). De plus, la cinétique d’acquisition des protéines de radeaux lipidiques indique que ceux-ci exerceraient leurs fonctions principalement au niveau des phagosomes ayant atteint un certain niveau de maturation. L’augmentation du nombre de protéines des radeaux membranaires qui s’effectue durant la maturation du phagosome s’accompagne d’une modulation des phospholipides, ce qui laisse penser que les radeaux membranaires se forment graduellement sur le phagosome et que ce ne sont pas seulement les protéines qui sont importées.
Resumo:
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.
Resumo:
Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus élevé en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.
Resumo:
La grossesse induit de profonds changements hémodynamiques et métaboliques de l’organisme maternel qui ont des conséquences sur le cœur. L’adaptation du cœur à cette condition physiologique nécessite un remodelage de sa structure et par conséquent des ajustements de sa fonction. Les mécanismes responsables de ces adaptations sont en grande partie inconnus. Cependant, ces connaissances sont essentielles pour la compréhension des complications cardiovasculaires, telle que l’hypertension gestationnelle (HG), qui constituent un risque pour la santé de la mère et du fœtus. Afin de caractériser les adaptations du cœur lors de la grossesse, l’originalité de notre approche expérimentale consistait à étudier le remodelage à l’échelle des cardiomyocytes du ventricule gauche. Ainsi, notre premier objectif était de déterminer les modifications structurales et fonctionnelles des cardiomyocytes chez la rate en vue d’identifier les altérations lors de l’HG. Chez les rates gestantes, le remodelage structural des cardiomyocytes se caractérise par une hypertrophie cellulaire avec une augmentation proportionnelle des dimensions. L’HG a été induite par un supplément sodique (0.9% NaCl) dans la diète. L’inadaptation structurale lors de l’HG se traduit par une diminution du volume cellulaire. L’étude des modifications fonctionnelles a révélé que lors de la gestation le fonctionnement contractile des cellules est dépendant de l’adaptation du métabolisme maternel. En effet, les substrats énergétiques, lactate et pyruvate, induisent une augmentation de la contractilité des cardiomyocytes. Cet effet est plus faible dans les cellules des rates hypertendues, ce qui suggère des anomalies du couplage excitation-contraction, dans lequel les courants calciques de type L (ICa-L) jouent un rôle important. Paradoxalement, le lactate et le pyruvate ont induit une augmentation de la densité des courants ICa-L seulement chez les rates hypertendues. Le récepteur aux minéralocorticoïdes (RM) est connu pour son implication dans le remodelage structuro-fonctionnel du cœur dans les conditions pathologiques mais pas dans celui induit par la grossesse. Notre deuxième objectif était donc de déterminer le rôle du RM dans l’adaptation de la morphologie et de la contractilité des cardiomyocytes. Des rates gestantes ont été traitées avec le canrénoate de potassium (20 mg/kg/jr), un antagoniste des RM. L’inhibition des RM pendant la gestation empêche l’hypertrophie cellulaire. De plus, l’inhibition des RM bloque l’effet du lactate et du pyruvate sur la contractilité. Chez la femme, la grossesse est associée à des changements des propriétés électriques du cœur. Sur l’électrocardiogramme, l’intervalle QTc est plus long, témoignant de la prolongation de la repolarisation. Les mécanismes régulant cette adaptation restent encore inconnus. Ainsi, notre troisième objectif était de déterminer le rôle du RM dans l’adaptation de la repolarisation. Chez la rate gestante, l’intervalle QTc est prolongé ce qui est corroboré par la diminution des courants potassiques Ito et IK1. L’inhibition des RM pendant la gestation empêche la prolongation de l’intervalle QTc et la diminution des courants Ito. Les travaux exposés dans cette thèse apportent une vision plus précise du remodelage cardiaque induit par la grossesse, qui est permise par l’étude à l’échelle cellulaire. Nos résultats montrent que lors de la gestation et de l’HG les cardiomyocytes subissent des remodelages morphologiques contrastés. Notre étude a aussi révélé que lors de la gestation, la fonction contractile est tributaire des adaptations métaboliques et que cette relation est altérée lors de l’HG. Nos travaux montrent que la régulation de ces adaptations gestationnelles fait intervenir le RM au niveau de la morphologie, de la relation métabolisme/fonctionnement contractile et de la repolarisation. En faisant avancer les connaissances sur l’hypertrophie de la grossesse, ces travaux vont permettre d’améliorer la compréhension des complications cardiovasculaires gestationnelles.
Resumo:
Introduction: La démence peut être causée par la maladie d’Alzheimer (MA), la maladie cérébrovasculaire (MCEREV), ou une combinaison des deux. Lorsque la maladie cérébrovasculaire est associée à la démence, les chances de survie sont considérées réduites. Il reste à démontrer si le traitement avec des inhibiteurs de la cholinestérase (ChEIs), qui améliore les symptômes cognitifs et la fonction globale chez les patients atteints de la MA, agit aussi sur les formes vasculaires de démence. Objectifs: La présente étude a été conçue pour déterminer si la coexistence d’une MCEREV était associée avec les chances de survie ou la durée de la période jusqu’au placement en hebergement chez les patients atteints de la MA et traités avec des ChEIs. Des études montrant de moins bons résultats chez les patients souffrant de MCEREV que chez ceux n’en souffrant pas pourrait militer contre l’utilisation des ChEIs chez les patients atteints à la fois de la MA et la MCEREV. L'objectif d'une seconde analyse était d'évaluer pour la première fois chez les patients atteints de la MA l'impact potentiel du biais de « temps-immortel » (et de suivi) sur ces résultats (mort ou placement en hebergement). Méthodes: Une étude de cohorte rétrospective a été conduite en utilisant les bases de données de la Régie de l’Assurance Maladie du Québec (RAMQ) pour examiner la durée de la période jusqu’au placement en hebergement ou jusqu’au v décès des patients atteints de la MA, âgés de 66 ans et plus, avec ou sans MCEREV, et traités avec des ChEIs entre le 1er Juillet 2000 et le 30 Juin 2003. Puisque les ChEIs sont uniquement indiquées pour la MA au Canada, chaque prescription de ChEIs a été considérée comme un diagnostic de la MA. La MCEREV concomitante a été identifié sur la base d'un diagnostic à vie d’un accident vasculaire cérébral (AVC) ou d’une endartériectomie, ou d’un diagnostic d'un accident ischémique transitoire au cours des six mois précédant la date d’entrée. Des analyses séparées ont été conduites pour les patients utilisant les ChEIs de façon persistante et pour ceux ayant interrompu la thérapie. Sept modèles de régression à risque proportionnel de Cox qui ont varié par rapport à la définition de la date d’entrée (début du suivi) et à la durée du suivi ont été utilisés pour évaluer l'impact du biais de temps-immortel. Résultats: 4,428 patients ont répondu aux critères d’inclusion pour la MA avec MCEREV; le groupe de patients souffrant seulement de la MA comptait 13,512 individus. Pour le critère d’évaluation composite considérant la durée de la période jusqu’au placement en hebergement ou jusqu’au décès, les taux de survie à 1,000 jours étaient plus faibles parmi les patients atteints de la MA avec MCEREV que parmi ceux atteints seulement de la MA (p<0.01), mais les différences absolues étaient très faibles (84% vs. 86% pour l’utilisation continue de ChEIs ; 77% vs. 78% pour la thérapie avec ChEIs interrompue). Pour les critères d’évaluation secondaires, la période jusqu’au décès était plus courte chez les patients avec la MCEREV que sans la MCEREV, mais la période jusqu’au vi placement en hebergement n’était pas différente entre les deux groupes. Dans l'analyse primaire (non-biaisée), aucune association a été trouvée entre le type de ChEI et la mort ou le placement en maison d'hébergement. Cependant, après l'introduction du biais de temps-immortel, on a observé un fort effet différentiel. Limitations: Les résultats peuvent avoir été affectés par le biais de sélection (classification impropre), par les différences entre les groupes en termes de consommation de tabac et d’indice de masse corporelle (ces informations n’étaient pas disponibles dans les bases de données de la RAMQ) et de durée de la thérapie avec les ChEIs. Conclusions: Les associations entre la coexistence d’une MCEREV et la durée de la période jusqu’au placement en hebergement ou au décès apparaissent peu pertinentes cliniquement parmi les patients atteints de la MA traités avec des ChEIs. L’absence de différence entre les patients atteints de la MA souffrant ou non de la MCEREV suggère que la coexistence d’une MCEREV ne devrait pas être une raison de refuser aux patients atteints de la MA l’accès au traitement avec des ChEIs. Le calcul des « personne-temps » non exposés dans l'analyse élimine les estimations biaisées de l'efficacité des médicaments.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie
Resumo:
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.