95 resultados para Philidor, F. D. (François Danican), 1726-1795.


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au ©veloppement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et ©finis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la mo©lisation du cours naturel de la schizophrénie; 2) ©velopper et valider un mo¨le de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du ©veloppement €™un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été ©finis : le premier épisode (FE), l'état de ©pendance faible (LDS), l’état de ©pendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de ©cès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et vali© un mo¨le de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le mo¨le, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le mo¨le de Markov ©veloppé précédemment. Ce mo¨le inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront consi©rés guéris, 13% seront dans un état stable et 3,4% seront ©cé©s. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le mo¨le de Markov que nous avons ©veloppé est le premier mo¨le canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le mo¨le montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En Amérique du Nord, la lutte contre la traite d'êtres humains s'avère d'une grande complexité. Les États doivent ©velopper les stratégies nécessaires pour faire face aux multiples manifestations qui accompagnent le phénomène et exigent une approche holistique, interdisciplinaire et à long terme. Les stratégies nord-américaines de prévention de la traite comportent plusieurs lacunes qui vulnérabilisent certains groupes. Tandis que les mesures ©jà en place s'attaquent peu aux causes premières du phénomène, plusieurs réformes essentielles afin de diminuer la vulnérabilité de ces personnes, notamment l'assouplissement des politiques migratoires restrictives, tardent à être implantées. Parallèlement, les stratégies de protection présentent des lacunes qui augmentent les risques de revictimisation des victimes de traite d'êtres humains. D'une part, les autorités n'identifient pas a©quatement toutes les victimes. D'autre part, certaines victimes, bien qu'identifiées, se retrouvent sans protection, soit parce que celle-ci est accor©e de façon conditionnelle, soit parce que les mécanismes d'assistance demeurent incomplets.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pour respecter les droits d'auteur, la version électronique de ce mémoire a été ©pouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été ©posée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de mo©liser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant a©quatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à consi©rer les séries chronologiques d'écoulements d'eau comme des fonctions à mo©liser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la mo©lisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de mo©lisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui ©finissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de mo©lisation, nous consi©rons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de mo©liser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour mo©liser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de ©terminer les distributions les plus a©quates pour un échantillon de courbes donné.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objet de ce mémoire est de s’interroger sur la co-construction et la négociation de l’identité organisationnelle par la parole dans les interactions quotidiennes. Cette étude a été menée sur une organisation du monde de l’humanitaire, Médecins Sans Frontières (MSF) et plus précisément sur une mission réalisée dans la région du Nord- Kivu en République ©mocratique du Congo. Les données ont été collectées en employant la méthode du vi©o shadowing, encore appelée vi©o filature, une approche consistant à suivre et filmer des acteurs dans leurs interactions du quotidien, et particulièrement, dans notre cas, le chef de mission. La méthodologie utilisée pour analyser les enregistrements vi©o a, par la suite, été inspirée de l’analyse de conversation et de l’ethnométhodologie. Les concepts phares sur lesquels se base cette recherche sont la « ventriloquie » et la « présentification », deux concepts en communication organisationnelle ©veloppés par François Cooren de l’École de Montréal. Plus précisément, nous nous sommes attachés à montrer comment les acteurs de MSF cultivent l’identité et l’image de leur organisation à travers des « conversations identitaires». Nous avons ainsi pu observer et analyser comment les acteurs de l’organisation agissent par le biais de la parole pour construire et établir l’identité de leur organisation, et à travers cela, leur propre identité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte: la survenue €™IRA chez les patients ayant subi un traumatisme est une problématique qui a été peu étudiée jusqu’à ce jour. La présence de cette atteinte rénale a été ©montrée comme étant associée à un risque accru de morbidités et de mortalité chez les sujets atteints. Objectifs: identifier les facteurs prédictifs €™insuffisance rénale ou plus récemment appelée atteinte rénale dans cette population particulière et tenter de trouver des facteurs qui peuvent être mesurés dans les premières heures de la prise en charge du patient. Aussi, nous avons cherché à savoir si l’injection de produit de contraste est associée à un risque accru €™insuffisance rénale aiguë dans cette population. Méthodes et résultats: la recherche a eu lieu à l’Hôpital du Sacré-Coeur de Montréal, un centre de traumatologie tertiaire en milieu urbain. Nous avons utilisé le registre des patients hospitalisés en traumatologie dans notre centre hospitalier entre 2002 et mars 2007 de même que les banques de données de laboratoire et de radiologie pour obtenir les données sur la créatinine et les examens avec produits de contraste. Finalement, une revue de dossiers structurée fut conduite pour recueillir le reste de l’information requise. L’incidence €™IRA dans la population étudiée est estimée à environ 5 %. Une analyse cas témoins fut conduite pour identifier les facteurs prédictifs €™IRA. Quarante-neuf cas €™IRA diagnostiqués par le médecin traitant et 101 témoins sélectionnés au hasard ont été analysés. Les facteurs prédictifs suivants ont été identifiés à l’analyse univariée : la première valeur de créatinine obtenue (p<0,001), l’instabilité hémodynamique (p<0,001), les antécédents €™insuffisance rénale chronique tels que notés dans le dossier par le médecin traitant (p=0,009), une maladie cardiaque (p=0,007), une chirurgie dans les 48 premières heures suivant le traumatisme (p=0,053), le niveau de gravité du traumatisme (Injury Severity Score) (p=0,046) et l’injection de produit de contraste au cours des 48 heures suivant le trauma (p=0,077). Parmi ces facteurs, deux ont été identifiés comme prédicteurs in©pendants €™IRA à l’analyse multivariée. Une des valeurs était la première valeur de créatinine obtenue RC = 6,17 (p<0,001, IC95 % 2,81 – 13,53) pour chaque augmentation de 0.5mg/dL de créatinine. L’autre facteur était la présence €™instabilité hémodynamique RC 11,61 (p<0,001, IC95 % 3,71 – 36,29). Conclusion: des informations obtenues tôt dans la prise en charge du patient permettent de prédire le risque €™IRA chez ces patients. L’administration de contraste (intraveineuse ou intra-artérielle) ne s’est pas avérée un facteur in©pendant de prédiction €™insuffisance rénale aiguë dans cette population dans le mo¨le multivarié.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La production littéraire de Claude Mathieu, s’étalant de 1957 à 1965, tranche avec les oeuvres de ses contemporains. Le plus souvent, ces derniers ©fendent un nationalisme moderne et mettent à l’avant-plan le territoire et la société québécoise. De son côté, Mathieu aborde des thèmes plus généraux, par exemple le temps, l’art ou l’érotisme, qui trahissent ses sources €™inspiration issues de la littérature française et des littératures étrangères. Cet aspect est plutôt inusité chez les écrivains québécois de la ©cennie 1960. Dans cette analyse intertextuelle, nous cherchons à montrer la singularité de l’écriture de Claude Mathieu. Nous exposons ses principales sources et influences littéraires afin de comprendre comment il s’en inspire et comment elles orientent sa poétique où domine le fantastique teintée €™images surréalistes. L’analyse est constituée de deux chapitres. Le premier est consacré au recueil Vingt petits écrits ou le mirliton rococo. Les textes étudiés sont regroupés en trois sections, selon l’époque des ré©rences qui les appuient, soit les littératures hellénique, classique et moderne. Le second chapitre traite de La mort exquise, l’oeuvre la plus importante de Claude Mathieu. En analysant les principaux textes de ce recueil, nous montrons comment l’influence €™André Pieyre de Mandiargues et de Jorge Luis Borges s’impose face à la multitude de ré©rences diverses convoquées dans le premier recueil de nouvelles de Mathieu. Nous montrons également comment ces influences sont absorbées et transformées pour créer une écriture originale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la ©cision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de mo¨les à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels mo¨les. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le ©bruitement €™images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du mo¨le s’interinfluencent. Nous présentons deux familles €™architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type €™expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène €™influence ©crit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle ©veloppée, plus incertaine au ©part, permet malgré tout €™obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Rapport de recherche présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télé©tection de l’Université de Montréal dans le but de ©velopper une application ©diée à la ©tection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement ©veloppé pour la mise à jour cartographique à partir €™images satellitales de résolution €™environ 5 mètres. Le produit ©rivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de ©tection des routes repose sur le balayage €™un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution €™une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation €™Ã©tiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est €™Ã©valuer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales ©tectées en conformité avec la ré©rence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible €™abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La ©marche globale implique €™abord la caractérisation €™un site €™essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis €™Ã©tablir des données de ré©rence issues €™une ©tection visuelle à laquelle sont confrontés les résultats de ©tection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation €™histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de ©tection de pratiquement 15% sur les distances totales en concordance avec la ré©rence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La ©tection des routes existantes en conformité avec la ré©rence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements €™images. Des problèmes chroniques de ©tection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses ©tections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des ©tections que l’assignation du statut intact devrait atteindre 90% de conformité avec la ré©rence après divers ajustements à l’algorithme. La ©tection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement €™image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de ©but de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses ©tections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses ©tections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal