91 resultados para données de panels
Resumo:
"Mémoire présenté à la faculté des études supérieures en vue de l'obtention du grade de maître en droit (LL.M.)"
Resumo:
L'évolution des soins médicaux auprès de la population ayant une lésion médullaire (LM) s'est traduite par une amélioration du profil fonctionnel des personnes atteintes. Ainsi une proportion importante retrouve une capacité à se tenir debout et à marcher qu'il convient d'évaluer adéquatement. Si quelques outils spécifiques à la population lésée médullaire existent pour évaluer leur ambulation, aucune évaluation de l'équilibre debout n'a été validée auprès de cette clientèle. L'échelle de Berg est un outil recommandé auprès de diverses populations, entre autres celles possédant des pathologies d'origine neurologique; et le score obtenu semble lié au niveau d'autonomie à la marche ainsi qu'aux aides techniques utilisées. L'objectif de ce projet de recherche était donc d'établir la validité concomitante de l'échelle de Berg auprès de la population LM et d'explorer les liens entre le score Berg et l'aide technique utilisée. Pour ce faire, trente-deux sujets BM ASIA D ont été recrutés parmi la clientèle hospitalisée de l'Institut de réadaptation Gingras-Lindsay de Montréal. L'évaluation de l'équilibre debout a été réalisée à l'aide de l'échelle de Berg ainsi que des tests statiques, dynamiques et des limites de stabilité du Balance Master. Le Walking Index for Spinal Cord Injury (WISCI), le Spinal Cord Injury Functional Ambulation Inventory (SCI-FAI), la vitesse de marche sur 10m et le Timed up and go ont été utilisés pour évaluer l'ambulation. Des analyses descriptives et corrélatives ont été effectuées sur les données obtenues. Une corrélation forte (0.714
Resumo:
Thèse par articles. Articles (4) annexés à la thèse en fichiers complémentaires.
Resumo:
L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.
Resumo:
Les données manquantes sont fréquentes dans les enquêtes et peuvent entraîner d’importantes erreurs d’estimation de paramètres. Ce mémoire méthodologique en sociologie porte sur l’influence des données manquantes sur l’estimation de l’effet d’un programme de prévention. Les deux premières sections exposent les possibilités de biais engendrées par les données manquantes et présentent les approches théoriques permettant de les décrire. La troisième section porte sur les méthodes de traitement des données manquantes. Les méthodes classiques sont décrites ainsi que trois méthodes récentes. La quatrième section contient une présentation de l’Enquête longitudinale et expérimentale de Montréal (ELEM) et une description des données utilisées. La cinquième expose les analyses effectuées, elle contient : la méthode d’analyse de l’effet d’une intervention à partir de données longitudinales, une description approfondie des données manquantes de l’ELEM ainsi qu’un diagnostic des schémas et du mécanisme. La sixième section contient les résultats de l’estimation de l’effet du programme selon différents postulats concernant le mécanisme des données manquantes et selon quatre méthodes : l’analyse des cas complets, le maximum de vraisemblance, la pondération et l’imputation multiple. Ils indiquent (I) que le postulat sur le type de mécanisme MAR des données manquantes semble influencer l’estimation de l’effet du programme et que (II) les estimations obtenues par différentes méthodes d’estimation mènent à des conclusions similaires sur l’effet de l’intervention.
Resumo:
L’objectif de cette étude est de déterminer certains paramètres respiratoires et cardiovasculaires chez des sujets de tous âges pour utilisation, à titre d’intrants physiologiques, en modélisation toxicocinétique et en analyse du risque toxique. La base de données utilisée est tirée de la littérature. Il s’agit de mesures portant sur la dépense d’énergie quotidienne de base et la dépense d’énergie quotidienne de totale obtenues, l’une par calorimétrie indirecte, l’autre par double marquage isotopique des molécules d’eau. Selon le type d’unité retenu, les valeurs les plus élevées au 99e centile des taux quotidiens d’inhalation sont obtenues chez des adolescentes et des femmes âgées de 11 à 55 ans souffrant d’embonpoint ou d’obésité, durant leur 36e semaine de grossesse (47,31 m³/jour), ainsi que chez des garçons de poids corporel normal âgés de 2,6 à moins de 6 mois (1,138 m³/kg-jour) et de 10 à moins de 16,5 ans (22,29 m³/m²-jour). Chez les enfants et les adolescents de poids corporel normal âgés de 5 à moins de 16.5 ans, les valeurs pour l’écart entre le 2,5e au 99e centile sont généralement plus élevées que celles obtenues chez les sujets plus âgés : taux de ventilation minute, 0,132 à 0,774 L/kg-min ou 4,42 à 21,69 L/m²-min versus 0,076 à 0,461 L/kg-min ou 2,80 à 16,99 L/m²-min; taux de ventilation alvéolaire, 0,093 à 0,553 L/kg-min ou 3,09 à 15,53 L/m²-min versus 0,047 à 0,312 L/kg-min ou 1,73 à 11,63 L/m²-min; débit cardiaque, 0,065 à 0,330 L/kg-min ou 2,17 à 9,46 L/m²-min versus 0,045 à 0,201 L/kg-min ou 1,63 à 7,24 L/m²-min; ratio de ventilation-perfusion, 1,12 à 2,16 versus 0,78 à 2,40. Il faut conclure que les apports inhalés en polluants, exprimés en ug/kg-min ou ug/m²-min sont plus élevés chez les enfants que chez les sujets plus âgés pour des concentrations d’exposition comparables. D’autres données montrent qu’il en est de même pour les apports inhalés par unité de poids corporel chez les femmes enceintes et les femmes qui allaitent par rapport à des sujets males d’âge comparable. L’ensemble des résultats obtenus suggère notamment que les valeurs des NOAELH de Santé Canada pourraient être abaissées par un facteur de 2,6 par utilisation du 99e centile le plus élevé des taux quotidiens d’inhalation chez les enfants; le taux de ventilation minute de 20,83 L/min approximé pour une journée de travail de 8 heures peut être considéré comme étant conservateur ; par contre, l’utilisation du taux quotidien d’inhalation de 0,286 m³/kg-jour (c.-à-d. 20 m³/jour pour un adulte de poids corporel de 70 kg) est inappropriée en analyse et gestion du risque lorsqu’appliquée à l’ensemble de la population.
Resumo:
L’imputation simple est très souvent utilisée dans les enquêtes pour compenser pour la non-réponse partielle. Dans certaines situations, la variable nécessitant l’imputation prend des valeurs nulles un très grand nombre de fois. Ceci est très fréquent dans les enquêtes entreprises qui collectent les variables économiques. Dans ce mémoire, nous étudions les propriétés de deux méthodes d’imputation souvent utilisées en pratique et nous montrons qu’elles produisent des estimateurs imputés biaisés en général. Motivé par un modèle de mélange, nous proposons trois méthodes d’imputation et étudions leurs propriétés en termes de biais. Pour ces méthodes d’imputation, nous considérons un estimateur jackknife de la variance convergent vers la vraie variance, sous l’hypothèse que la fraction de sondage est négligeable. Finalement, nous effectuons une étude par simulation pour étudier la performance des estimateurs ponctuels et de variance en termes de biais et d’erreur quadratique moyenne.
Resumo:
Situation : Dans le cadre du cours « Données factuelles en santé mentale » offert par la Faculté de médecine aux résidents III en psychiatrie, la formation documentaire donnée par la bibliothécaire a évolué au cours des quatre dernières années afin de mieux répondre aux objectifs de ce cours visant à promouvoir une pratique clinique basée sur des données factuelles. Programme : En 2006, les résidents en psychiatrie participent à un atelier de formation de 3 heures sur les ressources documentaires en pratique factuelle, tenu à la Bibliothèque de la santé. En 2007, le professeur responsable du cours « Données factuelles en santé mentale » demande l’ajout d’un atelier pratique avancé de 3 heures afin que les résidents explorent davantage les ressources utilisées lors de l’atelier de formation. Depuis 2008, la bibliothécaire participe aussi activement à la séance où les résidents présentent oralement en classe les résultats de leur recherche documentaire sur une question clinique de leur choix. Résultats : La bibliothécaire participe maintenant à 9 heures sur un total de 45 heures de cours. Cette collaboration présente des avantages pour tous. La participation de la bibliothécaire aux présentations orales des résidents lui a permis de mieux comprendre la façon dont les résidents abordent une question clinique et utilisent les outils de recherche documentaires. Les discussions entre les résidents, le professeur et la bibliothécaire ont également permis de mieux cerner le rôle et l’apport du bibliothécaire au sein d’une équipe multidisciplinaire en santé mentale. Conclusion : La participation de la bibliothécaire à ce cours est maintenant bien établie. Il serait intéressant de pouvoir éventuellement offrir une formation semblable aux résidents des autres spécialités médicales.↑ Back to top
Resumo:
L’Éducation Pour Tous mobilise la communauté internationale et les gouvernements depuis 1990. Cet engagement global renouvelé en 2000 sous l’auspice de l’UNESCO puis des Nations-Unies, porte notamment sur un objectif de base : l’universalisation de la scolarisation primaire complète pour tous les enfants d’âge scolaire à l’horizon de 2015. Plusieurs études sur la réalisation de cet objectif montrent que les pays en développement sont les plus à risque et que les progrès accomplis dans la plupart de ces pays, pourraient être plus importants si la pratique du redoublement faisait davantage l’objet de régulation et de contrôle. Cela contribuerait à améliorer la réussite scolaire et accroître la rétention des élèves au sein des systèmes éducatifs. La pratique du redoublement est en effet une tradition dans plusieurs systèmes éducatifs. Elle est particulièrement prépondérante dans certains groupes de pays ou régions, notamment en Afrique francophone au sud du Sahara. Dans ces pays, le PASEC - Programme d’Analyse des Systèmes Éducatifs de la CONFEMEN (Conférence des Ministres de l’Éducation Nationale des pays ayant le français en partage) - œuvre à améliorer l’accès à une éducation de qualité pour tous, par exemple, en informant les politiques sur la situation nationale du redoublement. Cette recherche sur le redoublement, la réussite scolaire et l’objectif de la Scolarisation Primaire Universelle (SPU) privilégie la dimension pédagogique, l’analyse empirique et étudie le cas du Sénégal. Elle présente et discute les indicateurs internationaux de suivi de l’objectif de la SPU, fait le point de l’état des connaissances sur le redoublement et la réussite scolaire et montre le défi que représente la réalisation de l’objectif de la SPU notamment dans les pays francophones d’Afrique sub-Saharienne. Exploitant les données existantes de l’enquête longitudinale de suivi de cohorte du PASEC au Sénégal entre 1995 et 2000, cette recherche examine le parcours scolaire des élèves en vue de la réalisation de l’objectif de la SPU. L’examen effectué combine des approches d’analyse transversale et longitudinale du redoublement et des apprentissages par rapport aux caractéristiques personnelles, familiales et scolaires de l’élève. Les résultats d’analyse montrent des variabilités, notamment par rapport aux caractéristiques personnelles de l’élève et à celles de sa classe et de son milieu de scolarisation. L’analyse longitudinale du redoublement s’est appuyée sur le diagramme de flux scolaire et a permis de produire un ensemble d’indicateurs d’efficacité interne du système éducatif du Sénégal. Pour la cohorte étudiée, du fait de l’importance des redoublements et des abandons scolaires, il faut en moyenne 9,4 années de scolarité pour que l’élève progresse du deuxième au sixième (dernier) grade du primaire. Seulement 39% de l’effectif de la cohorte survivent au dernier grade ce qui suggère que si cette tendance se maintenait, le Sénégal serait à risque de ne pas réaliser l’objectif de la SPU. Une évaluation de la situation courante à partir de données plus récentes serait requise. Le diagramme de flux scolaire constitue un outil de planification de l’éducation et représente de ce fait un important levier aux mains des autorités politiques pour agir sur les paramètres du système éducatif (paramètres liés à la qualité de l’éducation, à l’efficacité interne, etc.) afin de répondre à des objectifs spécifiques ou d’étapes pouvant conduire, par exemple, à la réalisation de l’objectif de la SPU.
Resumo:
Les centres d’information sur les tératogènes (CIT) fournissent aux professionnels de la santé ainsi qu’au public de l’information sur les risques et bienfaits associés à l’utilisation des médicaments durant la grossesse et l’allaitement. Le Centre IMAGe (Info-Médicaments en Allaitement et Grossesse) du CHU Sainte-Justine (Centre Hospitalier Universitaire Sainte-Justine) au Québec, est un CIT qui offre depuis 1997 un service téléphonique d’information gratuit aux professionnels de la santé. Deux études ont été réalisées à partir des appels reçus au Centre IMAGe. La première étude a été réalisée sur l’ensemble des appels reçus entre janvier 2004 et avril 2007 au sujet de femmes qui prenaient ou envisageaient prendre un médicament durant la grossesse ou l’allaitement. Les objectifs de cette étude visaient à déterminer les classes de médicaments les plus fréquentes ainsi que les indications d’utilisation et les déterminants d’un appel à leur sujet (caractéristiques maternelles associées). Les antidépresseurs, les anti-inflammatoires, les antibiotiques, les benzodiazépines et les antipsychotiques sont les classes de médicaments qui correspondaient aux plus grands nombres d’appels. Cela porte à croire que pour ces classes de médicaments, il existe chez les professionnels de la santé un besoin d’information en ce qui concerne les risques et bienfaits de leur utilisation durant la grossesse et l’allaitement. La dépression représentait une des trois indications les plus prévalentes chez les femmes qui prenaient ou désiraient prendre des antidépresseurs, des benzodiazépines ou des anti-psychotiques durant la grossesse ou l’allaitement. Le tabagisme était associé à l’utilisation des antidépresseurs et des anti-psychotiques durant la grossesse, ainsi qu’à un appel au sujet des anti-inflammatoires durant l’allaitement. La deuxième étude a été réalisée sur l’ensemble des appels reçus entre janvier 2003 et mars 2008. Cette étude visait à déterminer l’impact des avis émis par Santé Canada concernant les risques de l’exposition aux antidépresseurs durant la grossesse et celui concernant le retrait du rofécoxib, sur le nombre d’appels reçus à IMAGe. L’analyse des séries temporelles du nombre hebdomadaire d’appels reçus a révélé que l’avis de Santé Canada sur les risques de malformations cardiaques associés à l’utilisation de la paroxétine lors du premier trimestre de la grossesse a généré une augmentation statistiquement significative, soudaine et permanente du nombre d’appels reçus à IMAGe au sujet des antidépresseurs. Ces études permettent de mieux comprendre le besoin d’information des professionnels de la santé sur les risques et bienfaits de l’utilisation des médicaments durant la grossesse et l’allaitement.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
La méthode ChIP-seq est une technologie combinant la technique de chromatine immunoprecipitation avec le séquençage haut-débit et permettant l’analyse in vivo des facteurs de transcription à grande échelle. Le traitement des grandes quantités de données ainsi générées nécessite des moyens informatiques performants et de nombreux outils ont vu le jour récemment. Reste cependant que cette multiplication des logiciels réalisant chacun une étape de l’analyse engendre des problèmes de compatibilité et complique les analyses. Il existe ainsi un besoin important pour une suite de logiciels performante et flexible permettant l’identification des motifs. Nous proposons ici un ensemble complet d’analyse de données ChIP-seq disponible librement dans R et composé de trois modules PICS, rGADEM et MotIV. A travers l’analyse de quatre jeux de données des facteurs de transcription CTCF, STAT1, FOXA1 et ER nous avons démontré l’efficacité de notre ensemble d’analyse et mis en avant les fonctionnalités novatrices de celui-ci, notamment concernant le traitement des résultats par MotIV conduisant à la découverte de motifs non détectés par les autres algorithmes.
Resumo:
Dans le cadre de l'activité de formation continue : La protection cardiovasculaire : Des experts nous guident à prendre les bonnes décisions. Mercredi le 28 septembre 2011 Institut de Cardiologie de Montréal
Resumo:
Dans le cadre du: Développement professionnel continu, Université de Montréal, Faculté de médecine, CPASS. Le Parcours du médecin de famille