24 resultados para multiple table factor analysis

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

We study the workings of the factor analysis of high-dimensional data using artificial series generated from a large, multi-sector dynamic stochastic general equilibrium (DSGE) model. The objective is to use the DSGE model as a laboratory that allow us to shed some light on the practical benefits and limitations of using factor analysis techniques on economic data. We explain in what sense the artificial data can be thought of having a factor structure, study the theoretical and finite sample properties of the principal components estimates of the factor space, investigate the substantive reason(s) for the good performance of di¤usion index forecasts, and assess the quality of the factor analysis of highly dissagregated data. In all our exercises, we explain the precise relationship between the factors and the basic macroeconomic shocks postulated by the model.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : Une majorité de Canadiens adopte un mode de vie sédentaire qui est un facteur de risque important pour différents problèmes de santé. Dernièrement, des interventions en santé publique ciblent le transport actif pour augmenter la pratique d’activité physique. Objectif : L’objectif de cette étude est de quantifier la direction et la taille de l’association entre l’état de santé rapporté par des adultes montréalais et leur utilisation de la marche et du vélo utilitaires. Méthode : L’échantillon comprend 4503 résidents de l’Île de Montréal, âgés de 18 ans et plus, ayant répondu à un sondage téléphonique sur la pratique de l’activité physique et du transport actif. Des analyses de régression logistique multiples ont été appliquées pour examiner l’association entre l’état de santé auto-rapporté et la pratique du vélo (N=4386) et entre l’état de santé auto-rapporté et la pratique de la marche utilitaire (N=4350). Résultats : Les gens ayant une santé perçue comme bonne et moyenne/mauvaise ont une probabilité plus faible de pratiquer la marche utilitaire (OR = 0,740; p < 0,05 et OR = 0,552; p < 0,01) que ceux rapportant une excellente santé, alors que cette association n’est pas significative pour la pratique du vélo utilitaire dans notre étude. Conclusion : Bien que les résultats obtenus ne soient pas tous statistiquement significatifs, la probabilité d’utiliser le transport actif semble plus faible chez les adultes indiquant un moins bon état de santé par rapport aux adultes indiquant que leur état de santé est excellent.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[Support Institutions:] Department of Administration of Health, University of Montreal, Canada Public Health School of Fudan University, Shanghai, China

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'accord des co-auteurs est inclus dans le mémoire

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RÉSUMÉ L’étiologie de la schizophrénie est complexe et le modèle de vulnérabilité-stress (Nuechterlein & Dawson, 1984) propose que des facteurs de vulnérabilité d’ordre génétique combinés à une histoire environnementale de stress particulier pousseraient l’individu vers un état clinique de psychose. L’objectif principal de cette thèse est de mieux comprendre la réaction physiologique des personnes schizophrènes face à un stress psychologique, tout en conceptualisant les symptômes psychotiques comme faisant partie d’un continuum, plutôt que de les restreindre sur un plan catégoriel. Afin de faire la différence entre les patients schizophrènes et les individus de la population générale, au-delà de la sévérité de leurs symptômes psychotiques, leur réaction au stress est comparée et le phénomène de seuil critique dans la réaction de cortisol est exploré en tant que point décisif pouvant distinguer entre les deux groupes. La première étude de cette thèse (Brenner et al., 2007) examine la fiabilité, la validité et la structure factorielle du Community Assessment of Psychic Experiences (CAPE) (Stefanis et al., 2002), avec un échantillon francophone et anglophone de la population nord américaine, un questionnaire auto-administré de 42 items qui évalue les expériences quasi-psychotiques présentes dans la population générale : des symptômes positifs (ou psychotiques), négatifs (ou végétatifs) et dépressifs. Ce questionnaire a été complété par un échantillon de 2 275 personnes de la population montréalaise. Les résultats appuient la consistance interne des 3 sous-échelles originales. De plus, l’analyse factorielle exploratoire suggère des solutions de 3-5 facteurs, où les solutions à 4 et 5 facteurs proposent de séparer les symptômes positifs en sous-catégories plus spécifiques. Finalement, cette étude suggère une version plus courte du CAPE, avec seulement 23 items, tout en préservant les mêmes trois échelles originales. La toile de fond de cet article confirme l’existence du phénomène du continuum de la psychose, où une variation de symptômes psychotiques peut se retrouver aussi bien dans la population générale que dans la population clinique. Dans une deuxième étude (Brenner et al., 2009), cette thèse examine à quel point la réponse de l’hormone de stress, le cortisol, à un test de stress psychosocial nommé le Trier Social Stress Test (TSST) (Kirschbaum, Pirke, & Hellhammer, 1993), peut établir une différence entre les sujets témoins et les patients schizophrènes, tout en contrôlant des variables importantes. Un groupe de 30 personnes schizophrènes et un groupe de 30 sujets de la population générale, recrutés lors de la première étude de cette thèse, ont participé à cette recherche qui est construite selon un plan expérimental. Le groupe témoin inclut des personnes légèrement symptomatiques et un chevauchement des scores psychotiques existe entre les deux groupes. Suite au stresseur, les deux groupes démontrent une augmentation significative de leur rythme cardiaque et de leur pression artérielle. Cependant, leur réponse de cortisol a tendance à différer : les patients schizophrènes présentent une réponse de cortisol plus petite que celle des témoins, mais en atteignant un seuil statistique significatif seulement à la mesure qui suit immédiatement le stresseur. Ces résultats significatifs sont obtenus en contrôlant pour la sévérité des symptômes positifs, un facteur discriminant significatif entre les deux groupes. Ainsi, le niveau de cortisol mesuré immédiatement après le stresseur se révèle être un marqueur de seuil critique pouvant établir une distinction entre les deux groupes. Aussi, leur réponse de cortisol maximale a tendance à apparaître plus tard que chez les sujets témoins. De façon générale, la réaction au stress des deux groupes étudiés est un autre moyen d’observer la continuité d’un comportement présent chez les individus, jusqu’à ce qu’un seuil critique soit atteint. Ainsi, il est possible de trancher, à un moment donné, entre psychose clinique ou absence de diagnostic.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La forte prévalence des troubles des conduites alimentaires (TCA) chez les jeunes femmes et les faibles taux de rémission suite à un traitement ont encouragé les chercheurs à mieux comprendre les facteurs impliqués dans ce trouble mental. L’un des premiers modèles à mettre l’emphase sur des traits de personnalité associés au développement d’un TCA a été proposé par Hilde Bruch (1962, 1973, 1978) et a toujours une grande influence dans la recherche actuelle. Le modèle de Bruch inclue trois facteurs, soit l’insatisfaction corporelle, l’inefficacité et la conscience intéroceptive. Le but de cette thèse est d’apporter un support empirique au modèle de Bruch. En se basant sur une revue extensive des écrits scientifiques, cette thèse vise aussi à déterminer si deux facteurs reliés, soit l’alexithymie et le sentiment d’efficacité personnelle face à l’adoption de conduites alimentaires saines, améliorent la précision du modèle dans la prédiction de symptômes de TCA. Pour répondre empiriquement à cette question, il était d’abord nécessaire de disposer d’un questionnaire évaluant le sentiment d’efficacité personnelle en lien avec les conduites alimentaires qui peut être utilisé dans tout le spectre de présentation des TCA. Ainsi, le Eating Disorder Self-Efficacy Questionnaire (EDRSQ) a été adapté en français et ses propriétés psychométriques ont été évaluées. Une analyse factorielle confirmatoire a révélé une structure bi-factorielle, soit le sentiment d’efficacité personnelle en lien avec l’insatisfaction corporelle et avec l’adoption d’une alimentation normative. Chaque échelle a démontré une bonne fiabilité ainsi qu’une validité de construit cohérente avec la théorie. Par la suite, la capacité des facteurs proposés par Bruch à prédire les symptômes de TCA a été évaluée et comparée à des adaptations du modèle découlant des écrits. Au total, 203 étudiantes de premier cycle universitaire ont complété les versions validées en français du Eating Disorder Inventory 2, du Eating Attitudes Test, et du Toronto Alexithymia Scale en plus du EDRSQ. Les résultats montrent que le modèle de Bruch explique 46% de la variance des symptômes de TCA. Alors que l’insatisfaction corporelle et la conscience intéroceptive démontrent chacun une contribution importante dans la prédiction des symptômes de TCA, il a été démontré que l’inefficacité présente seulement une contribution spécifique négligeable. Le modèle de Bruch est amélioré par la substitution de l’inefficacité par le sentiment d’efficacité personnelle tel que mesuré par le EDRSQ; le modèle explique alors 64% de la variance des symptômes de TCA. Finalement, cette étude démontre que l’alexithymie n’a pas de contribution spécifique dans la prédiction des symptômes de TCA. Ainsi, la combinaison d’une faible conscience intéroceptive, de l’insatisfaction corporelle et d’un faible sentiment d’efficacité personnelle en lien avec les conduites alimentaires est fortement associée aux symptômes de TCA dans un échantillon non-clinique de jeunes femmes. Finalement, les implications conceptuelles et cliniques de ces résultats sont discutées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les données sur l'utilisation des médicaments sont généralement recueillies dans la recherche clinique. Pourtant, aucune méthode normalisée pour les catégoriser n’existe, que ce soit pour la description des échantillons ou pour l'étude de l'utilisation des médicaments comme une variable. Cette étude a été conçue pour développer un système de classification simple, sur une base empirique, pour la catégorisation d'utilisation des médicaments. Nous avons utilisé l'analyse factorielle pour réduire le nombre de groupements de médicaments possible. Cette analyse a fait émerger un modèle de constellations de consommation de médicaments qui semble caractériser des groupes cliniques spécifiques. Pour illustrer le potentiel de la technique, nous avons appliqué ce système de classification des échantillons où les troubles du sommeil sont importants: syndrome de fatigue chronique et l'apnée du sommeil. Notre méthode de classification a généré 5 facteurs qui semblent adhérer de façon logique. Ils ont été nommés: Médicaments cardiovasculaire/syndrome métabolique, Médicaments pour le soulagement des symptômes, Médicaments psychotropes, Médicaments préventifs et Médicaments hormonaux. Nos résultats démontrent que le profil des médicaments varie selon l'échantillon clinique. Le profil de médicament associé aux participants apnéiques reflète les conditions de comorbidité connues parmi ce groupe clinique, et le profil de médicament associé au Syndrome de fatigue chronique semble refléter la perception commune de cette condition comme étant un trouble psychogène

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’Organisation mondiale de la Santé recommande aux individus de limiter leur consommation d’aliments sucrés dans le but de prévenir le développement des maladies chroniques. En santé publique, peu de recherches ont tenté d’identifier les facteurs individuels et contextuels qui peuvent influencer conjointement la consommation de ces aliments. Or, de telles connaissances seraient utiles pour guider les interventions nutritionnelles visant à en réduire la consommation. L’objectif de cette thèse est d'étudier les facteurs reliés au comportement et les contextes associés à la consommation quotidienne d’aliments sucrés chez des adultes vivant dans un milieu urbain occidental. Cette étude a été menée auprès d'une communauté moyen-orientale établie dans la Ville de Montréal. Les aliments sucrés ont été définis comme étant les glucides raffinés dont la teneur en sucres totaux dépasse 20 % de l’énergie totale. Lors de l’étape exploratoire (N = 42), un rappel de 24 heures a permis d’identifier les sources d’aliments sucrés et de déterminer l’apport quotidien en sucres totaux de cette communauté. Une étude qualitative descriptive a été privilégiée et un cadre écologique a guidé la réalisation d’entrevues semi-dirigées sur les contextes de consommation (N = 42). Une analyse de contenu employant des procédures de codage initial et focus a mené à l’élaboration d’un instrument de mesure quantitatif sur les contextes de consommation. Cet instrument a été soumis à un pré-test (N = 20), puis administré à l’échantillon principal (N = 192). Une analyse factorielle exploratoire a permis de préciser les contextes de consommation. Les facteurs individuels mesurés incluent les données sociodémographiques, les symptômes dépressifs, la maîtrise de soi, l’assoupissement de jour, les perceptions ainsi que l’hémoglobine glycosylée. La consommation quotidienne de sucres totaux a été mesurée par un questionnaire de fréquence alimentaire (N = 192). Une analyse de régression multivariée employant le modèle linéaire généralisé (distribution de type gamma et lien logarithmique) a été effectuée pour mesurer les relations entre les contextes de consommation, les facteurs individuels et la consommation de sucres totaux, en contrôlant l’âge et le sexe. L’apport quotidien en sucres totaux de l'échantillon est de 20,3 %, ce qui s’apparente aux apports des Canadiens et des Québécois. La consommation quotidienne moyenne est de 76 g/j. Les analyses qualitative et factorielle ont permis d’identifier un ensemble de 42 contextes de consommation regroupés en sept domaines (Actes et situations de grignotage, Stimuli visuels, Besoins énergétiques, Besoins émotionnels, Indulgence, Contraintes, Socialisation). La consommation quotidienne de sucres totaux est supérieure chez les hommes (B = 0,204, ES = 0,094, p = 0,03). Les facteurs positivement associés à la consommation sont le grignotage (B = 0,225, ES = 0,091, p = 0,01), la prise de dessert (B = 0,105, ES = 0,036, p = 0,001) ainsi que les symptômes dépressifs (B = 0,017, ES = 0,094, p = 0,03). L’âge (B = -0,01, ES = 0,004, p = 0,02), l’indulgence (B = -0,103, ES = 0,052, p = 0,05) et l’auto-modération (B = -0,121, ES = 0,042, p = 0,001) montrent, pour leur part, une association négative. Cette étude a privilégié une méthodologie mixte et a permis de développer une mesure innovatrice pour étudier les facteurs contextuels associés à la consommation d’aliments sucrés. Ceux-ci ont été analysés conjointement avec les facteurs individuels. Afin d'encourager les individus à réduire leur consommation de sucres totaux lorsque nécessaire, les initiatives en santé publique devraient en effet cibler les contextes de consommation de même que les facteurs individuels.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les objectifs du présent mémoire étaient d’identifier les dimensions présentes dans la Statique-99R, l’échelle actuarielle de prédiction de la récidive sexuelle la plus utilisée, et de tester leur validité prédictive. Une analyse factorielle exploratoire des items de l’instrument en a extrait trois dimensions : la déviance sexuelle, l’orientation antisociale et le détachement émotionnel. Des analyses de régressions de Cox ont révélé que ces facteurs affichaient une validité prédictive différentielle; la déviance sexuelle ne prédisait que la récidive sexuelle, alors que l’orientation antisociale ne prédisait que la récidive violente non sexuelle et la récidive générale. Le détachement émotionnel affichait une validité prédictive incohérente. Des analyses de courbes ROC ont indiqué que la dernière révision de la Statique-99, la Statique-99R, surpassait pratiquement en tout point son prédécesseur. Ces mêmes analyses indiquaient que la validité prédictive de l’échelle était similaire pour les agresseurs sexuels de femmes et d’enfants.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La réalisation des objectifs d’Éducation pour tous en Haïti requiert impérativement, entre autres, une campagne massive et accélérée de formation d’enseignants - formation à la fois initiale et en cours d’emploi. Malheureusement, les structures actuelles sont loin d’être en mesure de répondre à cette demande. Il faudra donc recourir à d’autres modalités de formation, particulièrement celles utilisant les TIC (technologies de l’information et de la communication). Cependant, dans ce domaine, il est fort tentant de continuer à copier ce qui se fait en France, au Canada ou aux États-Unis, et d’allonger ainsi la liste d’échecs dus à une adaptation déficiente ou inexistante. Dans un souci de maximiser les chances de succès, il est important d’examiner l’adéquation des stratégies adoptées au contexte et à l’apprenant haïtiens. Cette recherche étudie les caractéristiques des enseignants haïtiens des deux premiers cycles de l’enseignement fondamental (primaire) en tant qu’apprenants, caractéristiques susceptibles de constituer des barrières ou des facteurs facilitants internes à une intégration efficace des TIC dans leur formation. Dans une première phase quantitative, une enquête a été administrée en 2009-2010 à 176 enseignants. L’analyse des données recueillies a permis de faire ressortir trois tendances fortes : une attitude positive par rapport aux innovations et aux TIC, des sources intrinsèques de motivation et une forte distance hiérarchique ; il faut aussi signaler deux autres résultats importants : le peu de familiarité avec l’ordinateur et l’adoption massive du cellulaire ; les réponses étaient plus partagées au niveau de la conception de l’enseignement et de l’apprentissage et de la dimension individualisme-collectivisme. Une analyse factorielle a fait émerger quatre facteurs : la capacité d’utiliser les TIC, le désir de changement, la conception du rôle du formateur et la distance hiérarchique. Suite à cette enquête, une phase qualitative comportant sept entrevues individuelles avec des spécialistes de la formation des enseignants en Haïti et trois groupes de discussion avec des enseignants du fondamental a été effectuée à la fin de 2010. Cette phase avait pour but d’enrichir, de compléter, d’expliquer, de confirmer et d’illustrer les résultats quantitatifs. Malgré leur regard plus sévère, les spécialistes en formation des enseignants ont largement contribué à l’interprétation des résultats, particulièrement ceux concernant l’attitude par rapport aux innovations et aux TIC, la dimension individualisme-collectivisme et la conception de l’enseignement et de l’apprentissage. Quant aux participants aux groupes de discussion, ils ont globalement appuyé les résultats de la phase quantitative, mais en expliquant et en nuançant certains aspects. Ils ont particulièrement renforcé l’importance de deux facteurs qui ne figuraient pas dans la liste initiale et qui ont émergé de l’analyse factorielle : le désir de changement et la conception du rôle du formateur. Ils ont également apporté des éclaircissements fort pertinents sur la distance hiérarchique. .