997 resultados para Modèles exponentiels en finance
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Le jeu casual est un phénomène majeur de l’industrie vidéoludique, pourtant il reste peu étudié et mal considéré. Les quelques définitions scientifiques recensées présentent des divergences importantes, ainsi qu’un décalage par rapport aux jeux produits. Les modèles théoriques en design de jeu, centrés sur le gameplay, semblent inadéquats face à ce phénomène. En utilisant le modèle du praticien réflexif de Donald Schön, l’objectif de notre recherche est d’apporter un nouvel éclairage sur le jeu casual grâce au savoir professionnel des designers de jeux. Notre approche est qualitative, d’inspiration phénoménologique : nous avons recueilli l’expérience de huit designers de jeux par l’intermédiaire d’entretiens semi-dirigés proches du récit de pratique. Nos résultats montrent que les concepts utilisés dans les modèles vidéoludiques traditionnels restent pertinents pour définir le jeu casual, mais demandent à être retravaillés afin de rendre compte des mutations de l’expérience de jeu. Ainsi, un challenge dans un jeu casual n’est pas un obstacle mais une opportunité d’action pour le joueur. De plus, la progression se fait par la variation des challenges plutôt que par l’augmentation de la difficulté. Ensuite, certains concepts qui semblaient pertinents pour définir les jeux casual, tels que la fiction positive, ont été rejetés par nos participants. Enfin, notre étude a permis de rassembler des informations sur le rôle du designer de jeu casual et le contexte dans lequel il exerce, ce qui permet d’expliquer certaines causes de la vision péjorative du jeu casual.
Resumo:
Ce mémoire consiste en une reproduction et une extension du Modèle Confluent de l’Agression Sexuelle (MCAS) de Neil Malamuth. Le MCAS est un des seuls modèles développementaux de l’agression sexuelle d’hommes sur des femmes adultes à avoir été validé empiriquement. Dans ce modèle, deux trajectoires (la promiscuité sexuelle et la masculinité hostile) convergent et mènent à l’agression sexuelle. Pour la première fois, ce modèle est appliqué séparément à quatre paramètres de la carrière criminelle sexuelle (gravité, fréquence, précocité, spécialisation) au sein d’un échantillon d’agresseurs sexuels de femmes adultes judiciarisés (n=180). Les quatre modèles qui en résultent s’ajustent bien aux données. Tous les liens postulés dans le MCAS sont validés dans ce mémoire, à une exception. En effet, contrairement aux résultats obtenus par Malamuth, une seule des deux trajectoires du modèle présente un lien significatif avec chacun des paramètres de la carrière criminelle sexuelle à l’étude. La trajectoire de la promiscuité sexuelle est liée à la précocité et à la non-spécialisation (lien négatif avec la spécialisation) alors que la trajectoire de la masculinité hostile est associée à la gravité et à la fréquence. Ces résultats sont congruents avec une approche typologique des agresseurs sexuels de femmes adultes. Chacune des deux trajectoires du MCAS englobe des caractéristiques spécifiques à certains types de violeurs (opportunistes, colériques, sadiques) qui, pour leur part, se distinguent quant aux paramètres de leur carrière criminelle sexuelle.
Resumo:
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.
Resumo:
Les données comptées (count data) possèdent des distributions ayant des caractéristiques particulières comme la non-normalité, l’hétérogénéité des variances ainsi qu’un nombre important de zéros. Il est donc nécessaire d’utiliser les modèles appropriés afin d’obtenir des résultats non biaisés. Ce mémoire compare quatre modèles d’analyse pouvant être utilisés pour les données comptées : le modèle de Poisson, le modèle binomial négatif, le modèle de Poisson avec inflation du zéro et le modèle binomial négatif avec inflation du zéro. À des fins de comparaisons, la prédiction de la proportion du zéro, la confirmation ou l’infirmation des différentes hypothèses ainsi que la prédiction des moyennes furent utilisées afin de déterminer l’adéquation des différents modèles. Pour ce faire, le nombre d’arrestations des membres de gangs de rue sur le territoire de Montréal fut utilisé pour la période de 2005 à 2007. L’échantillon est composé de 470 hommes, âgés de 18 à 59 ans. Au terme des analyses, le modèle le plus adéquat est le modèle binomial négatif puisque celui-ci produit des résultats significatifs, s’adapte bien aux données observées et produit une proportion de zéro très similaire à celle observée.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.
Resumo:
L’arthrose (OA) est une maladie dégénérative très répondue touchant les articulations. Elle est caractérisée par la destruction progressive du cartilage articulaire, l’inflammation de la membrane synoviale et le remodelage de l’os sous chondral. L’étiologie de cette maladie n’est pas encore bien définie. Plusieurs études ont été menées pour élucider les mécanismes moléculaires et cellulaires impliqués dans le développement de l’OA. Les effets protecteurs du récepteur activé par les proliférateurs de peroxysomes gamma (PPARγ) dans l'OA sont bien documentés. Il a été démontré que PPARγ possède des propriétés anti-inflammatoires et anti-cataboliques. Aussi, plusieurs stimuli ont été impliqués dans la régulation de l’expression de PPARγ dans différents types cellulaires. Cependant, les mécanismes exacts responsables de cette régulation ainsi que le profil de l’expression de ce récepteur au cours de la progression de l’OA ne sont pas bien connus. Dans la première partie de nos travaux, nous avons essayé d’élucider les mécanismes impliqués dans l’altération de l’expression de PPARγ dans cette maladie. Nos résultats ont confirmé l’implication de l’interleukine-1β (IL-1β), une cytokine pro-inflammatoire, dans la réduction de l’expression de PPARγ au niveau des chondrocytes du cartilage articulaire. Cet effet coïncide avec l'induction de l’expression du facteur de transcription à réponse précoce de type 1 (Egr-1). En plus, la diminution de l'expression de PPARγ a été associée au recrutement d'Egr-1 et la réduction concomitante de la liaison de Sp1 au niveau du promoteur de PPARγ. Dans la deuxième partie de nos travaux, nous avons évalué le profil d’expression de ce récepteur dans le cartilage au cours de la progression de cette maladie. Le cochon d’inde avec OA spontanée et le chien avec OA induite par rupture du ligament croisé antérieur (ACLT) deux modèles animaux d’OA ont été utilisés pour suivre l’expression des trois isoformes de PPARs : PPAR alpha (α), PPAR béta (β) et PPAR gamma (γ) ainsi que la prostaglandine D synthase hématopoïétique (H-PGDS) et la prostaglandine D synthase de type lipocaline (L-PGDS) deux enzymes impliquées dans la production de l’agoniste naturel de PPARγ, la 15-Deoxy-delta(12,14)-prostaglandine J(2) (15d-PGJ2). Nos résultats ont démontré des changements dans l’expression de PPARγ et la L-PGDS. En revanche, l’expression de PPARα, PPARβ et H-PGDS est restée stable au fil du temps. La diminution de l’expression de PPARγ dans le cartilage articulaire semble contribuer au développement de l’OA dans les deux modèles animaux. En effet, le traitement des chondrocytes par de siRNA dirigé contre PPARγ a favorisé la production des médiateurs arthrosiques tels que l'oxyde nitrique (NO) et la métalloprotéase matricielle de type 13 (MMP-13), confirmant ainsi le rôle anti-arthrosique de ce récepteur. Contrairement à ce dernier, le niveau d'expression de la L-PGDS a augmenté au cours de la progression de cette maladie. La surexpression de la L-PGDS au niveau des chondrocytes humains a été associée à la diminution de la production de ces médiateurs arthrosiques, suggérant son implication dans un processus de tentative de réparation. En conclusion, l’ensemble de nos résultats suggèrent que la modulation du niveau d’expression de PPARγ, de la L-PGDS et d’Egr-1 au niveau du cartilage articulaire pourrait constituer une voie thérapeutique potentielle dans le traitement de l’OA et probablement d’autres formes d'arthrite.
Resumo:
L’arthrose (OA) est une maladie dégénérative très répondue touchant les articulations. Elle est caractérisée par la destruction progressive du cartilage articulaire, l’inflammation de la membrane synoviale et le remodelage de l’os sous chondral. L’étiologie de cette maladie n’est pas encore bien définie. Plusieurs études ont été menées pour élucider les mécanismes moléculaires et cellulaires impliqués dans le développement de l’OA. Les effets protecteurs du récepteur activé par les proliférateurs de peroxysomes gamma (PPARγ) dans l'OA sont bien documentés. Il a été démontré que PPARγ possède des propriétés anti-inflammatoires et anti-cataboliques. Aussi, plusieurs stimuli ont été impliqués dans la régulation de l’expression de PPARγ dans différents types cellulaires. Cependant, les mécanismes exacts responsables de cette régulation ainsi que le profil de l’expression de ce récepteur au cours de la progression de l’OA ne sont pas bien connus. Dans la première partie de nos travaux, nous avons essayé d’élucider les mécanismes impliqués dans l’altération de l’expression de PPARγ dans cette maladie. Nos résultats ont confirmé l’implication de l’interleukine-1β (IL-1β), une cytokine pro-inflammatoire, dans la réduction de l’expression de PPARγ au niveau des chondrocytes du cartilage articulaire. Cet effet coïncide avec l'induction de l’expression du facteur de transcription à réponse précoce de type 1 (Egr-1). En plus, la diminution de l'expression de PPARγ a été associée au recrutement d'Egr-1 et la réduction concomitante de la liaison de Sp1 au niveau du promoteur de PPARγ. Dans la deuxième partie de nos travaux, nous avons évalué le profil d’expression de ce récepteur dans le cartilage au cours de la progression de cette maladie. Le cochon d’inde avec OA spontanée et le chien avec OA induite par rupture du ligament croisé antérieur (ACLT) deux modèles animaux d’OA ont été utilisés pour suivre l’expression des trois isoformes de PPARs : PPAR alpha (α), PPAR béta (β) et PPAR gamma (γ) ainsi que la prostaglandine D synthase hématopoïétique (H-PGDS) et la prostaglandine D synthase de type lipocaline (L-PGDS) deux enzymes impliquées dans la production de l’agoniste naturel de PPARγ, la 15-Deoxy-delta(12,14)-prostaglandine J(2) (15d-PGJ2). Nos résultats ont démontré des changements dans l’expression de PPARγ et la L-PGDS. En revanche, l’expression de PPARα, PPARβ et H-PGDS est restée stable au fil du temps. La diminution de l’expression de PPARγ dans le cartilage articulaire semble contribuer au développement de l’OA dans les deux modèles animaux. En effet, le traitement des chondrocytes par de siRNA dirigé contre PPARγ a favorisé la production des médiateurs arthrosiques tels que l'oxyde nitrique (NO) et la métalloprotéase matricielle de type 13 (MMP-13), confirmant ainsi le rôle anti-arthrosique de ce récepteur. Contrairement à ce dernier, le niveau d'expression de la L-PGDS a augmenté au cours de la progression de cette maladie. La surexpression de la L-PGDS au niveau des chondrocytes humains a été associée à la diminution de la production de ces médiateurs arthrosiques, suggérant son implication dans un processus de tentative de réparation. En conclusion, l’ensemble de nos résultats suggèrent que la modulation du niveau d’expression de PPARγ, de la L-PGDS et d’Egr-1 au niveau du cartilage articulaire pourrait constituer une voie thérapeutique potentielle dans le traitement de l’OA et probablement d’autres formes d'arthrite.
Resumo:
L'activité physique améliore la santé, mais seulement 4.8% des Canadiens atteignent le niveau recommandé. La position socio-économique est un des déterminants de l'activité physique les plus importants. Elle est associée à l’activité physique de manière transversale à l’adolescence et à l’âge adulte. Cette thèse a tenté de déterminer s'il y a une association à long terme entre la position socio-économique au début du parcours de vie et l’activité physique à l’âge adulte. S'il y en avait une, un deuxième objectif était de déterminer quel modèle théorique en épidémiologie des parcours de vie décrivait le mieux sa forme. Cette thèse comprend trois articles: une recension systématique et deux recherches originales. Dans la recension systématique, des recherches ont été faites dans Medline et EMBASE pour trouver les études ayant mesuré la position socio-économique avant l'âge de 18 ans et l'activité physique à ≥18 ans. Dans les deux recherches originales, la modélisation par équations structurelles a été utilisée pour comparer trois modèles alternatifs en épidémiologie des parcours de vie: le modèle d’accumulation de risque avec effets additifs, le modèle d’accumulation de risque avec effet déclenché et le modèle de période critique. Ces modèles ont été comparés dans deux cohortes prospectives représentatives à l'échelle nationale: la 1970 British birth cohort (n=16,571; première recherche) et l’Enquête longitudinale nationale sur les enfants et les jeunes (n=16,903; deuxième recherche). Dans la recension systématique, 10 619 articles ont été passés en revue par deux chercheurs indépendants et 42 ont été retenus. Pour le résultat «activité physique» (tous types et mesures confondus), une association significative avec la position socio-économique durant l’enfance fut trouvée dans 26/42 études (61,9%). Quand seulement l’activité physique durant les loisirs a été considérée, une association significative fut trouvée dans 21/31 études (67,7%). Dans un sous-échantillon de 21 études ayant une méthodologie plus forte, les proportions d’études ayant trouvé une association furent plus hautes : 15/21 (71,4%) pour tous les types et toutes les mesures d’activité physique et 12/15 (80%) pour l’activité physique de loisir seulement. Dans notre première recherche originale sur les données de la British birth cohort, pour la classe sociale, nous avons trouvé que le modèle d’accumulation de risque avec effets additifs s’est ajusté le mieux chez les hommes et les femmes pour l’activité physique de loisir, au travail et durant les transports. Dans notre deuxième recherche originale sur les données canadiennes sur l'activité physique de loisir, nous avons trouvé que chez les hommes, le modèle de période critique s’est ajusté le mieux aux données pour le niveau d’éducation et le revenu, alors que chez les femmes, le modèle d’accumulation de risque avec effets additifs s’est ajusté le mieux pour le revenu, tandis que le niveau d’éducation ne s’est ajusté à aucun des modèles testés. En conclusion, notre recension systématique indique que la position socio-économique au début du parcours de vie est associée à la pratique d'activité physique à l'âge adulte. Les résultats de nos deux recherches originales suggèrent un patron d’associations le mieux représenté par le modèle d’accumulation de risque avec effets additifs.
Resumo:
L'activité physique améliore la santé, mais seulement 4.8% des Canadiens atteignent le niveau recommandé. La position socio-économique est un des déterminants de l'activité physique les plus importants. Elle est associée à l’activité physique de manière transversale à l’adolescence et à l’âge adulte. Cette thèse a tenté de déterminer s'il y a une association à long terme entre la position socio-économique au début du parcours de vie et l’activité physique à l’âge adulte. S'il y en avait une, un deuxième objectif était de déterminer quel modèle théorique en épidémiologie des parcours de vie décrivait le mieux sa forme. Cette thèse comprend trois articles: une recension systématique et deux recherches originales. Dans la recension systématique, des recherches ont été faites dans Medline et EMBASE pour trouver les études ayant mesuré la position socio-économique avant l'âge de 18 ans et l'activité physique à ≥18 ans. Dans les deux recherches originales, la modélisation par équations structurelles a été utilisée pour comparer trois modèles alternatifs en épidémiologie des parcours de vie: le modèle d’accumulation de risque avec effets additifs, le modèle d’accumulation de risque avec effet déclenché et le modèle de période critique. Ces modèles ont été comparés dans deux cohortes prospectives représentatives à l'échelle nationale: la 1970 British birth cohort (n=16,571; première recherche) et l’Enquête longitudinale nationale sur les enfants et les jeunes (n=16,903; deuxième recherche). Dans la recension systématique, 10 619 articles ont été passés en revue par deux chercheurs indépendants et 42 ont été retenus. Pour le résultat «activité physique» (tous types et mesures confondus), une association significative avec la position socio-économique durant l’enfance fut trouvée dans 26/42 études (61,9%). Quand seulement l’activité physique durant les loisirs a été considérée, une association significative fut trouvée dans 21/31 études (67,7%). Dans un sous-échantillon de 21 études ayant une méthodologie plus forte, les proportions d’études ayant trouvé une association furent plus hautes : 15/21 (71,4%) pour tous les types et toutes les mesures d’activité physique et 12/15 (80%) pour l’activité physique de loisir seulement. Dans notre première recherche originale sur les données de la British birth cohort, pour la classe sociale, nous avons trouvé que le modèle d’accumulation de risque avec effets additifs s’est ajusté le mieux chez les hommes et les femmes pour l’activité physique de loisir, au travail et durant les transports. Dans notre deuxième recherche originale sur les données canadiennes sur l'activité physique de loisir, nous avons trouvé que chez les hommes, le modèle de période critique s’est ajusté le mieux aux données pour le niveau d’éducation et le revenu, alors que chez les femmes, le modèle d’accumulation de risque avec effets additifs s’est ajusté le mieux pour le revenu, tandis que le niveau d’éducation ne s’est ajusté à aucun des modèles testés. En conclusion, notre recension systématique indique que la position socio-économique au début du parcours de vie est associée à la pratique d'activité physique à l'âge adulte. Les résultats de nos deux recherches originales suggèrent un patron d’associations le mieux représenté par le modèle d’accumulation de risque avec effets additifs.
Resumo:
Depuis 20 ans, les demandes adressées au Programme d’Aide aux Membres du Barreau (PAMBA) sont en constante progression, passant de 120 demandes traitées annuellement en 1996, comparativement à 1 157 demandes en 2016 (PAMBA, 2006, 2016). Ces demandes concernaient notamment la dépression, l’anxiété, le stress, la toxicomanie et l’alcoolisme. En plus de ces problématiques, il s’avère que les avocats présenteraient une proportion plus élevée de dépression, d’alcoolisme, de toxicomanie et de suicide que les autres professionnels (Hill, 1998). Parallèlement, les modèles actuels en stress professionnel (Bakker & Demerouti, 2007; Demerouti, Bakker, Nachreiner, & Schaufeli, 2001; Karasek, 1979; Karasek & Theorell, 1990; Siegrist, 1996) parviennent difficilement à cerner la complexité des déterminants de la détresse psychologique au travail chez les professions issues de l’économie du savoir dont font partie les avocats. En effet, les modèles traditionnels en stress professionnel évacuent les conditions et les contraintes propres aux professions règlementées. De plus, très peu d’études ont été réalisées chez les avocats, et aucune n’a été menée au Québec. Ce mémoire a pour but principal d’identifier les facteurs de risque et de protection qui influencent le stress et la détresse psychologique chez les avocats membres du Barreau du Québec. Ainsi, la présente recherche qualitative de type descriptive et exploratoire a permis de cartographier les facteurs de risque et de protection au stress et à la détresse psychologique, de cartographier les manifestations physiques, psychologiques et comportementales découlant du stress et de la détresse et finalement, de préciser les déterminants susceptibles d’influencer la détresse psychologique chez les avocats du Québec à partir d’un modèle conceptuel de départ inspiré du modèle de Marchand (2004). Pour ce faire, 22 entrevues semi-dirigées ont été menées en Estrie et dans le Grand Montréal auprès de femmes et d’hommes provenant du secteur public ou privé. Une analyse du contenu thématique des données s’inspirant de méthodes propres à la théorisation ancrée fut réalisée à l’aide du logiciel QDA Miner. Prenant appui sur le modèle théorique général d’analyse de la santé mentale de Marchand (2004), l’analyse des résultats a permis d’identifier et de classer hiérarchiquement 158 facteurs de risque et de protection selon les niveaux macro, micro et méso. Il en ressort que la culture professionnelle (macro) de même que les demandes psychologiques, émotionnelles et contractuelles (méso) sont les catégories ayant le plus d’importance dans l’explication du stress et de la détresse psychologique chez les avocats du Québec. Ainsi, la culture professionnelle a principalement trait à la compétitivité dans le milieu juridique et aux impératifs professionnels liés à la performance. Les demandes psychologiques concernent particulièrement la surcharge de travail et d’urgences de même que la complexité des dossiers, alors que les demandes émotionnelles ont trait notamment à la charge émotive importante envers le client et à la difficulté d’établir un détachement personnel vis-à-vis des dossiers traités. Enfin, les demandes contractuelles sont le type de demandes comportant le plus de facteurs (13), dont la majorité constitue des facteurs de risque pour la santé mentale des praticiens interrogés. Elles concernent principalement les longues heures de travail, les heures facturables et la facturation ainsi que la méthode d’évaluation de rendement se basant principalement sur les objectifs d’heures facturables dans le secteur privé. Il est également ressorti que le genre et le secteur de pratique (privé ou publique) influenceraient les stress et la détresse psychologique. Enfin, les retombées théoriques et pratiques, les limites de cette étude de même que les avenues de recherches futures concluent le présent mémoire.
Resumo:
L'analyse de la situation financière de l'entreprise sert à la prise de décision pour les parties intéressées à l'intérieur de l'entreprise, soit le gestionnaire et parfois le propriétaire et les autres qui se trouvent à l'extérieur, tels l'investisseur, le ministère du revenu, le banquier et le consultant. Dépendamment de l'utilisateur, l'information disponible n'est pas la même. L'investisseur, le banquier et le ministère du revenu doivent analyser l'entreprise à partir des données comptables publiées. Mais, les états financiers cachent parfois certaines réalités, tel un exercice financier ne représentant pas la saisonnalité des activités. De même les stocks de fin d'exercice ne représentent pas nécessairement le niveau du stock moyen. Les échéances de paiement surviennent peut-être au début plutôt qu'uniformément au cours de l'exercice. La signature de contrats importants pourra avoir des répercussions qu'au cours de l'exercice suivant. L'information interne seule peut répondre à ces questions. De plus, le résultat net publié dans les états financiers renferme certaines lacunes dont l'analyste doit tenir compte : 1- L'amortissement et l'évaluation des comptes-clients comportent une bonne part de subjectivité; 2- L'existence de plusieurs méthodes d'évaluation des stocks amène des problèmes de comparabilité, surtout lorsque ces postes ont une relative importance; 3- La dépréciation monétaire non prise en compte dans les états financiers diminue la comparabilité d'un exercice à l'autre et n'assure pas la préservation du patrimoine. Ainsi, les dividendes peuvent être versés au-delà de ce qu'il serait prudent de verser pour assurer la capacité de fonctionnement; 4- En période de prospérité, l'entreprise tentera de minimiser son bénéfice comptable afin de diminuer sa charge fiscale alors qu'en période de déficit, elle tentera de maximiser son bénéfice comptable pour rassurer les propriétaires et les prêteurs; 5- L'inflation accentue les difficultés de comparaison. Il faudra donc tenir compte de l'inflation pour apprécier l'évolution réelle du résultat; 6- La comparaison avec plusieurs entreprises est quelque peu biaisée dû au choix des pratiques comptables exercées sur plusieurs postes. Les critères de comparaison devront donc être le moins possible dépendants de choix de pratiques comptables. Malgré l'existence de ces déformations comptables, les états financiers demeurent une source importante d'informations. Mais les forces et les faiblesses de l'entreprise s'en trouvent plus ou moins cachées. Comme le gestionnaire et le consultant ont accès aux données non publiées par l'entreprise, les résultats des activités et les données sur la qualité de la gestion interne peuvent donc être plus détaillés, et plus proches de la réalité. L'information publique, ne permet que de détecter les grandes lignes de la situation financière de l'entreprise. Les ouvrages en finance ne traitent que très peu de ces facteurs internes et du lien entre l'information interne et l'information externe. Le but de notre étude a été de créer un modèle de diagnostic de la situation financière, dans un premier temps, issu de la théorie et reposant sur les données externes et internes à l'entreprise. Dans un deuxième temps, nous avons construit un modèle plus complet qui tienne compte des interrelations des postes des états financiers et de l'interprétation faite par les praticiens, et dont la théorie ne fait pas état. L'intégration des connaissances des praticiens au modèle théorique initial et l'utilisation des données internes à l'entreprise, devraient permettre de porter un diagnostic plus éclairé de la situation financière de l'entreprise.
Resumo:
L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.
Resumo:
This dissertation consists of two chapters of theoretical studies that investigate the effect of financial constraints and market competition on research and development (R&D) investments. In the first chapter, I explore the impact of financial constraints on two different types of R&D investments. In the second chapter, I examine the impact of market competition on the relationship between financial constraints and R&D investments. In the first chapter, I develop a dynamic monopoly model to study a firm’s R&D strategy. Contrary to intuition, I show that a financially constrained firm may invest more aggressively in R&D projects than an unconstrained firm. Financial constraints introduce a risk that a firm may run out of money before its project bears fruit, which leads to involuntary termination on an otherwise positive-NPV project. For a company that relies on cash flow from assets in place to keep its R&D project alive, early success can be relatively important. I find that when the discovery process can be expedited by heavier investment (“accelerable” projects), a financially constrained company may find it optimal to “over”-invest in order to raise the probability of project survival. The over-investment will not happen if the project is only “scalable” (investment scales up payoffs). The model generates several testable implications regarding over-investment and project values. In the second chapter, I study the effects of competition on R&D investments in a duopoly framework. Using a homogeneous duopoly model where two unconstrained firms compete head to head in an R&D race, I find that competition has no effect on R&D investment if the project is not accelerable, and the competing firms are not constrained. In a heterogeneous duopoly model where a financially constrained firm competes against an unconstrained firm, I discover interesting strategic interactions that lead to preemption by the constrained firm in equilibrium. The unconstrained competitor responds to its constrained rival’s investment in an inverted-U shape fashion. When the constrained competitor has high cash flow risk, it accelerates the innovation in equilibrium, while the unconstrained firm invests less aggressively and waits for its rival to quit the race due to shortage of funds.