27 resultados para Probabilities
Resumo:
L’objectif principal du présent mémoire réside dans l’exploration des liens concomitants existant entre les trois dimensions de l’épuisement professionnel telles que définies par Maslach (1981) et la consommation de substances psychoactives, plus précisément au niveau de la consommation épisodique excessive et hebdomadaire à risque d’alcool et de la consommation de médicaments psychotropes. À partir d’un échantillon composé de 1809 travailleurs provenant de 83 milieux de travail québécois, des profils-types correspondant à des formes particulières de comorbidité de santé mentale au travail sont identifiés grâce à la méthode d’analyse en classes latentes. Ainsi quatre profils-types sont dégagés: un premier regroupant les individus dits «sains», dont les scores aux différentes dimensions de l’épuisement professionnel sont faibles et dont la consommation de substances psychoactives est modérée; deux autres correspondant à des formes intermédiaires de risques; et un quatrième rassemblant des travailleurs dits «fragiles» dont les scores pour chacune des dimensions de l’épuisement professionnel se situent dans le quintile le plus élevé et dont les probabilités de consommation de substances psychoactives sont grandes. De plus, cette recherche s’est penchée sur l’identification de facteurs de risque et de protection associés à chacun des profils-types. À cet effet, les résultats des analyses corroborent la plupart des associations retrouvées au sein de la littérature quant aux facteurs du travail (composantes des modèles du stress professionnel de Karasek et Theorell (1990) ainsi que de Siegrist (1990)), hors travail (statut matrimonial, obligations parentales, revenu du ménage) et certaines caractéristiques individuelles (âge et genre). De faibles récompenses et un fort degré de surinvestissement de la part de l’individu se révèlent être des facteurs de risque particulièrement significatifs pour les formes intermédiaires et à risque de comorbidité de la santé mentale au travail. Dans une moindre mesure, une faible utilisation des compétences, des demandes psychologiques élevées, un soutien social inadéquat et le jeune âge expliquent une part de la variation observée entre les différents profils-types. Enfin, les résultats soutiennent une conceptualisation tridimensionnelle de l’épuisement professionnel.
Diplômés du collège et de l’université : une comparaison des immigrants et natifs au Québec en 2006.
Resumo:
Les données du recensement de 2006 de Statistique Canada ont été utilisées afin d’étudier les immigrants diplômés ou certifiés au collégial ou à l’universitaire, tout en essayant de les comparer aux natifs du Québec et du reste du Canada. En fait, nous avons expliqué le fait de détenir un titre postsecondaire du système éducatif québécois chez l’ensemble de la population et chez les différentes générations d’immigrants selon les régions de naissance ou d’origine des individus. De plus, nous avons examiné l’effet de l’âge à l’immigration, de la langue d’usage à la maison et de la période d’arrivée sur le fait de détenir un diplôme ou un certificat postsecondaire du système éducatif québécois. Pour réaliser cette étude, nous avons donc utilisé une analyse bivariée et multivariée axée sur des variables socio-économiques, démographiques, ethnoculturelles et contextuelles. Nous avons trouvé que les natifs du Québec ont des chances supérieures aux autres groupes étudiés (immigrants des diverses régions et natifs du reste du Canada) d’avoir un titre collégial. Cependant, les immigrants, surtout ceux de l’Afrique et de l’Asie de l’Est ou du Sud-est, et les natifs du reste du Canada ont des chances nettement supérieures de détenir un titre universitaire que les natifs du Québec. Les immigrants nés aux États-Unis et en Afrique sont plus souvent diplômés de l’université que ceux nés en Asie de l’Est et du Sud-est. Les Latino-américains de première génération sont plus susceptibles d’avoir un diplôme ou un certificat collégial que les Asiatiques de l’Est ou du Sud-est. Les immigrants de deuxième génération dont la mère est née dans les Caraïbes ou au Québec ont plus de chance de détenir un diplôme ou certificat du collège que les immigrants de deuxième génération dont la mère est née en Asie de l’Est ou du Sud-est. Les enfants qui migrent au Québec ou au Canada avant 10 ans ont des chances nettement plus élevées d’avoir un titre collégial que de ne pas en avoir, en comparaison à ceux arrivés après cet âge. Un immigrant dont la langue d’usage à la maison n’est ni le français ni l’anglais réussit bien au collégial, mais détient moins souvent un titre universitaire. Enfin, la cohorte d’immigrants arrivée durant la période 2000-2006 a significativement plus de chances de détenir un titre universitaire que les autres cohortes étudiées.
Resumo:
L’amusie congénitale est un trouble neuro-développemental qui s’exprime par un déficit de discrimination tonale fine. Le cerveau des amusiques ne répond pas aux petites différences de hauteur, tel que révélé par l’absence de la composante de potentiel évoqué P3b, qui est associée aux processus de discrimination tonale tardifs et conscients. Peu d’études se sont penchées sur les mécanismes précoces et préconscients de discrimination tonale chez les amusiques, qui peuvent être étudiés par l’entremise d’une composante de potentiel évoqué appelée la négativité de discordance (MMN). Certaines études ont démontré qu’il est possible d’enregistrer la MMN pendant la présentation d’un film avec la trame sonore en simultané aux sons visant à évoquer la composante. Toutefois, une étude a démontré que la présentation de la trame sonore réduisait l’amplitude de la MMN, sans néanmoins clarifier la nature de l’effet d’interférence en cause. Les objectifs du présent projet sont d’abord, d’investiguer les effets à l’origine de la réduction d’amplitude de la MMN observée lors de la présentation d’un film avec la trame sonore, puis d’évaluer cette même composante chez les amusiques. La première étude visait à déterminer si un effet d’interférence attentionnelle ou acoustique était en cause dans la réduction d’amplitude observée sur la MMN lors de la présentation de la trame sonore d’un film. Les résultats ont montré qu’un effet de masquage acoustique, attribuable à la trame sonore, était responsable de la réduction d’amplitude de la MMN, cette dernière augmentant au fur et à mesure que l’intensité sonore de la trame du film était réduite. La seconde étude a été conduite dans le but d’investiguer la MMN chez les amusiques et de vérifier si le complexe d’ondes anormales N2b-P3b, observé en réponse aux grandes différences tonales chez les amusiques, pouvait être attribuable à un effet de saillance des stimuli. Dans un premier temps, nous avons comparé la MMN des amusiques à celle des contrôles, puis nous avons modifié le paradigme expérimental visant à évoquer la N2b-P3b en ajustant les probabilités d’occurrence des sons présentés aux contrôles en fonction des sons perçus par les amusiques. Les résultats ont montré que le cerveau des amusiques parvient à discriminer les différences de hauteur à un niveau précoce et préconscient, tel que révélé par une MMN normale, mais que les réponses cérébrales plus tardives, associées au processus de discrimination des hauteurs conscient, sont anormales chez les amusiques, et ce, uniquement pour les petites différences de hauteur, tel que révélé par l’absence de la P3b. En conclusion, ces résultats démontrent que l’amplitude de la MMN est affectée de manière significative par la présentation de la trame sonore d’un film et que cela est attribuable à un effet d’interférence acoustique. Dans un deuxième temps, nous avons démontré que les mécanismes précoces et préconscients de discrimination tonale sont préservés chez les amusiques, et que le déficit sous-jacent à l’amusie congénitale est attribuable à une atteinte du processus de discrimination tonale fine associé à un niveau de traitement cérébral tardif et conscient, le complexe d’ondes anormales N2b-P3b étant pour sa part attribuable à un effet de saillance des stimuli.
Resumo:
Contexte et objectifs. Ce mémoire propose un modèle conceptuel écologique afin de mieux comprendre la violence dans les écoles. Les objectifs de cette recherche sont de ; 1) estimer l’effet des facteurs individuels, contextuels et environnementaux sur le risque de victimisation, 2) vérifier la présence d’interactions entre les différents facteurs. Méthodologie. Les élèves de 16 écoles primaires de la grande région métropolitaine de Montréal ont pris part à un sondage auto-révélé en lien avec différentes dimensions liées à la victimisation en milieu scolaire. Des analyses descriptives ont été menées, dans un premier temps, pour dresser le portrait de la violence en milieu scolaire. Dans un second temps, l’emploi d’un modèle linéaire hiérarchique généralisé (MLHG) a permis d’estimer les effets de variables propres à l’individu, au contexte et à l’environnement sur le risque de victimisation. Résultats. Les résultats aux analyses multiniveaux montrent que des variables individuelles, contextuelles et environnementales influent sur la probabilité d’être victime de violence verbale, physique et dans les médias sociaux. Ainsi, les élèves les plus délinquants sont aussi ceux qui rapportent le plus d’antécédents de victimisation. Toutefois, ces résultats ne sont pas entièrement imputables aux caractéristiques des individus. Le risque de victimisation est atténué lorsque les « gardiens » interviennent pour mettre un terme au conflit et que les victimes se défendent. Enfin, le risque de victimisation est moins élevé dans les écoles où il y a un grand nombre d’élèves. Interprétation. Les résultats suggèrent que plusieurs facteurs qui ne sont pas liés aux victimes et aux délinquants permettent de mieux comprendre le processus de victimisation en milieu scolaire. Le rôle des gardiens de même que la taille des écoles sont des éléments centraux à la compréhension du passage à l’acte.
Resumo:
Les implications philosophiques de la Théorie de la Perspective de 1979, notamment celles qui concernent l’introduction d’une fonction de valeur sur les résultats et d’un coefficient de pondération sur les probabilités, n’ont à ce jour jamais été explorées. Le but de ce travail est de construire une théorie philosophique de la volonté à partir des résultats de la Théorie de la Perspective. Afin de comprendre comment cette théorie a pu être élaborée il faut étudier la Théorie de l’Utilité Attendue dont elle est l’aboutissement critique majeur, c’est-à-dire les axiomatisations de la décision de Ramsey (1926), von Neumann et Morgenstern (1947), et enfin Savage (1954), qui constituent les fondements de la théorie classique de la décision. C’est entre autres la critique – par l’économie et la psychologie cognitive – du principe d’indépendance, des axiomes d’ordonnancement et de transitivité qui a permis de faire émerger les éléments représentationnels subjectifs à partir desquels la Théorie de la Perspective a pu être élaborée. Ces critiques ont été menées par Allais (1953), Edwards (1954), Ellsberg (1961), et enfin Slovic et Lichtenstein (1968), l’étude de ces articles permet de comprendre comment s’est opéré le passage de la Théorie de l’Utilité Attendue, à la Théorie de la Perspective. À l’issue de ces analyses et de celle de la Théorie de la Perspective est introduite la notion de Système de Référence Décisionnel, qui est la généralisation naturelle des concepts de fonction de valeur et de coefficient de pondération issus de la Théorie de la Perspective. Ce système, dont le fonctionnement est parfois heuristique, sert à modéliser la prise de décision dans l’élément de la représentation, il s’articule autour de trois phases : la visée, l’édition et l’évaluation. À partir de cette structure est proposée une nouvelle typologie des décisions et une explication inédite des phénomènes d’akrasie et de procrastination fondée sur les concepts d’aversion au risque et de surévaluation du présent, tous deux issus de la Théorie de la Perspective.
Resumo:
Les travaux portent sur l’estimation de la variance dans le cas d’une non- réponse partielle traitée par une procédure d’imputation. Traiter les valeurs imputées comme si elles avaient été observées peut mener à une sous-estimation substantielle de la variance des estimateurs ponctuels. Les estimateurs de variance usuels reposent sur la disponibilité des probabilités d’inclusion d’ordre deux, qui sont parfois difficiles (voire impossibles) à calculer. Nous proposons d’examiner les propriétés d’estimateurs de variance obtenus au moyen d’approximations des probabilités d’inclusion d’ordre deux. Ces approximations s’expriment comme une fonction des probabilités d’inclusion d’ordre un et sont généralement valides pour des plans à grande entropie. Les résultats d’une étude de simulation, évaluant les propriétés des estimateurs de variance proposés en termes de biais et d’erreur quadratique moyenne, seront présentés.
Resumo:
Contexte: Évaluer les déterminants de maladies évitables et leurs coûts est nécessaire dans le contexte d’assurance maladie universelle. Le moment d’évaluer les impacts des traumatismes crâniocérébraux (TCC) survenus lors d’accidents de vélo est idéal vu la popularité récente du cyclisme au Québec. Objectifs: Comparer les caractéristiques démographiques et médicales, ainsi que les coûts sociétaux qu’engendrent les TCC de cyclistes portant ou non un casque. Méthodologie: Étude rétrospective de 128 cyclistes avec TCC admis à l’Hôpital Général de Montréal entre 2007 et 2011. Les variables indépendantes sont sociodémographiques, cliniques et le port du casque. Les variables dépendantes sont la durée de séjour, l’échelle GOS-E, l’échelle ISS, l’orientation au congé, les décès et les coûts à la société. Résultats: Le groupe portant un casque était plus vieux, plus éduqué, retraité et marié; au niveau médical, ils avaient des TCCs moins sévères à l’imagerie, des hospitalisations aux soins intensifs plus courtes et moins de neurochirurgies. Les coûts médians à la société pour les TCC isolés de cyclistes avec casque étaient significativement moindres. Conclusion: Dans cette étude, le port du casque semblait prévenir certaines complications des TCC et permettait de faire économiser de l’argent à l’état. Le port de casque est recommandé.
Resumo:
L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.
Resumo:
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.
Resumo:
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.
Resumo:
Empirical evidence suggests that ambiguity is prevalent in insurance pricing and underwriting, and that often insurers tend to exhibit more ambiguity than the insured individuals (e.g., [23]). Motivated by these findings, we consider a problem of demand for insurance indemnity schedules, where the insurer has ambiguous beliefs about the realizations of the insurable loss, whereas the insured is an expected-utility maximizer. We show that if the ambiguous beliefs of the insurer satisfy a property of compatibility with the non-ambiguous beliefs of the insured, then there exist optimal monotonic indemnity schedules. By virtue of monotonicity, no ex-post moral hazard issues arise at our solutions (e.g., [25]). In addition, in the case where the insurer is either ambiguity-seeking or ambiguity-averse, we show that the problem of determining the optimal indemnity schedule reduces to that of solving an auxiliary problem that is simpler than the original one in that it does not involve ambiguity. Finally, under additional assumptions, we give an explicit characterization of the optimal indemnity schedule for the insured, and we show how our results naturally extend the classical result of Arrow [5] on the optimality of the deductible indemnity schedule.
Resumo:
Empirical evidence suggests that ambiguity is prevalent in insurance pricing and underwriting, and that often insurers tend to exhibit more ambiguity than the insured individuals (e.g., [23]). Motivated by these findings, we consider a problem of demand for insurance indemnity schedules, where the insurer has ambiguous beliefs about the realizations of the insurable loss, whereas the insured is an expected-utility maximizer. We show that if the ambiguous beliefs of the insurer satisfy a property of compatibility with the non-ambiguous beliefs of the insured, then there exist optimal monotonic indemnity schedules. By virtue of monotonicity, no ex-post moral hazard issues arise at our solutions (e.g., [25]). In addition, in the case where the insurer is either ambiguity-seeking or ambiguity-averse, we show that the problem of determining the optimal indemnity schedule reduces to that of solving an auxiliary problem that is simpler than the original one in that it does not involve ambiguity. Finally, under additional assumptions, we give an explicit characterization of the optimal indemnity schedule for the insured, and we show how our results naturally extend the classical result of Arrow [5] on the optimality of the deductible indemnity schedule.