913 resultados para Préparation des données (Informatique)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif: Évaluer la relation entre la fonction cognitive chez les personnes âgées atteintes de dégénérescence maculaire reliée à l’âge (DMLA), de glaucome ou de dystrophie cornéenne de Fuchs et les comparer avec les personnes âgées n’ayant pas de maladie oculaire. Devis: Étude transversale de population hospitalière. Participants: 420 participants (113 avec la DMLA, 66 avec la dystrophie cornéenne de Fuchs, 130 avec le glaucome et 111 témoins). Méthodes: Nous avons recruté les patients à partir de la clinique d’ophtalmologie de l’Hôpital Maisonneuve-Rosemont (Montréal, Canada) de septembre 2009 à septembre 2013. Les patients atteints de la DMLA ou de la maladie de Fuchs ont une acuité visuelle inférieure à 20/40 dans les deux yeux, tandis que les patients avec du glaucome ont un champ visuel dans le pire œil inférieur ou égal à -4dB. Les patients contrôles, qui ont été recrutés à partir des mêmes cliniques, ont une acuité visuelle et un champ visuel normaux. Nous avons colligé des données concernant la fonction cognitive à partir du test Mini-Mental State Exam (MMSE)-version aveugle. Pour mesurer la fonction visuelle, nous avons mesuré l’acuité visuelle, la sensibilité au contraste et le champ visuel. Nous avons également révisé le dossier médical. Pour les analyses statistiques, nous avons utilisé la régression linéaire. Critère de jugement principal: MMSE-version aveugle. Résultats: Les trois maladies oculaires ont été associées à une limitation de la cognition. Le score de MMSE-version aveugle se situe de 0.7 à 0.8 unités plus basses par rapport au groupe contrôle. Comparativement aux contrôles, les patients avec maladies oculaires ont eu un score moyen diminué (P < 0.05). Le niveau d’éducation élevé est associé à une meilleure cognition (P < 0.001). Conclusions: Nos résultats suggèrent que les maladies oculaires sont associées à une diminution de la fonction cognitive chez les personnes âgées. De futures études sont nécessaires pour évaluer l’impact des maladies oculaires sur le déclin cognitif chez cette population pour pouvoir envisager des interventions ciblées qui pourraient les aider à maintenir leur indépendance le plus longtemps possible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire décrit et évalue la manière dont trois directions d’école, reconnues pour leur intérêt pour la justice sociale par le programme Une école montréalaise pour tous (MÉLS), exercent un leadership transformatif dans trois écoles primaires de milieux défavorisés à Montréal. Pour ce faire, nous décrivons les connaissances des directions d’école sur le concept de justice sociale, leurs actions rapportées et observées en lien avec l’exercice d’un leadership transformatif, en précisant dans quelles situations se produisent ces actions, puis nous décrivons les différences et similitudes entre les directions concernant l’exercice d’un leadership transformatif. L’étude de cas multiples a été privilégiée dans le cadre de cette recherche. Nous avons récolté des données d’observations, d’entrevues, d’un questionnaire et de documents internes obtenus auprès des directions d’école participantes. Nous avons ensuite analysé ces données en utilisant le modèle conceptuel d’Archambault et Garon (2011a). Peu de comportements ont été observés dans la pratique des directions d’école qui témoignaient d’un leadership transformatif. Cependant, cette recherche nous a permis de constater que la conscientisation des directions d’école a une grande influence sur l’exercice d’un leadership transformatif qui se traduit dans les attitudes, les comportements rapportés ou observés et les connaissances des participants. C’est pourquoi nous discutons de la pertinence de mieux comprendre le processus d’apprentissage et de réflexion des directions d’école pour l’exercice d’un tel leadership. Nous souhaitons ainsi mieux soutenir les directions d’école afin qu’elles exercent un leadership transformatif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse vise à mieux comprendre les tensions ethniques. Ceci est fait en explorant, dans une étude en quatre parties, l'une de ses caractéristiques les plus importantes mais sévèrement négligées: la langue. S’inspirant des traditions de recherche de la sociolinguistique, de la psychologie sociale et de la science politique, cette thèse fournit une analyse en profondeur de l'influence de la langue sur les relations intergroupes. Elle le fait, spécifiquement, en se concentrant sur l'influence que la vitalité linguistique, la santé sociale d'une langue, a sur les tensions sociales. Cette thèse propose un cadre théorique dans lequel le niveau de vitalité linguistique contribue à générer des griefs culturels qui ont une incidence par la suite sur les relations intergroupes. Le premier article explore la relation macro entre la vitalité linguistique et l'intensité des conflits intergroupes. Les résultats, dérivés de données de l'Atlas UNESCO des langues en danger dans le monde et du projet Minorities at Risk (MAR), démontrent une relation curvilinéaire où les niveaux bas et élevé de vitalité linguistique génèrent une intensité inférieure au niveau modéré de vitalité. Ces résultats confirment que la vitalité linguistique est un déterminant important des tensions ethniques fondées sur la langue d'une manière générale, mais encore davantage pour les pays ayant plusieurs minorités linguistiques. Le deuxième article explore l'influence de la vitalité linguistique sur la confiance politique. Il utilise des données de l'Atlas UNESCO des langues en danger dans le monde ainsi que des données du European Social Survey (ESS). Les résultats soutiennent un modèle de médiation dans lequel la vitalité linguistique influence positivement la confiance politique d'une manière directe ainsi qu’indirectement par le biais de la discrimination perçue. Le troisième article cherche à isoler la séquence socio-psychologique qui relie la vitalité linguistique aux tensions intergroupes. Des données de sondage originales ont été recueillies auprès de francophones du Québec, de l'Ontario, du Nouveau-Brunswick et du Manitoba. Les résultats d’analyses de régression multiple soutiennent une séquence socio-psychologique dans laquelle la menace endogroupe influence les attitudes envers l’exogroupe par le biais de la menace perçue comme étant causée par l’exogroupe. Ainsi, ces constats soulignent l'importance des perceptions de la vitalité linguistique pour les attitudes intergroupes. Le quatrième article, produit en collaboration avec Patrick Fournier et Veronica Benet-Martinez, utilise un protocole expérimental pour déterminer le rôle causal de la vitalité linguistique sur les attitudes intergroupes. Les résultats démontrent que le type d'information, positif ou négatif, au sujet de la vitalité linguistique influence les perceptions de menace envers une langue. Cependant, les résultats quant à l'impact de l’information à propos de la vitalité linguistique sur les attitudes envers l’exogroupe, l’appui à la souveraineté et l'identité subjective sont moins évidents. Cette thèse permet de mieux comprendre les tensions intergroupes en démontrant le rôle important que joue la vitalité linguistique sur des phénomènes macros ainsi que sur les attitudes des individus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente thèse se base sur les principes de la théorisation ancrée (Strauss & Corbin, 1998) afin de répondre au manque de documentation concernant les stratégies adoptées par des « agents intermédiaires » pour promouvoir l’utilisation des connaissances issues de la recherche auprès des intervenants en éducation. Le terme « agent intermédiaire » réfère aux personnes qui sont positionnées à l’interface entre les producteurs et les utilisateurs des connaissances scientifiques et qui encouragent et soutiennent les intervenants scolaires dans l’application des connaissances scientifiques dans leur pratique. L’étude s’inscrit dans le cadre d’un projet du ministère de l’Éducation, du Loisir et du Sport du Québec visant à améliorer la réussite scolaire des élèves du secondaire provenant de milieux défavorisés. Des agents intermédiaires de différents niveaux du système éducatif ayant obtenu le mandat de transférer des connaissances issues de la recherche auprès des intervenants scolaires dans les écoles visées par le projet ont été sollicités pour participer à l’étude. Une stratégie d’échantillonnage de type « boule-de-neige » (Biernacki & Waldorf, 1981; Patton, 1990) a été employée afin d’identifier les personnes reconnues par leurs pairs pour la qualité du soutien offert aux intervenants scolaires quant à l’utilisation de la recherche dans leur pratique. Seize entrevues semi-structurées ont été réalisées. L’analyse des données permet de proposer un modèle d’intervention en transfert de connaissances composé de 32 stratégies d’influence, regroupées en 6 composantes d’intervention, soit : relationnelle, cognitive, politique, facilitatrice, évaluative, de même que de soutien et de suivi continu. Les résultats suggèrent que les stratégies d’ordre relationnelle, cognitive et politique sont interdépendantes et permettent d’établir un climat favorable dans lequel les agents peuvent exercer une plus grande influence sur l’appropriation du processus de l’utilisation des connaissances des intervenants scolaire. Ils montrent en outre que la composante de soutien et de suivi continu est importante pour maintenir les changements quant à l’utilisation de la recherche dans la pratique chez les intervenants scolaires. Les implications théoriques qui découlent du modèle, ainsi que les explications des mécanismes impliqués dans les différentes composantes, sont mises en perspective tant avec la documentation scientifique en transfert de connaissances dans les secteurs de la santé et de l’éducation, qu’avec les travaux provenant de disciplines connexes (notamment la psychologie). Enfin, des pistes d’action pour la pratique sont proposées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La progression de l’espérance de vie au Québec reflète l’amélioration de la santé de la population. Toutefois, des décès continuent à survenir prématurément avant l’âge de 75 ans. Une part de cette mortalité prématurée est potentiellement évitable. L'objectif de ce mémoire est d’estimer la mortalité évitable au Québec de 1981-1985 à 2005-2009. Pour cela, la méthode de Tobias et Jackson (2001) a été appliquée sur des données de décès, fournies par l’Institut national de santé publique du Québec, pour estimer les taux de mortalité évitable totale et pour chacun des sexes. Cette approche nous a, par ailleurs, permis d’estimer des taux de mortalité évitable selon trois paliers de prévention : primaire, secondaire et tertiaire. Nos résultats démontrent une tendance à la baisse de la mortalité évitable à travers le temps. Cette baisse a été enregistrée chez les deux sexes, mais des disparités de mortalité évitable existent entre les hommes et les femmes. En effet, la mortalité évitable des hommes est plus élevée que celle des femmes et cet écart de mortalité est principalement dû à la mortalité évitable associée à la prévention primaire. L’analyse de la mortalité évitable par cause de décès fait ressortir que le cancer du poumon est la principale cause de décès évitable tant chez les hommes que chez les femmes en 2005-2009. Durant cette même période, le cancer du sein et les cardiopathies ischémiques étaient la deuxième cause de décès évitable respectivement chez les femmes et chez les hommes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les récents avancements en sciences cognitives, psychologie et neurosciences, ont démontré que les émotions et les processus cognitifs sont intimement reliés. Ce constat a donné lieu à une nouvelle génération de Systèmes Tutoriels Intelligents (STI) dont la logique d’adaptation repose sur une considération de la dimension émotionnelle et affective de l’apprenant. Ces systèmes, connus sous le nom de Systèmes Tutoriels Émotionnellement Intelligents (STEI), cherchent à se doter des facultés des tuteurs humains dans leurs capacités à détecter, comprendre et s’adapter intuitivement en fonction de l’état émotionnel des apprenants. Toutefois, en dépit du nombre important de travaux portant sur la modélisation émotionnelle, les différents résultats empiriques ont démontré que les STEI actuels n’arrivent pas à avoir un impact significatif sur les performances et les réactions émotionnelles des apprenants. Ces limites sont principalement dues à la complexité du concept émotionnel qui rend sa modélisation difficile et son interprétation ambiguë. Dans cette thèse, nous proposons d’augmenter les STEI des indicateurs d’états mentaux d’engagement et de charge mentale de travail. Ces états mentaux ont l’avantage d’englober à la fois une dimension affective et cognitive. Pour cela, nous allons, dans une première partie, présenter une approche de modélisation de ces indicateurs à partir des données de l’activité cérébrale des apprenants. Dans une seconde partie, nous allons intégrer ces modèles dans un STEI capable d’adapter en temps réel le processus d’apprentissage en fonction de ces indicateurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude vise à étoffer la base conceptuelle du phénomène de sens au travail permettant ainsi de mieux le comprendre et le saisir et cherche à proposer un modèle théorique pouvant expliquer le processus de construction d’un sens au travail par des infirmières libanaises. Le sens au travail se présente à la fois en tant qu’un processus qui émerge suite aux interactions dynamiques qui s’établissent entre un individu et son contexte de travail et en tant que produit qui s’exprime chez un individu au niveau de la satisfaction, la motivation, l’engagement organisationnel, la performance et la santé au travail. L’étude de ce phénomène constitue une nouvelle voie permettant d’apporter un nouvel éclairage à un contexte de travail, tel que le contexte libanais, qui souffre depuis des années d’un problème de pénurie du personnel infirmier. L’interactionnisme symbolique a constitué le cadre épistémologique et méthodologique de cette étude qui a adopté une approche qualitative par théorisation ancrée. L’étude s’est déroulée dans une région libanaise auprès de neuf infirmières hospitalières exerçant la profession dans des contextes de travail variés. La collecte des données a été faite par le recours à des entrevues individuelles enregistrées sur un support numérique ; les données ont été par la suite transcrites et analysées suivant la méthode constructiviste de Charmaz (2006). Les résultats ont permis de proposer un modèle théorique qui explique le processus de construction d’un sens au travail qui découle des interactions des infirmières libanaises avec les divers éléments du contexte de travail. Ces infirmières ont développé une représentation du contexte de travail marquée par une surcharge de travail, un salaire inadéquat, des opportunités de développement et d’avancement professionnel réduites, un comportement inéquitable des supérieurs et un image publique dévalorisée de l’infirmière. Ce contexte porte atteinte à la satisfaction de trois objectifs recherchés par ces infirmières à travers leur travail et qui sont : 1) prendre soin des patients ; 2) subvenir à ses propres besoins ; et 3) être reconnue en tant que professionnelle. Afin de construire un sens au travail et composer avec ce contexte contraignant, les infirmières se basent sur leurs ressources intrinsèques. La valorisation de l’infirmière et du travail infirmier, la satisfaction de l’effort fourni, l’actualisation de soi et l’avancement professionnel permettent à ces infirmières de protéger et de maintenir un sens au travail. Finalement, il était possible de conceptualiser le sens au travail en tant qu’un phénomène subjectif et multidimensionnel, nourri par l’amour de la profession et se traduisant par un travail qui répond aux attentes des infirmières. Les connaissances qui ont émergé de cette étude pourront aider à mettre en place des stratégies personnelles et contextuelles permettant de favoriser le processus de construction de sens au travail chez les infirmières libanaises afin de réduire le problème de pénurie du personnel infirmier. Des pistes de recherches sont encore avancées et des recommandations pour la formation sont proposées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les événements fondateurs et les expansions territoriales peuvent promouvoir une cascade de changements génétiques et ont ainsi pu jouer un rôle important au cours de l’histoire évolutive de l’Homme moderne. Or, chez les populations humaines, les conséquences évolutives et la dynamique démographique des processus de colonisation demeurent largement méconnues et difficiles à étudier. Dans cette thèse, nous avons utilisé les généalogies de la population fondatrice canadienne-française ainsi que des données génomiques pour étudier ces questions. Les analyses génomiques et généalogiques, remarquablement concordantes, ont dévoilé un nouveau portrait détaillé de la structure de la population du Québec, incluant un continuum de diversité génétique dans l’axe ouest/est et des sous-populations significativement différenciées. L’analyse de l’immigration fondatrice a montré que virtuellement tous les Canadiens français sont métissés. Allant à l’encontre d’une prétendue homogénéité génétique de la population, nos résultats démontrent que le peuplement des régions a engendré une rapide différentiation génétique et expliquent certaines signatures régionales de l’effet fondateur. De plus, en suivant les changements évolutifs dans les généalogies, nous avons montré que les caractéristiques des peuplements fondateurs peuvent affecter les traits liés à la fécondité et au succès reproducteur. Cette thèse offre une meilleure compréhension du patrimoine génétique du Québec et apporte des éléments de réponse sur les conséquences évolutives des événements fondateurs.