997 resultados para Modèles TCBP
Resumo:
Les nombreuses études cliniques sur les maladies affectant les noyaux gris centraux (NGC) ont montré l’importance des déficits moteurs engendrés par un dysfonctionnement de ces structures. La locomotion est particulièrement affectée chez ces patients, ce qui suggère un rôle important des NGC dans le contrôle de celle-ci. En revanche, très peu d’études fondamentales ont enregistré l’activité des neurones des NGC durant la locomotion chez des modèles intacts. Le globus pallidus, en tant qu’une des principales structures de sortie des NGC, constitue une cible idéale pour étudier le signal transmis par les NGC au thalamus et au tronc cérébral. L’objectif de notre étude est de mieux comprendre la contribution que joue le segment externe du globus pallidus (GPe) dans le contrôle de la locomotion sous guidage visuel. Cette étude constitue le premier rapport d’enregistrements de l’activité des neurones du GPe lors de modifications volontaires de la marche sous guidage visuel. Notre hypothèse générale est que le GPe contribue au contrôle de la locomotion, et particulièrement lors des modifications de la marche. Nous avons enregistré l’activité des neurones du GPe de chats au repos, puis marchant sur un tapis et enjambant des obstacles. Nos résultats ont révélé que la plupart des cellules montraient peu de changements lors de la locomotion non-obstruée par rapport au repos. En revanche, la moitié des neurones enregistrés présentaient une modulation significative de leur décharge durant l’enjambement de l’obstacle. Nous avons observé une majorité de ces cellules qui diminuaient leur fréquence et un tiers de neurones qui l’augmentaient pendant le pas modifié, suggérant que le GPe exerce sur le mouvement un contrôle dépendant du contexte, permettant sélectivement l’augmentation ou la diminution de l’activité motrice. De plus, presque toutes les cellules déchargeaient durant la totalité de la phase de balancement du membre antérieur controlatéral, ce qui semble indiquer une contribution du GPe dans le timing et la durée de cette phase. Finalement, la moitié des neurones présentaient un changement réciproque entre la condition de lead et la condition de trail. Ce résultat suggère que le GPe participerait à la sélection d’action du membre lors des modifications de la marche. Nos résultats illustrent la complexité de l’activité du GPe lors de la locomotion sous guidage visuel et ils sont compatibles avec une contribution plus générale au mouvement que celle exercée par le cortex moteur.
Resumo:
Au Québec, le policier a l’autorité de faire respecter plusieurs lois et d’assurer le maintien de l’ordre. Puisque le policier peut être confronté à une multiplicité de problématiques, il est, dans certaines circonstances, contraint à employer une force pour se protéger lui-même ou pour protéger toute autre personne contre la mort ou contre des lésions corporelles graves. Cependant, bien que l’usage de la force par la police soit l’un des éléments les plus visibles et les plus controversés de l’intervention policière, les connaissances sur ce sujet spécifique demeurent limitées. Afin de pallier à certaines lacunes de la recherche et de la théorie, l’objectif général de ce mémoire vise à identifier les facteurs individuels, situationnels et contextuels liés au niveau de force utilisé par la police lors d’une intervention dans les postes de quartier et dans les secteurs de recensement. Les données dans le cadre de cette étude proviennent des rapports d’incidents déclarés d’usage de la force d’un service de police canadien pour une période couvrant les années 2007 à 2011, les données issues du recensement canadien de 2006 et les données criminelles issues du Programme de déclaration uniforme de la criminalité (DUC). La stratégie analytique privilégiée est la modélisation hiérarchique qui permettra de tester les liens entre les différents niveaux d’analyse. Au terme des analyses multiniveaux, les résultats indiquent que plusieurs facteurs ont un impact sur le niveau de force utilisé par le policier. Au niveau des déterminants individuels du sujet, c’est le fait d’être un homme, de résister physiquement à l’intervention et de posséder une arme qui est associé à des niveaux plus élevés de force. Au niveau des facteurs contextuels, on découvre que la proportion de minorité visible et le désavantage social ont un impact appréciable sur le niveau de force utilisé par le policier. Ces résultats nous amènent donc à conclure que les policiers tiennent surtout compte de la situation immédiate (facteurs individuels et situationnels) pour évaluer le degré de dangerosité ou de menace, mais qu’ils sont également influencés par l’endroit où ils se trouvent. D’autres études sont toutefois nécessaires pour vérifier la constance de nos résultats.
Resumo:
Ce mémoire propose une réflexion psychanalytique à partir de L'Âge d'homme et de L'Afrique fantôme de Michel Leiris. Il y est montré que la notion freudienne de scène primitive sert de paradigme à l'écriture autobiographique de cet auteur. Cette étude commence par approfondir les récits de rêves dans ces textes. Il s'agit d'emprunter la voie royale vers l'inconscient. Le moi du narrateur adopte une position masochiste devant des femmes phalliques dont il s'éprend. C'est ce qui le fait basculer dans la passion postcourtoise, notion développée par Paul-Laurent Assoun. La Dame se substitue à l'objet perdu et se présente comme une Judith meurtrière. Les nombreuses identifications du narrateur avec des personnages légendaires nous permettent de transposer son existence à l'intérieur d'une mythologie personnelle. L'analyse de ces fantaisies d'identification avec des modèles masculins révèle le sadisme de son surmoi. À Gondar, l'auteur tombe amoureux d'Emawayish, une sorcière éthiopienne, qui devient son double idéal de Lucrèce et Judith. Cette relation amoureuse répète inconsciemment la structure du complexe d'Œdipe. L'Âge d'homme apparaît comme une recherche du corps maternel et l'écriture autobiographique devient le moyen de remédier au sentiment mélancolique de perte d'objet d'amour.
Resumo:
L’œuvre de Nelly Arcan s’inscrit dans un pan de la littérature contemporaine accueillant les monstres comme figures de la transgression qui, par leur é-normité, interrogent la norme dont ils s’écartent. Ces êtres à la fois fascinants et inquiétants hantent la littérature depuis les récits fondateurs de la mythologie antique. Arcan, à l’instar de plusieurs femmes auteurs, recourt au procédé de la réécriture de plusieurs grands mythes grecs dans Folle (2004) et À ciel ouvert (2007). Dans les deux récits, elle met en scène des personnages en fuite qui, face à leur destin néfaste, se métamorphosent en femmes-monstres et en hommes-monstres. Les personnages masculins empruntent des traits à Jason, Narcisse et Pygmalion, mais sont, par leur déviance sexuelle et leur propension à la domination, beaucoup plus monstrueux que leurs modèles antiques. Contaminées par la monstruosité des hommes qu’elles aiment jusqu’à l’annihilation de soi, les protagonistes des deux récits affichent certains traits de Médée, de Méduse et des Amazones, tirant parti de la puissance de ces figures nocives pour donner une leçon aux personnages masculins. Elles acquièrent ainsi de nouveau leur statut de sujet. Dans ce mémoire, il s’agira, par le biais de la mythocritique, des théories de la réécriture et de l’effet-personnage, d’étudier les causes, le processus et les effets du « devenir-monstre » des personnages féminins et d’examiner la reconfiguration de mythes antiques par Arcan. En s’intéressant à la greffe des mythes antiques sur les personnages arcaniens, au déplacement et au renversement des mythèmes caractéristiques des figures prédécesseures, cette recherche espère montrer comment Nelly Arcan dissèque les relations de couple qui mènent au « devenir-monstre » des partenaires. Il ressortira de cette analyse une vision apocalyptique du vivre ensemble, entre hommes et femmes, qui rejoue l’ancienne « guerre des sexes » que l’on croyait terminée.
Resumo:
Les impacts des changements climatiques sur la population sont nombreux et ont été relativement bien documentés, ce qui n’est pas le cas de ces impacts sur la santé et la sécurité des travailleurs. L’objectif de cette thèse est de documenter les effets négatifs des changements climatiques sur la santé et la sécurité des travailleurs dans une région d’un pays industrialisé à climat tempéré, comme le Québec. Pour y arriver, deux approches ont été utilisées : a) les dangers et les effets sanitaires ont été identifiés par une revue de la littérature validée par des experts nationaux et internationaux, et des priorités de recherche ont été établies à l’aide d’une méthode de consultation itérative, b) des modèles statistiques, utiles à l’estimation des impacts sanitaires des changements climatiques, ont été développés pour apprécier les associations entre la survenue de lésions professionnelles et l’exposition des travailleurs aux chaleurs estivales et à l’ozone troposphérique, deux problématiques préoccupantes pour le Québec. Le bilan des connaissances a mis en évidence cinq catégories de dangers pouvant affecter directement ou indirectement la santé et la sécurité des travailleurs au Québec (vagues de chaleur, polluants de l’air, rayonnements ultraviolets, événements météorologiques extrêmes, maladies vectorielles transmissibles et zoonoses) et cinq conditions pouvant entraîner des modifications dans l’environnement de travail et pouvant ultimement affecter négativement la santé et la sécurité des travailleurs (changements dans les méthodes agricoles et d’élevage, altérations dans l’industrie de la pêche, perturbations de l’écosystème forestier, dégradation de l’environnement bâti et émergence de nouvelles industries vertes). Quant aux modélisations, elles suggèrent que les indemnisations quotidiennes pour des maladies liées à la chaleur et pour des accidents de travail augmentent avec les températures estivales, et que ces associations varient selon l’âge des travailleurs, le secteur industriel et la catégorie professionnelle (manuelle vs autre). Des associations positives statistiquement non significatives entre les indemnisations pour des atteintes respiratoires aiguës et les concentrations d’ozone troposphérique ont aussi été observées. Dans l’ensemble, cette thèse a permis de dégager douze pistes de recherche prioritaires pour le Québec se rapportant à l’acquisition de connaissances, à la surveillance épidémiologique et au développement de méthodes d’adaptation. Selon les résultats de cette recherche, les intervenants en santé au travail et les décideurs devraient déployer des efforts pour protéger la santé et la sécurité des travailleurs et mettre en place des actions préventives en vue des changements climatiques.
Resumo:
Dans l'optique d'améliorer la performance des services de santé en première ligne, un projet d'implantation d'une adaptation québécoise d'un modèle de soins centré sur le patient appuyé par un dossier médical personnel (DMP) a été mis sur pied au sein d'un groupe de médecine familiale (GMF) de la région de Montréal. Ainsi, ce mémoire constitue une analyse comparative entre la logique de l'intervention telle qu'elle est décrite dans les données probantes concernant les modèles de soins centrés sur le patient et le dossier médical personnel ainsi que la logique de l'intervention issue de nos résultats obtenus dans le cadre de ce projet au sein d'un GMF. L'analyse organisationnelle se situe durant la phase de pré-déploiement de l'intervention. Les principaux résultats sont que la logique d'intervention appliquée dans le cadre du projet est relativement éloignée de ce qui se fait de mieux dans la littérature sur le sujet. Ceci est en partie explicable par les différentes résistances en provenance des acteurs du projet (ex. médecins, infirmières, fournisseur technologique) dans le projet, mais aussi par l'absence de l'interopérabilité entre le DMP et le dossier médical électronique (DME). Par ailleurs, les principaux effets attendus par les acteurs impliqués sont l'amélioration de la continuité informationnelle, de l’efficacité-service, de la globalité et de la productivité. En outre, l’implantation d’un modèle centré sur le patient appuyé par un DMP impliquerait la mise en œuvre d’importantes transformations structurelles comme une révision du cadre législatif (ex. responsabilité médicale) et des modes de rémunérations des professionnels de la santé, sans quoi, les effets significatifs sur les dimensions de la performance comme l’accessibilité, la qualité, la continuité, la globalité, la productivité, l’efficacité et la réactivité pourraient être limités. Ces aménagements structuraux devraient favoriser la collaboration interprofessionnelle, l'interopérabilité des systèmes, l’amélioration de la communication multidirectionnelle (patient-professionnel de la santé) ainsi qu'une autogestion de la santé supportée (ex. éducation, prévention, transparence) par les professionnels de la santé.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
La maladie de Parkinson (PD) a été uniquement considérée pour ses endommagements sur les circuits moteurs dans le cerveau. Il est maintenant considéré comme un trouble multisystèmique, avec aspects multiples non moteurs y compris les dommages intérêts pour les circuits cognitifs. La présence d’un trouble léger de la cognition (TCL) de PD a été liée avec des changements structurels de la matière grise, matière blanche ainsi que des changements fonctionnels du cerveau. En particulier, une activité significativement réduite a été observée dans la boucle corticostriatale ‘cognitive’ chez des patients atteints de PD-TCL vs. PD non-TCL en utilisant IRMf. On sait peu de cours de ces modèles fonctionnels au fil du temps. Dans cette étude, nous présentons un suivi longitudinal de 24 patients de PD non démente qui a subi une enquête neuropsychologique, et ont été séparés en deux groupes - avec et sans TCL (TCL n = 11, non-TCL n = 13) en fonction du niveau 2 des recommandations de la Movement Disrders Society pour le diagnostic de PD-TCL. Ensuite, chaque participant a subi une IRMf en effectuant la tâche de Wisconsin pendant deux sessions, 19 mois d'intervalle. Nos résultats longitudinaux montrent qu'au cours de la planification de période de la tâche, les patients PD non-TCL engageant les ressources normales du cortex mais ils ont activé en plus les zones corticales qui sont liés à la prise de décision tel que cortex médial préfrontal (PFC), lobe pariétal et le PFC supérieure, tandis que les PD-TCL ont échoué pour engager ces zones en temps 2. Le striatum n'était pas engagé pour les deux groupes en temps 1 et pour le groupe TCL en temps 2. En outre, les structures médiales du lobe temporal étaient au fil du temps sous recrutés pour TCL et Non-TCL et étaient positivement corrélés avec les scores de MoCA. Le cortex pariétal, PFC antérieur, PFC supérieure et putamen postérieur étaient négativement corrélés avec les scores de MoCA en fil du temps. Ces résultats révèlent une altération fonctionnelle pour l’axe ganglial-thalamo-corticale au début de PD, ainsi que des niveaux différents de participation corticale pendant une déficience cognitive. Cette différence de recrutement corticale des ressources pourrait refléter longitudinalement des circuits déficients distincts de trouble cognitive légère dans PD.
Resumo:
Résumé L'association entre la relation mère-enfant, la relation enseignant-élève et l'adaptation scolaire (compétences cognitives et sociaux) a reçu ultérieurement une attention considérable dans la littérature scientifique. En dépit de la quantité de recherches effectuées, il subsiste un besoin afin de mieux connaître les processus sous-jacent qui jouent un rôle dans cette relation. L’objectif de la recherche actuelle consiste en l’éclaircissement de l’association entre la relation enseignant-élève, le partenariat mère-enfant, et l’adaptation scolaire. Les différentes hypothèses de recherche étaient : la qualité de la relation enseignant-élève servira de facteur de protection à l’adaptation scolaire (ou à une des composantes) chez les enfants nés de mères adolescentes dont le partenariat mère-enfant est de moindre qualité; la deuxième hypothèse était que le partenariat mère-enfant prédirait la qualité de la relation enseignant-élève, qui prédirait par la suite l’adaptation à la maternelle des enfants nés de mères adolescentes. Finalement, la troisième hypothèse de recherche est que les deux relations (partenariat mère-enfant et relation enseignant-élève) contribuent de façon unique à l’adaptation scolaire. Ainsi, trois modèles d’association possibles ont été testé (modération, médiation et contributions uniques et additives) auprès d’une population à risque, soit les enfants de 5 ans nés d’une mère adolescente. L’échantillon provient d’un projet longitudinal prospectif, la «Mère-Veille,» et est composé de 30 dyades mère-enfant (N=30). La qualité du partenariat mère-enfant, évalué en laboratoire lorsque les enfants avaient 4 ans, a été mesurée à l’aide des récits narratifs co-construits. La qualité de la relation enseignant-élève a été mesurée via l’adaptation française du student teacher relationship scale à 5 ans. Finalement, la mesure de l’adaptation scolaire (comme variable dépendante) comprenant les compétences en numération et les dimensions comportementales (comportements intériorisés, extériorisés et compétences sociales) ont été évalué respectivement par l’entremise de l’adaptation française du number knowledge test et du profil socioaffectif. Une série de régressions linéaires (avec et sans variables contrôles) ont été effectuées pour estimer les trois modèles. La réponse aux hypothèses varie en fonction des différentes composantes de l’adaptation scolaire. Sommes toutes, nos résultats ne suggèrent aucune relation significative ni processus intermédiaires.
Resumo:
La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.
Resumo:
Les récents avancements en sciences cognitives, psychologie et neurosciences, ont démontré que les émotions et les processus cognitifs sont intimement reliés. Ce constat a donné lieu à une nouvelle génération de Systèmes Tutoriels Intelligents (STI) dont la logique d’adaptation repose sur une considération de la dimension émotionnelle et affective de l’apprenant. Ces systèmes, connus sous le nom de Systèmes Tutoriels Émotionnellement Intelligents (STEI), cherchent à se doter des facultés des tuteurs humains dans leurs capacités à détecter, comprendre et s’adapter intuitivement en fonction de l’état émotionnel des apprenants. Toutefois, en dépit du nombre important de travaux portant sur la modélisation émotionnelle, les différents résultats empiriques ont démontré que les STEI actuels n’arrivent pas à avoir un impact significatif sur les performances et les réactions émotionnelles des apprenants. Ces limites sont principalement dues à la complexité du concept émotionnel qui rend sa modélisation difficile et son interprétation ambiguë. Dans cette thèse, nous proposons d’augmenter les STEI des indicateurs d’états mentaux d’engagement et de charge mentale de travail. Ces états mentaux ont l’avantage d’englober à la fois une dimension affective et cognitive. Pour cela, nous allons, dans une première partie, présenter une approche de modélisation de ces indicateurs à partir des données de l’activité cérébrale des apprenants. Dans une seconde partie, nous allons intégrer ces modèles dans un STEI capable d’adapter en temps réel le processus d’apprentissage en fonction de ces indicateurs.
Resumo:
Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.
Resumo:
Plusieurs études ont démontré l’impact de divers facteurs sur l’espérance de vie, dont les caractéristiques liées à l’environnement dans l’enfance et à l’âge adulte. L’objectif principal de ce mémoire est de déterminer si l’exposition à une épidémie durant la période fœtale ou pendant la première année de vie a un impact sur la survie après 40 ans pour les Québécois nés entre 1885 et 1901. Durant cette période, nous avons relevé des épidémies de variole et de scarlatine, ainsi qu’une pandémie de grippe, la grippe russe. L’influence d’autres facteurs sur l’âge au décès est également étudiée, celle du sexe, de l’année et de la saison de naissance, du lieu de résidence à la naissance (urbain ou rural) et des régions d’habitation dans l’enfance et à l’âge adulte. Les données sur les Canadiens français nés au Québec à la fin du XIXe siècle, soit l’échantillon de 5% des ménages du recensement canadien de 1901 (Sager 2001) recueilli par le Canadian Families Project, jumelées aux dates de décès à partir de l’index des décès de 1926 à 1996 de l’Institut de la statistique du Québec (ISQ) et de la Société de généalogie du Québec (Pilon-Marien et al. 2009; Gagnon et Bohnert 2012) ont été analysées. Plus spécifiquement, nous avons effectué une analyse descriptive de la population étudiée, puis une analyse multivariée à l’aide de modèles de Cox et de modèles de Gompertz. Il en résulte qu’une exposition à une épidémie avant l’âge d’un an augmente significativement le risque de décéder après l’âge de 40 ans. L’exposition pendant la période fœtale a également un effet négatif sur la longévité, toutefois cet effet n’est pas significatif dans les modèles fournissant le meilleur ajustement aux données. Enfin, une naissance pendant une épidémie, donc une exposition in utero et durant la première année de vie n’a pas d’impact négatif significatif sur l’âge au décès pour ceux qui survivent jusqu’à 40 ans.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) en sciences infirmières, option expertise-conseil
Resumo:
Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.