813 resultados para Modèles adaptatifs


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur le calcul de structures électroniques dans les solides. À l'aide de la théorie de la fonctionnelle de densité, puis de la théorie des perturbations à N-corps, on cherche à calculer la structure de bandes des matériaux de façon aussi précise et efficace que possible. Dans un premier temps, les développements théoriques ayant mené à la théorie de la fonctionnelle de densité (DFT), puis aux équations de Hedin sont présentés. On montre que l'approximation GW constitue une méthode pratique pour calculer la self-énergie, dont les résultats améliorent l'accord de la structure de bandes avec l'expérience par rapport aux calculs DFT. On analyse ensuite la performance des calculs GW dans différents oxydes transparents, soit le ZnO, le SnO2 et le SiO2. Une attention particulière est portée aux modèles de pôle de plasmon, qui permettent d'accélérer grandement les calculs GW en modélisant la matrice diélectrique inverse. Parmi les différents modèles de pôle de plasmon existants, celui de Godby et Needs s'avère être celui qui reproduit le plus fidèlement le calcul complet de la matrice diélectrique inverse dans les matériaux étudiés. La seconde partie de la thèse se concentre sur l'interaction entre les vibrations des atomes du réseau cristallin et les états électroniques. Il est d'abord montré comment le couplage électron-phonon affecte la structure de bandes à température finie et à température nulle, ce qu'on nomme la renormalisation du point zéro (ZPR). On applique ensuite la méthode GW au calcul du couplage électron-phonon dans le diamant. Le ZPR s'avère être fortement amplifié par rapport aux calculs DFT lorsque les corrections GW sont appliquées, améliorant l'accord avec les observations expérimentales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La polykystose rénale autosomique dominante (ADPKD) est une des maladies génétiques les plus communes. ADPKD se manifeste le plus souvent au stade adulte par la présence de kystes rénaux, et bien souvent de kystes hépatiques, avec une progression très variable. ADPKD mène à une insuffisance rénale: les seuls recours sont la dialyse puis la transplantation rénale. Les mutations dispersées sur les gènes PKD1 (majoritairement; la protéine polycystine-1, PC1) et PKD2 (la protéine polycystine-2, PC2) sont responsables de l’ADPKD. Le mécanisme pathogénétique de perte de fonction (LOF) et donc d’un effet récessif cellulaire est évoqué comme causatif de l’ADPKD. LOF est en effet supporté par les modèles murins d’inactivation de gènes PKD1/PKD2, qui développent de kystes, quoique in utéro et avec une rapidité impressionnante dans les reins mais pas dans le foie. Malgré de nombreuses études in vitro, le rôle de PC1/PC2 membranaire/ciliaire reste plutôt hypothétique et contexte-dépendant. Ces études ont associé PC1/PC2 à une panoplie de voies de signalisation et ont souligné une complexité structurelle et fonctionnelle exceptionnelle, dont l’implication a été testée notamment chez les modèles de LOF. Toutefois, les observations patho-cellulaires chez l’humain dont une expression soutenue, voire augmentée, de PKD1/PC1 et l’absence de phénotypes extrarénaux particuliers remet en question l’exclusivité du mécanisme de LOF. Il était donc primordial 1) d’éclaircir le mécanisme pathogénétique, 2) de générer des outils in vivo authentiques d’ADPKD en terme d’initiation et de progression de la maladie et 3) de mieux connaitre les fonctions des PC1/PC2 indispensables pour une translation clinique adéquate. Cette thèse aborde tous ces points. Tout d’abord, nous avons démontré qu’une augmentation de PKD1 endogène sauvage, tout comme chez l’humain, est pathogénétique en générant et caractérisant en détail un modèle murin transgénique de Pkd1 (Pkd1TAG). Ce modèle reproduit non seulement les caractéristiques humaines rénales, associées aux défauts du cil primaire, mais aussi extrarénales comme les kystes hépatiques. La sévérité du phénotype corrèle avec le niveau d’expression de Pkd1 ce qui supporte fortement un modèle de dosage. Dans un deuxième temps, nous avons démontré par les études de complémentations génétiques que ces deux organes reposent sur une balance du clivage GPS de Pc1, une modification post-traductionelle typique des aGPCR, et dont l’activité et l’abondance semblent strictement contrôlées. De plus, nous avons caractérisé extensivement la biogénèse de Pc1 et de ses dérivés in vivo générés suite au clivage GPS. Nous avons identifié une toute nouvelle forme et prédominante à la membrane, la forme Pc1deN, en plus de confirmer deux fragments N- et C-terminal de Pc1 (NTF et CTF, respectivement) qui eux s’associent de manière non-covalente. Nous avons démontré de façon importante que le trafic de Pc1deN i.e., une forme NTF détachée du CTF, est toutefois dépendant de l’intégrité du fragment CTF in vivo. Par la suite, nous avons généré un premier modèle humanisant une mutation PKD1 non-sens tronquée au niveau du domaine NTF(E3043X) en la reproduisant chez une souris transgénique (Pkd1extra). Structurellement, cette mutation, qui mimique la forme Pc1deN, s’est également avérée causative de PKD. Le modèle Pkd1extra a permis entre autre de postuler l’existence d’une cross-interaction entre différentes formes de Pc1. De plus, nos deux modèles murins sont tous les deux associés à des niveaux altérés de c-Myc et Pc2, et soutiennent une implication réelle de ces derniers dans l’ADPKD tou comme une interaction fonctionnelle entre les polycystines. Finalement, nous avons démontré un chevauchement significatif entre l’ADPKD et le dommage rénal aigüe (ischémie/AKI) dont une expression augmentée de Pc1 et Pc2 mais aussi une stimulation de plusieurs facteurs cystogéniques tel que la tubérine, la β-caténine et l’oncogène c-Myc. Nos études ont donc apporté des évidences cruciales sur la contribution du gène dosage dans l’ADPKD. Nous avons développé deux modèles murins qui serviront d’outil pour l’analyse de la pathologie humaine ainsi que pour la validation préclinique ADPKD. L’identification d’une nouvelle forme de Pc1 ajoute un niveau de complexité supplémentaire expliquant en partie une capacité de régulation de plusieurs voies de signalisation par Pc1. Nos résultats nous amènent à proposer de nouvelles approches thérapeutiques: d’une part, le ciblage de CTF i.e., de style chaperonne, et d’autre part le ciblage de modulateurs intracellulaires (c-Myc, Pc2, Hif1α). Ensemble, nos travaux sont d’une importance primordiale du point de vue informatif et pratique pour un avancement vers une thérapie contre l’ADPKD. Le partage de voies communes entre AKI et ADPKD ouvre la voie aux approches thérapeutiques parallèles pour un traitement assurément beaucoup plus rapide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La déubiquitinase BAP1 (« BRCA1-Associated Protein1 ») a initialement été isolée pour sa capacité de promouvoir la fonction suppressive de tumeurs de BRCA1. BAP1 est muté de manière homozygote dans plusieurs cancers (tel que le cancer du rein, de la peau, de l’oeil et du sein) suggérant fortement que cette déubiquitinase est un suppresseur de tumeurs. Effectivement, la surexpression de BAP1 réduit la prolifération cellulaire et la croissance tumorale dans des modèles de xénogreffe de souris. Toutefois, la fonction biologique et le mécanisme d’action de cette déubiquitinase restent encore marginalement connus. Ainsi, les objectifs de cette thèse sont de caractériser la fonction biologique de BAP1 et de révéler les bases moléculaires de sa fonction suppressive de tumeurs. Pour déterminer la fonction biologique de BAP1, nous avons immuno-purifié et identifié les protéines associées à BAP1, qui s’avèrent être principalement des facteurs et co-facteurs de transcription. Ensuite, nous avons démontré que BAP1 est un régulateur de la transcription. Parallèlement, un autre groupe a montré que BAP1 chez la drosophile, Calypso, régule l’ubiquitination de H2A et la transcription génique. D’autre part, nos résultats d’analyse d’expression génique globale suggèrent que BAP1 jouerait un rôle important dans la réponse aux dommages à l’ADN. Effectivement, des expériences de gain et de perte de fonction (méthode de l’ARNi, modèle de cellules KO en BAP1 et de cellules déficientes en BAP1 re-exprimant BAP1) ont révélé que cette déubiquitinase régule la réponse aux bris double brin d’ADN par la recombinaison homologue. Nos résultats suggèrent que BAP1 exerce sa fonction suppressive de tumeurs en contrôlant la réparation sans erreur de l’ADN via la recombinaison homologue. En cas d’inactivation de BAP1, les cellules deviendront plus dépendantes du mécanisme de réparation par jonction d'extrémités non-homologues, qui est potentiellement mutagénique causant ainsi l’instabilité génomique. D’autres études seront nécessaires afin de déterminer le rôle exact de BAP1 dans la transcription et de comprendre comment la dérégulation de l’ubiquitination de H2A contribue au développement du cancer. Définir les mécanismes de suppression tumorale est de grand intérêt, non seulement pour comprendre la carcinogénèse mais également pour le développement de nouvelles thérapies contre cette maladie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nombreuses études cliniques sur les maladies affectant les noyaux gris centraux (NGC) ont montré l’importance des déficits moteurs engendrés par un dysfonctionnement de ces structures. La locomotion est particulièrement affectée chez ces patients, ce qui suggère un rôle important des NGC dans le contrôle de celle-ci. En revanche, très peu d’études fondamentales ont enregistré l’activité des neurones des NGC durant la locomotion chez des modèles intacts. Le globus pallidus, en tant qu’une des principales structures de sortie des NGC, constitue une cible idéale pour étudier le signal transmis par les NGC au thalamus et au tronc cérébral. L’objectif de notre étude est de mieux comprendre la contribution que joue le segment externe du globus pallidus (GPe) dans le contrôle de la locomotion sous guidage visuel. Cette étude constitue le premier rapport d’enregistrements de l’activité des neurones du GPe lors de modifications volontaires de la marche sous guidage visuel. Notre hypothèse générale est que le GPe contribue au contrôle de la locomotion, et particulièrement lors des modifications de la marche. Nous avons enregistré l’activité des neurones du GPe de chats au repos, puis marchant sur un tapis et enjambant des obstacles. Nos résultats ont révélé que la plupart des cellules montraient peu de changements lors de la locomotion non-obstruée par rapport au repos. En revanche, la moitié des neurones enregistrés présentaient une modulation significative de leur décharge durant l’enjambement de l’obstacle. Nous avons observé une majorité de ces cellules qui diminuaient leur fréquence et un tiers de neurones qui l’augmentaient pendant le pas modifié, suggérant que le GPe exerce sur le mouvement un contrôle dépendant du contexte, permettant sélectivement l’augmentation ou la diminution de l’activité motrice. De plus, presque toutes les cellules déchargeaient durant la totalité de la phase de balancement du membre antérieur controlatéral, ce qui semble indiquer une contribution du GPe dans le timing et la durée de cette phase. Finalement, la moitié des neurones présentaient un changement réciproque entre la condition de lead et la condition de trail. Ce résultat suggère que le GPe participerait à la sélection d’action du membre lors des modifications de la marche. Nos résultats illustrent la complexité de l’activité du GPe lors de la locomotion sous guidage visuel et ils sont compatibles avec une contribution plus générale au mouvement que celle exercée par le cortex moteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, le policier a l’autorité de faire respecter plusieurs lois et d’assurer le maintien de l’ordre. Puisque le policier peut être confronté à une multiplicité de problématiques, il est, dans certaines circonstances, contraint à employer une force pour se protéger lui-même ou pour protéger toute autre personne contre la mort ou contre des lésions corporelles graves. Cependant, bien que l’usage de la force par la police soit l’un des éléments les plus visibles et les plus controversés de l’intervention policière, les connaissances sur ce sujet spécifique demeurent limitées. Afin de pallier à certaines lacunes de la recherche et de la théorie, l’objectif général de ce mémoire vise à identifier les facteurs individuels, situationnels et contextuels liés au niveau de force utilisé par la police lors d’une intervention dans les postes de quartier et dans les secteurs de recensement. Les données dans le cadre de cette étude proviennent des rapports d’incidents déclarés d’usage de la force d’un service de police canadien pour une période couvrant les années 2007 à 2011, les données issues du recensement canadien de 2006 et les données criminelles issues du Programme de déclaration uniforme de la criminalité (DUC). La stratégie analytique privilégiée est la modélisation hiérarchique qui permettra de tester les liens entre les différents niveaux d’analyse. Au terme des analyses multiniveaux, les résultats indiquent que plusieurs facteurs ont un impact sur le niveau de force utilisé par le policier. Au niveau des déterminants individuels du sujet, c’est le fait d’être un homme, de résister physiquement à l’intervention et de posséder une arme qui est associé à des niveaux plus élevés de force. Au niveau des facteurs contextuels, on découvre que la proportion de minorité visible et le désavantage social ont un impact appréciable sur le niveau de force utilisé par le policier. Ces résultats nous amènent donc à conclure que les policiers tiennent surtout compte de la situation immédiate (facteurs individuels et situationnels) pour évaluer le degré de dangerosité ou de menace, mais qu’ils sont également influencés par l’endroit où ils se trouvent. D’autres études sont toutefois nécessaires pour vérifier la constance de nos résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire propose une réflexion psychanalytique à partir de L'Âge d'homme et de L'Afrique fantôme de Michel Leiris. Il y est montré que la notion freudienne de scène primitive sert de paradigme à l'écriture autobiographique de cet auteur. Cette étude commence par approfondir les récits de rêves dans ces textes. Il s'agit d'emprunter la voie royale vers l'inconscient. Le moi du narrateur adopte une position masochiste devant des femmes phalliques dont il s'éprend. C'est ce qui le fait basculer dans la passion postcourtoise, notion développée par Paul-Laurent Assoun. La Dame se substitue à l'objet perdu et se présente comme une Judith meurtrière. Les nombreuses identifications du narrateur avec des personnages légendaires nous permettent de transposer son existence à l'intérieur d'une mythologie personnelle. L'analyse de ces fantaisies d'identification avec des modèles masculins révèle le sadisme de son surmoi. À Gondar, l'auteur tombe amoureux d'Emawayish, une sorcière éthiopienne, qui devient son double idéal de Lucrèce et Judith. Cette relation amoureuse répète inconsciemment la structure du complexe d'Œdipe. L'Âge d'homme apparaît comme une recherche du corps maternel et l'écriture autobiographique devient le moyen de remédier au sentiment mélancolique de perte d'objet d'amour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’œuvre de Nelly Arcan s’inscrit dans un pan de la littérature contemporaine accueillant les monstres comme figures de la transgression qui, par leur é-normité, interrogent la norme dont ils s’écartent. Ces êtres à la fois fascinants et inquiétants hantent la littérature depuis les récits fondateurs de la mythologie antique. Arcan, à l’instar de plusieurs femmes auteurs, recourt au procédé de la réécriture de plusieurs grands mythes grecs dans Folle (2004) et À ciel ouvert (2007). Dans les deux récits, elle met en scène des personnages en fuite qui, face à leur destin néfaste, se métamorphosent en femmes-monstres et en hommes-monstres. Les personnages masculins empruntent des traits à Jason, Narcisse et Pygmalion, mais sont, par leur déviance sexuelle et leur propension à la domination, beaucoup plus monstrueux que leurs modèles antiques. Contaminées par la monstruosité des hommes qu’elles aiment jusqu’à l’annihilation de soi, les protagonistes des deux récits affichent certains traits de Médée, de Méduse et des Amazones, tirant parti de la puissance de ces figures nocives pour donner une leçon aux personnages masculins. Elles acquièrent ainsi de nouveau leur statut de sujet. Dans ce mémoire, il s’agira, par le biais de la mythocritique, des théories de la réécriture et de l’effet-personnage, d’étudier les causes, le processus et les effets du « devenir-monstre » des personnages féminins et d’examiner la reconfiguration de mythes antiques par Arcan. En s’intéressant à la greffe des mythes antiques sur les personnages arcaniens, au déplacement et au renversement des mythèmes caractéristiques des figures prédécesseures, cette recherche espère montrer comment Nelly Arcan dissèque les relations de couple qui mènent au « devenir-monstre » des partenaires. Il ressortira de cette analyse une vision apocalyptique du vivre ensemble, entre hommes et femmes, qui rejoue l’ancienne « guerre des sexes » que l’on croyait terminée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les impacts des changements climatiques sur la population sont nombreux et ont été relativement bien documentés, ce qui n’est pas le cas de ces impacts sur la santé et la sécurité des travailleurs. L’objectif de cette thèse est de documenter les effets négatifs des changements climatiques sur la santé et la sécurité des travailleurs dans une région d’un pays industrialisé à climat tempéré, comme le Québec. Pour y arriver, deux approches ont été utilisées : a) les dangers et les effets sanitaires ont été identifiés par une revue de la littérature validée par des experts nationaux et internationaux, et des priorités de recherche ont été établies à l’aide d’une méthode de consultation itérative, b) des modèles statistiques, utiles à l’estimation des impacts sanitaires des changements climatiques, ont été développés pour apprécier les associations entre la survenue de lésions professionnelles et l’exposition des travailleurs aux chaleurs estivales et à l’ozone troposphérique, deux problématiques préoccupantes pour le Québec. Le bilan des connaissances a mis en évidence cinq catégories de dangers pouvant affecter directement ou indirectement la santé et la sécurité des travailleurs au Québec (vagues de chaleur, polluants de l’air, rayonnements ultraviolets, événements météorologiques extrêmes, maladies vectorielles transmissibles et zoonoses) et cinq conditions pouvant entraîner des modifications dans l’environnement de travail et pouvant ultimement affecter négativement la santé et la sécurité des travailleurs (changements dans les méthodes agricoles et d’élevage, altérations dans l’industrie de la pêche, perturbations de l’écosystème forestier, dégradation de l’environnement bâti et émergence de nouvelles industries vertes). Quant aux modélisations, elles suggèrent que les indemnisations quotidiennes pour des maladies liées à la chaleur et pour des accidents de travail augmentent avec les températures estivales, et que ces associations varient selon l’âge des travailleurs, le secteur industriel et la catégorie professionnelle (manuelle vs autre). Des associations positives statistiquement non significatives entre les indemnisations pour des atteintes respiratoires aiguës et les concentrations d’ozone troposphérique ont aussi été observées. Dans l’ensemble, cette thèse a permis de dégager douze pistes de recherche prioritaires pour le Québec se rapportant à l’acquisition de connaissances, à la surveillance épidémiologique et au développement de méthodes d’adaptation. Selon les résultats de cette recherche, les intervenants en santé au travail et les décideurs devraient déployer des efforts pour protéger la santé et la sécurité des travailleurs et mettre en place des actions préventives en vue des changements climatiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans l'optique d'améliorer la performance des services de santé en première ligne, un projet d'implantation d'une adaptation québécoise d'un modèle de soins centré sur le patient appuyé par un dossier médical personnel (DMP) a été mis sur pied au sein d'un groupe de médecine familiale (GMF) de la région de Montréal. Ainsi, ce mémoire constitue une analyse comparative entre la logique de l'intervention telle qu'elle est décrite dans les données probantes concernant les modèles de soins centrés sur le patient et le dossier médical personnel ainsi que la logique de l'intervention issue de nos résultats obtenus dans le cadre de ce projet au sein d'un GMF. L'analyse organisationnelle se situe durant la phase de pré-déploiement de l'intervention. Les principaux résultats sont que la logique d'intervention appliquée dans le cadre du projet est relativement éloignée de ce qui se fait de mieux dans la littérature sur le sujet. Ceci est en partie explicable par les différentes résistances en provenance des acteurs du projet (ex. médecins, infirmières, fournisseur technologique) dans le projet, mais aussi par l'absence de l'interopérabilité entre le DMP et le dossier médical électronique (DME). Par ailleurs, les principaux effets attendus par les acteurs impliqués sont l'amélioration de la continuité informationnelle, de l’efficacité-service, de la globalité et de la productivité. En outre, l’implantation d’un modèle centré sur le patient appuyé par un DMP impliquerait la mise en œuvre d’importantes transformations structurelles comme une révision du cadre législatif (ex. responsabilité médicale) et des modes de rémunérations des professionnels de la santé, sans quoi, les effets significatifs sur les dimensions de la performance comme l’accessibilité, la qualité, la continuité, la globalité, la productivité, l’efficacité et la réactivité pourraient être limités. Ces aménagements structuraux devraient favoriser la collaboration interprofessionnelle, l'interopérabilité des systèmes, l’amélioration de la communication multidirectionnelle (patient-professionnel de la santé) ainsi qu'une autogestion de la santé supportée (ex. éducation, prévention, transparence) par les professionnels de la santé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maladie de Parkinson (PD) a été uniquement considérée pour ses endommagements sur les circuits moteurs dans le cerveau. Il est maintenant considéré comme un trouble multisystèmique, avec aspects multiples non moteurs y compris les dommages intérêts pour les circuits cognitifs. La présence d’un trouble léger de la cognition (TCL) de PD a été liée avec des changements structurels de la matière grise, matière blanche ainsi que des changements fonctionnels du cerveau. En particulier, une activité significativement réduite a été observée dans la boucle corticostriatale ‘cognitive’ chez des patients atteints de PD-TCL vs. PD non-TCL en utilisant IRMf. On sait peu de cours de ces modèles fonctionnels au fil du temps. Dans cette étude, nous présentons un suivi longitudinal de 24 patients de PD non démente qui a subi une enquête neuropsychologique, et ont été séparés en deux groupes - avec et sans TCL (TCL n = 11, non-TCL n = 13) en fonction du niveau 2 des recommandations de la Movement Disrders Society pour le diagnostic de PD-TCL. Ensuite, chaque participant a subi une IRMf en effectuant la tâche de Wisconsin pendant deux sessions, 19 mois d'intervalle. Nos résultats longitudinaux montrent qu'au cours de la planification de période de la tâche, les patients PD non-TCL engageant les ressources normales du cortex mais ils ont activé en plus les zones corticales qui sont liés à la prise de décision tel que cortex médial préfrontal (PFC), lobe pariétal et le PFC supérieure, tandis que les PD-TCL ont échoué pour engager ces zones en temps 2. Le striatum n'était pas engagé pour les deux groupes en temps 1 et pour le groupe TCL en temps 2. En outre, les structures médiales du lobe temporal étaient au fil du temps sous recrutés pour TCL et Non-TCL et étaient positivement corrélés avec les scores de MoCA. Le cortex pariétal, PFC antérieur, PFC supérieure et putamen postérieur étaient négativement corrélés avec les scores de MoCA en fil du temps. Ces résultats révèlent une altération fonctionnelle pour l’axe ganglial-thalamo-corticale au début de PD, ainsi que des niveaux différents de participation corticale pendant une déficience cognitive. Cette différence de recrutement corticale des ressources pourrait refléter longitudinalement des circuits déficients distincts de trouble cognitive légère dans PD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'association entre la relation mère-enfant, la relation enseignant-élève et l'adaptation scolaire (compétences cognitives et sociaux) a reçu ultérieurement une attention considérable dans la littérature scientifique. En dépit de la quantité de recherches effectuées, il subsiste un besoin afin de mieux connaître les processus sous-jacent qui jouent un rôle dans cette relation. L’objectif de la recherche actuelle consiste en l’éclaircissement de l’association entre la relation enseignant-élève, le partenariat mère-enfant, et l’adaptation scolaire. Les différentes hypothèses de recherche étaient : la qualité de la relation enseignant-élève servira de facteur de protection à l’adaptation scolaire (ou à une des composantes) chez les enfants nés de mères adolescentes dont le partenariat mère-enfant est de moindre qualité; la deuxième hypothèse était que le partenariat mère-enfant prédirait la qualité de la relation enseignant-élève, qui prédirait par la suite l’adaptation à la maternelle des enfants nés de mères adolescentes. Finalement, la troisième hypothèse de recherche est que les deux relations (partenariat mère-enfant et relation enseignant-élève) contribuent de façon unique à l’adaptation scolaire. Ainsi, trois modèles d’association possibles ont été testé (modération, médiation et contributions uniques et additives) auprès d’une population à risque, soit les enfants de 5 ans nés d’une mère adolescente. L’échantillon provient d’un projet longitudinal prospectif, la «Mère-Veille,» et est composé de 30 dyades mère-enfant (N=30). La qualité du partenariat mère-enfant, évalué en laboratoire lorsque les enfants avaient 4 ans, a été mesurée à l’aide des récits narratifs co-construits. La qualité de la relation enseignant-élève a été mesurée via l’adaptation française du student teacher relationship scale à 5 ans. Finalement, la mesure de l’adaptation scolaire (comme variable dépendante) comprenant les compétences en numération et les dimensions comportementales (comportements intériorisés, extériorisés et compétences sociales) ont été évalué respectivement par l’entremise de l’adaptation française du number knowledge test et du profil socioaffectif. Une série de régressions linéaires (avec et sans variables contrôles) ont été effectuées pour estimer les trois modèles. La réponse aux hypothèses varie en fonction des différentes composantes de l’adaptation scolaire. Sommes toutes, nos résultats ne suggèrent aucune relation significative ni processus intermédiaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les récents avancements en sciences cognitives, psychologie et neurosciences, ont démontré que les émotions et les processus cognitifs sont intimement reliés. Ce constat a donné lieu à une nouvelle génération de Systèmes Tutoriels Intelligents (STI) dont la logique d’adaptation repose sur une considération de la dimension émotionnelle et affective de l’apprenant. Ces systèmes, connus sous le nom de Systèmes Tutoriels Émotionnellement Intelligents (STEI), cherchent à se doter des facultés des tuteurs humains dans leurs capacités à détecter, comprendre et s’adapter intuitivement en fonction de l’état émotionnel des apprenants. Toutefois, en dépit du nombre important de travaux portant sur la modélisation émotionnelle, les différents résultats empiriques ont démontré que les STEI actuels n’arrivent pas à avoir un impact significatif sur les performances et les réactions émotionnelles des apprenants. Ces limites sont principalement dues à la complexité du concept émotionnel qui rend sa modélisation difficile et son interprétation ambiguë. Dans cette thèse, nous proposons d’augmenter les STEI des indicateurs d’états mentaux d’engagement et de charge mentale de travail. Ces états mentaux ont l’avantage d’englober à la fois une dimension affective et cognitive. Pour cela, nous allons, dans une première partie, présenter une approche de modélisation de ces indicateurs à partir des données de l’activité cérébrale des apprenants. Dans une seconde partie, nous allons intégrer ces modèles dans un STEI capable d’adapter en temps réel le processus d’apprentissage en fonction de ces indicateurs.