259 resultados para Alain Farah


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de maîtrise présenté à la faculté de médecine en vue de l’obtention du grade de M.Sc.A. en génie biomédical - Option génie clinique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthylation de l'ADN est une marque épigénétique importante chez les mammifères. Malgré le fait que la méthylation de la cytosine en 5' (5mC) soit reconnue comme une modification épigénétique stable, il devient de plus en plus reconnu qu'elle soit un processus plus dynamique impliquant des voies de méthylation et de déméthylation actives. La dynamique de la méthylation de l'ADN est désormais bien caractérisée dans le développement et dans le fonctionnement cellulaire des mammifères. Très peu est cependant connu concernant les implications régulatrices dans les réponses immunitaires. Pour se faire, nous avons effectué des analyses du niveau de transcription des gènes ainsi que du profilage épigénétique de cellules dendritiques (DCs) humaines. Ceux-ci ont été faits avant et après infection par le pathogène Mycobacterium tuberculosis (MTB). Nos résultats fournissent le premier portrait génomique du remodelage épigénétique survenant dans les DCs en réponse à une infection bactérienne. Nous avons constaté que les changements dans la méthylation de l'ADN sont omniprésents, identifiant 3,926 régions différentiellement méthylées lors des infections par MTB (MTB-RDMs). Les MTB-RDMs montrent un chevauchement frappant avec les régions génomiques marquées par les histones associées avec des régions amplificatrices. De plus, nos analyses ont révélées que les MTB-RDMs sont activement liées par des facteurs de transcription associés à l'immunité avant même d'être infecté par MTB, suggérant ces domaines comme étant des éléments d'activation dans un état de dormance. Nos données suggèrent que les changements actifs dans la méthylation jouent un rôle essentiel pour contrôler la réponse cellulaire des DCs à l'infection bactérienne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) en sciences infirmières, option expertise-conseil

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cotutelle de thèse réalisée en littérature comparée (option épistémologie) avec l'Université de Montréal sous la direction de Terry Cochran et en philosophie avec Paris X (Nanterre) sous la direction d'Alain Milon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est une recherche théorique qui tire son origine du constat selon lequel il est difficile d’analyser la réalisation du projet professionnel des candidats à l’enseignement. Tel est le cas en raison des particularités contextuelles et des pluralités théoriques relatives aux notions de formation et d’insertion. À partir de ce constat, ce mémoire propose un cadre d’analyse permettant de comprendre comment les jeunes enseignants du Québec appréhendent le « rapport entre » leur formation et leur insertion face aux différentes contraintes (i.e. rigidité du système institutionnel de la formation, marché de l’insertion fluctuant et saturé, etc.) et aux ressources disponibles (i.e. programme d’études, cours, etc.) pour réaliser leur projet professionnel. Il repose sur l’hypothèse selon laquelle, pour réaliser leur projet professionnel, les candidats à l’enseignement mobilisent des stratégies afin de négocier les contraintes et ressources de leurs contextes respectifs. Dans cette optique, la démarche de cette recherche théorique s’inscrit dans une perspective interactionniste, telle qu’elle est véhiculée par la tradition de Chicago (Chapoulie, 2001). Quelques postulats sont mobilisés pour baliser les différentes étapes d’élaboration du cadre d’analyse. Le premier postulat considère que le « point de vue » de l’acteur est prépondérant pour comprendre ses conduites (Morrissette, Guignon & Demaziére, 2011). Cela amène à articuler les ancrages théoriques nécessaires à l’élaboration du cadre d’analyse en croisant une sociologie interactionniste avec une sociologie de l’action. Plus particulièrement, les concepts de « définition de la situation » de Thomas (1923) et de la « représentation de soi » de Goffman (1969) sont mis à profit. Les notions de coopération, d’incertitude et de rationalité, tirées du modèle de l’acteur stratégique de Crozier et Friedberg (1981), viennent compléter les assises de la modélisation d’une trame de négociation (Strauss & Baszanger, 1992). Le deuxième postulat considère que les contextes, sont prépondérants pour expliquer les conduites humaines (Abbott, 1999). Ces contextes, dits «éloignés» et «rapprochés» de l’acteur, constituent le « contexte d’action » (Strauss & Baszanger, 1992). Ce faisant, ils influent sur les stratégies mobilisées par l’acteur candidat à l’enseignement. Le troisième postulat considère que le monde social est animé par des processus (re)créés au travers des interactions entre acteurs (Morrissette & Guignon, 2014). Il amène à envisager la formation et l’insertion comme des processus sujets à des redéfinitions continues. Cela conduit à repenser la réalisation du projet professionnel des candidats à l’enseignement sous l’angle du « rapport entre ». Ces trois postulats structurent le cadre d’analyse qui se présente comme une « trame de négociation ». Il est développé pour éventuellement éclairer les stratégies de négociation mobilisées en contexte par les candidats québécois à l’enseignement pour réaliser leur projet professionnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une récente théorie de la mémoire a proposé que lorsqu'un souvenir déjà bien consolidé est réactivé, il redevient labile et susceptible aux modifications avant d'être restabilisé (reconsolidé) en mémoire à long terme. Ce nouveau modèle réfute le modèle classique de la consolidation qui propose qu'une fois consolidés, les souvenirs soient permanents et donc résistants aux effets des agents amnésiques. Les études validant la théorie de la reconsolidation abondent chez les animaux, mais encore peu d'études ont été réalisées chez les humains. L'objectif de cette thèse est de vérifier, dans une population de sujets sains et de sujets souffrant de trouble de stress post-traumatique (TSPT), l'efficacité d'un agent pharmacologique, le propranolol (un β-bloquant noradrénergique) à atténuer des souvenirs émotionnels nouvellement acquis ou déjà bien consolidés. Plus spécifiquement, nous avons mené un essai clinique contrôlé à double insu chez des sujets sains en leur administrant du propranolol (vs du placebo) lors de l'acquisition d'un nouveau souvenir et une semaine plus tard, lors de sa réactivation. L'objectif du premier article était d'évaluer l'efficacité du propranolol à diminuer la consolidation et la reconsolidation d'un souvenir émotionnel. Par ailleurs, puisque les études chez les animaux ont démontré que ces deux processus mnésiques s'effectuent à l'intérieur d'une fenêtre temporelle précise, le moment de l'administration du propranolol fut pris en considération. Les résultats ont démontré que le propranolol est en mesure de diminuer la consolidation et la reconsolidation d'une histoire émotionnelle tel que démontré par un pourcentage de bonnes réponses plus faible que le groupe contrôle lors des rappels. Toutefois, pour que cet effet soit observé, le propranolol doit être administré une heure avant la présentation des stimuli, pour la consolidation et une heure avant leur réactivation, pour la reconsolidation. En outre, les études portant sur la consolidation et la reconsolidation chez les animaux et chez les humains obtiennent parfois des résultats contradictoires. Ceci pourrait s'expliquer par le type de stimuli utilisé. Ainsi, l'objectif du second article était de préciser quel type d'information est le plus susceptible d'être affecté par le propranolol lors de son acquisition (consolidation) et lors de sa réactivation (reconsolidation). Pour ce faire, les éléments de l'histoire émotionnelle ont été divisés en fonction de leur valence (émotionnel ou neutre) et de leur centralité (central ou périphérique). Les résultats ont démontré le propranolol affecte l'ensemble des informations centrales lors du blocage de la consolidation, mais qu'il affecte plus spécifiquement les éléments émotionnels centraux lors de la reconsolidation. Notre groupe ayant précédemment démontré que le traitement avec le propranolol est en mesure de réduire les symptômes de TSPT chez une population clinique, nous nous sommes interrogés sur son efficacité à diminuer la mémoire implicite d'un événement traumatique. Le propranolol a été administré aux participants à 6 reprises (une fois par semaine sur une période de 6 semaines) lors de la réactivation de leur trauma. Les résultats ont révélé que le traitement avec le propranolol est en mesure de diminuer la réponse psychophysiologique des participants à l'écoute du compte rendu de leur trauma une semaine et 4 mois suivant la fin du traitement. En somme, cette thèse démontre que le propranolol est en mesure de bloquer la consolidation et la reconsolidation de souvenirs émotionnels chez l'humain lorsqu'il est administré une heure avant l'acquisition ou la réactivation des souvenirs. Il arrive en outre à atténuer un souvenir déclaratif émotionnel chez des sujets sains, mais également un souvenir implicite chez des sujets souffrant de TSPT. Ainsi, ces résultats ouvrent la voie à la création de nouveaux traitements pour les psychopathologies ayant comme étiologie un souvenir émotionnel intense.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les crypto-monnaies telles Bitcoin, l’anonymité des utilisateurs peut être compromise de plusieurs façons. Dans ce mémoire, nous effectuons une revue de littérature et une classification des différents protocoles existants pour anonymiser les usagers et analysons leur efficacité. S’appuyant sur certains critères désirables dans de tels protocoles, nous proposons un modèle de mixeur synchrone décentralisé. Nous avons ciblé deux approches qui s’inscrivent dans ce modèle, le plan de transaction et le réseau de transactions, le second étant une contribution originale de ce mémoire. Nous expliquons son fonctionnement puis analysons son efficacité dans le contexte actuel d’utilisation de Bitcoin

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose est la déformation de la colonne vertébrale la plus répandue. Elle atteint 3 à 4% de la population pédiatrique et dans 85% des cas, aucune cause n’a été identifiée. Ces cas sont appelés idiopathiques et les symptômes apparaissent durant la puberté; d’où le terme de ‘scoliose idiopathique de l’adolescent (SIA). Cette pathologie atteint le plus souvent les jeunes filles, en nombre et en sévérité. Ces dernières années, plusieurs hypothèses ont été proposées afin d’élucider l’étiologie de cette pathologie. Celles-ci ont mis de l’avant différents facteurs génétiques, biochimiques, mécaniques, neurologiques, musculaires ou hormonaux. Plusieurs études ont rapporté des formes familiales de scoliose, soutenant la thèse d’une prédisposition génétique. Nous avons démontré que les patients souffrant de SIA présentent un défaut de signalisation cellulaire médiée par les protéines Gi et un taux élevé d’ostéopontine (OPN) circulante. En utilisant une approche de type ‘gène candidat’, nous avons montré que la protéine tyrosine phosphatase μ (PTPμ) régule l’activité du complexe d’intégrines α5/β1 (récepteur de l’OPN) via la protéine kinase PIPKIγ. Dans ce but, nous avons utilisé des cultures primaires d’ostéoblastes issues de biopsies de patients et de cas traumatiques comme sujets contrôles. Les biopsies osseuses de patients ont été obtenues lors de l’intervention chirurgicale à partir des vertèbres T3 à L4, selon les différentes procédures. Les biopsies issues de cas traumatiques proviennent d’autres types d’os (tibia, crête iliaque, fémur). Les profils d’expression du gène PTPRM (codant pour la protéine PTPμ) ont été étudiés par PCR quantitative (qPCR). Les taux de protéines PTPμ ont été analysés par immunoprécipitation suivi d’un western blot. Pour évaluer le rôle de cette protéine, nous avons bénéficié d’un modèle murin. Machida et al. ont démontré qu’il existe un taux plus élevé de scoliose parmi les souris C57Bl/6 bipèdes obtenues suite à l’amputation des membres supérieurs, sous anesthésie, cinq semaines après la naissance. Nous avons utilisé des cultures primaires d’ostéoblastes issues de la colonne ii vertébrale de souris C57Bl/6 bipèdes, délétées du gène PTPRM (souris dites ‘KO’), afin d’évaluer le niveau de signalisation cellulaire spécifique des protéines Gi par un test fonctionnel: la technique de spectroscopie cellulaire di-électrique (SCD). Selon nos données, 85% des souris bipédales ‘KO’ pour le géne PTPRM développent une scoliose (modérée à sévère) contre 55% des souris contrôles C57Bl6 bipèdes. De plus, les niveaux de PTPμ exprimée par les ostéoblastes de 34 patients SIA se trouvent diminués par comparaison à 17 sujets contrôles. Nos études de souris bipèdes ont montré que l’inactivation du gène PTPRM augmente l’incidence et la sévérité de la scoliose, sans pour autant affecter les taux circulant d’OPN ou l’expression de ses récepteurs. Par ailleurs, dans ce même contexte, nous avons remarqué une augmentation de l’interaction entre l’OPN et l’intégrine β1 en l’absence du gène PTPRM. Les cellules issues de ces souris bipèdes KO montrent une réduction dans leurs niveaux de signalisation cellulaire médiée par les protéines Gi après stimulation par l’OPN. Cette diminution est en grande partie récupérée après traitement des cellules par un siRNA spécifique de la protéine PIPK1γ, substrat de PTPμ qui favorise la fixation de ligands aux intégrines. Ces études apportent les premières indications que la perte d’expression de PTPμ est impliquée dans le développement de la SIA, en amplifiant probablement l’effet inhibiteur de l’OPN sur la signalisation cellulaire médiée par les protéines Gi. Ces études permettent une meilleure compréhension de l’étiologie de la SIA. Elles pourraient avoir une contribution importante dans le développement futur de méthodes diagnostique et thérapeuthique dans le but d'arrete l’apparition et l’évolution de la maladie chez les enfants atteints.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche revisite la conceptualisation du logement et des ressources résidentielles pour les adultes avec un trouble mental. Les objectifs visent : (1) à identifier les attributs, dimensions et domaines ; (2) à développer un nouveau modèle ; (3) à concevoir un instrument de mesure pour décrire l’éventail des ressources résidentielles en santé mentale. Méthodologie : Phase 1: Le devis de recherche s’articule autour de la cartographie de concepts, caractérisée par une méthodologie mixte. L’échantillonnage, par choix raisonné, a permis de recueillir une pluralité de perceptions et d’expériences (p.ex. personnes utilisatrices de services, proches, responsables de ressources résidentielles, gestionnaires). Les participants proviennent de cinq régions du Québec (nombre total de participations = 722). Au cours des six étapes de la cartographie de concepts, les participants ont généré des attributs décrivant le logement (n = 221), leur ont accordé une cote numérique (n = 416) et les ont regroupés en catégories (n = 73). Douze participants ont interprété des cartes conceptuelles produites par des analyses multivariées, soit l’échelonnage multidimensionnel (MDS) et la typologie hiérarchique. Des analyses par composantes principales (PCAs) ont été utilisées pour raffiner la conceptualisation (n = 228). Phase II: L’instrument a été développé, utilisé et ajusté à la suite de deux groupes de discussions (n = 23) et d’une étude transversale auprès de ressources résidentielles (n = 258). La passation se fait via une entrevue téléphonique semi-structurée enregistrée, d’une durée moyenne de 130 minutes. Résultats : Les participants ont généré 1382 idées (99.5% de saturation). Les cartes conceptuelles issues de la cartographie de concepts comprennent 140 idées (attributs du logement), 12 dimensions et cinq domaines (indice de stress MDS = 0.2302, 10 itérations). Les analyses PCAs ont permis de retenir quatre domaines, 11 composantes (α = 0.600 à 0.933) et 81 attributs. Les domaines sont : (1) environnement géophysique; (2) atmosphère et fonctionnement du milieu; (3) soutien et interventions offerts; (4) pratiques organisationnelles et managériales. L’instrument développé comprend quatre domaines, 10 dimensions et 83 attributs. À cela s’ajoutent des variables descriptives. L’instrument résulte des Phases I et II de ce projet. Conclusion : L’instrument a été développé en collaboration avec diverses parties prenantes, à partir de considérations ontologiques, réalistes, causales et statistiques. Il dresse le profil détaillé d’une ressource résidentielle sous ses différentes facettes et s’appuie sur la prémisse qu’il n’existe pas de milieu résidentiel idéal pour tous.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire étudie les rapports texte/image dans Vues et visions de Claude Cahun, première œuvre composite créée en collaboration avec la peintre graphiste Marcel Moore. L’objet littéraire protéiforme, appartenant au genre de l’iconotexte (Alain Montandon), instaure un dialogue intermédial entre le textuel et le visuel au point de déconstruire l’horizon d’attente du lecteur : celui-ci est incité à lire et à voir alternativement les poèmes en prose ainsi que les dessins de sorte que les frontières qui définissent l’espace du littéral et du figural apparaissent poreuses. Subdivisé en deux chapitres, notre travail s’attachera dans un premier temps à mettre en lumière le rôle de l’écriture qui intègre certains dessins de Moore. En nous inspirant de l’iconolecture (Emmanuelle Pelard), nous tenterons d’effectuer des liens entre la plasticité et la signification littérale des signes linguistiques qu’illustrent ces images-textes tout en étudiant les correspondances thématiques et formelles qu’elles entretiennent avec les poèmes de Cahun. Le second chapitre étudiera la manière dont le figural investit le texte littéraire en adoptant une approche intermédiale. Après avoir abordé la figure du double, une partie de l’analyse sera consacrée à la figure de l’allusion, une stratégie d’écriture pour introduire le visuel au sein du textuel, ce qui nous permettra d’entrer en matière pour étudier « l’image-en-texte » (Liliane Louvel). Enfin, l’effet-tableau ainsi que l’anamorphose seront employés comme cadre d’analyse afin de penser le dialogue qui se noue entre le pictural et le texte littéraire dans Vues et visions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez Spinoza, la politique se construit essentiellement sur les bases de l'édifice de la liberté. En effet, la liberté se vit sous une forme institutionnelle, c'est-à-dire comme le dit Alain Billecoq, «à travers des lois qui garantissent sa stabilité et sa pérennité» (Billecoq, p. 132). Cela devrait donc exclure normalement toute éventualité de conflit entre les pouvoirs politiques et la liberté des individus. D’autant que l’État puise son fondement dans les droits et libertés qu’il se doit de garantir à ses citoyens. Autrement dit, on devrait supposer qu’il y a une certaine adéquation du pouvoir de l’État et de la liberté des individus. Or, ce n’est pas toujours le cas. Car de l’avis de certains, liberté et pouvoir de commandement ne sont pas tout à fait compatibles. Comment donc rendre possible une cohabitation de l’État comme organe de contrainte et de régulation, et de la liberté des individus, qui semble pourtant nécessaire? En passant par sa conception du droit naturel, de l’état de nature et de l’État, il sera démontré au terme de notre démarche que ce qui permet chez Spinoza la résolution de cette tension entre le pouvoir de l’État et la liberté des individus n’est rien d’autre que la démocratie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études ont démontré l’impact de divers facteurs sur l’espérance de vie, dont les caractéristiques liées à l’environnement dans l’enfance et à l’âge adulte. L’objectif principal de ce mémoire est de déterminer si l’exposition à une épidémie durant la période fœtale ou pendant la première année de vie a un impact sur la survie après 40 ans pour les Québécois nés entre 1885 et 1901. Durant cette période, nous avons relevé des épidémies de variole et de scarlatine, ainsi qu’une pandémie de grippe, la grippe russe. L’influence d’autres facteurs sur l’âge au décès est également étudiée, celle du sexe, de l’année et de la saison de naissance, du lieu de résidence à la naissance (urbain ou rural) et des régions d’habitation dans l’enfance et à l’âge adulte. Les données sur les Canadiens français nés au Québec à la fin du XIXe siècle, soit l’échantillon de 5% des ménages du recensement canadien de 1901 (Sager 2001) recueilli par le Canadian Families Project, jumelées aux dates de décès à partir de l’index des décès de 1926 à 1996 de l’Institut de la statistique du Québec (ISQ) et de la Société de généalogie du Québec (Pilon-Marien et al. 2009; Gagnon et Bohnert 2012) ont été analysées. Plus spécifiquement, nous avons effectué une analyse descriptive de la population étudiée, puis une analyse multivariée à l’aide de modèles de Cox et de modèles de Gompertz. Il en résulte qu’une exposition à une épidémie avant l’âge d’un an augmente significativement le risque de décéder après l’âge de 40 ans. L’exposition pendant la période fœtale a également un effet négatif sur la longévité, toutefois cet effet n’est pas significatif dans les modèles fournissant le meilleur ajustement aux données. Enfin, une naissance pendant une épidémie, donc une exposition in utero et durant la première année de vie n’a pas d’impact négatif significatif sur l’âge au décès pour ceux qui survivent jusqu’à 40 ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) en sciences infirmières, option expertise-conseil