685 resultados para Schulthaiss (Martin). inscription autrefois existante dans un album (v. 1564)
Resumo:
Au cours du siècle dernier, nous avons pu observer une diminution remarquable de la mortalité dans toutes les régions du monde, en particulier dans les pays développés. Cette chute a été caractérisée par des modifications importantes quant à la répartition des décès selon l'âge, ces derniers ne se produisant plus principalement durant les premiers âges de la vie mais plutôt au-delà de l'âge de 65 ans. Notre étude s'intéresse spécifiquement au suivi fin et détaillé des changements survenus dans la distribution des âges au décès chez les personnes âgées. Pour ce faire, nous proposons une nouvelle méthode de lissage non paramétrique souple qui repose sur l'utilisation des P-splines et qui mène à une expression précise de la mortalité, telle que décrite par les données observes. Les résultats de nos analyses sont présentés sous forme d'articles scientifiques, qui s'appuient sur les données de la Human Mortality Database, la Base de données sur la longévité canadienne et le Registre de la population du Québec ancien reconnues pour leur fiabilité. Les conclusions du premier article suggèrent que certains pays à faible mortalité auraient récemment franchi l'ère de la compression de la mortalité aux grands âges, ère durant laquelle les décès au sein des personnes âgées tendent à se concentrer dans un intervalle d'âge progressivement plus court. En effet, depuis le début des années 1990 au Japon, l'âge modal au décès continue d'augmenter alors que le niveau d'hétérogénéité des durées de vie au-delà de cet âge demeure inchangé. Nous assistons ainsi à un déplacement de l'ensemble des durées de vie adultes vers des âges plus élevs, sans réduction parallèle de la dispersion de la mortalité aux grands âges. En France et au Canada, les femmes affichent aussi de tels développements depuis le début des années 2000, mais le scénario de compression de la mortalité aux grands âges est toujours en cours chez les hommes. Aux États-Unis, les résultats de la dernière décennie s'avrent inquiétants car pour plusieurs années consécutives, l'âge modal au décès, soit la durée de vie la plus commune des adultes, a diminué de manière importante chez les deux sexes. Le second article s'inscrit dans une perspective géographique plus fine et révle que les disparités provinciales en matière de mortalité adulte au Canada entre 1930 et 2007, bien décrites à l'aide de surfaces de mortalité lissées, sont importantes et méritent d'être suivies de près. Plus spécifiquement, sur la base des trajectoires temporelles de l'âge modal au décès et de l'écart type des âges au décès situés au-delà du mode, les différentiels de mortalité aux grands âges entre provinces ont à peine diminué durant cette période, et cela, malgré la baisse notable de la mortalité dans toutes les provinces depuis le début du XXe siècle. Également, nous constatons que ce sont précisément les femmes issues de provinces de l'Ouest et du centre du pays qui semblent avoir franchi l'ère de la compression de la mortalité aux grands âges au Canada. Dans le cadre du troisième et dernier article de cette thèse, nous étudions la longévité des adultes au XVIIIe siècle et apportons un nouvel éclairage sur la durée de vie la plus commune des adultes à cette époque. À la lumière de nos résultats, l'âge le plus commun au décès parmi les adultes canadiens-français a augmenté entre 1740-1754 et 1785-1799 au Québec ancien. En effet, l'âge modal au décès est passé d'environ 73 ans à près de 76 ans chez les femmes et d'environ 70 ans à 74 ans chez les hommes. Les conditions de vie particulières de la population canadienne-française à cette époque pourraient expliquer cet accroissement.
Resumo:
Ce mémoire se propose d’aborder le concept adornien de matériau musical selon deux de ses moments essentiels : l’intégration et la désintégration. Dans un premier temps, il s’agira d’analyser la critique de l’Aufklärung, selon laquelle la rationalité éclairée, par la domination progressive de la nature, se transforme en son contraire, le mythe. Cette analyse servira de base théorique pour la compréhension du concept de matériau. Dans un deuxième temps, il conviendra d’examiner la tendance progressiste—exemplifiée dans la sonate classique de Beethoven—vers l’intégration du matériau musical, comprise comme un moment dans le processus plus large de rationalisation sociale identifié par Max Weber. Dans un troisième temps, il conviendra d’examiner la tendance régressive—exemplifiée dans les œuvres du Beethoven tardif, de Mahler et de Berg—vers la désintégration du matériau musical, une tendance qui reflète les aspects noirs de l’Aufklärung, à savoir la fragmentation sociale et la réification. Enfin, nous évaluerons quelques commentaires critiques soulevant des doutes quant à la validité d’un concept de matériau musical basé sur une philosophie de l’histoire qui, malgré ses distances, ne s’échappe pas de ses origines hégéliennes.
Resumo:
Ce mémoire traite du droit de l’adoption dans une perspective comparative entre régimes arabo-musulman, français et québécois. Dans un premier temps est abordée la place de l’enfant dans l’Islam : de sa conception au sein de la famille musulmane à l’ensemble de ses droits selon le droit religieux. Ce tour d’horizon permet d’aborder l’épineux problème de l’interdiction de l’adoption par le Coran et les alternatives qui ont été développées pour y remédier, plus particulièrement la kafala. La kafala sera expliquée et située dans l’ordre public international, puis examinée au regard de quatre législations arabes : le Maroc, la Tunisie, l’Algérie et le Liban. Dans un deuxième temps, la question sera examinée d’un point de vue occidental. Il y sera analysé la possibilité et les difficultés entourant l’application des règles musulmanes de statut personnel en France et au Québec. Finalement sera abordé l’accueil que ces deux sociétés ont réserv à la kafala dans leur système respectif.
Resumo:
Dans cet ouvrage, nous cherchons à comprendre l‘impact des perceptions sur la production et la gestion de la sécurité dans le réseau du transport en commun de Montréal. Quinze entrevues de recherche ont été effectuées avec des policiers de l‘Unité-Métro pour dégager les principaux éléments qui entrent dans la conception du risque. Les policiers sont appelés à travailler dans un environnement où, d‘une part, il n‘y a jamais eu d‘attaques terroristes, mais d‘autre part qui demeure une cible potentielle à la fois pour les experts, les gouvernements et dans la culture populaire. Nos résultats montrent que les policiers se développent une perception du risque qui leur est propre. En général, ils ont une attitude pragmatique qui leur permet de relativiser les situations et de décider lesquelles nécessitent une intervention de leur part. De plus, les policiers adoptent des stratégies de justification et de protection qui minimisent la perception du risque. Nos participants soulignent que ces stratégies sont nécessaires pour leur permettre d‘effectuer leurs tâches quotidiennes. Ainsi, afin d‘échapper à la paranoïa, les policiers évitent de penser à la menace terroriste et focus plutôt leur attention sur la criminalité sur laquelle ils ont l‘impression d‘avoir un pouvoir réel. Toutefois, la vigilance reste de mise. Malgré que les policiers ne conçoivent pas le risque de la même manière que les gestionnaires, la présence de l‘Unité-Métro demeure un élément important de production de la sécurité sur le terrain.
Resumo:
Cette thèse est constituée de trois articles. Le premier étudie le problème de pollution globale dans un contexte environnemental incertain. Le deuxième article traite des accords internationaux sur l'environnement. Le troisième article montre comment la libéralisation du commerce peut affecter le bien-être et les taxes sur la pollution dans un monde où les pays sont hétérogènes et la pollution transfrontalière. Dans le premier article, je considère un monde dans lequel les pays souffrent uniformément de la pollution globale. Ils font face à une menace continuelle de voir les dommages causés par cette pollution globale s'accroître subitement de façon irréversible. Je caractérise le niveau des émissions, le stock de pollution, et le niveau de bien-être actualisé en équilibres coopératif et non-coopératif. L'objectif visé est d'analyser l'impact de ce type d'incertitude sur les équilibres issus des comportements stratégiques des pays. Je trouve que cette incertitude peut avoir un effet significatif sur ces équilibres. Les pays réduisent leurs émissions pour atténuer leur exposition à cette menace. Plus la menace est grande, plus les pays ajustent leurs émissions afin de réduire le stock de pollution globale. Cependant, en dépit du fait que cette incertitude diminue le bien-être net initial, elle peut à long terme avoir un effet net positif sur le bien-être. Le deuxième article étend la classe des modèles dynamiques standards traitant des accords internationaux sur l'environnement au cas où la durée de la période d'engagement à de tels accords est un paramètre que l'on peut varier de façon exogène. Nous y étudions les évolutions dans le temps de la taille des coalitions stables, du stock de pollution et du taux d'émissions en fonction de la durée d'engagement. Nous montrons que la longueur de la période d'engagement a un effet très significatif sur l'équilibre. Trois intervalles de durée d'engagement sont identifiés pour lesquels l'équilibre et sa dynamique diffèrent considérablement. Alors que pour des durées de la période d'engagement très longues on observe des coalitions stables constituées d'un petit nombre de pays, si ces durées sont suffisamment courtes on peut observer un niveau de coopération élev. Les durées d'engagement entre ces deux extrêmes sont caractérisées par une relation inverse entre la durée de la période d'engagement et la taille des coalitions stables. Ces faits portent à croire qu'il faudrait accorder une attention toute particulière au choix de la durée d'engagement lors de l'élaboration de tels accords internationaux. Le troisième article s'inscrit dans un contexte où les activités de production des pays potentiellement hétérogènes génèrent de la pollution qui peut traverser les frontières et nuire au bien-être des pays impliqués. Dans chacun de ces pays, l'état impose des taxes sur la pollution aux firmes polluantes et des tarifs à l'importation afin de corriger cette distorsion. Ce papier a pour but d'évaluer les effets que pourrait avoir une diminution des tarifs douaniers sur la production, les taxes sur la pollution et le bien-être de ces pays. La littérature existante a étudié ce problème, mais seulement dans le cadre d'un commerce bilatéral entre pays identiques. Cet article fournit un cadre d'analyse plus réaliste dans lequel les pays ne seront pas nécessairement identiques et où le commerce pourra être multilatéral. Il devient alors possible de mettre en évidence le biais introduit en négligeant ces deux facteurs. Dans ce nouveau contexte, je montre qu'une réduction des tarifs d'importation n'augmente pas nécessairement la production; elle peut aussi nuire au bien-être, même si la pollution est purement locale.
Resumo:
Le CD40 ligand (CD40L) est une molécule inflammatoire appartenant à la famille du Facteur de Nécrose Tumorale ("Tumor Necrosis Factor", TNF), originalement identifié au niveau des cellules immunitaires. L’interaction du CD40L avec son récepteur de haute affinité présent sur les cellules B, le CD40, est d’une importance cruciale à la production d’immunoglobulines lors de la réponse immunitaire. Aujourd’hui, nous savons que ces deux molécules qui constituent l’axe CD40/CD40L sont aussi exprimées au niveau des cellules du système vasculaire et occupent une place importante dans une variété de réactions inflammatoires, de sorte que le CD40L est présentement reconnu comme une molécule thrombo-inflammatoire prédictive des évnements cardiovasculaires. Les plaquettes sont la principale source du CD40L soluble ("soluble CD40L", sCD40L) plasmatique et il fut démontré être impliqué dans l’activation plaquettaire, malgré que son impact exact sur la fonction plaquettaire et les mécanismes sous-jacents demeurent inconnus. Ainsi, le but de ce projet était de déterminer l’impact du sCD40L sur la fonction plaquettaire et d’élucider les mécanismes cellulaires et moléculaires sous-jacents. Les objectifs spécifiques étaient : 1) d’évaluer l’impact du sCD40L sur l’activation et l’agrégation plaquettaire in vitro; 2) de déterminer le récepteur cible (CD40 ou autre) impliqué dans ces effets; 3) de décortiquer les voies signalétiques intracellulaires et moléculaires induites par le sCD40L, impliquant la participation potentielle de la famille du facteur associé du récepteur du TNF ("Tumor Necrosis Factor Receptor Associated Factor", TRAF) et 4) d’analyser l’effet du sCD40L sur la formation du thrombus in vivo. Le sCD40L augmente fortement l’activation et l’agrégation plaquettaire induite par de faibles doses d’agonistes. Les plaquettes humaines traitées avec une forme mutante du sCD40L qui n’interagit pas avec le CD40 et les plaquettes de souris CD40 déficientes (CD40-/-) ne furent pas en mesure d’induire ces effets. De plus, nous démontrons la présence de plusieurs membres de la famille des TRAFs dans les plaquettes, parmi lesquels seulement TRAF-2 interagit avec le CD40 suite à la stimulation par le sCD40L. Le sCD40L agit sur les plaquettes au repos par l’entremise de la protéine Rac1 et de sa cible en aval, soit la protéine kinase activatrice du mitogène p38 ("Mitogen Activating Protein Kinase", MAPK). Ceci mène ultimement au changement de forme plaquettaire et à la polymérisation de l’actine. Par ailleurs, il est intéressant de noter que les souris CD40-/- démontrent un défaut significatif de l’agrégation plaquettaire en réponse au collagène, ce qui souligne l’importance du CD40 dans les interactions plaquettes-plaquettes. Dans un deuxième temps, le sCD40L amplifie l’agrégation plaquettaire en sang complet, accélère les temps de thrombose in vitro mesurés à l’aide du système PFA-100 et augmente l’adhésion plaquettaire au collagène sous condition de flux, le tout par l’entremise du CD40. Finalement, dans un modèle de thrombose artérielle murin, l’infusion du sCD40L exacerbe la formation du thrombus chez les souris du type sauvage ("Wild Type", WT), mais non chez les souris CD40-/-. Ceci fut en plus associé à une augmentation significative du nombre de leucocytes au sein du thrombus des souris WT traitées à l’aide du sCD40L, tel que démontré par marquage immuno-histologique anti-CD45 et par quantification des coupes artérielles par microscopie optique. En résumé, ce projet identifie une nouvelle voie signalétique, TRAF-2/Rac1/p38 MAPK, en réponse au sCD40L et démontre ses effets sur l’activation et l’agrégation plaquettaire. De manière encore plus importante, nous démontrons pour la première fois la présence d’une corrélation positive entre les niveaux circulants du sCD40L et la thrombose artérielle, tout en soulignant l’importance du CD40 dans ce processus. Ainsi, le sCD40L constitue un activateur important des plaquettes, les prédisposant à une thrombose exacerbée en réponse au dommage vasculaire. Ces résultats peuvent expliquer le lien étroit qui existe entre les niveaux circulants du sCD40L et l’incidence des maladies cardiovasculaires.
Resumo:
Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio‐visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
L’hépatite autoimmune (HAI) est une maladie grave affectant le foie et présentant un haut taux de mortalité lorsque non traitée. Les traitements disponibles sont efficaces, mais de graves effets secondaires leur sont associés. Ces effets secondaires sont généralement le résultat d'une forte immunosuppression et d’autres sont spécifiques à chaque médicament. Aucune immunothérapie spécifique n’est présentement disponible pour le traitement de l’HAI. Récemment, un modèle murin d’HAI a été développé dans notre laboratoire par xénoimmunisation des souris C57BL/6 avec les antigènes humains de l'HAI de type 2. Ce modèle présente la plupart des caractéristiques biochimiques et cliniques retrouves chez les patients atteints d'HAI de type 2. Dans cette étude, nous avons évaluée l’efficacité de deux types de traitement pour l’HAI de type 2 à l’aide de notre modèle murin. Dans un premier temps, l’anticorps anti-CD3ε a été étudié en prophylaxie et en traitement. Nous avons montré qu’une posologie de 5µg d’anti-CD3 i.v. par jour pendant 5 jours consécutifs induit une rémission chez les souris avec HAI de type 2 établie (traitement). Cette rémission est caractérisée par une normalisation des niveaux d’alanine aminotransférase et une diminution significative de l’inflammation hépatique. Cette rémission semble être associée à une déplétion partielle et transitoire des lymphocytes T CD3+ dans la périphérie et une augmentation des lymphocytes T régulateurs CD4+, CD25+ et Foxp3+ dans le foie. La même posologie lorsqu’elle est appliquée en prophylaxie n’a pas réussi à prévenir l’apparition de l’HAI de type 2. La deuxième voie de traitement consiste en l’administration par voie intranasale d’un forte dose de formiminotransférase cyclodésaminase murin (mFTCD), un autoantigène reconnu dans l’HAI de type 2. Une administration en prophylaxie par voie intranasale de 100µg de mFTCD par jour durant 3 jours consécutifs arrive à prévenir l’HAI de type 2 en diminuant l’inflammation hépatique au bout de deux semaines post-traitement.
Resumo:
Comprendre les présupposés qui fondent les rapports au monde des individus selon leur appartenance civilisationnelle nécessite des outils et une méthode permettant de répondre à trois questions principales. D’abord, comment aborder le rapport que des individus et leurs collectivités entretiennent avec le monde et avec l’Autre selon leur propre système d’interprétations et d’explications de ces réalités? Ensuite, comment penser la diversité des collectivités humaines qui établissent de tels rapports? Finalement, comment aborder les dimensions collectives à travers les discours limités d’individus? Deux outils m’ont permis de prendre du recul face à ma subjectivité et d’accéder à un certain niveau de réalité et de validité quant aux faits rapportés et aux résultats atteints. Dans un premier temps, le réseau notionnel articulant les conceptions du monde (Ikenga-Metuh, 1987) comme phénomènes de civilisations (Mauss, 1929) accessibles par l’analyse des représentations sociales (Jodelet, 1997) permet de définir et d’étudier l’interface entre l’individuel et le collectif. Dans un deuxième temps, l’opérationnalisation de la recherche permet de cerner le XVIe siècle comme moment de rencontre propice à l’étude des civilisations andines et occidentales à travers les représentations du Soi espagnol et de l’Autre inca du chroniqueur Pedro Sarmiento de Gamboa. Finalement, la méthode d’analyse de discours (Sabourin, 2009) lève le voile sur une grammaire sociale polarisante entre le Soi et l’Autre, laquelle traverse les trois univers de sens (religieux, intellectuel et politique) observs dans le discours de Sarmiento. La mise à jour des positions théologiques, intellectuelles et politiques de l’auteur ouvre à son tour sur les récits et discours collectifs propres aux civilisations occidentales et andines de son époque, et permet un questionnement nouveau : cette polarisation est-elle unique à la localisation sociale de Sarmiento ou constitue-t-elle un phénomène civilisationnel proprement occidental ?
Resumo:
Contexte : Les premières implantations PACS (Picture Archiving and Communication System) remontent aux années 80. Le rehaussement récent du PACS au sein d’un centre hospitalier universitaire a permis d’étudier l’introduction d’innovations dans une technologie mature. Objectif : Dans un premier temps, effectuer une revue de la littérature sur les études évaluant la perceptions des utilisateurs de l’implantation des PACS. Deuxièmement, évaluer dans une étude de cas si le niveau d’alignement entre les tâches et la technologie prédit l’utilisation et la perception des bénéfices. Méthodes : Il y a eu une revue systématique de la littérature afin d’identifier les études sur la perception des utilisateurs du PACS. Une adaptation du modèle TTF (Task-Technology-Fit) développé par Goodhue (1995) a servi de base théorique pour l’étude de cas effectuée par questionnaire auto-administré. Résultats : Les modèles recensés dans la revue systématique sont mieux adaptés à des nouvelles implantions PACS qu’à des systèmes matures en évolution. Il y a une corrélation significative entre le niveau de l’alignement, tel que perçu par les utilisateurs, et la perception des bénéfices nets, ainsi que l’utilisation de la technologie. L’étude a démontré un écart entre la perception des utilisateurs et celle des développeurs interviewés. Conclusions : Cette étude supporte la validité du concept alignement tâche-technologie dans l’analyse d’un rehaussement PACS. Il est important de maintenir une interaction soutenue entre développeurs et utilisateurs, qui va audelà de la phase initiale de développement.
Resumo:
Le tire-lait est un appareil conçu pour aider les mères durant l’allaitement. Selon la recherche préliminaire effectuée, c’est un thème très peu exploré dans les études; il est donc difficile d’affirmer si le produit répond correctement aux besoins reliés à son usage et à son utilité ou comment il s’intègre dans l’allaitement. Les fondements de l’étude exploratoire ont été bâtis sur ces enjeux dans le but de comprendre l’expérience d’usage du tire-lait. Inspirée de l’approche phénoménologique centrée sur l’usager, l’étude a permis d’amasser des données qualitatives à travers des entrevues semi-dirigées auprès de sept participantes. L’analyse de ces données a permis d’identifier les thèmes importants qui ont mené à des constats, rédigés dans une optique de design. L’étude a trouv que c’est souvent quand la réalité de l’allaitement au sein rattrape les mères qu’elles vont vouloir se procurer un tire-lait, en s’inspirant des marques utilisées dans les hôpitaux par manque de temps. Le tire-lait devient alors principalement utile pour se désengorger et pour la liberté qu’il procure, s’intégrant dans une routine. Le tire-lait est par contre peu ergonomique; il semble y avoir un décalage entre le concept proposé et les manipulations réelles, notamment au niveau de la mise en marche, des bouteilles et des embouts. Ces résultats de l’étude pourraient être intégrés dans le tire-lait pour mieux représenter la réalité du contexte, de la pratique et de l’usage du produit. Ils pourraient ainsi nourrir le processus de conception dans un projet futur afin d’améliorer le design du tire-lait.
Resumo:
Dans le contexte actuel de l’éducation au Québec où la réforme des programmes de formation des jeunes appelle un renouvellement des pratiques d’enseignement, notre recherche s’intéresse au développement de la dimension didactique de la pratique liée à l’enseignement des mathématiques qui est considéré comme l’un des éléments clés des nouvelles orientations. Nous abordons la question par le biais de la collaboration de formation initiale pour l’enseignement des mathématiques au primaire qui se vit en stage entre des praticiennes en exercice et en formation et une didacticienne des mathématiques. Cette rencontre sur le terrain des stages au primaire entre praticiennes et didacticienne, longtemps réclamée et rendue possible à l’UQAT , nous a amené à formuler une première question de recherche touchant ce qui se construit à travers les échanges de ces partenaires de la formation au cours des supervisions pédagogiques conjointes qui les réunissent en stage. Nous avons cadré ce questionnement à partir des balises théoriques de la didactique professionnelle qui proposent modèle et concepts pour expliciter l’activité professionnelle et traiter des phénomènes de développement des compétences professionnelles en contexte de travail et de formation. La didactique professionnelle attribue un rôle essentiel à la communauté de pratique et au processus d’analyse de l’expérience dans le développement professionnel des novices et dans l’explicitation d’un savoir d’action jugé pertinent et reconnu. Nous y faisons donc appel pour poser le potentiel que représentent les échanges issus de la collaboration quant à leur contribution à l’établissement d’un savoir de référence pour l’enseignement des mathématiques. La didactique professionnelle propose également le recours au concept de schème pour décrire l’activité professionnelle et à l’idée de concepts organisateurs comme élément central de l’activité et comme variable de la situation professionnelle concernée. Nous recourons à ces mêmes concepts pour expliciter le savoir de référence pour l’enseignement des mathématiques qui émerge à travers les échanges des partenaires de la formation. Dans le cadre d’une étude de cas, nous nous sommes intéressée aux échanges qui se déroulent entre une stagiaire qui effectue son troisième et avant dernier stage , l’enseignante-associée qui la reçoit et la chercheure-didacticienne qui emprunte le rôle de superviseure universitaire. Les échanges recueillis sont issus de trois cycles de supervision conjointe qui prennent la forme de rencontres de préparation des situations d’enseignement de mathématique; d’observation en classe des séances d’enseignement pilotées par la stagiaire auprès de ses élèves; et des rencontres consacrées à l’analyse des situations d’enseignement observes et de l’activité mise en œuvre par la stagiaire. Ainsi les objets de discussion relevs par les différents partenaires de la formation et la négociation de sens des situations professionnelles vcues et observes sont analysés de manière à rendre visibles les constituants de l’activité professionnelle qui sont jugés pertinents par la triade de formation. Dans un deuxième temps, en partant de cette première analyse, nous dégageons les concepts organisateurs des situations professionnelles liées à l’enseignement des mathématiques qui sont pris en compte par la triade de formation et qui constituent des variables de la situation professionnelle. Les constituants de l’activité et des situations professionnelles qui résultent de cette analyse sont envisagés en tant que représentations collectives qui se révlent à travers les échanges de la triade de formation. Parce que ces représentations se sont trouves partagées, négociées dans le cadre des supervisions pédagogiques, elles sont envisagées également en tant que savoir de référence pour cette triade de formation. Les échanges rendus possibles entre les praticiennes et la didacticienne placent ce savoir de référence dans une dynamique de double rationalité pratique et didactique. Enfin, partant de l’apport déterminant de la communauté de pratique et de formation de même que du savoir de référence que cette dernière reconnait comme pertinent dans le développement professionnel des novices, les résultats de cette recherches peuvent contribuer à réfléchir la formation des futures enseignantes en stage en ce qui a trait à l’enseignement des mathématiques au primaire.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio‐visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouv plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motive par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observes, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observes. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.