30 resultados para Informational

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Good faith plays a central role in most legal systems, yet appears to be an intractable concept. This article proposes to analyse it economically as the absence of opportunism in circumstances which lend themselves to it. One of the objectives underlying the law of contract on an economic view is to curtail opportunism. In spelling out what this means, the paper proposes a three-step test: bad faith is present where a substantial informational or other asymmetry exists between the parties, which one of them turns into an undue advantage, considered against the gains both parties could normally expect to realise through the contract, and where loss to the disadvantaged party is so serious as to provoke recourse to expensive self-protection, which significantly raises transactions costs in the market. The three-step test is then used to analyse a set of recent decisions in international commercial transactions and three concepts derived from good faith: fraud, warranty for latent defects and lesion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We reconsider the discrete version of the axiomatic cost-sharing model. We propose a condition of (informational) coherence requiring that not all informational refinements of a given problem be solved differently from the original problem. We prove that strictly coherent linear cost-sharing rules must be simple random-order rules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper, which is to be published as a chapter in the Oxford Handbook of Political Economy, provides an introduction to social-choice theory with interpersonal comparisons of well-being. We argue that the most promising route of escape from the negative conclusion of Arrowâs theorem is to use a richer informational environment than ordinal measurability and the absence of interpersonal comparability of well-being. We discuss welfarist social evaluation (which requires that the levels of individual well-being in two alternatives are the only determinants of their social ranking) and present characterizations of some important social-evaluation orderings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce rapport de recherche porte sur une étude sâintéressant au transfert des connaissances tacites chez les gestionnaires, câest-à-dire le partage de ces connaissances et leur utilisation informelle, durant une situation de coordination dans un service municipal. La thèse est articulée autour des questions suivantes : Quelles sont les situations de coordination vécues par les gestionnaires municipaux? Quelles sont les sources de connaissances tacites partagées et utilisées? Quelles sont les relations de connaissances mobilisées de façon informelle lors du transfert des connaissances tacites? Quels sont les facteurs encourageant ou inhibant le transfert informel des connaissances tacites? à partir dâun modèle basé sur une approche situationnelle (Taylor, 1989 et 1991), nous avons revu la documentation touchant nos questions de recherche. Nous avons défini notamment la récursivité des connaissances et le réseau de connaissances, de même que présenté le modèle de la conversion des connaissances (Nonaka, 1994) et celui de lâactualisation de soi (St-Arnaud, 1996). Nous avons questionné 22 répondants à lâaide dâinstruments de mesure qui combinent les techniques de lâincident critique, de lâentrevue cognitive et réflexive, le questionnement sur les réseaux organisationnels et lâobservation participante. Tels des filets, ces instruments ont permis de traquer et dâobtenir des données dâune grande richesse sur les connaissances tacites et les comportements informels durant le transfert de connaissances en situation de coordination. Ces données ont été analysées selon une approche méthodologique essentiellement qualitative combinant lâanalyse de contenu, la schématisation heuristique et lâanalyse des réseaux sociaux. Nos résultats montrent que la complexité dâune situation de coordination conditionne le choix des mécanismes de coordination. De plus, les sources de connaissances sont, du point de vue individuel, le gestionnaire et ses artefacts, de même que son réseau personnel avec ses propres artefacts. Du point de vue collectif, ces sources sont réifiées dans le réseau de connaissances. Les connaissances clés dâune situation de coordination sont celles sur le réseau organisationnel, le contexte, les expériences en gestion et en situation complexe de coordination, la capacité de communiquer, de négocier, dâinnover et celle dâattirer lâattention. Individuellement, les gestionnaires privilégient lâactualisation de soi, lâautoformation et la formation contextualisée et, collectivement, la coprésence dans lâaction, le réseautage et lâaccompagnement. Cette étude fournit un modèle valide du transfert contextualisé des connaissances qui est un cas de coordination complexe dâactivités en gestion des connaissances. Ce transfert est concomitant à dâautres situations de coordination. La nature tacite des connaissances prévaut, de même que le mode informel, les médias personnels et les mécanismes dâajustement mutuel. Les connaissances tacites sont principalement transférées au début des processus de gestion de projet et continuellement durant la rétroaction et le suivi des résultats. Quant aux connaissances explicites, les gestionnaires les utilisent principalement comme un symbole à la fin des processus de gestion de projet. Parmi les personnes et les groupes de personnes dâune situation de transfert contextualisé des connaissances, 10 % jouent des rôles clés, soit ceux dâexperts et dâintermédiaires de personnes et dâartefacts. Les personnes en périphérie possèdent un potentiel de structuration, câest-à-dire de connexité, pour assurer la continuité du réseau de connaissances organisationnel. Notre étude a élargi le modèle général de la complexité dâune situation (Bystrom, 1999; Choo, 2006; Taylor, 1986 et 1991), la théorie de la coordination (Malone et Crowston, 1994), le modèle de la conversion des connaissances (Nonaka, 1994), celui de lâactualisation de soi (St-Arnaud, 1996) et la théorie des réseaux de connaissances (Monge et Contractor, 2003). Notre modèle réaffirme la concomitance de ces modèles généraux selon une approche constructiviste (Giddens, 1987) où la dualité du structurel et la compétence des acteurs sont confirmées et enrichies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en Droit des Technologies de l'Information"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi les pratiques dâintervention sociale qui se produisent quotidiennement dans les milieux institutionnel et associatif au Québec, une catégorie est particulièrement ciblée depuis quelques décennies, les jeunes ou la jeunesse. En sâinscrivant dans une démarche réflexive et exploratoire sur les fondements des pratiques dâintervention auprès des jeunes, le présent mémoire propose dâexplorer le sens et la pertinence sociale de ces dernières à travers les perspectives des intervenants eux-mêmes. Pour ce faire, nous effectuons des études de cas selon une approche clinique et critique en sociologie. En allant chercher dans les témoignages dâun certain nombre dâintervenants des milieux institutionnel, communautaire et de lâemployabilité leur connaissance expérientielle concernant la pratique dâintervention auprès des jeunes, nous dégageons des conceptions du social ou des sociologies implicites particulières. Se dégagent quatre idéaux-types - systémique, informationnel, normatif et clinique â qui visent respectivement lâémancipation, lâaide à lâinsertion, la socialisation aux normes et le soutien humain. Notre analyse en termes de sociologie implicite explore la double question du sens selon les agents et de la fonction selon les processus engendrés. Elle permet dâarticuler les conceptions que les agents sociaux se font de leur pratique avec son inscription dans le monde social. Ainsi, nous concluons que les pratiques dâintervention auprès des jeunes participent non seulement à la transformation sociale par lâouverture dâespaces de liberté et de compréhension et par le soutien humain offert mais aussi à la normalisation et au contrôle par la constitution du marché du travail et/ou du monde adulte comme réalités auxquelles les jeunes doivent sâadapter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lâintérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant lâoptimisation des capacités humaines augure dâun profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire dâun corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, lâinaptitude, lâapparence, la performance, etc. En vue dâanalyser les transformations quâinduisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, dâune part, sur des travaux en sociologie du corps et, dâautre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes â militant ouvertement en faveur dâune optimisation radicale des capacités humaines par le biais des technosciences â, il a été observé que les représentations du corps sâorganisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes dâériger leur modèle dâaction (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. à leurs yeux, lâamélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit dâun individu transformé dans lâoptique dâêtre plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce quâil produit dâinnombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin dâaccroître lâacceptabilité sociale de leur modèle dâaction, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils sâappuient également sur des valeurs socialement partagées, telles que lâautodétermination, la perfectibilité humaine, lâégalité, la liberté ou la dignité. Néanmoins, la lecture quâils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. à leur avis, le perfectionnement humain doit sâopérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur lâenvironnement) et en vertu de leur « droit » à lâautodétermination compris comme un droit individuel dâoptimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin dâen garantir lâaccessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment dâidentité et dâaccomplissement. Lâanalyse du discours transhumaniste nous a donc permis dâobserver leurs représentations du corps de même que la résonance culturelle du projet quâils proposent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Prepared for the Symposium in honour of Michael J. Trebilcock, 1-2 October 2009, in Toronto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÃSUMà : Problématique : En dépit du nombre croissant de médecins immigrants qui choisissent de sâinstaller au Québec, et de la pénurie de ces professionnels de la santé, beaucoup dâentre eux ne parviendront pas à exercer leur profession au Québec. Les études réalisées auparavant nâétaient souvent pas spécifiques à lâintégration professionnelle des médecins immigrants au Québec. Et de nouvelles barrières émergeaient à chaque étude, justifiant la nécessité dâune démarche exploratoire pour mieux comprendre le sujet. Objectifs : Lâobjectif de cette étude est dâidentifier et analyser les barrières à lâintégration professionnelle ainsi que les facteurs facilitants perçus par les médecins immigrants diplômés hors Canada et Ãtats-Unis qui choisissent de sâinstaller au Québec. Méthodologie : La stratégie retenue est la recherche synthétique de type étude de cas. Câest une recherche qualitative principalement basée sur lâanalyse de 22 entrevues semi-structurées, réalisées avec des médecins immigrants diplômés hors Canada et Ãtats-Unis, originaires de 15 pays différents. Lâéchantillon est de type variation maximale, selon le pays dâorigine, la formation initiale, lâexpérience professionnelle et selon le parcours personnel au Québec. Le recrutement a été réalisé principalement à lâaide de la collaboration du Centre d'évaluation des sciences de la santé de lâUniversité Laval, de lâorganisme « lâHirondelle » et du département dâadministration de la santé de lâUniversité de Montréal. Le cadre théorique est celui de Diaz (1993) et les différents thèmes qui ont été abordés dans lâentrevue sont inspirés de la synthèse des barrières et des perceptions citées dans la littérature dont la plupart ne sont pas spécifiques aux médecins immigrants. Ces thèmes généraux sont représentés par les contraintes linguistiques, socioculturelles, informationnelles, financières, procédurales et discriminatoires. Pour ce qui est des thèmes des facteurs facilitants, ce sont : les facteurs financiers, informationnels, dâaide et de support à lâintégration professionnelle. Résultats : Les 22 participants étaient composés de 13 hommes et de 9 femmes, âgés de 29 à 53 ans, originaires de 15 pays différents et ayant une durée de séjour au Québec de 2 à 15 ans. Lors des entrevues, les émergences recueillies grâce aux questions ouvertes ont permis dâappréhender les difficultés spécifiques perçues par les médecins immigrants qui nâont pas été soulevées ii par la littérature. Les barrières à lâintégration professionnelle perçues par les médecins immigrants sont surtout de nature procédurale, mais également institutionnelles, et dans une moindre mesure, socioculturelles. Les principales barrières procédurales sont relatives aux facteurs informationnels, à lâévaluation des connaissances et des compétences médicales, mais surtout à lâabsence de garantie de lâoctroi des postes de résidence même après la réussite des examens exigés. Les facteurs facilitants les plus importants sont lâharmonisation des procédures provinciales et fédérales, lâamélioration relative de lâinformation, le soutien linguistique pour les nonfrancophones et la pénurie des médecins. Conclusion : La réduction des nombreuses barrières identifiées dans cette recherche, permettra non seulement de faciliter lâintégration professionnelle des médecins immigrants, mais également de contribuer à réduire la pénurie de ces professionnels de la santé au Québec.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Ãtant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Ãtant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux Ãtats-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux Ãtats-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie (option Analyse Criminologique).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les stimuli naturels projetés sur nos rétines nous fournissent de lâinformation visuelle riche. Cette information varie le long de propriétés de « bas niveau » telles que la luminance, le contraste, et les fréquences spatiales. Alors quâune partie de cette information atteint notre conscience, une autre partie est traitée dans le cerveau sans que nous en soyons conscients. Les propriétés de lâinformation influençant lâactivité cérébrale et le comportement de manière consciente versus non-consciente demeurent toutefois peu connues. Cette question a été examinée dans les deux derniers articles de la présente thèse, en exploitant les techniques psychophysiques développées dans les deux premiers articles. Le premier article présente la boîte à outils SHINE (spectrum, histogram, and intensity normalization and equalization), développée afin de permettre le contrôle des propriétés de bas niveau de l'image dans MATLAB. Le deuxième article décrit et valide la technique dite des bulles fréquentielles, qui a été utilisée tout au long des études de cette thèse pour révéler les fréquences spatiales utilisées dans diverses tâches de perception des visages. Cette technique offre les avantages dâune haute résolution au niveau des fréquences spatiales ainsi que dâun faible biais expérimental. Le troisième et le quatrième article portent sur le traitement des fréquences spatiales en fonction de la conscience. Dans le premier cas, la méthode des bulles fréquentielles a été utilisée avec l'amorçage par répétition masquée dans le but dâidentifier les fréquences spatiales corrélées avec les réponses comportementales des observateurs lors de la perception du genre de visages présentés de façon consciente versus non-consciente. Les résultats montrent que les mêmes fréquences spatiales influencent de façon significative les temps de réponse dans les deux conditions de conscience, mais dans des sens opposés. Dans le dernier article, la méthode des bulles fréquentielles a été combinée à des enregistrements intracrâniens et au Continuous Flash Suppression (Tsuchiya & Koch, 2005), dans le but de cartographier les fréquences spatiales qui modulent l'activation de structures spécifiques du cerveau (l'insula et l'amygdale) lors de la perception consciente versus non-consciente des expressions faciales émotionnelles. Dans les deux régions, les résultats montrent que la perception non-consciente s'effectue plus rapidement et sâappuie davantage sur les basses fréquences spatiales que la perception consciente. La contribution de cette thèse est donc double. Dâune part, des contributions méthodologiques à la recherche en perception visuelle sont apportées par l'introduction de la boîte à outils SHINE ainsi que de la technique des bulles fréquentielles. Dâautre part, des indications sur les « corrélats de la conscience » sont fournies à lâaide de deux approches différentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que la souveraineté apparaisse aujourd'hui comme un concept juridique autonome, cela ne fut pas toujours le cas. Comme le souligne lâauteur de ce texte, notre société est passée d'une souveraineté mystique, celle de l'Ãglise, à une souveraineté laïque, celle de l'Ãtat, pour aboutir, aujourd'hui, à une souveraineté plurielle ou composite. L'avènement d'un réseau de masse, comme l'Internet, vient encore une fois changer la donne. Ainsi, le concept de souveraineté informationnelle, discuté à la fin des années 70, semble aujourdâhui suranné, voire obsolète, à la lumière des nouveaux environnements électroniques. Conscient de cette évolution et de ses conséquence, lâauteur propose une réflexion historique et conceptuelle du principe de souveraineté afin de réévaluer les critères de territorialité et d'espace physique en tant que pivots autour desquels s'articule le concept de souveraineté nationale. L'Ãtat d'aujourd'hui ne pouvant aspirer seul à réglementer les transactions économiques transnationales, cet article nous pousse à nous questionner sur le sens que doit prendre le terme « souveraineté » à lâaube de lâère numérique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse analyse les incidences des avancées dâune rationalité technoscientifique sur les définitions classiques de lâhumain. Elle discerne, dans sa présentation de ce phénomène, le lien entre la technoscience, la cybernétique et le posthumanisme qui en découle. Elle souligne les mutations et projets de remodèlement de lâhumain qui traversent cette rationalité technoscientifique et son paradigme informationnel cybernéticien. Cette rationalité technoscientifique, polémique aux ontologies dites conservatrices, soutenant une vision amorale de la RDTS (Recherche & Développement technoscientifique), accouche dâun posthumanisme â en rapport difficile avec le corps â qui bouscule les définitions classiques de lâhumain judéo-chrétien, dont lâanthropologie théologique évangélique. Traitant, dans une première grande section de trois chapitres, de la rationalité technoscientifique et de ses visions de lâhumain, la thèse permet la mise en exergue des enjeux principaux se dégageant des nouveaux questionnements des anthropologies classiques soumises aux pressions de la RDTS. Dans la deuxième partie, encore de trois chapitres, qui porte sur lâanthropologie évangélique, la thèse situe les Ãvangéliques historiquement et doctrinalement, pour mieux relever les éléments identitaires du mouvement et les grandes déterminations théologiques à lâintérieur desquels se déploie cette anthropologie. La présentation de cette dernière se décline à partir des différentes compréhensions du motif anthropologique évangélique par excellence, lâimago Dei et le concept de lâunicité de lâhumain dont les fondements semblent de plus en plus fragiles à la lumière des conclusions des recherches en paléontologie et en cognition animale. Si plusieurs défis importants sont posés à lâanthropologie évangélique, la thèse, se limitant à une critique évangélique de la rationalité technoscientifique et des réponses évangéliques à cette dernière, analyse une question essentielle pour la pensée évangélique, celle de lâhumain homo ii faber et lâanthropotechnie, versus le remodèlement de lâhumain autour des interrogations posthumanistes sur le corps et la question du salut. Cette thèse apporte une contribution 1) sur le plan de la synthèse quâelle présente de lâanthropologie évangélique, 2) de la compréhension de lâidentité évangélique, sa singularité et sa diversité, et 3) des manières dont une théologie évangélique peut entrer en dialogue avec la raison technoscientifique. Elle lève le voile sur lâutilisation tous azimuts du concept de lâimago Dei et de son insuffisance, à lui seul, pour apprécier les véritables enjeux du débat avec la rationalité technoscientique. Elle insinue que ce motif doit être analysé en conjonction avec la christologie dans lâapprofondissement du Logos incarné, pour en mieux apprécier l'étendue. Ce n'est que dans ce lien quâont pu être trouvés des éléments capables d'articuler ce qui est en germe dans l'imago Dei et suggérer une définition de lâhumain capable de prendre en considération les défis dâune rationalité technoscientifique et de son posthumanisme.