15 resultados para Symmetry of fluctuations of GDP

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper documents and discusses a dramatic change in the cyclical behavior of aggregate hours worked by individuals with a college degree (skilled workers) since the mid-1980’s. Using the CPS outgoing rotation data set for the period 1979:1-2003:4, we find that the volatility of aggregate skilled hours relative to the volatility of GDP has nearly tripled since 1984. In contrast, the cyclical properties of unskilled hours have remained essentially unchanged. We evaluate the extent to which a simple supply/demand model for skilled and unskilled labor with capital-skill complementarity in production can help explain this stylized fact. Within this framework, we identify three effects which would lead to an increase in the relative volatility of skilled hours: (i) a reduction in the degree of capital-skill complementarity, (ii) a reduction in the absolute volatility of GDP (and unskilled hours), and (iii) an increase in the level of capital equipment relative to skilled labor. We provide empirical evidence in support of each of these effects. Our conclusion is that these three mechanisms can jointly explain about sixty percent of the observed increase in the relative volatility of skilled labor. The reduction in the degree of capital-skill complementarity contributes the most to this result.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les récepteurs couplés aux protéines-G (RCPGs) constituent la première étape d’une série de cascades signalétiques menant à la régulation d’une multitude de processus physiologiques. Dans le modèle classique connu, la liaison du ligand induit un changement de conformation du récepteur qui mène à sa forme active. Une fois activés, les RCPGs vont réguler l’activité d’une protéine membranaire cible qui peut être tant une enzyme qu’un canal ionique. L’interaction entre le récepteur et la cible nécessite l’intermédiaire d’une protéine hétérotrimérique appelée « protéine G », qui est activée pour favoriser l’échange du GDP (guanosine diphosphate) pour un GTP (guanosine triphosphate) et assurer la transduction du signal du récepteur à l’effecteur. Les mécanismes moléculaires menant à l’activation des effecteurs spécifiques via l’activation des RCPGs par les protéines G hétérotrimériques sont encore plutôt méconnus. Dans notre étude nous nous sommes intéressés aux récepteurs FP et PAF, à leurs ligands naturels, la PGF2α et le Carbamyl-PAF respectivement, et à des ligands à action antagoniste sur ces récepteurs. Des ligands considérés comme agonistes, sont des molécules qui interagissent avec le récepteur et induisent les mêmes effets que le ligand naturel. Les antagonistes, par contre, sont des molécules qui interagissent avec le récepteur et bloquent l’action du ligand naturel en prévenant le changement conformationnel du complexe, et ils peuvent avoir une action compétitive ou non-compétitive. Nous avons étudié aussi des ligands orthostériques et allostériques du récepteur FP des prostaglandines et du récepteur PAF. Un ligand orthostérique peut se comporter comme agoniste ou antagoniste en se fixant au site de liaison du ligand (agoniste) naturel. Un ligand allostérique est un agoniste ou antagoniste se fixant à un site autre que celui du ligand naturel entraînant un changement de conformation ayant pour conséquence soit une augmentation (effecteur positif), soit une diminution (effecteur négatif) de l'activité du ligand naturel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis les dernières années, la prévalence de personnes souffrant de dégénérescence des cartilages articulaires, communément appelée ostéoarthrite (OA), ne cesse d’augmenter. Les douleurs articulaires et les raideurs musculaires associées à cette pathologie mènent à des limitations des capacités fonctionnelles, à une perte de mobilité et d’autonomie affectant grandement la qualité de vie de ces personnes. Afin de soulager les personnes souffrant de cette pathologie, l’arthroplastie de la hanche est une procédure chirurgicale fréquemment utilisée. À la suite de cette chirurgie, une amélioration de la qualité de vie et une reprise des capacités fonctionnelles sont souvent observées. Cependant, comparativement à des sujets sains, la vitesse de marche est diminuée, une faiblesse des muscles abducteurs de la hanche est constatée et des mouvements compensatoires au niveau du tronc sont persistants. L’objectif de cette thèse est d’évaluer le patron locomoteur chez des patients qui subiront une arthroplastie de la hanche. Plus spécifiquement, les adaptations locomotrices pré et post-opératoires seront quantifiées dans le but d’apporter des modifications aux programmes de réhabilitation pour ainsi favoriser un patron locomoteur sans déficit. Afin de répondre à cet objectif, trois études distinctes ont été effectuées. Dans le cadre de la première étude, l’impact de l’implantation d’une prothèse totale de la hanche avec une tête fémorale de large diamètre et une prothèse de resurfaçage a été évalué par rapport aux sujets sains lors de la locomotion. Au cours de cette étude, le contrôle du tronc a été analysé en utilisant la distance entre le centre de masse corporel et le centre articulaire de la hanche opérée. Suite aux résultats obtenus, aucune différence majeure n’existe entre les deux types de prothèses en ce qui a trait au contrôle du tronc et ce, à un an post-opératoire. Lors de la deuxième étude, la symétrie des paramètres biomécaniques des membres inférieurs lors de la locomotion chez des patients ayant bénéficié de l’implantation d’une prothèse de la hanche a été caractérisée suite à un programme d’exercices péri-opératoires (pré et post-opératoire). Lors de cette étude, le programme d’exercices péri-opératoires était complémentaire au protocole de réadaptation du centre hospitalier. D’après les résultats obtenus lors de cette étude exploratoire, ce programme d’exercices péri-opératoires semble permettre d’améliorer la symétrie de la puissance et du travail musculaire au niveau de la hanche, du genou et de la cheville favorisant ainsi un patron de marche avec de minimes compensations. Finalement, dans le cadre de la troisième étude, l’approche prédictive et l’approche fonctionnelle, utilisées pour localiser le centre articulaire de la hanche, ont été comparées aux mesures radiographiques, chez des patients à la suite d’un remplacement articulaire de la hanche. À la suite de cette étude, les résultats démontrent que l’utilisation de l’approche fonctionnelle est plus appropriée chez des patients ayant bénéficié d’une arthroplastie de la hanche. En effet, cette approche individualisée est plus précise ce qui, par conséquent, permettra d’obtenir des résultats de plus grande qualité lors d’analyses biomécaniques de la locomotion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La situation de la forêt tropicale dans les pays en développement en général, et en République Démocratique du Congo (RDC) en particulier, est inquiétante. Les émissions de dioxyde de carbone dues au déboisement sont de l’ordre de 1,6 GtCO2e/an, soit 17% des émissions mondiales de « gaz à effet de serre ». Sous l’égide de la Convention-cadre des Nations Unies sur les changements climatiques, le REDD+ a été institué pour lutter contre cette déforestation et la dégradation des forêts. Cette étude examine les différentes opportunités qu’offre ce programme pour l’aménagement écosystémique du couvert forestier de la RDC et les obstacles contextuels à sa mise en oeuvre. Pour la RDC, le REDD+ présente un certain nombre d’opportunités : réduction des émissions liées au déboisement et à la dégradation des forêts; amorce des travaux d’afforestation et de reforestation par une gestion durable des ressources conduisant à la création des emplois et favorisant la croissance des PIB et des exports; accroissement du rendement et maintien d’une plus grande couverture des besoins alimentaires. Le REDD+ peut favoriser la croissance du Produit intérieur brut agricole. Il peut contribuer à l’électrification des ménages et réduire de moitié les dépenses des ménages dépendant de l’exploitation minière et des hydrocarbures et, ainsi, générer des milliers d’emplois en infrastructures. Pour les populations locales et autochtones, il peut contribuer aussi à protéger et à valoriser les cultures liées à la forêt. Mais, face aux pesanteurs d’ordre juridique, politique, social, économique, technologique et culturel caractéristiques de ce pays, ces opportunités risquent d’être amenuisées, sinon annihilées. Étant donné que l’essentiel du déploiement du dispositif du REDD+ se réalisera dans les zones rurales congolaises, l’obstacle majeur reste le droit coutumier. La solution serait d’harmoniser les exigences et finalités du REDD+ non seulement avec le Code forestier de 2002 et ses mesures d’exécution mais aussi avec le droit coutumier auquel les communautés locales et autochtones s’identifient.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper constructs and estimates a sticky-price, Dynamic Stochastic General Equilibrium model with heterogenous production sectors. Sectors differ in price stickiness, capital-adjustment costs and production technology, and use output from each other as material and investment inputs following an Input-Output Matrix and Capital Flow Table that represent the U.S. economy. By relaxing the standard assumption of symmetry, this model allows different sectoral dynamics in response to monetary policy shocks. The model is estimated by Simulated Method of Moments using sectoral and aggregate U.S. time series. Results indicate 1) substantial heterogeneity in price stickiness across sectors, with quantitatively larger differences between services and goods than previously found in micro studies that focus on final goods alone, 2) a strong sensitivity to monetary policy shocks on the part of construction and durable manufacturing, and 3) similar quantitative predictions at the aggregate level by the multi-sector model and a standard model that assumes symmetry across sectors.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le mouvement de la marche est un processus essentiel de l'activité humaine et aussi le résultat de nombreuses interactions collaboratives entre les systèmes neurologiques, articulaires et musculo-squelettiques fonctionnant ensemble efficacement. Ceci explique pourquoi une analyse de la marche est aujourd'hui de plus en plus utilisée pour le diagnostic (et aussi la prévention) de différents types de maladies (neurologiques, musculaires, orthopédique, etc.). Ce rapport présente une nouvelle méthode pour visualiser rapidement les différentes parties du corps humain liées à une possible asymétrie (temporellement invariante par translation) existant dans la démarche d'un patient pour une possible utilisation clinique quotidienne. L'objectif est de fournir une méthode à la fois facile et peu dispendieuse permettant la mesure et l'affichage visuel, d'une manière intuitive et perceptive, des différentes parties asymétriques d'une démarche. La méthode proposée repose sur l'utilisation d'un capteur de profondeur peu dispendieux (la Kinect) qui est très bien adaptée pour un diagnostique rapide effectué dans de petites salles médicales car ce capteur est d'une part facile à installer et ne nécessitant aucun marqueur. L'algorithme que nous allons présenter est basé sur le fait que la marche saine possède des propriétés de symétrie (relativement à une invariance temporelle) dans le plan coronal.