966 resultados para Decomposition analysis


Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this article an index decomposition methodology is used to estimate the effect of intersectorial and intrasectorial changes in explaining the 38% reduction in industrial energy intensity in the Basque Autonomous Community from 1982 to 2001. Period-wise additive decomposition results show that (1) the decline is fully explained by intrasectorial changes and that (2) intersectorial changes have not contributed to reduce but to increase the energy intensity of the Basque industrial sector. However, timeseries decomposition analysis shows that (1) four different phases can be distinguished in the evolution of energy intensity of the Basque industry from 1982 to 2001 and (2) that the evolution of the “Iron and Steel” sector is determinant when explaining those phases. Moreover, the analysis stresses the necessity to disaggregate the “Iron and Steel” sector in order to be able to distinguish purely technological effects from the rest of intrasectorial changes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this study the dynamics of flow over the blades of vertical axis wind turbines was investigated using a simplified periodic motion to uncover the fundamental flow physics and provide insight into the design of more efficient turbines. Time-resolved, two-dimensional velocity measurements were made with particle image velocimetry on a wing undergoing pitching and surging motion to mimic the flow on a turbine blade in a non-rotating frame. Dynamic stall prior to maximum angle of attack and a leading edge vortex development were identified in the phase-averaged flow field and captured by a simple model with five modes, including the first two harmonics of the pitch/surge frequency identified using the dynamic mode decomposition. Analysis of these modes identified vortical structures corresponding to both frequencies that led the separation and reattachment processes, while their phase relationship determined the evolution of the flow.

Detailed analysis of the leading edge vortex found multiple regimes of vortex development coupled to the time-varying flow field on the airfoil. The vortex was shown to grow on the airfoil for four convection times, before shedding and causing dynamic stall in agreement with 'optimal' vortex formation theory. Vortex shedding from the trailing edge was identified from instantaneous velocity fields prior to separation. This shedding was found to be in agreement with classical Strouhal frequency scaling and was removed by phase averaging, which indicates that it is not exactly coupled to the phase of the airfoil motion.

The flow field over an airfoil undergoing solely pitch motion was shown to develop similarly to the pitch/surge motion; however, flow separation took place earlier, corresponding to the earlier formation of the leading edge vortex. A similar reduced-order model to the pitch/surge case was developed, with similar vortical structures leading separation and reattachment; however, the relative phase lead of the separation mode, corresponding to earlier separation, necessitated that a third frequency to be incorporated into the reattachment mode to provide a relative lag in reattachment.

Finally, the results are returned to the rotating frame and the effects of each flow phenomena on the turbine are estimated, suggesting kinematic criteria for the design of improved turbines.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Eastern Himalayan Syntaxis (EHS) and its surroundings (eastern margin of Tibet) is one of the most complicated tectonic areas in the world. As the exhaust opening of the balanced materials of the Tibetan Plateau during the collision of Indan and Eurasian plates, the deep structure beneath EHS surrounding region is referred to as the key to the study of the dynamics of the plateau. EHS3D project, sponsored by NSFC, has been proposed to explore the deep electric features of the area. During the first stage of EHS3D(2006-2008), MT+LMT measurements have been conducted along two lines from Chayu to Qingshuihe (EHS3D-3) and Chayu to Ruoergai (EHS3D-2). This paper will discuss the MT models of EHS3D-3 line. By the data procrssing, including distortion analysis, Robust estimation and strike decomposition, rotated apparent resitivities and phases have been obtained for each station. Then conventional 2-D inversion algorithms (NLCG and RRI) were employed to produce 2-D models. The final preferred 2-D model suggests that the upper crust consists of resistive blocks while in mid-lower crust there are two extensive conductive bodies beneath Lhasa block and Qiangtang terrain respectively. Jinshajiang suture is a gradient belt and Bangong-Nujiang suture appear a conductive belt dipping to the north. . We concluded that the formation of the two conductive bodies attributed to the partial melt and fluids in the lower crust. The regional electric strike derived from decomposition analysis indicates that the crust and upper mantle move in different manners. The upper crust moves like slips of rigid blocks along major slip faults while the lower crust creeps as a flow in the conductive channels.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As the largest and highest plateau on the Earth, the Tibetan Plateau has been a key location for understanding the processes of mountain building and plateau formation during India-Asia continent-continent collision. As the front-end of the collision, the geological structure of eastern Tibetan Plateau is very complex. It is ideal as a natural laboratory for investigating the formation and evolution of the Tibetan Plateau. Institute of Geophysics, Chinese Academy of Sciences (CAS) carried out MT survey from XiaZayii to Qingshuihe in the east part of the plateau in 1998. After error analysis and distortion analysis, the Non-linear Conjugate Gradient inversion(NLCG), Rapid Relaxation Inversin (RRI) and 2D OCCAM Inversion algorithms were used to invert the data. The three models obtained from 3 algorithms provided similar electrical structure and the NLCG model fit the observed data better than the other two models. According to the analysis of skin depth, the exploration depth of MT in Tibet is much more shallow than in stable continent. For example, the Schmucker depth at period 100s is less than 50km in Tibet, but more than 100km in Canadian Shield. There is a high conductivity layer at the depth of several kilometers beneath middle Qiangtang terrane, and almost 30 kilometers beneath northern Qiangtang terrane. The sensitivity analysis of the data predicates that the depth and resistivity of the crustal high conductivity layer are reliable. The MT results provide a high conductivity layer at 20~40km depth, where the seismic data show a low velocity zone. The experiments show that the rock will dehydrate and partially melt in the relative temperature and pressure. Fluids originated from dehydration and partial melting will seriously change rheological characteristics of rock. Therefore, This layer with low velocity and high conductivity layer in the crust is a weak layer. There is a low velocity path at the depth of 90-110 km beneath southeastern Tibetan Plateau and adjacent areas from seismology results. The analysis on the temperature and rheological property of the lithosphere show that the low velocity path is also weak. GPS measurements and the numerical simulation of the crust-mantle deformation show that the movement rate is different for different terranes. The regional strike derived from decomposition analysis for different frequency band and seismic anisotropy indicate that the crust and upper mantle move separately instead of as a whole. There are material flow in the eastern and southeastern Tibetan Plateau. Therefore, the faults, the crustal and upper mantle weak layers are three different boundaries for relatively movement. Those results support the "two layer wedge plates" geodynamic model on Tibetan formation and evolution.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper examines the relationship between stature and later life health in 6 emerging economies, each of which are expected to experience significant increases in the mean age of their populations over the coming decades. Using data from the WHO Study on Global Ageing and Adult Health (SAGE) and pilot data from the Longitudinal Ageing Study in India (LASI), I show that various measures of health are associated with height, a commonly used proxy for childhood environment. In the pooled sample, a 10 cm increase in height is associated with between a 2 and 3 percentage point increase in the probability of being in very good or good self-reported health, a 3 percentage point increase in the probability of reporting no difficulties with activities of daily living or instrumental activities of daily living, and between a fifth and a quarter of a standard deviation increase in grip strength and lung function. Adopting a methodology previously used in the research on inequality, I also summarise the height-grip strength gradient for each country using the concentration index, and provide a decomposition analysis.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cet ouvrage traite d’une méthodologie pour l’induction de centres stéréogènes au sein des motifs propionates par la chimie des radicaux et de son application à la synthèse totale du méthyl ester de la zincophorine. Cet ionophore, aux propriétés biologiques intéressantes, présente plusieurs défis synthétiques dont une séquence de type polypropionate anti, anti, anti, anti difficilement accessible ainsi qu’un tétrahydropyrane trans trisubstitué. Récemment, l’intérêt renouvelé pour ces composés polyéthers, en tant qu’agents anticancéreux, accentue l’importance de stratégies versatiles permettant l’accès à ces structures ainsi qu’à leurs analogues. Depuis quelques années, notre groupe s’intéresse à la synthèse d’unités propionates acycliques par une séquence réactionnelle contrôlée uniquement par le substrat. La première étape découle d’une aldolisation de Mukaiyama entre un aldéhyde alpha-chiral et un énoxysilane tétrasubstitué portant une liaison carbone-halogène, et où l’issue stéréochimique dépend de la nature monodentate ou bidentate de l’acide de Lewis employé. La seconde réaction-clé implique la formation d’un radical tertiaire, vicinal à un ester, pouvant être réduit diastéréosélectivement en présence d’hydrure d’étain. La première section décrit l’élaboration de motifs tétrahydropyranes trisubstitués et l’induction des centres stéréogènes vicinaux par une réduction radicalaire. Nous avons révélé que l’issue diastéréosélective de la réaction de cyclisation par une iodoéthérification était dictée par le groupement gamma-méthyle des esters alpha,beta-insaturés de départ. Nous avons ensuite démontré que les produits de la réaction radicalaire anti et syn pouvaient être obtenus sélectivement à partir d’un intermédiaire commun, respectivement en prenant appui sur l’effet exocyclique ou endocyclique lors de la réduction. Par une stratégie complémentaire, nous avons révélé que le précurseur radicalaire pouvait également être obtenu par une réaction de cycloéthérification en présence d’un énoxysilane tétrasubstitué. Une étude systématique des substituants du cycle a révélé que certaines relations stéréochimiques conduisaient à une perte de sélectivité au détriment du produit anti. La seconde section concerne l’étude DFT au niveau BHandHLYP/TZVP des intermédiaires radicalaires impliqués lors du transfert d’hydrogène. Par une étude de décomposition de l’énergie d’activation, nous avons été en mesure de rationaliser l’issue diastéréosélective de la réaction sur la base des énergies de distorsion (∆Ed‡) et d’interaction (∆Eint‡) requises pour accéder à la paire d’états de transition pro-anti et pro-syn. De plus, nous avons démontré qu’une analyse NBO permettait de relativiser l’impact des interactions stéréoélectroniques. Par la suite, l’évaluation des intermédiaires radicalaires borinates et aluminates nous a permis de révéler que l’encombrement stérique de la chaîne propionate était la cause principale de la formation sélective des produits anti ou syn lors d’une réduction en présence d’un acide de Lewis. La dernière section décrit l’élaboration de la séquence polypropionate de la zincophorine, et de ses isomères, à partir du fragment tétrahydropyrane substitué. Au cours de notre étude, nous avons identifié que le nombre de sites de chélation potentiels devait être limité à trois lors de l’aldolisation en condition Cram-chélate. De plus, nous avons démontré que les différents motifs acétates sont accessibles sélectivement par l’utilisation d’un énoxysilane encombré. Par ailleurs, nous avons révélé qu’une même séquence réactionnelle pouvait être employée pour la synthèse du fragment C17–C25 de son analogue naturel CP-78,545, et avons complété la plus récente synthèse totale du méthyl ester de la zincophorine.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cement industry ranks 2nd in energy consumption among the industries in India. It is one of the major emitter of CO2, due to combustion of fossil fuel and calcination process. As the huge amount of CO2 emissions cause severe environment problems, the efficient and effective utilization of energy is a major concern in Indian cement industry. The main objective of the research work is to assess the energy cosumption and energy conservation of the Indian cement industry and to predict future trends in cement production and reduction of CO2 emissions. In order to achieve this objective, a detailed energy and exergy analysis of a typical cement plant in Kerala was carried out. The data on fuel usage, electricity consumption, amount of clinker and cement production were also collected from a few selected cement industries in India for the period 2001 - 2010 and the CO2 emissions were estimated. A complete decomposition method was used for the analysis of change in CO2 emissions during the period 2001 - 2010 by categorising the cement industries according to the specific thermal energy consumption. A basic forecasting model for the cement production trend was developed by using the system dynamic approach and the model was validated with the data collected from the selected cement industries. The cement production and CO2 emissions from the industries were also predicted with the base year as 2010. The sensitivity analysis of the forecasting model was conducted and found satisfactory. The model was then modified for the total cement production in India to predict the cement production and CO2 emissions for the next 21 years under three different scenarios. The parmeters that influence CO2 emissions like population and GDP growth rate, demand of cement and its production, clinker consumption and energy utilization are incorporated in these scenarios. The existing growth rate of the population and cement production in the year 2010 were used in the baseline scenario. In the scenario-1 (S1) the growth rate of population was assumed to be gradually decreasing and finally reach zero by the year 2030, while in scenario-2 (S2) a faster decline in the growth rate was assumed such that zero growth rate is achieved in the year 2020. The mitigation strategiesfor the reduction of CO2 emissions from the cement production were identified and analyzed in the energy management scenarioThe energy and exergy analysis of the raw mill of the cement plant revealed that the exergy utilization was worse than energy utilization. The energy analysis of the kiln system showed that around 38% of heat energy is wasted through exhaust gases of the preheater and cooler of the kiln sysetm. This could be recovered by the waste heat recovery system. A secondary insulation shell was also recommended for the kiln in the plant in order to prevent heat loss and enhance the efficiency of the plant. The decomposition analysis of the change in CO2 emissions during 2001- 2010 showed that the activity effect was the main factor for CO2 emissions for the cement industries since it is directly dependent on economic growth of the country. The forecasting model showed that 15.22% and 29.44% of CO2 emissions reduction can be achieved by the year 2030 in scenario- (S1) and scenario-2 (S2) respectively. In analysing the energy management scenario, it was assumed that 25% of electrical energy supply to the cement plants is replaced by renewable energy. The analysis revealed that the recovery of waste heat and the use of renewable energy could lead to decline in CO2 emissions 7.1% for baseline scenario, 10.9 % in scenario-1 (S1) and 11.16% in scenario-2 (S2) in 2030. The combined scenario considering population stabilization by the year 2020, 25% of contribution from renewable energy sources of the cement industry and 38% thermal energy from the waste heat streams shows that CO2 emissions from Indian cement industry could be reduced by nearly 37% in the year 2030. This would reduce a substantial level of greenhouse gas load to the environment. The cement industry will remain one of the critical sectors for India to meet its CO2 emissions reduction target. India’s cement production will continue to grow in the near future due to its GDP growth. The control of population, improvement in plant efficiency and use of renewable energy are the important options for the mitigation of CO2 emissions from Indian cement industries

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The energy decomposition scheme proposed in a recent paper has been realized by performing numerical integrations. The sample calculations carried out for some simple molecules show excellent agreement with the chemical picture of molecules, indicating that such an energy decomposition analysis can be useful from the point of view of connecting quantum mechanics with the genuine chemical concepts

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The year 1968 saw a major shift from univariate to multivariate methodological approaches to ratio-based modelling of corporate collapse. This was facilitated by the introduction of a new statistical tool called Multiple Discriminant Analysis (MDA). However, it did not take long before other statistical tools were developed. The primary objective for developing these tools was to enable deriving models that would at least do as good a job asMDA, but rely on fewer assumptions. With the introduction of new statistical tools, researchers became pre-occupied with testing them in signalling collapse. lLTUong the ratio-based approaches were Logit analysis, Neural Network analysis, Probit analysis, ID3, Recursive Partitioning Algorithm, Rough Sets analysis, Decomposition analysis, Going Concern Advisor, Koundinya and Purl judgmental approach, Tabu Search and Mixed Logit analysis. Regardless of which methodological approach was chosen, most were compared to MDA. This paper reviews these various approaches. Emphasis is placed on how they fared against MDA in signalling corporate collapse.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this paper we analyze per capita incomes of the G7 countries using the common cycles test developed by Vahid and Engle (Journal of Applied Econometrics, 8:341–360, 1993) and extended by Hecq et al. (Oxford Bulletin of Economics and Statistics, 62:511–532, 2000; Econometric Reviews, 21:273–307, 2002) and the common trend test developed by Johansen (Journal of Economic Dynamics and Control, 12:231–254, 1988). Our main contribution is that we impose the common cycle and common trend restrictions in decomposing the innovations into permanent and transitory components. Our main finding is permanent shocks explain the bulk of the variations in incomes for the G7 countries over short time horizons, and is in sharp contrast to the bulk of the recent literature. We attribute this to the greater forecasting accuracy achieved, which we later confirm through performing a post sample forecasting exercise, from the variance decomposition analysis.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper investigates the degree of short run and long run co-movement in U.S. sectoral output data by estimating sectoraI trends and cycles. A theoretical model based on Long and Plosser (1983) is used to derive a reduced form for sectoral output from first principles. Cointegration and common features (cycles) tests are performed; sectoral output data seem to share a relatively high number of common trends and a relatively low number of common cycles. A special trend-cycle decomposition of the data set is performed and the results indicate a very similar cyclical behavior across sectors and a very different behavior for trends. Indeed. sectors cyclical components appear as one. In a variance decomposition analysis, prominent sectors such as Manufacturing and Wholesale/Retail Trade exhibit relatively important transitory shocks.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

From a methodological point of view, this paper makes two contributions to the literature. One contribution is the proposal of a new measure of pro-poor growth. This new measure provides the linkage between growth rates in mean income and in income inequality. In this context, growth is defined as propoor (or anti-poor) if there is a gain (or loss) in the growth rate due to a decrease (or increase) in inequality. The other contribution is a decomposition methodology that explores linkages between growth patterns and social policies. Through the decomposition analysis, we assess the contribution of different income sources to growth patterns. The proposed methodologies are then applied to the Brazilian National Household Survey (PNAD) covering the period 1995-2004. The paper analyzes the evolution of Brazilian social indicators based on per capita income exploring links with adverse labour market performance and social policy change, with particular emphasis on the expansion of targeted cash transfers and devising more pro-poor social security benefits.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

From a methodological point of view, this paper makes two contributions to the literature. One contribution is the proposal of a new measure of pro-poor growth. This new measure provides the linkage between growth rates in mean income and in income inequality. In this context, growth is defined as pro-poor (or anti-poor) if there is a gain (or loss) in the growth rate due to a decrease (or increase) in inequality. The other contribution is a decomposition methodology that explores linkages growth patterns, and labour market performances. Through the decomposition analysis, growth in per capita income is explained in terms of four labour market components: the employment rate, hours of work, the labour force participation rate, and productivity. The proposed methodology are then applied to the Brazilian National Household Survey (PNAD) covering the period 1995-2004. The paper analyzes the evolution of Brazilian social indicators based on per capita income exploring links with adverse labour market performance.