16 resultados para Weighted average

em Repositório digital da Fundação Getúlio Vargas - FGV


Relevância:

60.00% 60.00%

Publicador:

Resumo:

O trabalho aborda a questão do custo de capital em um contexto de mercados globalizados. Analisa as principais metodologias para definição das variáveis que compõem o Custo Médio Ponderado de Capital (Weighted Average Cost of Capital) e o impacto exercido pela segmentação/integração dos mercados financeiros mundiais nesta definição. Discute as relações internacionais de paridade (Purchasing Power Parity, Efeito Fisher, lnterest Rate Parity, entre outras) e suas implicações para a definição de custo de capital. Discorre sobre diversificação internacional de portfólios e instrumentos para captação de recursos no exterior, como eurobonds e ADR's, e discute a questão do custo de capital ser global ou local/divisional.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Neste artigo estimamos e simulamos um modelo macroeconômico aberto de expectativas racionais (Batini e Haldane [4]) para a economia brasileira, com o objetivo de identificar as características das regras monetárias ótimas e a dinâmica de curto prazo gerada por elas. Trabalhamos com uma versão forward-Iooking e uma versão backward-Iooking a fim de comparar o desempenho de três parametrizações de regras monetárias, que diferem em relação à variável de inflação: a tradicional regra de Taylor, que se baseia na inflação passada; uma regra que combina inflação e taxa de câmbio real (ver Ball [5]) e uma regra que utiliza previsões de inflação (ver Bank af England [3]). Resolvemos o modelo numericamente e contruímos fronteiras eficientes em relação às variâncias do produto e da infiação por simulações estocásticas, para choques i.i.d. ou correlacionados. Os conjuntos de regras ótimas para as duas versões são qualitativamente distintos. Devido à incerteza quanto ao grau de forward-Iookingness sugerimos a escolha das regras pela soma das funções objetivos nas duas versões. Concluímos que as regras escolhidas com base neste critério têm perdas moderadas em relação às regras ótimas, mas previnem perdas maiores que resultariam da escolha da regra com base na versão errada. Finalmente calculamos funções de resposta a impulso dos dois modelos para algumas regras selecionadas, a fim de avaliar como diferentes regras monetárias alteram a dinâmica de curto prazo dos dois modelos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente artigo tem por objetivo demonstrar como a gestão de derivativos e a participação de capital estrangeiro afetam o custo de capital das empresas. Para essa finalidade o trabalho irá testar como impactam nos custos de capital WACC (Weighted Average Cost of Capital) e TACC (Total Average Cost of Capital), ou custo de capital total. Utilizando uma base de dados construída com dados do Economatica, bem como informações retiradas dos demonstrativos financeiros das empresas, estimaram-se três modelos para explicar quais seriam as variáveis que poderiam impactar o custo de capital das empresas. No primeiro modelo explicou-se o WACC (custo de capital médio ponderado), no segundo, o TACC (custo de capital total) e, no terceiro modelo, explicou-se a diferença entre o WACC e o TACC, quando diferente de zero. No caso do WACC a variável de teste derivativo, que demonstra empresas que possuem hedges de proteção, reduz o custo de capital, entretanto a variável estrangeiro que reflete a presença de capital estrangeiro foi estatisticamente não significativa. Já para o TACC a variável de teste estrangeiro não foi estatisticamente significativa e a variável derivativo não esteve presente. Entende-se que isto ocorre pelo fato de empresas mais conservadoras possuírem menor custo de capital.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho foi verificar se o BNDES, no período entre 2000 e 2011 gerou lucro econômico para o seu principal acionista, o Governo Federal. Foram analisados demonstrativos financeiros e notas explicativas publicadas neste período para obtenção de dados para o cálculo do Valor Econômico Adicionado ou Economic Value added (EVA®). Esta metodologia deduz o custo de todo o capital empregado na empresa do lucro operacional após os impostos. Além disso, utiliza o custo médio ponderado de capital (CMPC) ou Weighted Average Cost of Capital (WACC) como taxa de remuneração do capital investido para cálculo do custo do capital. O WACC pondera o custo de capital de terceiros, após a dedução da alíquota dos impostos incidentes sobre o lucro e o custo de capital próprio. A utilização de algumas premissas e a elaboração de alguns cenários foram necessários para a estimativa do custo do capital próprio do acionista. Além disso, alguns ajustes, como a inclusão de dividendos e juros sobre capital próprio pagos pelo BNDES ao acionista foram realizados para o cálculo do EVA®, além de outros ajustes contábeis necessários. Ao final do estudo, observamos que, em todos os cenários utilizados, a geração de lucro econômico foi negativa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper considers tests which maximize the weighted average power (WAP). The focus is on determining WAP tests subject to an uncountable number of equalities and/or inequalities. The unifying theory allows us to obtain tests with correct size, similar tests, and unbiased tests, among others. A WAP test may be randomized and its characterization is not always possible. We show how to approximate the power of the optimal test by sequences of nonrandomized tests. Two alternative approximations are considered. The rst approach considers a sequence of similar tests for an increasing number of boundary conditions. This discretization allows us to implement the WAP tests in practice. The second method nds a sequence of tests which approximate the WAP test uniformly. This approximation allows us to show that WAP similar tests are admissible. The theoretical framework is readily applicable to several econometric models, including the important class of the curved-exponential family. In this paper, we consider the instrumental variable model with heteroskedastic and autocorrelated errors (HAC-IV) and the nearly integrated regressor model. In both models, we nd WAP similar and (locally) unbiased tests which dominate other available tests.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

We extend the standard price discovery analysis to estimate the information share of dual-class shares across domestic and foreign markets. By examining both common and preferred shares, we aim to extract information not only about the fundamental value of the rm, but also about the dual-class premium. In particular, our interest lies on the price discovery mechanism regulating the prices of common and preferred shares in the BM&FBovespa as well as the prices of their ADR counterparts in the NYSE and in the Arca platform. However, in the presence of contemporaneous correlation between the innovations, the standard information share measure depends heavily on the ordering we attribute to prices in the system. To remain agnostic about which are the leading share class and market, one could for instance compute some weighted average information share across all possible orderings. This is extremely inconvenient given that we are dealing with 2 share prices in Brazil, 4 share prices in the US, plus the exchange rate (and hence over 5,000 permutations!). We thus develop a novel methodology to carry out price discovery analyses that does not impose any ex-ante assumption about which share class or trading platform conveys more information about shocks in the fundamental price. As such, our procedure yields a single measure of information share, which is invariant to the ordering of the variables in the system. Simulations of a simple market microstructure model show that our information share estimator works pretty well in practice. We then employ transactions data to study price discovery in two dual-class Brazilian stocks and their ADRs. We uncover two interesting ndings. First, the foreign market is at least as informative as the home market. Second, shocks in the dual-class premium entail a permanent e ect in normal times, but transitory in periods of nancial distress. We argue that the latter is consistent with the expropriation of preferred shareholders as a class.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nos últimos anos o governo brasileiro tem adotado a postura de incentivo a projetos de infraestrutura, sendo as concessões rodoviárias um dos principais mecanismos. Muito se discute sobre a melhor forma de remuneração das concessionárias, sem que, ao mesmo tempo, os usuários não tenham um custo elevado e possam usufruir de bons serviçoes prestados.Essa discussão passa, principalmente, por uma análise de risco de tráfego, que hoje é inteiramente alocado as cconcessionárias. A metodologia utilizada nos últimos leilões segue uma exigência de Taxa Interna de Retorno ( TIR ) máxima, pelo Poder Concedente ( ANTT ), em termos reais e um prazo de concessão fixo. A partir de custos e investimentos estimados em determinada concessão, a ANTT define uma tarifa-teto a ser cobrada pela concessionária aos usuários através da TIR máxima exigida no projeto. Esta TIR é calculada com base no custo médio ponderado de capital ( WACC ) de empresas do setor, que tem ações negociadas na BM&F Bovespa, utilizando-se apenas dados domésticos. Neste trabalho é proposto um modelo alternativo, baseado no menor valor presente das receitas ( LPVR - Least Present Value of Revenues ). Neste modelo observamos que o risco de tráfego é bem menor para a concessionária, pois a concessão só se expira quando determinado nível de receitas exigido pela concessionária é atingido. Ou seja, para tal, é necessário um modelo de prazo flexível. Neste mecanismo, entretanto, com menor risco de tráfego, o upside e o downside, em termos de retorno, são menores em comparação com o modelo vigente. Utilizando este modelo, o Poder Concedente pode também definir um vencedor para o leilão ( a concessionária que ofertar o menor valor presente das receitas ) e também se utilizar da proposta de simulação de tráfegos para a definição de um prazo máximo para a concessão, em caso de implementação do mecanismo proposto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper considers two-sided tests for the parameter of an endogenous variable in an instrumental variable (IV) model with heteroskedastic and autocorrelated errors. We develop the nite-sample theory of weighted-average power (WAP) tests with normal errors and a known long-run variance. We introduce two weights which are invariant to orthogonal transformations of the instruments; e.g., changing the order in which the instruments appear. While tests using the MM1 weight can be severely biased, optimal tests based on the MM2 weight are naturally two-sided when errors are homoskedastic. We propose two boundary conditions that yield two-sided tests whether errors are homoskedastic or not. The locally unbiased (LU) condition is related to the power around the null hypothesis and is a weaker requirement than unbiasedness. The strongly unbiased (SU) condition is more restrictive than LU, but the associated WAP tests are easier to implement. Several tests are SU in nite samples or asymptotically, including tests robust to weak IV (such as the Anderson-Rubin, score, conditional quasi-likelihood ratio, and I. Andrews' (2015) PI-CLC tests) and two-sided tests which are optimal when the sample size is large and instruments are strong. We refer to the WAP-SU tests based on our weights as MM1-SU and MM2-SU tests. Dropping the restrictive assumptions of normality and known variance, the theory is shown to remain valid at the cost of asymptotic approximations. The MM2-SU test is optimal under the strong IV asymptotics, and outperforms other existing tests under the weak IV asymptotics.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this work we focus on tests for the parameter of an endogenous variable in a weakly identi ed instrumental variable regressionmodel. We propose a new unbiasedness restriction for weighted average power (WAP) tests introduced by Moreira and Moreira (2013). This new boundary condition is motivated by the score e ciency under strong identi cation. It allows reducing computational costs of WAP tests by replacing the strongly unbiased condition. This latter restriction imposes, under the null hypothesis, the test to be uncorrelated to a given statistic with dimension given by the number of instruments. The new proposed boundary condition only imposes the test to be uncorrelated to a linear combination of the statistic. WAP tests under both restrictions to perform similarly numerically. We apply the di erent tests discussed to an empirical example. Using data from Yogo (2004), we assess the e ect of weak instruments on the estimation of the elasticity of inter-temporal substitution of a CCAPM model.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The synthetic control (SC) method has been recently proposed as an alternative to estimate treatment effects in comparative case studies. The SC relies on the assumption that there is a weighted average of the control units that reconstruct the potential outcome of the treated unit in the absence of treatment. If these weights were known, then one could estimate the counterfactual for the treated unit using this weighted average. With these weights, the SC would provide an unbiased estimator for the treatment effect even if selection into treatment is correlated with the unobserved heterogeneity. In this paper, we revisit the SC method in a linear factor model where the SC weights are considered nuisance parameters that are estimated to construct the SC estimator. We show that, when the number of control units is fixed, the estimated SC weights will generally not converge to the weights that reconstruct the factor loadings of the treated unit, even when the number of pre-intervention periods goes to infinity. As a consequence, the SC estimator will be asymptotically biased if treatment assignment is correlated with the unobserved heterogeneity. The asymptotic bias only vanishes when the variance of the idiosyncratic error goes to zero. We suggest a slight modification in the SC method that guarantees that the SC estimator is asymptotically unbiased and has a lower asymptotic variance than the difference-in-differences (DID) estimator when the DID identification assumption is satisfied. If the DID assumption is not satisfied, then both estimators would be asymptotically biased, and it would not be possible to rank them in terms of their asymptotic bias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the (feasible) bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular, it is asymptotically equivalent to the conditional expectation, i.e., has an optimal limiting mean-squared error. We also develop a zeromean test for the average bias and discuss the forecast-combination puzzle in small and large samples. Monte-Carlo simulations are conducted to evaluate the performance of the feasible bias-corrected average forecast in finite samples. An empirical exercise based upon data from a well known survey is also presented. Overall, theoretical and empirical results show promise for the feasible bias-corrected average forecast.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular it delivers a zero-limiting mean-squared error if the number of forecasts and the number of post-sample time periods is sufficiently large. We also develop a zero-mean test for the average bias. Monte-Carlo simulations are conducted to evaluate the performance of this new technique in finite samples. An empirical exercise, based upon data from well known surveys is also presented. Overall, these results show promise for the bias-corrected average forecast.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper, we propose a novel approach to econometric forecasting of stationary and ergodic time series within a panel-data framework. Our key element is to employ the (feasible) bias-corrected average forecast. Using panel-data sequential asymptotics we show that it is potentially superior to other techniques in several contexts. In particular, it is asymptotically equivalent to the conditional expectation, i.e., has an optimal limiting mean-squared error. We also develop a zeromean test for the average bias and discuss the forecast-combination puzzle in small and large samples. Monte-Carlo simulations are conducted to evaluate the performance of the feasible bias-corrected average forecast in finite samples. An empirical exercise, based upon data from a well known survey is also presented. Overall, these results show promise for the feasible bias-corrected average forecast.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Macro-based summary indicators of effective tax burdens do not capture differences in effective tax rates facing different sub-groups of the population. They also cannot provide information on the level or distribution of the marginal effective tax rates thought to influence household behaviour. I use EUROMOD, an EU-wide tax-benefit microsimulation model, to compute distributions of average and marginal effective tax rates across the household population in fourteen European Union Member States. Using different definitions of ‘net taxes’, the tax base and the unit of analysis I present a range of measures showing the contribution of the tax-benefit system to household incomes, the average effective tax rates applicable to income from labour and marginal effective tax rates faced by working men and women. In a second step, effective tax rates are broken down to separately show the influence of each type of tax-benefit instrument. The results show that measures of effective tax rates vary considerably depending on incomes, labour market situations and family circumstances. Using single averages or macro-based indicators will therefore provide an inappropriate picture of tax burdens faced by large parts of the population.