179 resultados para GMM
Resumo:
In this thesis, we investigate some aspects of the interplay between economic regulation and the risk of the regulated firm. In the first chapter, the main goal is to understand the implications a mainstream regulatory model (Laffont and Tirole, 1993) have on the systematic risk of the firm. We generalize the model in order to incorporate aggregate risk, and find that the optimal regulatory contract must be severely constrained in order to reproduce real-world systematic risk levels. We also consider the optimal profit-sharing mechanism, with an endogenous sharing rate, to explore the relationship between contract power and beta. We find results compatible with the available evidence that high-powered regimes impose more risk to the firm. In the second chapter, a joint work with Daniel Lima from the University of California, San Diego (UCSD), we start from the observation that regulated firms are subject to some regulatory practices that potentially affect the symmetry of the distribution of their future profits. If these practices are anticipated by investors in the stock market, the pattern of asymmetry in the empirical distribution of stock returns may differ among regulated and non-regulated companies. We review some recently proposed asymmetry measures that are robust to the empirical regularities of return data and use them to investigate whether there are meaningful differences in the distribution of asymmetry between these two groups of companies. In the third and last chapter, three different approaches to the capital asset pricing model of Kraus and Litzenberger (1976) are tested with recent Brazilian data and estimated using the generalized method of moments (GMM) as a unifying procedure. We find that ex-post stock returns generally exhibit statistically significant coskewness with the market portfolio, and hence are sensitive to squared market returns. However, while the theoretical ground for the preference for skewness is well established and fairly intuitive, we did not find supporting evidence that investors require a premium for supporting this risk factor in Brazil.
Resumo:
The aim of this article is to assess the role of real effective exchange rate volatility on long-run economic growth for a set of 82 advanced and emerging economies using a panel data set ranging from 1970 to 2009. With an accurate measure for exchange rate volatility, the results for the two-step system GMM panel growth models show that a more (less) volatile RER has significant negative (positive) impact on economic growth and the results are robust for different model specifications. In addition to that, exchange rate stability seems to be more important to foster long-run economic growth than exchange rate misalignment
Resumo:
Partindo de uma avaliação sobre o contexto mundial de descentralização fiscal e de democratização em que o Brasil se encontrava no final do século XX, essa tese apresenta na primeira parte uma análise empírica para países em desenvolvimento evidenciando o condicionamento do tipo de regime de governo na relação entre descentralização fiscal e tamanho de governo. Estimações por system-GMM para países em desenvolvimento mostram que existe um nível de descentralização fiscal, entre 20% e 30%, que uma vez superado, resulta em democracias com tamanhos de governos menores do que as ditaduras. Esses resultado, que chama a atenção tanto para os governos locais, como para a influência da democracia no gasto público, estimulou a continuação da pesquisa na avaliação da eficiência dos gastos municipais no Brasil e sua relação com o voto. Assim, no segundo ensaio, são calculados indicadores de evolução da eficiência e da produtividade do gasto municipal (fatores de Malmquist) entre 2004 e 2008, para as áreas da saúde e educação. Os resultados da análise por fronteira estocástica mostram que tanto na educação, como na saúde, houve avanços na fronteira de produção (TFPC, em média, de 18.7%, na educação e de 14.2% na saúde) por avanços de mudança técnica (Technical Change - TC), ao invés de elevação da eficiência (Technical Efficiency Change – TEC). No último ensaio, os indicadores de eficiência e de produtividade são usados para testar a hipótese de que o eleitor municipal premia com o voto os prefeitos que melhoraram a eficiência do gasto da educação e/ou saúde em sua gestão. Os resultados não rejeitam a hipótese para a educação, mas rejeitam para a saúde. A fim de tratar prováveis erros de medida das variáveis de produtividade, as estimações são instrumentalizadas em regressões por dois estágios.
Resumo:
O objetivo deste trabalho é avaliar a relevância do canal de crédito bancário brasileiro na transmissão da política monetária. Principalmente analisar se características de bancos (liquidez e porte) conjuntamente com os instrumentos de política monetária afetam diferentemente a qualidade do crédito e a oferta do mesmo. Para isso são analisados dados desagregados de bancos brasileiros (balanços patrimoniais) desde de junho de 2001 até dezembro de 2009 juntamente com a Selic e os Depósitos Compulsórios. Verificou-se que o efeito da política monetária varia dependendo do instrumento utilizado, por exemplo no caso de um aumento na Selic, o impacto no crédito de bancos de menor porte e mais líquidos é maior. Já para um aumento de compulsórios os bancos de menor liquidez e maior tamanho são impactados em maior magnitude. Também se encontrou que o volume de créditos de baixa qualidade é reduzido diante de apertos monetários, e que esse efeito é mais intenso para bancos pequenos. É difícil afirmar, no entanto, se a redução no volume de empréstimos de qualidade ruim se dá simplesmente pela redução da oferta de crédito, ou se se trata de um processo de flight-to-quality.
Resumo:
It is well known that cointegration between the level of two variables (labeled Yt and yt in this paper) is a necessary condition to assess the empirical validity of a present-value model (PV and PVM, respectively, hereafter) linking them. The work on cointegration has been so prevalent that it is often overlooked that another necessary condition for the PVM to hold is that the forecast error entailed by the model is orthogonal to the past. The basis of this result is the use of rational expectations in forecasting future values of variables in the PVM. If this condition fails, the present-value equation will not be valid, since it will contain an additional term capturing the (non-zero) conditional expected value of future error terms. Our article has a few novel contributions, but two stand out. First, in testing for PVMs, we advise to split the restrictions implied by PV relationships into orthogonality conditions (or reduced rank restrictions) before additional tests on the value of parameters. We show that PV relationships entail a weak-form common feature relationship as in Hecq, Palm, and Urbain (2006) and in Athanasopoulos, Guillén, Issler and Vahid (2011) and also a polynomial serial-correlation common feature relationship as in Cubadda and Hecq (2001), which represent restrictions on dynamic models which allow several tests for the existence of PV relationships to be used. Because these relationships occur mostly with nancial data, we propose tests based on generalized method of moment (GMM) estimates, where it is straightforward to propose robust tests in the presence of heteroskedasticity. We also propose a robust Wald test developed to investigate the presence of reduced rank models. Their performance is evaluated in a Monte-Carlo exercise. Second, in the context of asset pricing, we propose applying a permanent-transitory (PT) decomposition based on Beveridge and Nelson (1981), which focus on extracting the long-run component of asset prices, a key concept in modern nancial theory as discussed in Alvarez and Jermann (2005), Hansen and Scheinkman (2009), and Nieuwerburgh, Lustig, Verdelhan (2010). Here again we can exploit the results developed in the common cycle literature to easily extract permament and transitory components under both long and also short-run restrictions. The techniques discussed herein are applied to long span annual data on long- and short-term interest rates and on price and dividend for the U.S. economy. In both applications we do not reject the existence of a common cyclical feature vector linking these two series. Extracting the long-run component shows the usefulness of our approach and highlights the presence of asset-pricing bubbles.
Resumo:
Com origem no setor imobiliário americano, a crise de crédito de 2008 gerou grandes perdas nos mercados ao redor do mundo. O mês de outubro do mesmo ano concentrou a maior parte da turbulência, apresentando também uma explosão na volatilidade. Em meados de 2006 e 2007, o VIX, um índice de volatilidade implícita das opções do S&P500, registrou uma elevação de patamar, sinalizando o possível desequilíbrio existente no mercado americano. Esta dissertação analisa se o consenso de que a volatilidade implícita é a melhor previsora da volatilidade futura permanece durante o período de crise. Os resultados indicam que o VIX perde poder explicativo ao se passar do período sem crise para o de crise, sendo ultrapassado pela volatilidade realizada.
Resumo:
Esta tese tem por objetivo principal examinar a interação da política fiscal com a política monetária. A pergunta central a ser respondida por esse estudo é se a política fiscal tem efeitos sobre a regra de Taylor. Para responder a essa pergunta o estudo é conduzido com análise teórica e empírica. O modelo analítico é desenvolvido do framework novo keynesiano, apresentado por Gali (2008), adicionando-se papel do governo sobre a demanda agregada e a produtividade das firmas. A análise empírica é realizada com dados de 1990 a 2008, em um painel de países utilizando o System GMM (método generalizado dos momentos) desenvolvido por Blundell e Bond (1998). Os resultados obtidos nesse trabalho apontam para um impacto positivo do gasto fiscal na taxa de juros de curto prazo, tal que o aumento em 1 ponto percentual de gasto além do nível de equilíbrio leva a um aumento de aproximadamente 0,1 pontos percentuais na taxa de juros no curto prazo, já o impacto no longo prazo, na estimação preferida, varia de 0,5 a 1 ponto percentual. Ou seja, para efeito de recomendação de política fiscal, gastos governamentais têm efeitos na taxa de juros nominal de curto prazo.
Resumo:
Este trabalho é composto de três partes. O primeiro capítulo avalia a hipótese de substituição de poupanças. De acordo com Bresser-Pereira e Nakano (2003), existe nas economias emergentes uma alta taxa de substituição de poupança interna por externa gerada pelo processo de influxo dos recursos estrangeiros. Isso acontece porque, dada a propensão ao consumo dos países emergentes, a maior parte do déficit em conta corrente se transforma em consumo de importados; a parcela dos fluxos gasta em investimento é pequena, de forma que a estratégia de crescimento com poupança estrangeira não é uma opção. Diante desta hipótese, o capítulo avalia teórica e empiricamente a existência de substituição de poupança interna por externa nos países em desenvolvimento e o papel da sobreapreciação da taxa de câmbio real (TCR) nesse processo. Foi utilizado um painel dinâmico System-GMM para uma amostra de 48 países de renda média cobrindo o período de 1970-2004. Os resultados mostram um processo de substituição de poupança doméstica por externa significante, além de efeitos negativos sobre a poupança doméstica resultantes da interação entre sobreapreciação do câmbio e entrada de poupança estrangeira. O segundo capítulo analisa os efeitos de sobreapreciações da TCR sobre o valor adicionado por setores dos países emergentes, para o período 1970-2004. A sobreapreciação, ao minar a competitividade dos produtos manufaturados e industriais domesticamente, pode reduzir a capacidade dos países em desenvolvimento de estimular setores dinâmicos da estrutura produtiva que induzem crescimento e desenvolvimento sustentável no longo prazo. A motivação teórica é a visão Kaldoriana de desenvolvimento. Assim, o capítulo testa a relação entre a sobreapreciação da TCR sobre o valor adicionado dos setores produtivos de bens primários e manufatureiros como parcela do produto, no período de 1970 a 2004, para uma amostra de 45 países emergentes. Os resultados evidenciam que os episódios de sobreapreciação caracterizados pelo índice reduzem a participação de manufaturados no valor agregado no produto das economias em desenvolvimento, de forma significante. A razão provável deste resultado é que um câmbio sobreapreciado não só torna os bens industriais domésticos menos competitivos, como também favorece a importação doméstica destes que, em virtude disto, deixam de ser produzidos ou aperfeiçoados dentro do país. Por fim, o terceiro capítulo avalia os efeitos da dívida externa sobre crescimento de um ponto de vista diferente dos diagnósticos da literatura “debt overhang”: argumenta que é a estratégia de crescimento com poupança externa a causa do crescente endividamento que, no longo prazo, é responsável por prejudicar a performance de crescimento dos países emergentes por gerar crises no balanço de pagamentos. Para avaliar esta dinâmica empiricamente foi estimada uma equação de crescimento com painel dinâmico System-GMM de variáveis instrumentais; são utilizados dados para 45 países de renda média, no período 1970-2004. A conclusão geral dos exercícios empíricos atesta uma influência não linear da dívida externa sobre o crescimento dos países selecionados na amostra: no longo prazo, o contínuo endividamento reduz o desempenho de crescimento dos países. Pode-se apontar ainda que um dos mecanismos pelo qual a poupança externa pode levar a maior dívida externa é sua interação significante com o influxo de recursos externos necessários para a rolagem da dívida; o resultado sobre o desempenho de crescimento é negativo e significante. Por fim, o apêndice do trabalho detalha os procedimentos de estimação de painel cointegrado utilizados para derivar os índices de sobreapreciação da TCR.
Resumo:
O VIX Volatility Index surgiu como uma alternativa no cálculo da volatilidade implícita, visando mitigar alguns problemas encontrados em modelos da família Black-Scholes. Este tipo de volatilidade é tida como a melhor previsora da volatilidade futura, dado que as expectativas dos operadores de opções se encontram embutidas em seus valores. O objetivo deste trabalho é testar se o VIX apresenta maior poder preditivo e informações relevantes não presentes em modelos de séries temporais para variáveis não-negativas, tratadas através do modelo de erro multiplicativo. Os resultados indicam que o VIX apresenta maior poder preditivo em períodos de estabilidade econômica, mas não contém informação relevante frente à real volatilidade. Em períodos de crise econômica o resultado se altera, com o VIX apresentando o mesmo poder explicativo, mas contém informações relevantes no curto prazo.
Resumo:
A inclusão de momentos superiores no apreçamento de ativos do modelo CAPM vem sendo bastante discutido nas últimas décadas. Esse trabalho realiza um teste empírico para o modelo CAPM estendido para os 3o e 4o momentos, no qual as assimetrias e curtoses dos ativos também são apreçadas. O teste foi realizado utilizando o Método Generalizado dos Momentos (MGM), em que todas as condições de momento derivam do modelo teórico. Os dados utilizados foram os retornos diários das ações mais negociadas na Bovespa entre 2004 e 2006.
Resumo:
Este trabalho trata do impacto da dívida pública sobre o crescimento econômico utilizando conjunto de dados de painel para o período de 1990 a 2000 nos países da América Latina e Caribe, e considerando técnicas de método GMM para painéis dinâmicos. De acordo com os resultados de nossas estimações, a dívida pública dos países influencia negativamente o crescimento econômico, enquanto o desenvolvimento do mercado de títulos públicos apresenta efeito contrário.
Resumo:
Esta tese é composta por três artigos. Dois deles investigam assuntos afeitos a tributação e o terceiro é um artigo sobre o tema “poupança”'. Embora os objetos de análise sejam distintos, os três possuem como característica comum a aplicação de técnicas de econometria de dados em painel a bases de dados inéditas. Em dois dos artigos, utiliza-se estimação por GMM em modelos dinâmicos. Por sua vez, o artigo remanescente é uma aplicação de modelos de variável dependente latente. Abaixo, apresenta-se um breve resumo de cada artigo, começando pelos dois artigos de tributação, que dividem uma seção comum sobre o ICMS (o imposto estadual sobre valor adicionado) e terminando com o artigo sobre poupança. O primeiro artigo analisa a importância da fiscalização como instrumento para deter a evasão de tributos e aumentar a receita tributária, no caso de um imposto sobre valor adicionado, no contexto de um país em desenvolvimento. O estudo é realizado com dados do estado de São Paulo. Para tratar questões relativas a endogeneidade e inércia na série de receita tributária, empregam-se técnicas de painel dinâmico. Utiliza-se como variáveis de controle o nível do PIB regional e duas proxies para esforço fiscal: a quantidade e o valor das multas tributárias. Os resultados apontam impacto significativo do esforço fiscal nas receitas tributárias. O artigo evidencia, indiretamente, a forma como a evasão fiscal é afetada pela penalidade aplicada aos casos de sonegação. Suas conclusões também são relevantes no contexto das discussões sobre o federalismo fiscal brasileiro, especialmente no caso de uma reforma tributária potencial. O segundo artigo examina uma das principais tarefas das administrações tributárias: a escolha periódica de contribuintes para auditoria. A melhora na eficiência dos mecanismos de seleção de empresas tem o potencial de impactar positivamente a probabilidade de detecção de fraudes fiscais, provendo melhor alocação dos escassos recursos fiscais. Neste artigo, tentamos desenvolver este mecanismo calculando a probabilidade de sonegação associada a cada contribuinte. Isto é feito, no universo restrito de empresas auditadas, por meio da combinação “ótima” de diversos indicadores fiscais existentes e de informações dos resultados dos procedimentos de auditoria, em modelos de variável dependente latente. Após calculados os coeficientes, a probabilidade de sonegação é calculada para todo o universo de contribuintes. O método foi empregado em um painel com micro-dados de empresas sujeitas ao recolhimento de ICMS no âmbito da Delegacia Tributária de Guarulhos, no estado de São Paulo. O terceiro artigo analisa as baixas taxas de poupança dos países latino-americanos nas últimas décadas. Utilizando técnicas de dados em painel, identificam-se os determinantes da taxa de poupança. Em seguida, faz-se uma análise contrafactual usando a China, que tem apresentado altas taxas de poupança no mesmo período, como parâmetro. Atenção especial é dispensada ao Brasil, que tem ficado muito atrás dos seus pares no grupo dos BRICs neste quesito. O artigo contribui para a literatura existente em vários sentidos: emprega duas amplas bases de dados para analisar a influência de uma grande variedade de determinantes da taxa de poupança, incluindo variáveis demográficas e de previdência social; confirma resultados previamente encontrados na literatura, com a robustez conferida por bases de dados mais ricas; para alguns países latino-americanos, revela que as suas taxas de poupança tenderiam a aumentar se eles tivessem um comportamento mais semelhante ao da China em outras áreas, mas o incremento não seria tão dramático.
Resumo:
Os resultados obtidos possibilitam afirmar que as indústrias que mais investiram em Tecnologia de Informação (TI), no período de 2001 a 2011, obtiveram maior crescimento da sua receita operacional e resultados operacionais mais eficazes, comparadas com as indústrias que investiram menos no período. De acordo com o modelo proposto, para as empresas estudadas foi possível encontrar, no prazo de dois anos, um crescimento de 7% no resultado operacional para cada 1% a mais de investimentos em TI. Destaca-se o objetivo da pesquisa de identificar e analisar os impactos dos gastos e investimentos em tecnologia de informação no desempenho financeiro das indústrias brasileiras, para alcançá-lo, adotou-se um modelo de pesquisa que utilizou métricas contábeis-financeiras e indicadores de uso TI, bem como a combinação de técnicas estatísticas para as análises. O trabalho aprofunda e amplia as discussões existentes sobre a avaliação dos investimentos em TI e como aferir o impacto desta sobre o desempenho organizacional. O universo do estudo foi composto pelas companhias brasileiras, de capital aberto, do ramo industrial, com ações ativas na BOVESPA, totalizando 119 companhias. Por meio de uma survey obteve-se os dados complementares referentes aos gastos e investimentos em TI; os questionários semiestruturados foram encaminhados diretamente ao Gerente de TI (Chief Information Officer). Estes esforços na coleta de dados primários possibilitaram a obtenção de uma amostra bastante significativa, com 63 indústrias, ou seja, 53% da população estudada. Após coleta, a análise dos dados foi desenvolvida em três etapas: (1) Análise Fatorial (AF) para seleção de fatores de desempenho que resultou no final do processo em doze variáveis para o modelo da pesquisa; (2) Análise de Cluster (AC) que evidenciou três agrupamentos distintos de indústrias por suas características e desempenho e (3) Regressão Múltipla que adotou um modelo econométrico dinâmico, estimado pelo Método dos Momentos Generalizado (GMM), satisfazendo as condições do modelo de Arellano-Bond (1991). Salienta-se que o modelo proposto permitiu tratar de forma adequada metodologicamente as correlações espúrias, possibilitando identificar que os gastos e investimentos em TI, (IGTI t-2), de dois períodos anteriores impactaram no Resultado Operacional Atual, (ROPt), evidenciando o efeito tardio, ou lag effect. Além disso, foi constatado que outras variáveis de rentabilidade e liquidez impactam neste resultado, também adotando defasagem das variáveis. A principal variável de TI da pesquisa, o IGTI, é calculada pela soma de gastos e investimentos em TI anuais (OPEX/CAPEX), dividida pela Receita Operacional Líquida anual. Para pesquisas futuras, há a possibilidade de buscar medidas de avaliação por tipos (categorias) de investimento em TI, visando ao aprofundamento da análise destes impactos no desempenho setorizado (ligado a cada investimento) e da análise de clusters, adotando o modelo de análise da pesquisa.
Resumo:
Muitos trabalhos têm sido elaborados a respeito da curva de demanda agregada brasileira, a curva IS, desde a implementação do Plano Real e, principalmente, após a adoção do regime de câmbio flutuante. Este trabalho tem como objetivo estimar algumas especificações para a curva IS brasileira, para o período após a implementação do câmbio flutuante, do regime de metas de inflação e da Lei de Responsabilidade Fiscal, i.e. após o ano 2000. As especificações para as curvas estimadas tiveram como base o modelo novo-keynesiano, tendo sido incluídas algumas variáveis explicativas buscando captar o efeito na demanda agregada da maior intermediação financeira na potência da política monetária e o efeito do esforço fiscal feito pelo governo brasileiro. O trabalho utiliza o Método dos Momentos Generalizados (MMG) para estimar a curva IS em sua especificação foward-looking e o Método dos Mínimos Quadrados Ordinários (MQO) para estimar a curva IS em sua versão backward-looking. Os resultados mostram forte significância para o hiato do produto em todas as especificações. As especificações foward-looking mostram coeficientes significantes, porém com sinais opostos ao esperado para os juros e superávit primário. Nas regressões backward-looking o sinal dos coeficientes encontrados são os esperados, porém, mostram-se não significantes.
Resumo:
The objective of this paper is to test for optimality of consumption decisions at the aggregate level (representative consumer) taking into account popular deviations from the canonical CRRA utility model rule of thumb and habit. First, we show that rule-of-thumb behavior in consumption is observational equivalent to behavior obtained by the optimizing model of King, Plosser and Rebelo (Journal of Monetary Economics, 1988), casting doubt on how reliable standard rule-of-thumb tests are. Second, although Carroll (2001) and Weber (2002) have criticized the linearization and testing of euler equations for consumption, we provide a deeper critique directly applicable to current rule-of-thumb tests. Third, we show that there is no reason why return aggregation cannot be performed in the nonlinear setting of the Asset-Pricing Equation, since the latter is a linear function of individual returns. Fourth, aggregation of the nonlinear euler equation forms the basis of a novel test of deviations from the canonical CRRA model of consumption in the presence of rule-of-thumb and habit behavior. We estimated 48 euler equations using GMM, with encouraging results vis-a-vis the optimality of consumption decisions. At the 5% level, we only rejected optimality twice out of 48 times. Empirical-test results show that we can still rely on the canonical CRRA model so prevalent in macroeconomics: out of 24 regressions, we found the rule-of-thumb parameter to be statistically signi cant at the 5% level only twice, and the habit ƴ parameter to be statistically signi cant on four occasions. The main message of this paper is that proper return aggregation is critical to study intertemporal substitution in a representative-agent framework. In this case, we fi nd little evidence of lack of optimality in consumption decisions, and deviations of the CRRA utility model along the lines of rule-of-thumb behavior and habit in preferences represent the exception, not the rule.