235 resultados para Incerteza - Modelos econométricos
Resumo:
Este trabalho tem como objetivo estudar o comportamento do mercado de ações e opções de Petrobrás utilizando a metodologia de price discovery (descoberta de preços). A partir de dados de alta frequência de ambos os mercados, fornecidos pela BM&FBOVESPA, os modelos econométricos utilizados nessa metodologia foram estimados e as medidas de Information Share (IS) e Component Share (CS) foram calculadas. Os resultados das análises indicaram dominância do mercado à vista no processo de descoberta de preços, dado que, para este mercado, foram observados valores acima de 66% para a medida IS e acima de 74% para a medida CS. Análises gráficas da função resposta ao impulso indicaram, também, que o mercado à vista é o mais eficiente.
Resumo:
Esse é um dos primeiros trabalhos a endereçar o problema de avaliar o efeito do default para fins de alocação de capital no trading book em ações listadas. E, mais especificamente, para o mercado brasileiro. Esse problema surgiu em crises mais recentes e que acabaram fazendo com que os reguladores impusessem uma alocação de capital adicional para essas operações. Por essa razão o comitê de Basiléia introduziu uma nova métrica de risco, conhecida como Incremental Risk Charge. Essa medida de risco é basicamente um VaR de um ano com um intervalo de confiança de 99.9%. O IRC visa medir o efeito do default e das migrações de rating, para instrumentos do trading book. Nessa dissertação, o IRC está focado em ações e como consequência, não leva em consideração o efeito da mudança de rating. Além disso, o modelo utilizado para avaliar o risco de crédito para os emissores de ação foi o Moody’s KMV, que é baseado no modelo de Merton. O modelo foi utilizado para calcular a PD dos casos usados como exemplo nessa dissertação. Após calcular a PD, simulei os retornos por Monte Carlo após utilizar um PCA. Essa abordagem permitiu obter os retornos correlacionados para fazer a simulação de perdas do portfolio. Nesse caso, como estamos lidando com ações, o LGD foi mantido constante e o valor utilizado foi baseado nas especificações de basiléia. Os resultados obtidos para o IRC adaptado foram comparados com um VaR de 252 dias e com um intervalo de confiança de 99.9%. Isso permitiu concluir que o IRC é uma métrica de risco relevante e da mesma escala de uma VaR de 252 dias. Adicionalmente, o IRC adaptado foi capaz de antecipar os eventos de default. Todos os resultados foram baseados em portfolios compostos por ações do índice Bovespa.
Resumo:
Este trabalho tem como objectivo compreender de que forma os investidores veem as energias renováveis: se as veem como parte do sector tecnológico, à espera de novos desenvolvimentos, ou como uma alternativa aos métodos existentes de produção de energia. Para responder a esta questão, foi desenvolvido um modelo de vectores autoregressivos com quatro variáveis de forma a se poder aplicar um Granger causality test e Impulse Response function. Os resultados sugerem que para o período de 2002-2007 à escala global ambas as hipóteses se confirmam, porém de 2009-2014 os resultados sugerem que os investidores não reconhecem as energias renováveis como um ramo do sector tecnológico, neste período. Para além disso, durante o período de 2009-2014, e quando comparados investidores Americanos com Europeus, os resultados sugerem que apenas o último identifica as energias renováveis como uma fonte viável para a produção energética.
Resumo:
Revendo a definição e determinação de bolhas especulativas no contexto de contágio, este estudo analisa a bolha do DotCom nos mercados acionistas americanos e europeus usando o modelo de correlação condicional dinâmica (DCC) proposto por Engle e Sheppard (2001) como uma explicação econométrica e, por outro lado, as finanças comportamentais como uma explicação psicológica. Contágio é definido, neste contexto, como a quebra estatística nos DCC’s estimados, medidos através das alterações das suas médias e medianas. Surpreendentemente, o contágio é menor durante bolhas de preços, sendo que o resultado principal indica a presença de contágio entre os diferentes índices dos dois continentes e demonstra a presença de alterações estruturais durante a crise financeira.
Resumo:
Este estudo objetiva estimar a demanda regional de diesel para os próximos 10 anos no Brasil através de uma abordagem top down. Foram testadas as variáveis que mais contribuem com a projeção do consumo de diesel, chegando-se à conclusão de que o PIB e o preço são bastante relevantes. Os melhores modelos econométricos com resultados mais aderentes às projeções dentro e fora da amostra foram: (i) com correção de erros e (ii) com as variáveis em diferença. Concluímos ao longo desta dissertação, que o acionamento das térmicas com geradores a óleo diesel em períodos específicos, como os últimos anos, afetam substancialmente o consumo do combustível. Para a desagregação do consumo nacional foram analisados modelos regressivos congruentes na totalização, como o utilizado por Moreira (1986), modelos com fatores proporcionais fixos baseados no crescimento histórico de 5 anos e modelos mais simples de médias proporcionais - estes últimos com resultados inferiores. Na projeção de um Cenário Base, com PIB crescendo 2,5% ao ano nos próximos 10 anos, em algumas regiões do Brasil, como o conjunto dos estados do Maranhão, Tocantins e Piauí, deverá crescer o consumo de diesel em 40%, enquanto no Rio Grande do Sul, apenas 21%.
Resumo:
Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.
Resumo:
Aplicando uma metodologia de testes de eventos, este estudo avalia o impacto dos anúncios de implementação e retirada dos estímulos monetários pelo Banco Central americano (FED) entre 2008 a 2013 sobre a curva de juros, a taxa de câmbio e a bolsa brasileira. Os resultados mostram que os anúncios de política monetária americana impactaram o preço dos ativos brasileiros significativamente principalmente durante o QE1 e o Tapering. Para os demais QEs, Operação Twist e eventos de postergação da retirada de estímulos, o não Tapering, ainda que os resultados encontrados estivessem dentro do esperado, eles tiveram baixa significância. Concluímos que a política monetária americana não convencional foi eficaz em impactar o preço dos ativos brasileiros, em especial os eventos não esperados. Ao incluirmos defasagens nos testes aplicados concluímos que em alguns casos houve “atraso” na incorporação das novas informações no preço dos ativos.
Resumo:
O objetivo deste estudo é fazer uma análise da relação entre o erro de previsão dos analistas de mercado quanto à rentabilidade das empresas listadas na BM&FBOVESPA S.A. (Bovespa) e os requerimentos de divulgação do International Financial Reporting Standards (IFRS). Isto foi feito através da regressão do erro de previsão dos analistas, utilizando a metodologia de dados em painel no ano de implantação do IFRS no Brasil, 2010, e, complementarmente em 2012, para referenciamento desses dados. Partindo desse pressuposto, foi determinado o erro de previsão das empresas listadas na Bovespa através de dados de rentabilidade (índice de lucro por ação/earnings per share) previstos e realizados, disponíveis nas bases de dados I/B/E/S Earnings Consensus Information, providos pela plataforma Thomson ONE Investment Banking e Economática Pro®, respectivamente. Os resultados obtidos indicam uma relação negativa entre o erro de previsão e o cumprimento dos requisitos de divulgação do IFRS, ou seja, quanto maior a qualidade nas informações divulgadas, menor o erro de previsão dos analistas. Portanto, esses resultados sustentam a perspectiva de que o grau de cumprimento das normas contábeis é tão ou mais importante do que as próprias normas. Adicionalmente, foi verificado que quando a empresa listada na BM&FBOVESPA é vinculada a Agência Reguladora, seu erro de previsão não é alterado. Por fim, esses resultados sugerem que é importante que haja o aprimoramento dos mecanismos de auditoria das firmas quanto ao cumprimento dos requerimentos normativos de divulgação, tais como: penalidades pela não observância da norma (enforcement), estruturas de governança corporativa e auditorias interna e externa.
Resumo:
Este trabalho tem como proposta estudar como a introdução e a utilização do pagamento de juros sobre capital próprio (JSCP) afetaram o nível de endividamento das empresas brasileiras. Para testar a hipótese que os JSCP levaram as empresas a usarem menos capital de terceiros, são utilizados matching estimators, estabelecendo como grupo de controle as empresas que não pagaram JSCP e como grupo de tratamento as que o fizeram, em uma amostra composta de 40 companhias durante os anos de 1995 até 1998. Em linha com estudos anteriores, foi encontrada evidência empírica indicando que o efeito médio do tratamento (ATE) para empresas que decidem pagar JCSP é o de reduzir o seu nível de endividamento. Contudo, não houve resultado significativo de redução de endividamento ao analisarmos o efeito médio do tratamento dentre o grupo de empresas tratadas (ATET ou ATT).
Resumo:
Fundação Getulio Vargas. Escola de Pós-Graduação em Economia
Resumo:
A tese é constituída por três artigos: “Regulação Ótima de Pescarias com Imperfeito Enforcement dos Direitos de Propriedade”, “Estimação de um Modelo Generalizado de Pesca” e “Fatores Condicionantes da Reincidência Criminal no Chile”. No Capitulo 1, num contexto de enforcement imperfeito e custoso dos direitos de propriedade, é desenvolvido um modelo bioeconômico para determinar a captura ótima na exploração de recursos hidrobiológicos. Os resultados mostram que: (i) o stock do recurso em estado estacionário é menor quando o enforcement é imperfeito e custoso que quando é perfeito e sem custo, (ii) se o stock do recurso em estado estacionário com enforcement perfeito e sem custo é menor ao de máximo rendimento sustentável, então a quota de captura ótima com enforcement imperfeito e custoso é menor à respetiva quota quando o enforcement é perfeito e sem custo, e (iii) o stock do recurso em estado estacionário com enforcement imperfeito e custoso é maior ao stock do recurso quando a pescaria é de livre acesso. Contudo a gestão ótima dos recursos pesqueiros requer o conhecimento dos seus parâmetros bioeconômicos, porém implementar estudos para obter informação do stock do recurso é muito custoso e está sujeito a erros de mensuração. Assim, no Capitulo 2 são estimados os parâmetros bioeconômicos para a captura de anchoveta peruana. A metodologia baseia-se em Zhang e Smith (2011). Os parâmetros bioeconômicos são obtidos a traves de uma estimação econométrica em dois estágios utilizando dados microeconômicos associadas às embarcações que contam com permissão para capturar anchoveta. O método do bootstrap é utilizado para corrigir os erros padrão das estimativas obtidas pela metodologia em dois estágios. Os parâmetros estimados são utilizados para o stock ótimo e a captura ótima de anchoveta em estado estacionário. Assim mesmo, comparar-se o stock ótimo com o stock observado conclui-se que a pescaria da anchoveta peruana tem estado continuamente sujeita â sobre-exploração. Por último o Capitulo 3 é um esforço por estudar os fatores de reincidência criminal no Chile, uma área de pesquisa que tem sido escassamente explorada em América Latina, embora da sua importância na agenda pública e dada a crença da sociedade chilena que a criminalidade é explicada fundamentalmente por criminais reincidentes. A aproximação escolhida no presente estudo analisa a reincidência a partir da imputação. Para estudar os determinantes a reincidência, utiliza-se um modelo econométrico binário, o modelo Probit, que permite analisar como a idade, sexo, e o tipo de delitos cometidos, afetam a probabilidade de reincidência. Observa-se que na maior dos casos os estimadores apresentam o sinal esperado.
Resumo:
O presente trabalho propõe um modelo de previsão simultânea de taxas de câmbio de vários países utilizando a abordagem GVAR e analisa a qualidade destas previsões. Para isso foram utilizados dados de 10 países ou regiões de taxa de câmbio, taxas de juros e nível de preços com frequência mensal entre 2003 e 2015. As previsões foram feitas utilizando janela móvel de 60 meses e avaliadas através da comparação dos erros quadráticos médios contra o benchmark padrão, o random walk, e dos testes de Pesaran e Timmermann e de Diebold e Mariano. Foram feitas previsões out-of-sample para horizontes de 1, 3, 12 e 18 meses. Os resultados mostram que o modelo proposto não consegue superar sistematicamente o random walk, contudo apresenta algum poder de previsão em alguns casos específicos
Resumo:
O trabalho busca verificar como as ações da política monetária impactam as instituições financeiras e, por conseguinte o setor real da economia, para tal procura-se também ter o entendimento dos mecanismos de transmissão econômica, com destaque da utilização do canal do crédito. O objetivo principal é analisar o papel das instituições financeiras através de suas ações junto ao restante dos agentes da economia. Como essas instituições são impactadas? Para isso, dividimos a análise em quatro tipos de bancos (comerciais privados, comerciais públicos, investimento e BNDES). Com esse intuito estudamos o impacto da Selic sobre duas classes especificas do balanço financeiro: ativo e patrimônio líquido, sobre o índice de ações IBR-X, assim como o efeito dos choques em componentes macroeconômicos, em específico: produto, investimento e consumo também sobre ativo e patrimônio líquido. Para tal aplicamos a técnica econométrica VAR (Vetor Autoregressivo) para dados mensais da economia brasileira entre 2003 e 2014. Não encontramos nenhum resultado estatisticamente significante sobre o impacto da Selic nos ativos e patrimônio líquido das instituições financeiras utilizadas no estudo, assim como para o impacto nas variáveis macroeconômicas produto, consumo e investimento sobre as mesmas classes contábeis. Para o impacto da Selic sobre o IBR-X encontramos que ao contrário do observado sobre os ativos e patrimônio líquido dos agentes financeiros, um choque da Selic sobre o IBR-X possui um efeito negativo e estatisticamente significante.
Resumo:
This Master Thesis consists of one theoretical article and one empirical article on the field of Microeconometrics. The first chapter\footnote{We also thank useful suggestions by Marinho Bertanha, Gabriel Cepaluni, Brigham Frandsen, Dalia Ghanem, Ricardo Masini, Marcela Mello, Áureo de Paula, Cristine Pinto, Edson Severnini and seminar participants at São Paulo School of Economics, the California Econometrics Conference 2015 and the 37\textsuperscript{th} Brazilian Meeting of Econometrics.}, called \emph{Synthetic Control Estimator: A Generalized Inference Procedure and Confidence Sets}, contributes to the literature about inference techniques of the Synthetic Control Method. This methodology was proposed to answer questions involving counterfactuals when only one treated unit and a few control units are observed. Although this method was applied in many empirical works, the formal theory behind its inference procedure is still an open question. In order to fulfill this lacuna, we make clear the sufficient hypotheses that guarantee the adequacy of Fisher's Exact Hypothesis Testing Procedure for panel data, allowing us to test any \emph{sharp null hypothesis} and, consequently, to propose a new way to estimate Confidence Sets for the Synthetic Control Estimator by inverting a test statistic, the first confidence set when we have access only to finite sample, aggregate level data whose cross-sectional dimension may be larger than its time dimension. Moreover, we analyze the size and the power of the proposed test with a Monte Carlo experiment and find that test statistics that use the synthetic control method outperforms test statistics commonly used in the evaluation literature. We also extend our framework for the cases when we observe more than one outcome of interest (simultaneous hypothesis testing) or more than one treated unit (pooled intervention effect) and when heteroskedasticity is present. The second chapter, called \emph{Free Economic Area of Manaus: An Impact Evaluation using the Synthetic Control Method}, is an empirical article. We apply the synthetic control method for Brazilian city-level data during the 20\textsuperscript{th} Century in order to evaluate the economic impact of the Free Economic Area of Manaus (FEAM). We find that this enterprise zone had positive significant effects on Real GDP per capita and Services Total Production per capita, but it also had negative significant effects on Agriculture Total Production per capita. Our results suggest that this subsidy policy achieve its goal of promoting regional economic growth, even though it may have provoked mis-allocation of resources among economic sectors.
Resumo:
Using a unique dataset on Brazilian nominal and real yield curves combined with daily survey forecasts of macroeconomic variables such as GDP growth, inflation, and exchange rate movements, we identify the effect of surprises to the Brazilian interbank target rate on expected future nominal and real short rates, term premia, and inflation expectations. We find that positive surprises to target rates lead to higher expected nominal and real interest rates and reduced nominal and inflation term premia. We also find a strongly positive relation between both real and nominal term premia and measures of dispersion in survey forecasts. Uncertainty about future exchange rates is a particularly important driver of variations in Brazilian term premia.