515 resultados para Política monetária - Modelos econométricos
Resumo:
O presente estudo - até onde se sabe inédito no Brasil – possui como principal objetivo avaliar alguns determinantes das necessidades de capital de giro comumente estudados na literatura e analisar de que forma as empresas se movimentam em direção a uma meta (target) de Net Trade Cycle (similar ao Ciclo de Caixa - CCC). Sabemos que o tema capital de giro ainda carece de teorias mais robustas dentro da área de finanças, e poucos estudos ainda são encontrados na literatura. Aqueles que decidem estudá-lo, observam que dado o seu atual estágio, ele tem sido pesquisado com o suporte de bases teóricas mais consolidadas, como por exemplo estrutura de capitais. Esses estudos têm se utilizado muito do conceito de meta para determinar a estrutura ótima de capitais, e com qual velocidade de ajuste procura-se adequar essa estrutura como forma de otimizar seus recursos. O fato de ainda não existir definições e/ou teorias mais definidas sobre o tema foi o grande motivador para a realização desse estudo, que emprega a velocidade de ajuste em direção a uma meta de capital de giro, utilizando como técnica para suporte a esse objetivo o Modelo de Ajustamento Parcial (MAP) e o Generalized Method of Moments (GMM). Com essa combinação inédita no mercado brasileiro quando o assunto é capital de giro, esperamos trazer novas contribuições para as comunidades acadêmicas e empresariais. Para a obtenção dos dados que compõem esse estudo de caráter quantitativo, utilizamos informações existentes na Economatica® e BCB – Banco Central do Brasil. Nessas bases de dados utilizamos os demonstrativos financeiros trimestrais entre os períodos de 31/Dez./2007 a 30/Jun./2014 (ajustados por inflação – IPCA) das empresas listadas na BM&FBovespa que possuíssem pelos menos 15 períodos (trimestres) consecutivos de dados, com isso chegamos a um total de um pouco mais de 2 mil observações e 105 empresas. Quanto ao método, utilizamos Painel de Dados Dinâmico (desbalanceado) e as seguintes técnicas foram empregadas como forma de atender ao principal objetivo do estudo (“Qual é a velocidade de ajuste das Necessidades de Capital de Giro?”): Modelo de Ajustamento Parcial para a análise dos determinantes das necessidades de capital de giro e movimentação em direção a uma meta e; Generalized Method of Moments (GMM) como técnica de controle aos possíveis efeitos de endogeneidade (BLUNDELL e BOND, 1998) e solução para o problema de autocorrelação residual (PIRES, ZANI e NAKAMURA, 2013, p. 19).
Resumo:
Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.
Resumo:
Um dos principais fatores de estudo do mercado de capitais é a discussão a respeito da teoria de eficiência de mercado, que no caso diverge em relação ao comportamento do preço da maioria dos ativos. Este trabalho tem o intuito de analisar o comportamento do principal índice de preços do mercado de bitcoins (BPI) durante o período de julho de 2010 a setembro de 2014. Inicialmente será testada a hipótese do passeio aleatório para o BPI. Em seguida serão verificadas as correlações de longa data nas séries financeiras temporais utilizando como instrumento de análise o expoente de Hurst (H), que inicialmente foi usado para calcular correlações em fenômenos naturais e posteriormente sua abrangência alcançou a área financeira. O estudo avalia o expoente H através de métodos distintos destacando-se a análise R/S e a DFA. Para o cálculo do expoente ao longo do tempo, utiliza-se uma janela móvel de 90 dias deslocando-se de 10 em 10 dias. Já para o cálculo em diferentes escalas verifica-se, para cada dia, o valor do expoente H nos últimos 360, 180 e 90 dias respectivamente. Os resultados evidenciaram que o índice BPI apresenta memória longa persistente em praticamente todo o período analisado. Além disso, a análise em diferentes escalas indica a possibilidade de previsão de eventos turbulentos no índice neste mesmo período. Finalmente foi possível comprovar a hipótese de mercados fractais para a série histórica de retornos do BPI.
Resumo:
O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.
Resumo:
Esse trabalho tem como objetivo investigar a relação entre três múltiplos específicos (Preço/Lucro, Preço/Valor Patrimonial e Preço/Vendas) e seus determinantes (crescimento, payout ratio, risco, ROE e margem líquida), de acordo com a teoria apresentada por Aswath Damodaran. Para verificar essas relações, foram utilizadas duas metodologias econométricas distintas: A Regressão Linear Múltipla e o Modelo de Dados em Painel. Os dados coletados são referentes às empresas listadas no índice de ações da Bolsa de Valores de São Paulo – iBOVESPA. Os resultados apurados por ambos os métodos não foram os mesmos verificados na teoria, pois alguns dos determinantes não apresentaram o comportamento esperado, e também não foram estatisticamente significantes. A principal contribuição desse trabalho é a utilização da metodologia de Dados em Painel para obter os resultados.
Resumo:
O presente trabalho busca ir além da decisão, capital próprio ou terceiro, e verificar a decisão de qual tipo de recurso terceiro angariar, portanto, analisa a composição do endividamento da empresa com relação à fonte de financiamento: recursos privados ou públicos. Logo, foram construídos modelos econométricos com o intuito de investigar quais características, por parte da empresa, são relevantes na escolha de qual fonte recorrer para financiar suas atividades. Foram utilizados dados em painel de empresas brasileiras não pertencentes ao setor de Finanças e Seguros, cujas ações são negociadas na Bolsa de Valores de São Paulo (BOVESPA). Neste trabalho foram investigadas variáveis das empresas referentes à qualidade e credibilidade das informações contábeis, total de ativos imobilizados, lucratividade, alavancagem, setor de atuação, tamanho da empresa e internacionalização. Os resultados indicaram que fatores como total de ativos imobilizados, alavancagem, lucratividade e alguns setores de atuação são relevantes para determinar a estratégia de financiamento da firma. A variável nível de disclosure, responsável por diferenciar a empresa que possui qualidade da informação contábil superior às demais, não apresentou ser significante, embora, com o sinal esperado. Portanto, os resultados sugerem que as empresas estudadas tendem a seguir a teoria da liquidação ineficiente quando tomam as suas decisões de financiamento.
Resumo:
Os Fundos de Investimento Imobiliários – FIIs – vem ganhando destaque como alternativas de investimento no Brasil. Segundo dados da BM&FBovespa, a média diária de volume negociado aumentou de R$600 mil em 2009 para R$27 milhões em 2014. No entanto, após o IFIX – Indíce de FIIs - atingir seu maior patamar histórico em Janeiro de 2013, este passou apresentar performance negativa, ao mesmo tempo que se observou um processo de elevação da curva de juros. O presente trabalho visa analisar o impacto de movimentos da curva de juros no desempenho dos FIIs. De forma a limitar as divergências encontradas na literatura internacional quanto à taxa de juros utilizada como proxy para a avaliação, utiliza-se da Análise de Componentes Principais para reduzir o número de variáveis, restringindo-se a uma variável de nível e uma de inclinação. Os resultados indicam que aumento no nível da curva de juros tem um impacto negativo no desempenho dos FIIs, ao passo que aumenta na inclinação também tem impacto negativo, mas não de forma relevante.
Resumo:
Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.
Resumo:
Economists and policymakers have long been concerned with increasing the supply of health professionals in rural and remote areas. This work seeks to understand which factors influence physicians’ choice of practice location right after completing residency. Differently from previous papers, we analyse the Brazilian missalocation and assess the particularities of developing countries. We use a discrete choice model approach with a multinomial logit specification. Two rich databases are employed containing the location and wage of formally employed physicians as well as details from their post-graduation. Our main findings are that amenities matter, physicians have a strong tendency to remain in the region they completed residency and salaries are significant in the choice of urban, but not rural, communities. We conjecture this is due to attachments built during training and infrastructure concerns.
Resumo:
The dissertation goal is to quantify the tail risk premium embedded into hedge funds' returns. Tail risk is the probability of extreme large losses. Although it is a rare event, asset pricing theory suggests that investors demand compensation for holding assets sensitive to extreme market downturns. By de nition, such events have a small likelihood to be represented in the sample, what poses a challenge to estimate the e ects of tail risk by means of traditional approaches such as VaR. The results show that it is not su cient to account for the tail risk stemming from equities markets. Active portfolio management employed by hedge funds demand a speci c measure to estimate and control tail risk. Our proposed factor lls that void inasmuch it presents explanatory power both over the time series as well as the cross-section of funds' returns.
Resumo:
Esta tese é composta por três ensaios a respeito de consumo e poupança. O primeiro traz uma aplicação de poupança precaucionária para os Estados Unidos. O segundo e terceiro artigos fazem aplicações para o Brasil usando a POF 1995-96, 2002-03 e 2008- 09 para o segundo, e as duas últimas pesquisas para o terceiro. O segundo artigo avalia convergência nos padrões de gastos das famílias em duas cestas distintas de bens: uma de alimentos e outra para produtos eletroeletrônicos, enquanto o terceiro artigo explora a Lei de Crédito Consignado e seu impacto na forma de alocação da poupança precaucionária das famílias.