272 resultados para Finanças - Brasil -Modelos Matemáticos
Resumo:
O objetivo deste trabalho é estimar e analisar o grau de transmissão de volatilidade de ativos como ações e moedas entre países utilizando a metodologia de decomposição de variância dos erros de previsão dos modelos de vetores autorregressivos (VAR). Especificamente para este trabalho, o foco foi a transmissão de volatilidade de outros países, como Estados Unidos e os países da Europa, para o Brasil. Podemos, dessa maneira, testar a hipótese de interdependência do Brasil em relação aos outros países em termos de volatilidade para os índices de ações e moedas. Ao final, encontraram-se evidências de que há transmissão de volatilidade de outros países para o Brasil, e que o grau de transmissão entre eles varia com o tempo, sem tendência e com saltos em períodos de incertezas. As evidências encontradas permitem um melhor balanceamento de carteiras entre diferentes países, facilitando o desenvolvimento de estratégias mais eficientes de hedge contra choques propagados entre mercados, além de servir como um sistema de alerta para eventuais distúrbios nos níveis de volatilidade dos mercados brasileiros.
Resumo:
Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.
Resumo:
Neste trabalho são abordados empiricamente dois temas bastante atuais no âmbito da política monetária: a estimativa de uma Regra de Taylor aumentada com a inclusão de um vetor de preços de ativos financeiros e a hipótese de não-linearidade da Regra de Taylor. Os principais resultados encontrados sugerem que o Banco Central do Brasil não segue uma Regra de Taylor aumentada na condução da política monetária e que há evidências de não-linearidade de sua função de reação. Além disso, encontramos evidência de recuo da taxa de juros real de equilíbrio (ou neutra) da economia brasileira.
Resumo:
O objetivo do presente trabalho é utilizar modelos econométricos de séries de tempo para previsão do comportamento da inadimplência agregada utilizando um conjunto amplo de informação, através dos métodos FAVAR (Factor-Augmented Vector Autoregressive) de Bernanke, Boivin e Eliasz (2005) e FAVECM (Factor-augmented Error Correction Models) de Baneerjee e Marcellino (2008). A partir disso, foram construídas previsões fora da amostra de modo a comparar a eficácia de projeção dos modelos contra modelos univariados mais simples - ARIMA - modelo auto-regressivo integrado de média móvel e SARIMA - modelo sazonal auto-regressivo integrado de média móvel. Para avaliação da eficácia preditiva foi utilizada a metodologia MCS (Model Confidence Set) de Hansen, Lunde e James (2011) Essa metodologia permite comparar a superioridade de modelos temporais vis-à-vis a outros modelos.
Resumo:
Durante muitos anos uma controversa questão tem ocupado tanto os discursos acadêmicos quanto os financeiros. O problema a ser resolvido diz respeito à evolução passada dos preços das ações e se tal evolução poderia ser utilizada para prever o comportamento dos preços futuros dessas ações.
Resumo:
Este trabalho tem como proposta estudar como a introdução e a utilização do pagamento de juros sobre capital próprio (JSCP) afetaram o nível de endividamento das empresas brasileiras. Para testar a hipótese que os JSCP levaram as empresas a usarem menos capital de terceiros, são utilizados matching estimators, estabelecendo como grupo de controle as empresas que não pagaram JSCP e como grupo de tratamento as que o fizeram, em uma amostra composta de 40 companhias durante os anos de 1995 até 1998. Em linha com estudos anteriores, foi encontrada evidência empírica indicando que o efeito médio do tratamento (ATE) para empresas que decidem pagar JCSP é o de reduzir o seu nível de endividamento. Contudo, não houve resultado significativo de redução de endividamento ao analisarmos o efeito médio do tratamento dentre o grupo de empresas tratadas (ATET ou ATT).
Resumo:
Vídeo exibido no Jornal da Globo
Resumo:
A análise de sentimentos é uma ferramenta com grande potencial, podendo ser aplicada em vários contextos. Esta dissertação tem com o objetivo analisar a viabilidade da aplicação da técnica numa base capturada do site de reclamações mais popular do Brasil, com a aplicação de técnicas de processamento de linguagem natural e de aprendizagem de máquinas é possível identificar padrões na satisfação ou insatisfação dos consumidores.
Resumo:
Este trabalho tem por objetivo principal avaliar a existência de equivalência ricardiana no Brasil. Para isto, empregam-se três metodologias distintas. Inicialmente, com base no modelo de Enders e Lee (1990), utilizam-se regressões do tipo VAR e VEC e decomposição de variância para avaliar de que forma consumo e exportações líquidas reagem a variações não-antecipadas da dívida do setor público, mantidos constantes os gastos do governo. Em seguida, com base no mesmo modelo teórico, estimam-se parâmetros relativos à função consumo e testam-se as restrições de sobre-identificação associadas à técnica de MGM. Por último, efetuam-se testes relativos à restrição de liquidez com base no modelo de consumidores restritos de Campbell e Mankiw (1989). Embora alguns dos resultados sejam inconclusos, particularmente quando se utilizam os dois primeiros métodos de investigação (análise de variância e teste das restrições de sobre-identificação), de modo geral concluímos pela não-validade da hipótese para o Brasil. Teoricamente, isto é compatível com o fato de se ter uma parcela substancial de consumidores brasileiros restritos na obtenção de crédito (a exemplo do que já haviam também concluído Reis, Issler, Blanco e Carvalho (1998) e Issler e Rocha (2000) e do que também concluímos na última seção).
Resumo:
As décadas mais recentes têm marcado a supremacia dos regimes econômicos que privilegiam as responsabilidades fiscal e monetária. De forma ainda mais destacada, o sistema de metas de inflação vem ganhando espaço, com a adesão de um número crescente de países. No Brasil, sua introdução em 1999 colocou a política monetária em grande evidência, alimentando um prolongado debate acerca dos méritos e desvantagens da priorização absoluta da estabilização monetária. Este trabalho parte de um resumo histórico das práticas de política monetária no Brasil republicano. A seguir, procura-se aferir a eficiência dessas políticas no período posterior à estabilização alcançada pelo Plano Real, com a descrição da ferramenta adotada, a Função Impulso-Resposta Generalizada. Os resultados obtidos com esse instrumento permitem concluir que a autoridade monetária tem sido bem sucedida na gestão do regime de metas de inflação.
Resumo:
Este texto se divide em duas partes. Na primeira, estuda-se empiricamente a queda na demanda por moeda ocorrida entre 1979 e 1983, salientando-se o papel desempenhado neste processo pelo surgimento de inovações financeiras e aumento de liquidez de ativos (ditos) não monetários. Neste ponto destaca-se a relativa ineficácia de um combate a inflação,baseado exclusivamente no controle da expansão de M1 . Em seguida, desenvolve-se um modelo que tenta captar os efeitos sobre a inflação o nível de atividade econômica, decorrentes da utilização, por parte dos agentes econômicos, de ativos indexados como reserva de liquidez alternativa a M1 . Conclui-se que o aumento de liquidez de ativos considerados não monetários protege o produto dos choques de oferta, conferindo-lhe uma maior estabilidade a ser paga pela exposição da inflação aos choques de oferta e demanda.