998 resultados para Mercado financeiro - modelos econométricos
Resumo:
In da Costa et al. (2006) we have shown how a same pricing kernel can account for the excess returns of the S&:P500 over the US short term bond and of the uncovered over the covered trading of foreign government bonds. In this paper we estimate and test the overidentifying restrictiom; of Euler equations associated with "ix different versions of the Consumption Capital Asset Pricing I\Iodel. Our main finding is that the same (however often unreasonable) values for the parameters are estimated for ali models in both nmrkets. In most cases, the rejections or otherwise of overidentifying restrictions occurs for the two markets, suggesting that success and failure stories for the equity premium repeat themselves in foreign exchange markets. Our results corroborate the findings in da Costa et al. (2006) that indicate a strong similarity between the behavior of excess returns in the two markets when modeled as risk premiums, providing empirical grounds to believe that the proposed preference-based solutions to puzzles in domestic financiaI markets can certainly shed light on the Forward Premium Puzzle.
Resumo:
We consider an exchange economy under incomplete financiaI markets with purely financiaI securities and finitely many agents. When portfolios are not constrained, Cass [4], Duffie [7] and Florenzano-Gourdel [12] proved that arbitrage-free security prices fully characterize equilibrium security prices. This result is based on a trick initiated by Cass [4] in which one unconstrained agent behaves as if he were in complete markets. This approach is unsatisfactory since it is asymmetric and no more valid when every agent is subject to frictions. We propose a new and symmetric approach to prove that arbitrage-free security prices still fully characterize equilibrium security prices in the more realistic situation where the financiaI market is constrained by convex restrictions, provided that financiaI markets are collectively frictionless.
Resumo:
O objetivo deste trabalho é analisar o impacto de imperfeições no mercado de crédito sobre a transmissão da política monetária no Brasil. Para tanto, utilizou-se o modelo de Bernanke, Gertler e Gilchrist (1999), no qual o canal do crédito ocorre via balanço patrimonial das empresas. Os resultados encontrados, a partir da calibração e simulação do modelo, apontam para a existência do chamado “acelerador financeiro'' na economia brasileira, bem como para possíveis alterações na dinâmica da economia com a implementação de reformas de ordem microeconômica, recentemente adotadas no Brasil.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
Neste estudo foram realizados testes econométricos da validade da hipótese das expectativas racionais como explicação para a formação das taxas de juros no Brasil. O estudo compara os resultados destes testes para período de 1995 a 2002 com os resultados para o período de 2003 a 2013. Estes intervalos foram escolhidos por contarem com políticas econômicas e choques muito diversos. A comparação entre os dois períodos obtém alterações importantes, mas que não alteram a conclusão de que a hipótese das expectativas racionais não tem respaldo empírico como explicação para a formação da estrutura termo das taxas de juros no Brasil. Embora tenha caído significativamente, o prêmio de alongamento continuou estatisticamente significante.
Resumo:
Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.
Resumo:
O artigo apresenta um estudo comparativo da capacidade preditiva dos modelos EWMA, GARCH (1,1), EGARCH (1,1) e TARCH (1,1), quando utilizados para prever a volatilidade das taxas de câmbio praticadas no mercado interbancário brasileiro. A amostra é composta pelas cotações diárias de fechamento da taxa de câmbio real/dólar estadunidense observadas no período de 20 de agosto de 2001 a 30 de setembro de 2003. Os resultados demonstraram que o modelo TARCH (1,1) apresentou o melhor desempenho preditivo para o período, acompanhado de perto pelo modelo EGARCH (1,1), seguindo-se o modelo GARCH (1,1) e, por último, o modelo EWMA. Constatou-se também que todos os modelos revelaram uma propensão a superestimar a volatilidade futura, e que a Clearing de Câmbio da BM&F atua de forma excessivamente conservadora e subjetiva na definição dos índices de variação da taxa de câmbio contratualmente garantidos e, conseqüentemente, na exigência de garantias.
Resumo:
Dissertação de mestrado em Finanças
Resumo:
O presente estudo pretende analisar o mercado brasileiro de alumínio primário, através da elaboração e simulação dinâmica de um modelo econométrico, com capacidade de explicar satisfatoriamente as relações típicas das variáveis econômicas consideradas neste mercado, conforme são postuladas pela teoria da empresa em competição imperfeita.
Resumo:
Esta dissertação de mestrado em economia foi motivada por uma questão complexa bastante estudada na literatura de economia política nos dias de hoje: as formas como campanhas políticas afetam votação em uma eleição. estudo procura modelar mercado eleitoral brasileiro para deputados federais senadores. Através de um modelo linear, conclui-se que os gastos em campanha eleitoral são fatores decisivos para eleição de um candidato deputado federal. Após reconhecer que variável que mede os gastos em campanha possui erro de medida (devido ao famoso "caixa dois", por exemplo), além de ser endógena uma vez que candidatos com maiores possibilidades de conseguir votos conseguem mais fontes de financiamento -, modelo foi estimado por variáveis instrumentais. Para senadores, utilizando modelos lineares modelos com variável resposta binaria, verifica-se também importância, ainda que em menor escala, da campanha eleitoral, sendo que um fator mais importante para corrida ao senado parece ser uma percepção priori da qualidade do candidato.
Resumo:
O estudo gera estimativas para a perda de Bem-Estar que resulta da estrutura da mercado vigente para o setor de cerveja no Brasil. Através de um modelo econométrico com sistemas de equações simultâneas, colocados sob uma estrutura de painel, são estimadas as elasticidades-preço e preço-cruzadas que exibem, via de regra, o comportamento previsto pela teoria. Estas quando empregadas a um modelo de variações conjecturais desenvolvido para oligopólio, fornecem uma medida de perda de bem-estar como proporção da receita total do setor. O exercício é repetido para diferentes valores do parâmetro de variação conjectural, e diferentes suposições a respeito da eficiência das firmas participantes. Os resultados indicam que as perdas associadas ao poder de mercado são significativas.
Resumo:
Neste trabalho, estudaremos as possibilidades de existência de assimetria de informação relevante no mercado de seguros de automóveis brasileiro. Mais especificamente, estudaremos a relação entre o nsco empírico dos segurados, supostamente uma informação assimétrica, e sua demanda por cobertura. Utilizando uma extensa e detalhada base de dados, obtida junto a Superintendência de Seguros Privados (SUSEP), implementamos os principais testes econométricos existentes na literatura (paramétricas e semi paramétricas) para verificar a existência de assimetria de informação relevante no mercado de seguros de automóveis brasileiro. Inicialmente, replicamos os testes propostos por Chiappori e Salanié (2000) e Dionne, Gouriéroux e Vanasse (2001) e obtivemos o mesmo resultado: ausência de dependência condicional entre cobertura con tratada e risco empírico. Porém, constatamos que este resultado não é robusto a alterações marginais na metodologia de teste. Em seguida, estudamos uma característica peculiar dos contratos brasileiros: a não-monotonicidade das coberturas. Veremos que segurados mais arriscados terão incentivos em demandar contratos com franquias maiores (e, portanto, com menores coberturas). Após exaustivos testes, constatamos que tal característica inverte, de fato, o sinal da correlação entre cobertura e risco. Por fim, testamos se os prêmios dos contratos de seguro são funções lineares da cobertura. Constatamos que sim. Com isso, concluímos que as seguradoras não utilizam o par prêmio/ cobertura para separar os segurados de acordo com seu nsco (tal como prevê os modelos que consideram a existência de seleção adversa nesse mercado). Os resultados obtidos neste trabalho sugerem que, no mínimo, não devemos ignorar a possibilidade de existência de assimetria de informação relevante no mercado segurador brasileiro. Sendo assim, sugerimos que o apreçamento do risco nos contratos de seguro não deva se valer apenas de ferramentas atuariais, tal como é feito atualmente, mas deve considerar também os incentivos implícitos que os contratos de seguro exercem sobre o comportamento (arriscado) dos segurados.
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.
Resumo:
Neste trabalho, analisamos a metodologia de cálculo do capital exigido aos bancos brasileiros pelo Banco Central do Brasil, segundo as regras de Basiléia II. O objetivo foi comparar capital regulamentar com capital econômico, medido por modelos de Value at Risk (VaR). Apresentamos exemplos de aplicação destes conceitos em carteiras normalmente negociadas por bancos brasileiros, mostrando a relação entre capital regulamentar e econômico para diversos mercados e estratégias. Tendo em vista as análises realizadas, realçamos os pontos de maior divergência entre os dois tipos de capital. Concluímos enfatizando a importância da revisão de alguns aspectos das regras de Basiléia II no sentido de promover maior convergência entre capital econômico e regulamentar.