27 resultados para Teste baseado em modelos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos anos, o mercado brasileiro de opções apresentou um forte crescimento, principalmente com o aparecimento da figura dos High Frequency Traders (HFT) em busca de oportunidades de arbitragem, de modo que a escolha adequada do modelo de estimação de volatilidade pode tornar-se um diferencial competitivo entre esses participantes. Este trabalho apresenta as vantagens da adoção do modelo de volatilidade estocástica de Heston (1993) na construção de superfície de volatilidade para o mercado brasileiro de opções de dólar, bem como a facilidade e o ganho computacional da utilização da técnica da Transformada Rápida de Fourier na resolução das equações diferenciais do modelo. Além disso, a partir da calibração dos parâmetros do modelo com os dados de mercado, consegue-se trazer a propriedade de não-arbitragem para a superfície de volatilidade. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem por objetivo introduzir em nosso meio, o Teste das Pirâmides Coloridas em seu novo modelo, baseado no segundo manual alemão "Der Farbpyramidentest" de Robert Heiss, Petra Halder e Diether Hoger, editado na Alemanha em 1975.Uma breve introdução é dedicada ao estudo da cor, uma vez que o teste se propõe estabelecer relações entre cores e traços de personalidade. É descrita a evolução histórica pela qual o Teste das Pirâmides Coloridas passou, até chegar a sua forma atual. Uma pesquisa foi realizada a fim de apresentar uma padronização brasileira do teste. A amostra foi constituída de 400 sujeitos, masculinos e femininos na faixa etária de 15 a 21 anos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O conceito de paridade coberta de juros sugere que, na ausência de barreiras para arbitragem entre mercados, o diferencial de juros entre dois ativos, idênticos em todos os pontos relevantes, com exceção da moeda de denominação, na ausência de risco de variação cambial deve ser igual a zero. Porém, uma vez que existam riscos não diversificáveis, representados pelo risco país, inerentes a economias emergentes, os investidores exigirão uma taxa de juros maior que a simples diferença entre as taxas de juros doméstica e externa. Este estudo tem por objetivo avaliar se o ajustamento das condições de paridade coberta de juros por prêmios de risco é suficiente para a validação da relação de não-arbitragem para o mercado brasileiro, durante o período de 2007 a 2010. O risco país contamina todos os ativos financeiros emitidos em uma determinada economia e pode ser descrito como a somatória do risco de default (ou risco soberano) e do risco de conversibilidade percebidos pelo mercado. Para a estimação da equação de não arbitragem foram utilizadas regressões por Mínimos Quadrados Ordinários, parâmetros variantes no tempo (TVP) e Mínimos Quadrados Recursivos, e os resultados obtidos não são conclusivos sobre a validação da relação de paridade coberta de juros, mesmo ajustando para prêmio de risco. Erros de medidas de dados, custo de transação e intervenções e políticas restritivas no mercado de câmbio podem ter contribuído para este resultado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho visa propor uma metodologia para Teste de estresse e, consequentemente, cálculo do colchão adicional de capital em risco de crédito, conforme exigência do Comitê de Supervisão Bancária. A metodologia consiste em utilizar informações macroeconômicas para determinar o comportamento da taxa de inadimplência. Dessa forma, podemos simular possíveis cenários econômicos e, com isso, a taxa de inadimplência associada a esse cenário. Para cada cenário econômico é obtida uma taxa. Cada taxa de inadimplência fornece uma curva de perdas. Simulando diversos cenários econômicos foi possível obter diversas curvas de perda e, com elas, a probabilidade de ocorrência da perda esperada e inesperada. A metodologia foi aplicada a uma carteira de crédito pessoal para pessoa física. Os resultados se mostraram bastantes eficientes para determinar a probabilidade de ocorrência do Capital Alocado. Como consequência do teste, dado um nível de confiança, foi possível determinar qual deveria ser o Capital Alocado para fazer frente às perdas acima da perda inesperada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho tem como objetivo aplicar uma modelagem não linear ao Produto Interno Bruto brasileiro. Para tanto foi testada a existência de não linearidade do processo gerador dos dados com a metodologia sugerida por Castle e Henry (2010). O teste consiste em verificar a persistência dos regressores não lineares no modelo linear irrestrito. A seguir a série é modelada a partir do modelo autoregressivo com limiar utilizando a abordagem geral para específico na seleção do modelo. O algoritmo Autometrics é utilizado para escolha do modelo não linear. Os resultados encontrados indicam que o Produto Interno Bruto do Brasil é melhor explicado por um modelo não linear com três mudanças de regime, que ocorrem no inicio dos anos 90, que, de fato, foi um período bastante volátil. Através da modelagem não linear existe o potencial para datação de ciclos, no entanto os resultados encontrados não foram suficientes para tal análise.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This dissertation deals with the problem of making inference when there is weak identification in models of instrumental variables regression. More specifically we are interested in one-sided hypothesis testing for the coefficient of the endogenous variable when the instruments are weak. The focus is on the conditional tests based on likelihood ratio, score and Wald statistics. Theoretical and numerical work shows that the conditional t-test based on the two-stage least square (2SLS) estimator performs well even when instruments are weakly correlated with the endogenous variable. The conditional approach correct uniformly its size and when the population F-statistic is as small as two, its power is near the power envelopes for similar and non-similar tests. This finding is surprising considering the bad performance of the two-sided conditional t-tests found in Andrews, Moreira and Stock (2007). Given this counter intuitive result, we propose novel two-sided t-tests which are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test of Moreira (2003).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos próximos anos são esperados elevados volumes de investimentos em Tecnologia da Informação (TI) no Brasil e no Mundo. Por trás desses investimentos está a expectativa de que as organizações irão alcançar níveis superiores de performance e produtividade, os quais deverão ser gerados, entre outras coisas, por novas formas de organização e práticas inovadoras de negócio viabilizadas pela TI. Nesse contexto, a capacidade de gerir as possíveis resistências que serão trazidas por essas mudanças organizacionais se mostra um dos fatores mais importantes para o sucesso desses investimentos. Diante disso, o objetivo deste trabalho é analisar alguns dos diversos modelos existentes sobre resistência a mudança em implantações de Sistemas de Informação e, a partir da articulação de três deles, propor um metamodelo teórico que poderá ter um maior poder de explicação desse fenômeno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No Brasil os emissores de cartão de crédito realizam periodicamente aumento de limites do cartão, para clientes que possuem bom comportamento creditício. O objetivo do nosso estudo é analisar os efeitos desse aumento no uso que o cliente tem do seu cartão, com a hipótese de que o cliente passará a utilizar mais o cartão, seja por anchoring, visto que ele se importa em sempre ter uma reserva de limite para eventuais emergências, ou por se sentir priorizado pelo banco, ou até mesmo por demanda reprimida de crédito. Para isso, analisamos uma base de aumento de limite, com grupo de teste e controle, de clientes selecionados para aumento de limite, e observamos que o aumento fez com que os clientes aumentassem seus gastos, seu saldo devedor, passaram a fazer mais transações e timidamente passaram a rotativar. Após observar esses efeitos, dividimos o grupo em dois: Clientes com utilização média menor ou igual a 50% antes da ação e clientes com utilização média maior que 50% antes da ação. Para os clientes do teste dos dois grupos observamos um aumento no gasto mensal, no número de transações mensal, no saldo devedor e no número de clientes rotativando. Essa diferença foi maior no grupo de maior utilização pré tratamento, mas mesmo clientes que inicialmente pareciam ter uma demanda de crédito menor, mostraram-se sensíveis a utilizar mais devido ao aumento do limite.