1000 resultados para Modelo EGARCH


Relevância:

60.00% 60.00%

Publicador:

Resumo:

O artigo apresenta um estudo comparativo da capacidade preditiva dos modelos EWMA, GARCH (1,1), EGARCH (1,1) e TARCH (1,1), quando utilizados para prever a volatilidade das taxas de câmbio praticadas no mercado interbancário brasileiro. A amostra é composta pelas cotações diárias de fechamento da taxa de câmbio real/dólar estadunidense observadas no período de 20 de agosto de 2001 a 30 de setembro de 2003. Os resultados demonstraram que o modelo TARCH (1,1) apresentou o melhor desempenho preditivo para o período, acompanhado de perto pelo modelo EGARCH (1,1), seguindo-se o modelo GARCH (1,1) e, por último, o modelo EWMA. Constatou-se também que todos os modelos revelaram uma propensão a superestimar a volatilidade futura, e que a Clearing de Câmbio da BM&F atua de forma excessivamente conservadora e subjetiva na definição dos índices de variação da taxa de câmbio contratualmente garantidos e, conseqüentemente, na exigência de garantias.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Aplicando uma metodologia de testes de eventos, este estudo avalia o impacto dos anúncios de implementação e retirada dos estímulos monetários pelo Banco Central americano (FED) entre 2008 a 2013 sobre a curva de juros, a taxa de câmbio e a bolsa brasileira. Os resultados mostram que os anúncios de política monetária americana impactaram o preço dos ativos brasileiros significativamente principalmente durante o QE1 e o Tapering. Para os demais QEs, Operação Twist e eventos de postergação da retirada de estímulos, o não Tapering, ainda que os resultados encontrados estivessem dentro do esperado, eles tiveram baixa significância. Concluímos que a política monetária americana não convencional foi eficaz em impactar o preço dos ativos brasileiros, em especial os eventos não esperados. Ao incluirmos defasagens nos testes aplicados concluímos que em alguns casos houve “atraso” na incorporação das novas informações no preço dos ativos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The physical model was based on the method of Newton-Euler. The model was developed by using the scientific computer program Mathematica®. Several simulations where tried varying the progress speeds (0.69; 1.12; 1.48; 1.82 and 2.12 m s-1); soil profiles (sinoidal, ascending and descending ramp) and height of the profile (0.025 and 0.05 m) to obtain the normal force of soil reaction. After the initial simulations, the mechanism was optimized using the scientific computer program Matlab® having as criterion (function-objective) the minimization of the normal force of reaction of the profile (FN). The project variables were the lengths of the bars (L1y, L2, l3 and L4), height of the operation (L7), the initial length of the spring (Lmo) and the elastic constant of the spring (k t). The lack of robustness of the mechanism in relation to the variable height of the operation was outlined by using a spring with low rigidity and large length. The results demonstrated that the mechanism optimized showed better flotation performance in relation to the initial mechanism.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The purpose of this work was to analyze the logistical distribution of Brazilian soybean by applying a quadratic programming to a spatial equilibrium model. The soybean transportation system is an important part of the soybean complex in Brazil, since the major part of the costs of this commodity derives from the transportation costs. Therefore, the optimization of this part of the process is essential to a better competitiveness of the Brazilian soybean in the international market. The Brazilian soybean complex have been increasing its agricultural share in the total of the exportation value in the last ten years, but due to other countries' investments the Brazilian exportations cannot be only focused on increasing its production but it still have to be more efficient. This way, a model was reached which can project new frames by switching the transportation costs and conduce the policy makers to new investments in the sector.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The field activities are essential for the education of a good taxonomist. The most common problems found in field activities are: a) large number of students, b) heterogeneous educational background and unlevelled knowledge of the participants, c) repetitions and tendency of collecting the more evidents life-forms. The causes and consequences of such problems are discussed herein. The proposed solution is a methodology, based on many years of experience in field courses for undergraduate and graduate courses. Topics about the ideal number of participants, area of coverage, period of activity, division of work and the necessary material and equipment are discussed. According to the number of species collected at the same place, this methodology may result in a list of local species with precise information about the life-forms, habitat, common names, frequency, uses, phenology and further information in this kind of work. The results of the aplication of this metodology in a field course held in the region of Ubatuba-SP are presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A common breeding strategy is to carry out basic studies to investigate the hypothesis of a single gene controlling the trait (major gene) with or without polygenes of minor effect. In this study we used Bayesian inference to fit genetic additive-dominance models of inheritance to plant breeding experiments with multiple generations. Normal densities with different means, according to the major gene genotype, were considered in a linear model in which the design matrix of the genetic effects had unknown coefficients (which were estimated in individual basis). An actual data set from an inheritance study of partenocarpy in zucchini (Cucurbita pepo L.) was used for illustration. Model fitting included posterior probabilities for all individual genotypes. Analysis agrees with results in the literature but this approach was far more efficient than previous alternatives assuming that design matrix was known for the generations. Partenocarpy in zucchini is controlled by a major gene with important additive effect and partial dominance.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Purpose: This study aimed to evaluate the assistance quality through the perception of the users and municipal health managers (mayors, health secretaries and screening team). Methods: A transversal and descriptive study was carried out. Results: The sample was comprised by 359 users and 48 managers. Medical assistance was considered excellent by 79.6% of the users, 93.7% of the managers, 87.5% of the health secretaries and 100% of the screening team. Reception received a great evaluation by 73.8% of the users and 93.8% of the selectors. Conclusion: The assistance model used at the Ophthalmologic Clinic of Divinolândia obtained a high level of satisfaction pleasing both users and managers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Universidade Estadual de Campinas . Faculdade de Educação Física

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Universidade Estadual de Campinas . Faculdade de Educação Física

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Universidade Estadual de Campinas. Faculdade de Educação Física

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Universidade Estadual de Campinas. Faculdade de Educação Física

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Universidade Estadual de Campinas . Faculdade de Educação Física