157 resultados para EGARCH-GED


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We develop a job-market signaling model where signals may convey two pieces of information. This model is employed to study the GED exam and countersignaling (signals non-monotonic in ability). A result of the model is that countersignaling is more expected to occur in jobs that require a combination of skills that differs from the combination used in the schooling process. The model also produces testable implications consistent with evidence on the GED: (i) it signals both high cognitive and low non-cognitive skills and (ii) it does not affect wages. Additionally, it suggests modifications that would make the GED a more effective signal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The goal of this paper is to present a comprehensive emprical analysis of the return and conditional variance of four Brazilian …nancial series using models of the ARCH class. Selected models are then compared regarding forecasting accuracy and goodness-of-…t statistics. To help understanding the empirical results, a self-contained theoretical discussion of ARCH models is also presented in such a way that it is useful for the applied researcher. Empirical results show that although all series share ARCH and are leptokurtic relative to the Normal, the return on the US$ has clearly regime switching and no asymmetry for the variance, the return on COCOA has no asymmetry, while the returns on the CBOND and TELEBRAS have clear signs of asymmetry favoring the leverage e¤ect. Regarding forecasting, the best model overall was the EGARCH(1; 1) in its Gaussian version. Regarding goodness-of-…t statistics, the SWARCH model did well, followed closely by the Student-t GARCH(1; 1)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O foco central deste estudo foi desenvolver uma análise da trajetória dos prsços da borracha natural bensflciada ao longo do século XX, através da utilização dos testes econométricos da dasse - ARCH: GARCH, E-GARCH e TARCH para o da Malásia, principal entidade de formação do preço intemacional da commodity. Como resultado dos testes estatísticos dos dados disponíveis no mercado, observouse uma forte incidência de ciclos de sazonalidade no preço intemacional da borracha impactando diretamente na produção mundial. Observa se ainda a baixa capacidade de resposta da produção a choques de demanda devido ao longo prazo de maturação das pfantações

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demanda por aplicações de workflow tem crescido rapidamente. Por um lado há uma evolução em ambientes com plataformas de sistemas maduras e disseminadas, por outro, processos de redesenho administrativo têm contribuído no aumento desta demanda. Apesar disto, profissionais de TI ainda encontram alguns problemas, e por isto, têm se aproximado de workflow com receio. Na administração pública de Porto Alegre, a otimização dos processos organizacionais de atendimento às demandas individuais dos cidadãos - que geram um registro em papel que constitui o que se denomina processo administrativo ou expediente, ou seja, um volume físico de papéis tramitando manualmente pelas estruturas que atuam no atendimento da demanda - redundou no emprego de ferramentas de automação para introduzir maior produtividade e eficiência na mudança dos métodos de trabalho. Mas alguns problemas se destacaram quando foi iniciado o desenvolvimento de aplicações de automação de processos. Uma face deles se mostrou em problemas conceituais que vão desde a confusão entre workflow e outras áreas, como BPR ou GED, à falta de domínio sobre as abstrações fundamentais na elicitação de workflow. Outra face se mostrou nos WMS, verdadeiros ambientes proprietários, fechados e pesados, de difícil utilização e pouco flexíveis para os desenvolvedores utilizarem em seu ambiente. Finalmente, outro problema foi a integração de aplicações de workflow com sistemas de informação, buscando informações e eventos em aplicações legadas, algumas existentes por décadas. Frente a isto, este trabalho aborda a produção de workflow sob a ótica dos desenvolvedores - analistas, projetistas e programadores - que necessitam criar aplicações corporativas em seus ambientes de Engenharia de Software. Neste cenário, a linha divisória entre a elaboração de uma aplicação de workflow e um sistema de informação se torna tênue, e compreender os aspectos envolvidos, dominá-los e utilizá-los neste ambiente é primordial para o sucesso e disseminação de aplicações de automação de processos. Este trabalho propõe uma extensão do Diagrama de Atividades da UML para modelar e elicitar o controle de atividades, a criação de um motor de workflow para executar a máquina de estados do Diagrama de Atividades, a ser utilizado como componente na arquitetura das aplicações. A utilização do motor de workflow e do Diagrama de Atividades estendido são apresentados num case de automação de um processo da Secretaria do Planejamento Municipal da Prefeitura Municipal de Porto Alegre que atende a solicitações diretas dos cidadãos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese pretende analisar a questão de ciclos políticos eleitorais em dois estudos, sendo o primeiro deles um teste empírico sobre a existência de ciclos políticos eleitorais nos municípios brasileiros e sua relação com a interação estratégica e o segundo faz uma investigação a respeito da existência de ciclos políticos eleitorais na taxa de câmbio, considerando não apenas o evento eleitoral, como também o início propaganda eleitoral gratuita nos meios de comunicação. O primeiro estudo busca testar a teoria de ciclos políticos eleitorais para os municípios brasileiros, levando em consideração as variáveis fiscais da microrregião, bem como sua contrapartida política. Em particular, este trabalho adiciona controles espaciais (fiscais e políticos) ao modelo tradicional de ciclos políticos eleitorais. O teste econométrico foi realizado para o período entre 1997 e 2008 usando a técnica de dados em painel com instrumentos, seguindo Lockwood e Migali (2009). Os resultados encontrados nas estimações sugerem que existe interação espacial para as despesas de saúde e educação (efeito marginal médio de R$ 1,42 per capita), mas não encontramos evidência de ciclo político por interações espaciais para estes gastos. Já para os gastos com investimentos, o ciclo político eleitoral é conduzido não por características intrínsecas do próprio município, mas sim pelo fato de que os gastos dos municípios localizados ao redor influenciam positivamente nos investimentos do município em questão (efeito marginal médio de R$ 1,23 per capita). No segundo estudo foi desenvolvido um teste empírico para tentar captar a relação dos momentos eleitorais (considerando as três últimas eleições presidenciais – 1998, 2002 e 2006) com a taxa de câmbio real no Brasil. O exercício estima a relação da taxa de câmbio com dummies de eleição e de propaganda eleitoral gratuita, através de modelos GARCH e EGARCH. Estima-se o efeito destas variáveis sobre a média da taxa de câmbio e a sua volatilidade, que pode ser aproximada como uma medida de risco. Os resultados encontrados sugerem que em 1998 o incumbente pode ter atuado não diretamente na apreciação cambial, mas sim na redução da volatilidade associada, diferentemente do que sugere a literatura associada a esta questão (como Lobo e Tufte (1998) e Leblang e Bernhard (2006)). Em 2006, para a variável de propaganda eleitoral, os resultados sugerem que a taxa de câmbio foi apreciada e também a sua volatilidade foi reduzida, quando da divulgação das pesquisas eleitorais, o que pode sugerir um indício de ciclo político eleitoral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho a seguir objetivou o desenvolvimento de um meta-modelo de análise para estudo do fenômeno da resistência durante a implementação de um sistema de gerenciamento eletrônico de documentos (GED). O estudo foi conduzido por meio de uma abordagem quantitativa e explanatória e buscou elencar os principais expoentes da literatura acadêmica no tema da resistência. A partir de suas concepções, os fatores mais relevantes no campo da resistência contextualizada a um sistema de gerenciamento eletrônico de documentos foram evidenciados. O meta-modelo gerado, o qual serviu de base para a análise estatística, identificou os seguintes antecedentes ao comportamento de resistência: características pessoais, sistemas e interação. Este, por sua vez, divide-se na interação poder e política e na interação sócio-técnica. A partir da identificação desses vetores e montagem do meta-modelo, foi elaborado um questionário de investigação, o qual foi distribuído via Internet. Foram colhidas 133 respostas de usuários que tivessem vivenciado pelo menos uma experiência de implantação de um sistema de gerenciamento eletrônico de documentos. Os dados foram então submetidos a tratamento estatístico na ferramenta SPSS por meio de análise fatorial e regressão linear múltipla. Os resultados obtidos permitiram identificar os fatores de maior influência no comportamento de resistência e confirmar/refutar as hipóteses originalmente propostas. O meta-modelo gerado também promoveu a discussão dos resultados com base na teoria utilizada, gerando novos insights para o entendimento do comportamento de resistência no contexto do GED.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo apresentar dois importantes modelos usados na análise de risco. Essa análise culmina em uma aplicação empírica para cada um deles. Apresenta-se primeiro o modelo Nelson-Siegel dinâmico, que estima a curva de juros usando um modelo paramétrico exponencial parcimonioso. É citada a referência criadora dessa abordagem, que é Nelson & Siegel (1987), passa-se pela apresentação da mais importante abordagem moderna que é a de Diebold & Li (2006), que é quem cria a abordagem dinâmica do modelo Nelson-Siegel, e que é inspiradora de diversas extensões. Muitas dessas extensões também são apresentadas aqui. Na parte empírica, usando dados da taxa a termo americana de Janeiro de 2004 a Março de 2015, estimam-se os modelos Nelson-Siegel dinâmico e de Svensson e comparam-se os resultados numa janela móvel de 12 meses e comparamos seus desempenhos com aqueles de um passeio aleatório. Em seguida, são apresentados os modelos ARCH e GARCH, citando as obras originais de Engle (1982) e Bolleslev (1986) respectivamente, discutem-se características destes modelos e apresentam-se algumas extensões ao modelo GARCH, incluindo aí alguns modelos GARCH multivariados. Passa-se então por uma rápida apresentação do conceito de VaR (Value at Risk), que será o objetivo da parte empírica. Nesta, usando dados de 02 de Janeiro de 2004 até 25 de Fevereiro de 2015, são feitas uma estimação da variância de um portfólio usando os modelos GARCH, GJR-GARCH e EGARCH e uma previsão do VaR do portfólio a partir da estimação feita anteriormente. Por fim, são apresentados alguns trabalhos que usam os dois modelos conjuntamente, ou seja, que consideram que as taxas ou os fatores que as podem explicam possuem variância variante no tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aplicando uma metodologia de testes de eventos, este estudo avalia o impacto dos anúncios de implementação e retirada dos estímulos monetários pelo Banco Central americano (FED) entre 2008 a 2013 sobre a curva de juros, a taxa de câmbio e a bolsa brasileira. Os resultados mostram que os anúncios de política monetária americana impactaram o preço dos ativos brasileiros significativamente principalmente durante o QE1 e o Tapering. Para os demais QEs, Operação Twist e eventos de postergação da retirada de estímulos, o não Tapering, ainda que os resultados encontrados estivessem dentro do esperado, eles tiveram baixa significância. Concluímos que a política monetária americana não convencional foi eficaz em impactar o preço dos ativos brasileiros, em especial os eventos não esperados. Ao incluirmos defasagens nos testes aplicados concluímos que em alguns casos houve “atraso” na incorporação das novas informações no preço dos ativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avaliou-se a digestibilidade da matéria seca (DMS), matéria orgânica (DMO) e energia bruta (DEB) e os nutrientes digestíveis totais (NDT) de uma ração completa, composta por 44,3% de feno de capim-braquiaria, 55% de concentrado e 0,7% de mistura mineral, fornecida a bovinos de diferentes grupos genéticos (Gir, Nelore, Guzerá, Santa Gertrudis e Caracu), pelas metodologias de coleta total de fezes e com indicador interno (lignina em detergente ácido -- LDA), em delineamento inteiramente casualizado, com três repetições por grupo genético, com análise de variância individual dentro de cada metodologia e uma análise de correlação entre as metodologias. As correlações foram médias ( 0,47 a 0,51) e significativas (P<0,0602; P<0,0697; P<0,0747; P<0,0522), respectivamente, para DMS, DMO, DEB e para NDT. A recuperação do indicador (95,06%) foi semelhante entre os grupos genéticos. Não houve diferença entre grupos genéticos para DMS, DMO, DEB e nos valores de NDT pelas metodologias de coleita total de fezes e com LDA, com médias de 53,31 e 50,33; 55,16 e 52,25; 52,22 e 49,20; e 53,39 e 50,61%, respectivamente. Assim, a LDA foi eficiente na estimativa da digestibilidade, em função de sua adequada recuperação. Os nutrientes foram utilizados de forma semelhante pelos grupos genéticos.