936 resultados para Combinações de Previsões


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A previsão dos preços do petróleo é fundamental para o planejamento energético e oferece subsídio a tomada de decisões de longo prazo, que envolvem custos irrecuperáveis. No entanto, os preços do petróleo são muito instáveis sujeitos a choques como resultado de questões geopolíticas, poder de mercado da OPEP (Organização dos Países Exportadores de Petróleo) e pressões de demanda resultando numa série sujeita a quebras estruturais, prejudicando a estimação e previsão de modelos de série temporal. Dada a limitação dos modelos de volatilidade da família GARCH, que são instáveis e apresentam elevada persistência em séries com mudanças estruturais, este trabalho compara a previsão da volatilidade, em termos de intervalos de confiança e persistência, dos modelos de volatilidade com mudança de regime markoviana em relação aos modelos de volatilidade determinísticos. Os modelos de volatilidade com mudança de regime considerados são o modelo SWARCH (Markov Switch ARCH) e introduz-se o modelo MSIH (Markov Switch Intercept Heteroskedasticity) para o estudo da volatilidade. Como resultado as previsões de volatilidade dos modelos com mudança de regime permitem uma estimação da volatilidade que reduz substancialmente a persistência em relação aos modelos GARCH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é verificar se o modelo que combina correção de erros e fatores extraídos de grandes conjuntos de dados macroeconômicos produz previsões mais precisas das taxas de juros do Brasil em relação aos modelos VAR, VECM e FAVAR. Para realizar esta análise, foi utilizado o modelo sugerido por Banerjee e Marcellino (2009), o FAVECM, que consiste em agregar o mecanismo de correção de erros ao modelo proposto por Bernanke, Boivin e Eliasz (2005), o FAVAR. A hipótese é que o FAVECM possuiu uma formulação teórica mais geral. Os resultados mostram que para o mercado brasileiro o FAVECM apresentou ganhos significativos de previsão para as taxas mais longas e horizontes de previsão maiores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Usando dados intradiários dos ativos mais negociados do BOVESPA, este trabalho considerou dois modelos recentemente desenvolvidos na literatura de estimação e previsão de volatilidade realizada. São eles; Heterogeneous Autorregressive Model of Realized Volatility (HAR-RV), desenvolvido por Corsi (2009) e o Mixed Data Sampling (MIDAS-RV), desenvolvido por Ghysels et al. (2004). Através de medidas de comparação de previsão dentro e fora da amostra, constatou-se resultados superiores do modelo MIDAS-RV apenas para previsões dentro da amostra. Para previsões fora da amostra, no entanto, não houve diferença estatisticamente significativa entre os modelos. Também encontram-se evidências que a utilização da volatilidade realizada induz distribuições dos retornos padronizados mais próximas da normal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Motivados pelo debate envolvendo modelos estruturais e na forma reduzida, propomos nesse artigo uma abordagem empírica com o objetivo de ver se a imposição de restrições estruturais melhoram o poder de previsibilade vis-a-vis modelos irrestritos ou parcialmente restritos. Para respondermos nossa pergunta, realizamos previsões utilizando dados agregados de preços e dividendos de ações dos EUA. Nesse intuito, exploramos as restrições de cointegração, de ciclo comum em sua forma fraca e sobre os parâmetros do VECM impostas pelo modelo de Valor Presente. Utilizamos o teste de igualdade condicional de habilidade de previsão de Giacomini e White (2006) para comparar as previsões feitas por esse modelo com outros menos restritos. No geral, encontramos que os modelos com restrições parciais apresentaram os melhores resultados, enquanto o modelo totalmente restrito de VP não obteve o mesmo sucesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na última década, a economia brasileira apresentou-se estável adquirindo maior credibilidade mundial. Dentre as opções de investimento, estão os mercados de ações e de títulos públicos. O portfolio de investimento dos agentes é determinado de acordo com os retornos dos ativos e/ou aversão ao risco, e a diversificação é importante para mitigar risco. Dessa forma, o objetivo principal do presente trabalho é estudar a inter-relação entre os mercados de títulos públicos e ações, avaliando aspectos de liquidez e quais variáveis representariam melhor esta relação, verificando também como respondem a um choque (surpresa econômica), pois a percepção de alteração do cenário econômico, ou variações de fluxo financeiro, pode alterar/inverter as relações entre esses mercados. Para isso, estimou-se modelos de vetores auto-regressivos - VAR, com variáveis de retorno, volatilidade e volume negociado para cada um dos mercados em combinações diferentes das variáveis representativas, visando encontrar o(s) modelo(s) mais descritivo(s) das inter-relações entre os mercados, dado a amostra utilizada, para aplicar a dummy de surpresa econômica. Em estudo semelhante Chordia, Sarkar e Subrahmanyam (2005) concluiram que choques de liquidez e volatilidade são positivamente correlacionado nos mercados de ações e títulos públicos em horizontes diários, indicando que os choques de liquidez e volatilidade são muitas vezes de natureza sistêmica. O mesmo não foi observado para a proxy de liquidez utilizada na amostra brasileira. Um resultado interessante a ser ressaltado deve-se as séries SMLL11 (índice Small Caps) e IDkAs (índice de duração constante ANBIMA) não possuírem relação de causalidade de Granger com as demais séries, mas os retornos dos IDkAs Granger causam os retornos do índice SMLL11. Por fim, o choque de surpresa econômica não se mostra explicativo sobre qualquer alteração nas inter-relações entre os mercados de títulos públicos e ações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é utilizar modelos econométricos de séries de tempo para previsão do comportamento da inadimplência agregada utilizando um conjunto amplo de informação, através dos métodos FAVAR (Factor-Augmented Vector Autoregressive) de Bernanke, Boivin e Eliasz (2005) e FAVECM (Factor-augmented Error Correction Models) de Baneerjee e Marcellino (2008). A partir disso, foram construídas previsões fora da amostra de modo a comparar a eficácia de projeção dos modelos contra modelos univariados mais simples - ARIMA - modelo auto-regressivo integrado de média móvel e SARIMA - modelo sazonal auto-regressivo integrado de média móvel. Para avaliação da eficácia preditiva foi utilizada a metodologia MCS (Model Confidence Set) de Hansen, Lunde e James (2011) Essa metodologia permite comparar a superioridade de modelos temporais vis-à-vis a outros modelos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar para o caso brasileiro uma das mais importantes propriedades esperadas de um núcleo: ser um bom previsor da inflação plena futura. Para tanto, foram utilizados como referência para comparação dois modelos construídos a partir das informações mensais do IPCA e seis modelos VAR referentes a cada uma das medidas de núcleo calculadas pelo Banco Central do Brasil. O desempenho das previsões foi avaliado pela comparação dos resultados do erro quadrático médio e pela aplicação da metodologia de Diebold-Mariano (1995) de comparação de modelos. Os resultados encontrados indicam que o atual conjunto de medidas de núcleos calculado pelo Banco Central não atende pelos critérios utilizados neste trabalho a essa característica desejada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. As previsões de resultados a ensaios sob diferentes condições aos das calibrações mostraram resultados qualitativamente bons às freqüências de ciclo de 1 Hz, comprovados na comparação das curvas de deslocamentos normalizadas. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é investigar a relação existente entre a ressalva imposta no parecer da auditoria independente e a reapresentação exigida pelo Banco Central, a existência de forte correlação entre haver ressalva e reapresentação por exigência, indicariam que o parecer teria capacidade de antecipar exigência de reapresentação por parte do Banco Central. Selecionamos o grupo formado pelos bancos que tem ações negociadas na bolsa de valores e mapeamos as combinações formadas pelo tipo de parecer com o tipo de apresentação, de igual modo utilizamos este método em dois estratos da amostra, por porte da firma de auditoria e por haver ou não algum nível de Governança Corporativa. Os resultados não mostraram relação significativa entre parecer com ressalva e reapresentação, nem os estratos demonstraram percentuais significativamente melhores em relação aos demais estratos ou mesmo em relação à amostra. Concluímos que não há relação entre parecer e reapresentação por exigência, nem relevância com relação ao porte ou a governança corporativa, porém os resultados mostraram haver maior percentual de reapresentação espontânea no estrato por governança corporativa, o que indicaria um cuidado maior em relação às demonstrações independente do parecer da auditoria independente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A exploração do paralelismo no nível de instrução (ILP) em arquiteturas superescalares é limitada fortemente pelas dependências de controle, as quais são ocasionadas pelas instruções de desvio, e pelas dependências de dados. As arquiteturas SMT (Simultaneous MultiThreaded) buscam explorar um novo nível de paralelismo, denominado paralelismo no nível de tarefa (TLP), para buscar e executar instruções de diversas tarefas ao mesmo tempo. Com isso, enquanto uma tarefa está bloqueada por dependências de controle e de dados, outras tarefas podem continuar executando, mascarando assim as latências de previsões incorretas e de acessos à memória, usando mais eficientemente as unidades funcionais e demais recursos disponíveis. Contudo, o projeto dessas arquiteturas continua a esbarrar nos mesmos problemas associados ao uso de técnicas utilizadas para a exploração de ILP, como a previsão de devios. Além disso, essas arquiteturas trazem novos desafios, como a determinação da maneira mais eficiente de distribuição/compartilhamento de recursos entre as tarefas. Nesse trabalho será apresentada uma topologia para as tabelas de previsão de desvios em arquiteturas multitarefas simultâneas. Além disso, serão desenvolvidas duas análises complementares acerca de previsão de desvios: o impacto da taxa de acertos da previsão de desvios em arquiteturas com pipelines profundos e o impacto da taxa de acerto na previsão do alvo de um desvio. Entre as principais contribuições do trabalho pode-se citar a definição de uma estrutura particionada para as tabelas de previsão em arquiteturas SMT, aliando desempenho a um menor custo de implementação em uma arquitetura real. Além disso, é mostrado que a taxa de acerto da previsão de desvios tem um grande impacto no desempenho das arquiteturas SMT com pipelines profundos, bem como nas causas de bloqueio do estágio de busca quando utiliza-se cache de instruções bloqueantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A finalidade específica da dissertação é a de rever a teoria normativa de Administração Financeira, no que diz respeito a combinações de empresas, em face da sistemática proposta pela COFIE. Como se sabe, esta sistematica situa aquele problema como algo que mereça ou não a concessão de favores fiscais e creditícios tendo em vista o interesse econômico nacional. Assim, em termos gerais, o problema que se coloca é o de avaliar se, efetivamente, a operação de combinação é o meio melhor de satisfazer àquele interesse, deixando-se de lado a realização direta de investimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um estudo foi realizado com a finalidade principal de investigar de que maneira a teoria de transferência de calor por radiação em meios participantes pode ser melhor aplicada na resolução de problemas de troca de energia no interior de cavidades que se assemelhem a fornalhas industriais. Verificou-se que as superfícies internas da maioria das fornalhas podem ser consideradas cinzentas e difusoras, o que facilita a aplicação de modelos de soma ponderada de gases cinzas. Sendo assim, as maiores dificuldades aparecem quando a geometria da cavidade é complexa. Com o método de Monte Carlo, é possível resolver problemas com características geométricas bastante complexas, bem como considerar efeitos espectrais e direcionais, quando necessário. Este método foi, então, aplicado, em conjunto com o método da zona, na elaboração de três códigos computacionais, que são capazes de determinar áreas de troca totais em cavidades onde as paredes e o gás são cinzas. Um deles pode ser aplicado a cavidades paralelepipédicas; outro, a cilíndricas. Tanto no primeiro, quanto no segundo, as dimensões podem assumir qualquer valor. Com o terceiro código computacional, é possível obter-se áreas de troca totais entre zonas de cavidades que têm geometria genérica formada a partir de combinações de cubos. Resultados obtidos através dos três códigos computacionais foram comparados com outros disponíveis na literatura.