358 resultados para Previsões


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho testa o poder de previsão da volatilidade futura, de cinco modelos : um modelo ingênuo, do tipo martingale, o modelo sugerido pelo JPMorgan em seu RiskMetrics™, o modelo GARCH-Generalized Autoregressive Conditional Heteroscedasticity, o modelo da volatilidade implícita e combinações de Risk:MetricsTM com volatilidade implícita e de GARCH com volatilidade implícita. A série estudada é a volatilidade para vinte e cinco dias, dos retornos diários do contrato futuro de Ibovespa, negociado na BM&F - Bolsa de Mercadorias e Futuros. Particularidades brasileiras são introduzidas na. estimação dos parâmetros do modelo GARCH. O poder de previsão é testado com medidas estatísticas, envolvendo equações de perdas (loss functions) simétricas e assimétricas, e com uma medida econômica, dada pelo lucro obtido a partir da simulação da realização de operações hedgeadas, sugeridas pelas previsões de volatilidade. Tanto com base nas medidas estatísticas como na medida econômica, o modelo GARCH emerge como o de melhor desempenho. Com base nas medidas estatísticas, esse modelo é particularmente melhor em período de mais alta volatilidade. Com base na medida econômica, contudo, o lucro obtido não é estatisticamente diferente de zero, indicando eficiência do mercado de opções de compra do contrato futuro de Ibovespa, negociado na mesmaBM&F.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. As previsões de resultados a ensaios sob diferentes condições aos das calibrações mostraram resultados qualitativamente bons às freqüências de ciclo de 1 Hz, comprovados na comparação das curvas de deslocamentos normalizadas. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes. Para a pesquisa, utilizou-se um concreto asfáltico com ligante modificado com borracha ensaiado nas dependências do LAPAV-UFRGS, sob compressão diametral de cargas cíclicas, cujo procedimento é brevemente descrito, associando-se os seus procedimentos com as hipóteses assumidas na modelagem, o que é importante na concepção do modelo empregado. Apresenta-se e discute-se o manuseio dos dados experimentais para o modelo, bem como a escolha do modelo constitutivo adotado, no qual se optou por um modelo viscoelástico linear anisotrópico simplificado, cujas equações base e métodos para calibração são apresentados, discutidos e comparados, bem como os resultados das calibrações dos três primeiros ciclos de carga-descanso, no qual se obteve uma excelente descrição do comportamento do material, o que foi comprovado nas previsões dos dois ciclos seguintes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A exploração do paralelismo no nível de instrução (ILP) em arquiteturas superescalares é limitada fortemente pelas dependências de controle, as quais são ocasionadas pelas instruções de desvio, e pelas dependências de dados. As arquiteturas SMT (Simultaneous MultiThreaded) buscam explorar um novo nível de paralelismo, denominado paralelismo no nível de tarefa (TLP), para buscar e executar instruções de diversas tarefas ao mesmo tempo. Com isso, enquanto uma tarefa está bloqueada por dependências de controle e de dados, outras tarefas podem continuar executando, mascarando assim as latências de previsões incorretas e de acessos à memória, usando mais eficientemente as unidades funcionais e demais recursos disponíveis. Contudo, o projeto dessas arquiteturas continua a esbarrar nos mesmos problemas associados ao uso de técnicas utilizadas para a exploração de ILP, como a previsão de devios. Além disso, essas arquiteturas trazem novos desafios, como a determinação da maneira mais eficiente de distribuição/compartilhamento de recursos entre as tarefas. Nesse trabalho será apresentada uma topologia para as tabelas de previsão de desvios em arquiteturas multitarefas simultâneas. Além disso, serão desenvolvidas duas análises complementares acerca de previsão de desvios: o impacto da taxa de acertos da previsão de desvios em arquiteturas com pipelines profundos e o impacto da taxa de acerto na previsão do alvo de um desvio. Entre as principais contribuições do trabalho pode-se citar a definição de uma estrutura particionada para as tabelas de previsão em arquiteturas SMT, aliando desempenho a um menor custo de implementação em uma arquitetura real. Além disso, é mostrado que a taxa de acerto da previsão de desvios tem um grande impacto no desempenho das arquiteturas SMT com pipelines profundos, bem como nas causas de bloqueio do estágio de busca quando utiliza-se cache de instruções bloqueantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho compara modelos de séries temporais para a projeção de curto prazo da inflação brasileira, medida pelo Índice de Preços ao Consumidor Amplo (IPCA). Foram considerados modelos SARIMA de Box e Jenkins e modelos estruturais em espaço de estados, estimados pelo filtro de Kalman. Para a estimação dos modelos, foi utilizada a série do IPCA na base mensal, de março de 2003 a março de 2012. Os modelos SARIMA foram estimados no EVIEWS e os modelos estruturais no STAMP. Para a validação dos modelos para fora da amostra, foram consideradas as previsões 1 passo à frente para o período de abril de 2012 a março de 2013, tomando como base os principais critérios de avaliação de capacidade preditiva propostos na literatura. A conclusão do trabalho é que, embora o modelo estrutural permita, decompor a série em componentes com interpretação direta e estudá-las separadamente, além de incorporar variáveis explicativas de forma simples, o desempenho do modelo SARIMA para prever a inflação brasileira foi superior, no período e horizonte considerados. Outro importante aspecto positivo é que a implementação de um modelo SARIMA é imediata, e previsões a partir dele são obtidas de forma simples e direta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram avaliados os benefícios da previsão de vazão afluente de curto e longo prazo, na operação de um reservatório com dois usos conflitantes: geração de energia e controle de cheias. A simulação da operação do reservatório foi realizada com base em dois tipos de modelos para avaliar os benefícios da previsão. Um modelo de operação sem previsão e outro com previsão de vazão afluente, este último desenvolvido no presente trabalho. Regras de operação simples, na forma de curvas-guia lineares, foram utilizadas nos casos de operação com e sem previsão de vazões afluentes. As curvas-guia foram otimizadas através de uma técnica de parametrização, simulação e otimização utilizando um algoritmo evolutivo semelhante a um algoritmo genético. Como base para as análises foram utilizados dados relativos ao reservatório de Três Marias, no Rio São Francisco, principalmente pela disponibilidade de previsões reais de vazão de curto prazo a partir de um trabalho prévio. Essas previsões reais de vazão foram calculadas através de um modelo hidrológico distribuído que utiliza como dados de entrada, previsões de chuva do modelo atmosférico regional ETA. Para avaliar o potencial benefício das previsões de vazão na operação do reservatório, foram realizados testes considerando às vazões afluentes observadas como “previsões perfeitas de vazão”. Os resultados com previsões perfeitas de vazão mostram que pode haver um benefício relativo (incremento na geração de energia) de aproximadamente 8% (cerca de 4,77 milhões de dólares anuais), se forem utilizadas previsões de vazão de longo prazo com dois meses de antecedência, e se a operação for planejada com essa mesma antecedência. A operação baseada em previsões de prazos ou horizontes mais curtos apresenta benefícios inferiores, mas ainda assim significativos. Por exemplo, a previsão perfeita com freqüência semanal e horizonte de 12 dias pode trazer um benefício de aproximadamente 4,45% (cerca de 2,75 milhões de dólares anuais). Esses benefícios foram obtidos com o mesmo desempenho no controle de cheias. Posteriormente, foram realizados testes utilizando as previsões reais de vazão. Os benefícios obtidos com as previsões reais de curto prazo são inferiores aos benefícios obtidos com as previsões perfeitas de curto prazo, como era esperado. Entretanto, com as previsões reais de vazão, foram obtidos benefícios superiores a 50% dos que seriam esperados com a previsão perfeita (vazões observadas). Os resultados obtidos são promissores e mostram que há vantagens evidentes na utilização de previsões de chuva para se obter previsões de vazão na operação de reservatórios com usos múltiplos, quando também é associada à otimização sistêmica de um aproveitamento hidrelétrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta de três artigos que analisam a estrutura a termo das taxas de juros usando diferentes bases de dados e modelos. O capítulo 1 propõe um modelo paramétrico de taxas de juros que permite a segmentação e choques locais na estrutura a termo. Adotando dados do tesouro americano, duas versões desse modelo segmentado são implementadas. Baseado em uma sequência de 142 experimentos de previsão, os modelos propostos são comparados à benchmarks e concluí-se que eles performam melhor nos resultados das previsões fora da amostra, especialmente para as maturidades curtas e para o horizonte de previsão de 12 meses. O capítulo 2 acrescenta restrições de não arbitragem ao estimar um modelo polinomial gaussiano dinâmico de estrutura a termo para o mercado de taxas de juros brasileiro. Esse artigo propõe uma importante aproximação para a série temporal dos fatores de risco da estrutura a termo, que permite a extração do prêmio de risco das taxas de juros sem a necessidade de otimização de um modelo dinâmico completo. Essa metodologia tem a vantagem de ser facilmente implementada e obtém uma boa aproximação para o prêmio de risco da estrutura a termo, que pode ser usada em diferentes aplicações. O capítulo 3 modela a dinâmica conjunta das taxas nominais e reais usando um modelo afim de não arbitagem com variáveis macroeconômicas para a estrutura a termo, afim de decompor a diferença entre as taxas nominais e reais em prêmio de risco de inflação e expectativa de inflação no mercado americano. Uma versão sem variáveis macroeconômicas e uma versão com essas variáveis são implementadas e os prêmios de risco de inflação obtidos são pequenos e estáveis no período analisado, porém possuem diferenças na comparação dos dois modelos analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aiming at empirical findings, this work focuses on applying the HEAVY model for daily volatility with financial data from the Brazilian market. Quite similar to GARCH, this model seeks to harness high frequency data in order to achieve its objectives. Four variations of it were then implemented and their fit compared to GARCH equivalents, using metrics present in the literature. Results suggest that, in such a market, HEAVY does seem to specify daily volatility better, but not necessarily produces better predictions for it, what is, normally, the ultimate goal. The dataset used in this work consists of intraday trades of U.S. Dollar and Ibovespa future contracts from BM&FBovespa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As diretrizes de política monetária são definidas com base em resultados dos indicadores macroeconômicos divulgados ao mercado periodicamente. Os agentes deste mercado respondem rapidamente às alterações de cenário, com o objetivo de obter lucro ou evitar perdas financeiras expressivas. Com este motivacional, a proposta deste trabalho é avaliar como reage o mercado futuro de juros diante da divulgação de surpresas em determinados indicadores macroeconômicos, propondo um indicador de surpresa agregado para prever os impactos causados. Através dos dados extraídos da Bloomberg e da BM&F Bovespa, foi construída uma base de dados simplificada pela adoção de premissas para mensuração do impacto das surpresas divulgadas no preço do DI Futuro. A padronização dos parâmetros, a realização dos testes de média e as regressões otimizadas pelo método OLS possibilitaram ponderar os indicadores econômicos de acordo com a oscilação que os mesmos causam a este mercado. Por fim, o teste de comparação mostrou que o indicador de surpresa proposto foi mais eficiente nas previsões da reação do mercado do que um indicador que pondere de forma igualitária todos os indicadores macroeconômicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga e analisa as diferenças das taxas anuais de inflação realizadas com relação às previsões dos agentes econômicos do mercado para um ano à frente. Os índices analisados foram o IPCA, IPA-M, IGP-M e o IGP-DI. Referente à previsão dos agentes para cada índice, foi feito uma análise estatística e uma análise de séries temporais através do modelo ARIMA. Este último explicou o erro de previsão dos agentes econômicos através de valores passados, ou defasados, do próprio erro de previsão, além dos termos estocásticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O enfoque da Nova Economia Institucional é utilizado no estudo de sistemas agroindustriais brasileiros, mas ainda há poucos trabalhos sobre as relações entre produtores rurais e indústrias processadoras. O objetivo deste estudo é aferir o alinhamento das características das transações com os modos de governança adotados na comercialização de borracha natural entre produtores rurais e indústrias de beneficiamento primário. Busca-se confrontar os resultados com as previsões da teoria da Economia dos Custos de Transação, que prevê a adoção da governança mais eficiente, contingenciada ao ambiente transacional. Esta pesquisa utiliza um enfoque pioneiro para o setor. A primeira parte consiste na exploração qualitativa das transações entre produtores rurais e usinas beneficiadoras e na descrição dos elementos que compõe o sistema agroindustrial da borracha natural no Estado de São Paulo. Os resultados desta etapa são utilizados para refinar as hipóteses da etapa quantitativa, que relacionam os modos de governança adotados aos investimentos em ativos específicos, como o plantio de seringueiras, à frequência, à incerteza e à assistência técnica associadas à transação. Os resultados, apesar das limitações devido ao tamanho pequeno da amostra, sugerem que a quantidade de borracha comercializada influi positivamente na adoção de modos de governança mais coordenados e que a recorrência das transações provavelmente está associada a contratos relacionais. A hipótese da endogeneidade é rejeitada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A natureza (em geral) não dá saltos. O mesmo ocorre com a análise de curto prazo das perspectivas econômicas: em especial, estas dificilmente mudam significativamente de um mês para outro. Mas há exceções, como ocorre quando há mudanças de rumo da política econômica. É o que se constata atualmente, especialmente a partir das novas medidas governamentais anunciadas desde o imediato pós-eleições, que vêm mexendo bastante com as previsões dos economistas. O mesmo se observa a partir da percepção de que as dificuldades que o Brasil possivelmente enfrentará neste ano são maiores do que se imaginava há até não muito tempo atrás.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo tem como objetivo comparar e combinar diferentes técnicas de projeção para o PIB trimestral brasileiro de 1991 ao segundo trimestre de 2014, utilizando dados agregados, e dados desagregados com pesos fixos e estocásticos. Os modelos desagregados univariados e multivariados, assim como os pesos estocásticos, foram estimados pelo algoritmo Autometrics criado por Doornik (2009), através dos níveis de desagregação disponibilizados pelo IBGE no Sistema de Contas Nacionais. Os modelos agregados foram estimados pelo Autometrics, por Markov-Switching e por modelos estruturais de espaço-estado. A metodologia de comparação de projeções utilizada foi o Model Confidence Set, desenvolvida por Hanse, Lunde e Nason (2011). Foram realizadas duas simulações, sendo a primeira com a análise fora da amostra a partir de 2008, e a segunda a partir de 2000, com horizonte de projeção de até 6 passos à frente. Os resultados sugerem que os modelos desagregados com pesos fixos desempenham melhor nos dois primeiros passos, enquanto nos períodos restantes os modelos da série agregada geram melhores previsões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho visa comparar o poder preditivo das previsões feitas a partir de diferentes metodologias aplicadas para a série de expedição brasileira de papelão ondulado. Os dados de expedição de papelão ondulado serão decompostos pelas categorias industriais de destino das caixas e serão feitos modelos do tipo SARIMA univariados para cada setor. As previsões das séries desagregadas serão então agregadas, para compor a previsão da série total de expedição. A previsão feita a partir da somatória das categorias industriais será comparada com um SARIMA univariado da série agregada, a fim de verificar qual dos dois métodos resulta em um modelo com melhor acurácia. Essa comparação será feita a partir da metodologia desenvolvida por Diebold e Mariano (1995).