916 resultados para Long memory stochastic process


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho é discutido o impacto causado pelos parâmetros de processo com comportamento estocástico em um modelo de otimização, aplicado ao planejamento mineiro. Com base em um estudo de caso real, construiu-se um modelo matemático representando o processo produtivo associado à mineração, beneficiamento e comercialização de carvão mineral. Este modelo foi otimizado com a técnica de programação linear, sendo a solução ótima perturbada pelo comportamento estocástico de um dos principais parâmetros envolvidos no processo produtivo. A análise dos resultados permitiu avaliar o risco associado à decisão ótima, sendo com isto proposta uma metodologia para avaliação do risco operacional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper studies the electricity load demand behavior during the 2001 rationing period, which was implemented because of the Brazilian energetic crisis. The hourly data refers to a utility situated in the southeast of the country. We use the model proposed by Soares and Souza (2003), making use of generalized long memory to model the seasonal behavior of the load. The rationing period is shown to have imposed a structural break in the series, decreasing the load at about 20%. Even so, the forecast accuracy is decreased only marginally, and the forecasts rapidly readapt to the new situation. The forecast errors from this model also permit verifying the public response to pieces of information released regarding the crisis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A relação entre preços do mercado spot e do mercado futuro e a evidência de Mercado Invertido (backwardation) na estrutura a termo de commodities têm tido ênfase na literatura de economia e de finanças. O objetivo deste trabalho é apresentar as principais causas responsáveis pelo comportamento de Mercado Invertido e identificar as propriedades que caracterizam o equilíbrio de preços em commodities agrícolas. Seja pela existência de prêmio de risco ou do benefício de conveniência, o entendimento dos efeitos sobre a replicação do preço futuro e sobre a estrutura a termo de preços ainda permanece em aberto. A premissa de perfeita replicação de portfólios e a ausência de fricções de mercado implicam, por outro lado, que o entendimento do comportamento de Mercado Invertido advém da compreensão do processo estocástico do próprio ativo subjacente. O apreçamento neutro ao risco, amparado pelos sinais de reversão de preços, permite a modelagem de preços conforme o proposto em Schwartz e Smith (2000), cuja calibração e os resultados serão apresentados para a soja.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper proposes a two-step procedure to back out the conditional alpha of a given stock using high-frequency data. We rst estimate the realized factor loadings of the stocks, and then retrieve their conditional alphas by estimating the conditional expectation of their risk-adjusted returns. We start with the underlying continuous-time stochastic process that governs the dynamics of every stock price and then derive the conditions under which we may consistently estimate the daily factor loadings and the resulting conditional alphas. We also contribute empiri-cally to the conditional CAPM literature by examining the main drivers of the conditional alphas of the S&P 100 index constituents from January 2001 to December 2008. In addition, to con rm whether these conditional alphas indeed relate to pricing errors, we assess the performance of both cross-sectional and time-series momentum strategies based on the conditional alpha estimates. The ndings are very promising in that these strategies not only seem to perform pretty well both in absolute and relative terms, but also exhibit virtually no systematic exposure to the usual risk factors (namely, market, size, value and momentum portfolios).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é revisar os principais aspectos teóricos para a aplicação de Opções Reais em avaliação de projetos de investimento e analisar, sob esta metodologia, um caso real de projeto para investir na construção de uma Planta de Liquefação de gás natural. O estudo do caso real considerou a Opção de Troca de Mercado, ao avaliar a possibilidade de colocação de cargas spot de GNL em diferentes mercados internacionais e a Opção de Troca de Produto, devido à flexibilidade gerencial de não liquefazer o gás natural, deixando de comercializar GNL no mercado internacional e passando a vender gás natural seco no mercado doméstico. Para a valoração das Opções Reais foi verificado, através da série histórica dos preços de gás natural, que o Movimento Geométrico Browniano não é rejeitado e foram utilizadas simulações de Monte Carlo do processo estocástico neutro ao risco dos preços. O valor da Opção de Troca de Mercado fez o projeto estudado mais que dobrar de valor, sendo reduzido com o aumento da correlação dos preços. Por outro lado, o valor da Opção de Troca de Produto é menos relevante, mas também pode atingir valores significativos com o incremento de sua volatilidade. Ao combinar as duas opções simultaneamente, foi verificado que as mesmas não são diretamente aditivas e que o efeito do incremento da correlação dos preços, ao contrário do que ocorre na Opção de Troca de Mercado, é inverso na Opção de Troca de Produto, ou seja, o derivativo aumenta de valor com uma maior correlação, apesar do valor total das opções integradas diminuir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The goal of this paper is twofold. First, using five of the most actively traded stocks in the Brazilian financial market, this paper shows that the normality assumption commonly used in the risk management area to describe the distributions of returns standardized by volatilities is not compatible with volatilities estimated by EWMA or GARCH models. In sharp contrast, when the information contained in high frequency data is used to construct the realized volatilies measures, we attain the normality of the standardized returns, giving promise of improvements in Value at Risk statistics. We also describe the distributions of volatilities of the Brazilian stocks, showing that the distributions of volatilities are nearly lognormal. Second, we estimate a simple linear model to the log of realized volatilities that differs from the ones in other studies. The main difference is that we do not find evidence of long memory. The estimated model is compared with commonly used alternatives in an out-of-sample experiment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Um dos principais fatores de estudo do mercado de capitais é a discussão a respeito da teoria de eficiência de mercado, que no caso diverge em relação ao comportamento do preço da maioria dos ativos. Este trabalho tem o intuito de analisar o comportamento do principal índice de preços do mercado de bitcoins (BPI) durante o período de julho de 2010 a setembro de 2014. Inicialmente será testada a hipótese do passeio aleatório para o BPI. Em seguida serão verificadas as correlações de longa data nas séries financeiras temporais utilizando como instrumento de análise o expoente de Hurst (H), que inicialmente foi usado para calcular correlações em fenômenos naturais e posteriormente sua abrangência alcançou a área financeira. O estudo avalia o expoente H através de métodos distintos destacando-se a análise R/S e a DFA. Para o cálculo do expoente ao longo do tempo, utiliza-se uma janela móvel de 90 dias deslocando-se de 10 em 10 dias. Já para o cálculo em diferentes escalas verifica-se, para cada dia, o valor do expoente H nos últimos 360, 180 e 90 dias respectivamente. Os resultados evidenciaram que o índice BPI apresenta memória longa persistente em praticamente todo o período analisado. Além disso, a análise em diferentes escalas indica a possibilidade de previsão de eventos turbulentos no índice neste mesmo período. Finalmente foi possível comprovar a hipótese de mercados fractais para a série histórica de retornos do BPI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Regulamentada desde as legislações mais arcaicas, como o Código de Hamurabi na Babilônia de 4.000 a.C., a pena de morte é um dos institutos mais antigos da humanidade. É também um dos temas mais controvertidos do Direito, cerne de debates que se intensificam na medida na medida em que os direitos humanos são universalizados, principalmente em meados do século XX. Diante disso, a audaciosa manutenção da pena de morte no sistema jurídico norte-americano, o último reduto do instituto no mundo ocidental, é o resultado de longo e árduo processo de desenvolvimento constitucional, orientado principalmente pelos constantes avanços da jurisprudência da Suprema Corte dos Estados Unidos sobre a pena capital. O presente trabalho tem como escopo apresentar o histórico de tais decisões, bem como fundamentos de cunho criminológico, moral, filosófico e econômico aplicáveis à sistemática da pena de morte, expondo ainda dados sobre a aplicação da pena capital e perspectivas para o futuro da sanção nos Estados Unidos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O mercado de minério de ferro tem passado por um período de stress nos últimos meses. O arrefecimento dos investimentos chineses em infraestrutura resultou em perspectivas negativas para a demanda dessa commodity. Paralelamente, a entrada em operação de novos projetos com volume de produção relevante aumentou a oferta desse produto no mercado. Essa conjuntura de fatores resultou na queda do preço do minério de ferro no mercado mundial e em um cenário de retornos reduzidos para as mineradoras. Nesse contexto, o objetivo do presente estudo é avaliar a flexibilidade gerencial, disponível aos administradores de mineradoras operacionais, de suspender ou fechar o empreendimento dependendo do preço do minério de ferro. Essas decisões serão estudadas através da Teoria das Opções Reais, onde a opção de conversão será aplicada na situação de suspensão e reabertura da mina e a opção de abandono será aplicada na situação do seu fechamento. O processo estocástico a ser seguido pelo preço do minério de ferro será o Movimento Geométrico Browniano, implementado através de um Modelo Binomial conforme proposto por Cox, Ross e Rubinstein (1979). O resultado do trabalho comprova o valor das opções reais estudadas e indica que essas opções reais têm maior valor em cenários de stress, quando o preço do minério de ferro está desvalorizado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trabalho apresentado no Congresso Nacional de Matemática Aplicada à Indústria, 18 a 21 de novembro de 2014, Caldas Novas - Goiás

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We consider multistage stochastic linear optimization problems combining joint dynamic probabilistic constraints with hard constraints. We develop a method for projecting decision rules onto hard constraints of wait-and-see type. We establish the relation between the original (in nite dimensional) problem and approximating problems working with projections from di erent subclasses of decision policies. Considering the subclass of linear decision rules and a generalized linear model for the underlying stochastic process with noises that are Gaussian or truncated Gaussian, we show that the value and gradient of the objective and constraint functions of the approximating problems can be computed analytically.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This research investigated the dance piece Caldo da Cana which premiered in João Pessoa-PB, in September 1984. It problematizes theoretical and practical way to make dance history, investigating this possibility through the dance itself. Arises from the fact that the dance has specific characteristics that can not be neglected by the historical account. In this sense, it was initiated by the raising of a theoretical framework that speaks to the indicated issues and unfolds through a field study, which included collecting testimonies from people who participated in the show, documentary research, gathering material traces and finally consists a practical part by transposing elaborated historical knowledge into the body through a creative process, resulting on this moment, in the construction of a duo dance

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The seismic method is of extreme importance in geophysics. Mainly associated with oil exploration, this line of research focuses most of all investment in this area. The acquisition, processing and interpretation of seismic data are the parts that instantiate a seismic study. Seismic processing in particular is focused on the imaging that represents the geological structures in subsurface. Seismic processing has evolved significantly in recent decades due to the demands of the oil industry, and also due to the technological advances of hardware that achieved higher storage and digital information processing capabilities, which enabled the development of more sophisticated processing algorithms such as the ones that use of parallel architectures. One of the most important steps in seismic processing is imaging. Migration of seismic data is one of the techniques used for imaging, with the goal of obtaining a seismic section image that represents the geological structures the most accurately and faithfully as possible. The result of migration is a 2D or 3D image which it is possible to identify faults and salt domes among other structures of interest, such as potential hydrocarbon reservoirs. However, a migration fulfilled with quality and accuracy may be a long time consuming process, due to the mathematical algorithm heuristics and the extensive amount of data inputs and outputs involved in this process, which may take days, weeks and even months of uninterrupted execution on the supercomputers, representing large computational and financial costs, that could derail the implementation of these methods. Aiming at performance improvement, this work conducted the core parallelization of a Reverse Time Migration (RTM) algorithm, using the parallel programming model Open Multi-Processing (OpenMP), due to the large computational effort required by this migration technique. Furthermore, analyzes such as speedup, efficiency were performed, and ultimately, the identification of the algorithmic scalability degree with respect to the technological advancement expected by future processors