43 resultados para Monte Carlo, Método de


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Mensalmente são publicados relatórios pelo Departamento de Agricultura dos Estados Unidos (USDA) onde são divulgados dados de condições das safras, oferta e demanda globais, nível dos estoques, que servem como referência para todos os participantes do mercado de commodities agrícolas. Esse mercado apresenta uma volatilidade acentuada no período de divulgação dos relatórios. Um modelo de volatilidade estocástica com saltos é utilizado para a dinâmica de preços de milho e de soja. Não existe um modelo ‘ideal’ para tal fim, cada um dos existentes têm suas vantagens e desvantagens. O modelo escolhido foi o de Oztukel e Wilmott (1998), que é um modelo de volatilidade estocástica empírica, incrementado com saltos determinísticos. Empiricamente foi demonstrado que um modelo de volatilidade estocástica pode ser bem ajustado ao mercado de commodities, e o processo de jump-diffusion pode representar bem os saltos que o mercado apresenta durante a divulgação dos relatórios. As opções de commodities agrícolas que são negociadas em bolsa são do tipo americanas, então alguns métodos disponíveis poderiam ser utilizados para precificar opções seguindo a dinâmica do modelo proposto. Dado que o modelo escolhido é um modelo multi-fatores, então o método apropriado para a precificação é o proposto por Longstaff e Schwartz (2001) chamado de Monte Carlo por mínimos quadrados (LSM). As opções precificadas pelo modelo são utilizadas em uma estratégia de hedge de uma posição física de milho e de soja, e a eficiência dessa estratégia é comparada com estratégias utilizando-se instrumentos disponíveis no mercado.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dentre as premissas do modelo de Black-Scholes, amplamente utilizado para o apreçamento de opções, assume-se que é possível realizar a replicação do payoff da opção através do rebalanceamento contínuo de uma carteira contendo o ativo objeto e o ativo livre de risco, ao longo da vida da opção. Não somente o rebalanceamento em tempo contínuo não é possível, como mesmo que o fosse, em um mercado com custos de transação, rebalanceamentos da estratégia replicante com intervalos de tempo muito baixos teriam o payoff da estratégia replicante comprometido pelos altos custos totais de transação envolvidos. Este trabalho procura comparar metodologias de delta-hedge, tomando como base uma call européia vendida em um mercado com custos de transação. Para comparar as diferentes estratégias, este estudo será dividido em duas partes: na primeira, serão escolhidas três ações do mercado brasileiro, e usando simulações de Monte Carlo para cada ação, avaliamos diferentes modelos de delta-hedge a partir do erro de replicação do portfolio global e dentro de um contexto de média × variância, considerando-se custos de transação. Em um segundo momento, para o mesmo grupo de ações, testamos os resultados práticos dos modelos, usando dados de mercado.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico – neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) – seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This paper deals with the estimation and testing of conditional duration models by looking at the density and baseline hazard rate functions. More precisely, we foeus on the distance between the parametric density (or hazard rate) function implied by the duration process and its non-parametric estimate. Asymptotic justification is derived using the functional delta method for fixed and gamma kernels, whereas finite sample properties are investigated through Monte Carlo simulations. Finally, we show the practical usefulness of such testing procedures by carrying out an empirical assessment of whether autoregressive conditional duration models are appropriate to oIs for modelling price durations of stocks traded at the New York Stock Exchange.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This paper presents new methodology for making Bayesian inference about dy~ o!s for exponential famiIy observations. The approach is simulation-based _~t> use of ~vlarkov chain Monte Carlo techniques. A yletropolis-Hastings i:U~UnLlllll 1::; combined with the Gibbs sampler in repeated use of an adjusted version of normal dynamic linear models. Different alternative schemes are derived and compared. The approach is fully Bayesian in obtaining posterior samples for state parameters and unknown hyperparameters. Illustrations to real data sets with sparse counts and missing values are presented. Extensions to accommodate for general distributions for observations and disturbances. intervention. non-linear models and rnultivariate time series are outlined.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho analisa, sob a ótica da sustentabilidade da dívida, os efeitos de se manter um elevado nível de reservas internacionais juntamente com um elevado estoque de dívida pública. Busca-se o nível ótimo de reservas para o Brasil através de uma ferramenta de gestão de risco, por simulações de Monte Carlo. Considerando as variáveis estocásticas que afetam a equação de acumulação da dívida, e entendendo a relação entre elas, pode-se estudar as propriedades estocásticas da dinâmica da dívida. Da mesma forma, podemos analisar o impacto fiscal de um determinado nível de reservas ao longo do tempo e verificar quais caminhos se mostram sustentáveis. Sob a ótica da sustentabilidade da dívida, a escolha que gera a melhor relação dívida líquida / PIB para o Brasil é aquela que utiliza o máximo das reservas internacionais para reduzir o endividamento local. No entanto, como há aspectos não capturados nesta análise, tais como os benefícios das reservas em prevenir crises e em funcionar como garantia para investimentos externos, sugere-se que as reservas não excedam os níveis reconhecidos pela literatura internacional que atendam a estes fins. A indicação final deste estudo é que as reservas internacionais funcionam como um instrumento de proteção ao país quando o endividamento e o custo dele não são tão expressivos, como são atualmente no Brasil.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

When estimating policy parameters, also known as treatment effects, the assignment to treatment mechanism almost always causes endogeneity and thus bias many of these policy parameters estimates. Additionally, heterogeneity in program impacts is more likely to be the norm than the exception for most social programs. In situations where these issues are present, the Marginal Treatment Effect (MTE) parameter estimation makes use of an instrument to avoid assignment bias and simultaneously to account for heterogeneous effects throughout individuals. Although this parameter is point identified in the literature, the assumptions required for identification may be strong. Given that, we use weaker assumptions in order to partially identify the MTE, i.e. to stablish a methodology for MTE bounds estimation, implementing it computationally and showing results from Monte Carlo simulations. The partial identification we perfom requires the MTE to be a monotone function over the propensity score, which is a reasonable assumption on several economics' examples, and the simulation results shows it is possible to get informative even in restricted cases where point identification is lost. Additionally, in situations where estimated bounds are not informative and the traditional point identification is lost, we suggest a more generic method to point estimate MTE using the Moore-Penrose Pseudo-Invese Matrix, achieving better results than traditional methods.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A partir do estudo de um trabalho econométrico sobre o impacto de informações no retorno de um ativo, propusemos uma simplificação ao modelo objetivando a análise de um evento específico com agenda bem definida, a divulgação trimestral de resultados. Para algumas empresas, achamos evidências da aderência do modelo aos dados reais e apreçamos opções de compra e venda utilizando o método de Monte Carlo. Obtivemos diferenças relevantes no preço das opções considerando a modelagem proposta frente ao modelo de black-scholes e, ao efetuar o backtest na amostra usando uma estratégia de delta-hedge, conseguimos melhores resultados na nova formulação para alguns cenários.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho tem como proposta avaliar os impactos de médio e longo prazo da remoção da política de incentivo à produção de açúcar de beterraba na União Europeia (UE) sobre o mercado deste bem, assim como permitirá verificar se algumas conclusões de estudos realizados em 2013 sobre o futuro do mercado de açúcar da UE pós-2017 ainda estão válidas, uma vez que os preços e margens nesse mercado mudaram consideravelmente desde então. Para a análise em questão, utiliza-se uma versão do modelo econômico global GTAP – Global Trade Analysis Project, conhecido como GTAPinGAMS, e assume-se que a diferença entre o custo de produção e o preço mínimo europeu representa uma boa proxy para o desvio de preço ocasionado pela imposição da quota em relação ao preço de equilíbrio que seria observado em cada país da UE se a quota não existisse. A partir dos resultados obtidos por este trabalho é possível afirmar que a abolição das cotas de produção não afetará negativamente a UE. Haverá um aumento de produção de açúcar no bloco, tanto por aumento de produção de beterraba quanto por aumento na eficiência industrial. Os países com menor custo de produção suprirão as reduções sofridas nos países não competitivos e suprirão a necessidade do produto pela UE, uma vez que a reforma não inclui maior abertura comercial para países de fora do bloco. A isoglucose, principal produto substituto do açúcar na indústria alimentícia, terá um aumento de produção nos países com indústrias já instaladas, dado o aumento do consumo de grãos nestes países pela indústria produtora de açúcar. Os países que fazem comercialização com o grupo econômico também serão afetados, mas em menor grau, graças à manutenção das cotas preferenciais de importação.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This Master Thesis consists of one theoretical article and one empirical article on the field of Microeconometrics. The first chapter\footnote{We also thank useful suggestions by Marinho Bertanha, Gabriel Cepaluni, Brigham Frandsen, Dalia Ghanem, Ricardo Masini, Marcela Mello, Áureo de Paula, Cristine Pinto, Edson Severnini and seminar participants at São Paulo School of Economics, the California Econometrics Conference 2015 and the 37\textsuperscript{th} Brazilian Meeting of Econometrics.}, called \emph{Synthetic Control Estimator: A Generalized Inference Procedure and Confidence Sets}, contributes to the literature about inference techniques of the Synthetic Control Method. This methodology was proposed to answer questions involving counterfactuals when only one treated unit and a few control units are observed. Although this method was applied in many empirical works, the formal theory behind its inference procedure is still an open question. In order to fulfill this lacuna, we make clear the sufficient hypotheses that guarantee the adequacy of Fisher's Exact Hypothesis Testing Procedure for panel data, allowing us to test any \emph{sharp null hypothesis} and, consequently, to propose a new way to estimate Confidence Sets for the Synthetic Control Estimator by inverting a test statistic, the first confidence set when we have access only to finite sample, aggregate level data whose cross-sectional dimension may be larger than its time dimension. Moreover, we analyze the size and the power of the proposed test with a Monte Carlo experiment and find that test statistics that use the synthetic control method outperforms test statistics commonly used in the evaluation literature. We also extend our framework for the cases when we observe more than one outcome of interest (simultaneous hypothesis testing) or more than one treated unit (pooled intervention effect) and when heteroskedasticity is present. The second chapter, called \emph{Free Economic Area of Manaus: An Impact Evaluation using the Synthetic Control Method}, is an empirical article. We apply the synthetic control method for Brazilian city-level data during the 20\textsuperscript{th} Century in order to evaluate the economic impact of the Free Economic Area of Manaus (FEAM). We find that this enterprise zone had positive significant effects on Real GDP per capita and Services Total Production per capita, but it also had negative significant effects on Agriculture Total Production per capita. Our results suggest that this subsidy policy achieve its goal of promoting regional economic growth, even though it may have provoked mis-allocation of resources among economic sectors.