43 resultados para Método de Monte Carlo


Relevância:

90.00% 90.00%

Publicador:

Resumo:

A determinação da taxa de juros estrutura a termo é um dos temas principais da gestão de ativos financeiros. Considerando a grande importância dos ativos financeiros para a condução das políticas econômicas, é fundamental para compreender a estrutura que é determinado. O principal objetivo deste estudo é estimar a estrutura a termo das taxas de juros brasileiras, juntamente com taxa de juros de curto prazo. A estrutura a termo será modelado com base em um modelo com uma estrutura afim. A estimativa foi feita considerando a inclusão de três fatores latentes e duas variáveis ​​macroeconômicas, através da técnica Bayesiana da Cadeia de Monte Carlo Markov (MCMC).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Mensalmente são publicados relatórios pelo Departamento de Agricultura dos Estados Unidos (USDA) onde são divulgados dados de condições das safras, oferta e demanda globais, nível dos estoques, que servem como referência para todos os participantes do mercado de commodities agrícolas. Esse mercado apresenta uma volatilidade acentuada no período de divulgação dos relatórios. Um modelo de volatilidade estocástica com saltos é utilizado para a dinâmica de preços de milho e de soja. Não existe um modelo ‘ideal’ para tal fim, cada um dos existentes têm suas vantagens e desvantagens. O modelo escolhido foi o de Oztukel e Wilmott (1998), que é um modelo de volatilidade estocástica empírica, incrementado com saltos determinísticos. Empiricamente foi demonstrado que um modelo de volatilidade estocástica pode ser bem ajustado ao mercado de commodities, e o processo de jump-diffusion pode representar bem os saltos que o mercado apresenta durante a divulgação dos relatórios. As opções de commodities agrícolas que são negociadas em bolsa são do tipo americanas, então alguns métodos disponíveis poderiam ser utilizados para precificar opções seguindo a dinâmica do modelo proposto. Dado que o modelo escolhido é um modelo multi-fatores, então o método apropriado para a precificação é o proposto por Longstaff e Schwartz (2001) chamado de Monte Carlo por mínimos quadrados (LSM). As opções precificadas pelo modelo são utilizadas em uma estratégia de hedge de uma posição física de milho e de soja, e a eficiência dessa estratégia é comparada com estratégias utilizando-se instrumentos disponíveis no mercado.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Alavancagem em hedge funds tem preocupado investidores e estudiosos nos últimos anos. Exemplos recentes de estratégias desse tipo se mostraram vantajosos em períodos de pouca incerteza na economia, porém desastrosos em épocas de crise. No campo das finanças quantitativas, tem-se procurado encontrar o nível de alavancagem que otimize o retorno de um investimento dado o risco que se corre. Na literatura, os estudos têm se mostrado mais qualitativos do que quantitativos e pouco se tem usado de métodos computacionais para encontrar uma solução. Uma forma de avaliar se alguma estratégia de alavancagem aufere ganhos superiores do que outra é definir uma função objetivo que relacione risco e retorno para cada estratégia, encontrar as restrições do problema e resolvê-lo numericamente por meio de simulações de Monte Carlo. A presente dissertação adotou esta abordagem para tratar o investimento em uma estratégia long-short em um fundo de investimento de ações em diferentes cenários: diferentes formas de alavancagem, dinâmicas de preço das ações e níveis de correlação entre esses preços. Foram feitas simulações da dinâmica do capital investido em função das mudanças dos preços das ações ao longo do tempo. Considerou-se alguns critérios de garantia de crédito, assim como a possibilidade de compra e venda de ações durante o período de investimento e o perfil de risco do investidor. Finalmente, estudou-se a distribuição do retorno do investimento para diferentes níveis de alavancagem e foi possível quantificar qual desses níveis é mais vantajoso para a estratégia de investimento dadas as restrições de risco.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Visando estudar as diferenças entre contratos futuros e contratos a termo no mercado cambial brasileiro, este trabalho foca no contrato de Dólar Futuro negociado na BM&FBOVESPA que, para vencimentos sem liquidez, é marcado a mercado pelo preço teórico dos contratos a termo. Uma simulação por Monte Carlo de uma carteira hedgeada contendo contratos de Dólar Futuro, DI Futuro e DDI Futuro mostra claramente que essa metodologia de marcação a mercado deveria ao menos ser revista

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar o setor aeroportuário e o mercado de concessões brasileiro e criar um modelo para precificação de um projeto de concessão do aeroporto de Guarulhos. Para isso, foram utilizados dados reais obtidos através dos resultados da concessionária e também dados divulgados publicamente, como inflação e crescimento do PIB, além de projeções baseadas em premissas estabelecidas. Foram considerados diferentes cenários com o objetivo de comparar os resultados, que indicaram uma sensibilidade significativa do modelo às variações de demanda de passageiros e também à flexibilização do cronograma de investimentos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O uso de opções no mercado financeiro tem ganhado relevância devido ao seu payoff não-linear e a possibilidade de alterar o perfil da distribuição de retornos de um portfolio. Existem diversas estratégias que são adequadas para cada cenário que o investidor acredita estar exposto, mas como o conjunto de cenários forma uma distribuição de retornos, devemos utilizar uma medida adequada para trabalhar com este tipo de informação. Assim, foi utilizada a medida Omega, que é uma medida capaz de capturar todos os momentos de uma distribuição, dado um limiar de retornos. Este trabalho se propõe a desenvolver uma metodologia que possibilite otimizar a medida Omega de um portfolio, através do uso de opções sobre o IBOVESPA. Para a geração das distribuições de retornos foi utilizada simulação de Monte Carlo, com jumps e volatilidade estocástica. Finalmente, foram feitas diversas análises sobre os resultados obtidos, afim de comparar a estratégia otimizada com diversas estratégias aleatórias, e também, realizado um backtest para avaliar a eficácia da implementação da estratégia otimizada.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esse é um dos primeiros trabalhos a endereçar o problema de avaliar o efeito do default para fins de alocação de capital no trading book em ações listadas. E, mais especificamente, para o mercado brasileiro. Esse problema surgiu em crises mais recentes e que acabaram fazendo com que os reguladores impusessem uma alocação de capital adicional para essas operações. Por essa razão o comitê de Basiléia introduziu uma nova métrica de risco, conhecida como Incremental Risk Charge. Essa medida de risco é basicamente um VaR de um ano com um intervalo de confiança de 99.9%. O IRC visa medir o efeito do default e das migrações de rating, para instrumentos do trading book. Nessa dissertação, o IRC está focado em ações e como consequência, não leva em consideração o efeito da mudança de rating. Além disso, o modelo utilizado para avaliar o risco de crédito para os emissores de ação foi o Moody’s KMV, que é baseado no modelo de Merton. O modelo foi utilizado para calcular a PD dos casos usados como exemplo nessa dissertação. Após calcular a PD, simulei os retornos por Monte Carlo após utilizar um PCA. Essa abordagem permitiu obter os retornos correlacionados para fazer a simulação de perdas do portfolio. Nesse caso, como estamos lidando com ações, o LGD foi mantido constante e o valor utilizado foi baseado nas especificações de basiléia. Os resultados obtidos para o IRC adaptado foram comparados com um VaR de 252 dias e com um intervalo de confiança de 99.9%. Isso permitiu concluir que o IRC é uma métrica de risco relevante e da mesma escala de uma VaR de 252 dias. Adicionalmente, o IRC adaptado foi capaz de antecipar os eventos de default. Todos os resultados foram baseados em portfolios compostos por ações do índice Bovespa.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Utilizando dados de mercado obtidos na BM&F Bovespa, este trabalho propõe uma possível variação do modelo Heath, Jarrow e Morton em sua forma discreta e multifatorial, com a introdução de jumps como forma de considerar o efeito das reuniões realizadas pelo Cômite de Políticas Monetárias (Copom). Através do uso da análise de componentes principais (PCA), é feita a calibração dos parâmetros do modelo, possibilitando a simulação da evolução da estrutura a termo de taxa de juros (ETTJ) da curva prefixada em reais via simulação de Monte Carlo (MCS). Com os cenários da curva simulada em vértices fixos (sintéticos), os resultados são comparados aos dados observados no mercado.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This Master Thesis consists of one theoretical article and one empirical article on the field of Microeconometrics. The first chapter\footnote{We also thank useful suggestions by Marinho Bertanha, Gabriel Cepaluni, Brigham Frandsen, Dalia Ghanem, Ricardo Masini, Marcela Mello, Áureo de Paula, Cristine Pinto, Edson Severnini and seminar participants at São Paulo School of Economics, the California Econometrics Conference 2015 and the 37\textsuperscript{th} Brazilian Meeting of Econometrics.}, called \emph{Synthetic Control Estimator: A Generalized Inference Procedure and Confidence Sets}, contributes to the literature about inference techniques of the Synthetic Control Method. This methodology was proposed to answer questions involving counterfactuals when only one treated unit and a few control units are observed. Although this method was applied in many empirical works, the formal theory behind its inference procedure is still an open question. In order to fulfill this lacuna, we make clear the sufficient hypotheses that guarantee the adequacy of Fisher's Exact Hypothesis Testing Procedure for panel data, allowing us to test any \emph{sharp null hypothesis} and, consequently, to propose a new way to estimate Confidence Sets for the Synthetic Control Estimator by inverting a test statistic, the first confidence set when we have access only to finite sample, aggregate level data whose cross-sectional dimension may be larger than its time dimension. Moreover, we analyze the size and the power of the proposed test with a Monte Carlo experiment and find that test statistics that use the synthetic control method outperforms test statistics commonly used in the evaluation literature. We also extend our framework for the cases when we observe more than one outcome of interest (simultaneous hypothesis testing) or more than one treated unit (pooled intervention effect) and when heteroskedasticity is present. The second chapter, called \emph{Free Economic Area of Manaus: An Impact Evaluation using the Synthetic Control Method}, is an empirical article. We apply the synthetic control method for Brazilian city-level data during the 20\textsuperscript{th} Century in order to evaluate the economic impact of the Free Economic Area of Manaus (FEAM). We find that this enterprise zone had positive significant effects on Real GDP per capita and Services Total Production per capita, but it also had negative significant effects on Agriculture Total Production per capita. Our results suggest that this subsidy policy achieve its goal of promoting regional economic growth, even though it may have provoked mis-allocation of resources among economic sectors.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Os estudos sobre as expectativas de inflação no Brasil rejeitam a hipótese de racionalidade. Essa rejeição se dá por meio de testes estatísticos que identificam a existência de um viés sistemático quando comparamos a expectativa de inflação e a inflação realizada. Atualizamos alguns destes testes com o tamanho de amostra disponível atualmente. No presente trabalho, realizamos um experimento de Monte Carlo que simula o comportamento da inflação e da sua expectativa em um modelo DSGE. Esse modelo inclui uma regra monetária sujeita a choques transitórios e permanentes (que representam uma mudança de regime). A partir das séries simuladas com esses modelos, realizamos testes estatísticos para verificar se os resultados são semelhantes aos observados na prática. O exercício de simulação realizado não foi capaz de gerar séries com essas mesmas características, não trazendo evidência que esse mecanismo de aprendizado possa explicar o viés encontrado nas expectativas de inflação.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

We consider a class of sampling-based decomposition methods to solve risk-averse multistage stochastic convex programs. We prove a formula for the computation of the cuts necessary to build the outer linearizations of the recourse functions. This formula can be used to obtain an efficient implementation of Stochastic Dual Dynamic Programming applied to convex nonlinear problems. We prove the almost sure convergence of these decomposition methods when the relatively complete recourse assumption holds. We also prove the almost sure convergence of these algorithms when applied to risk-averse multistage stochastic linear programs that do not satisfy the relatively complete recourse assumption. The analysis is first done assuming the underlying stochastic process is interstage independent and discrete, with a finite set of possible realizations at each stage. We then indicate two ways of extending the methods and convergence analysis to the case when the process is interstage dependent.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

As empresas de capital aberto, listadas em bolsa de valores, são naturalmente aquelas que vieram apresentando retornos superiores perante às demais empresas do seu setor. Assim, será que o viés de seleção desses ativos in uencia sigini cativamente no resultado do Equity Premium Puzzle, primordialmente lançado por Mehra and Prescott (1985)? É essa pergunta que este trabalho investiga e conclui que, sim, de fato pode haver uma in uência desse viés em explicar o Puzzle . Para isso, iremos gerar uma economia cujos ativos, por hipótese, sejam preci cados de acordo com o fator estocástico de desconto (SDF) baseado em consumo, ou seja, os modelos conhecidos como CCAPM (Consumption Capital Asset Pricing Model). Assim, essa economia será gerada via simulação de Monte Carlo, de forma que iremos construir um índice benchmark dessa economia, nos quais participariam apenas os ativos que foram historicamente mais rentáveis. Adota-se tal metodologia em paralelo à forma como os reais benchmarks são construidos (S&P 500, Nasdaq, Ibovespa), em que neles participam, basicamente, as empresas de capital aberta mais negociadas em Bolsa de Valores, que são, comumente, as empresas historicamente mais rentáveis da economia. Em sequência, iremos realizar a estimação via GMM (Generalized Method of Moments) de um dos parâmetros de interesse de uma economia CCAPM: o coe ciente de aversão relativa ao risco (CRRA). Finalmente, os resultados obtidos são comparados e analisados quanto ao viés de estimação.