33 resultados para Metodo de Monte Carlo - Simulação por computador
Resumo:
A melhoria da qualidade da prestação de serviços em virtude do aumento da competitividade nas empresas vem se tornando uma realidade evidente para aquelas que desejam continuar atuantes no mercado de serviços. Esta melhoria deve ter como objetivo a satisfação das necessidades de seus clientes e para isto, abordagens de Qualidade como Lean Seis Sigma encontram as condições propícias para sua utilização. Lean Seis Sigma é uma metodologia de melhoria de qualidade que apresenta foco na variabilidade dos processos e objetiva a redução de falhas ou defeitos por meio do arcabouço de técnicas e ferramentas estatísticas da qualidade. Este trabalho tem como proposta a apresentação de um roteiro de referência para a aplicação de Lean Seis Sigma em Serviços utilizando-se, ainda, de Simulação Computacional de processos, uma poderosa ferramenta que possibilita maior agilidade e precisão à aplicação do roteiro. Inicialmente foi realizada uma revisão bibliográfica para apresentar um referencial teórico de conceitos sobre Lean Seis Sigma, Simulação Computacional e Casos de Implementação para que, a partir desta base, fosse desenvolvida o roteiro de aplicação de Lean Seis Sigma em Serviços. Para validação da proposição, realizou-se um estudo de caso em um processo de serviço de uma grande instituição financeira, aplicando-se o roteiro proposto e analisando os resultados obtidos.
Resumo:
Este estudo faz uma revisão das origens do VaR, bem como dos conceitos e teorias que o fundamentam, e sua aplicabilidade aos fundos de pensão. Descreve as principais metodologias de cálculo e as situações nas quais o uso de cada uma é mais adequado. Revisa a literatura internacional acerca do uso do VaR como medida de risco pelos fundos de pensão. A seguir faz a previsão do VaR para as carteiras reais de três fundos de pensão brasileiros com três metodologias distintas: paramétrica, simulação histórica e simulação de Monte Carlo, esta última com duas suposições distintas para a distribuição dos retornos dos fatores de risco (normal e histórica). A partir disso, realiza um teste qualitativo, através da comparação do número de perdas efetivas realizadas pelas carteiras dos três fundos de pensão com o número de perdas correspondente admitido para os diferentes níveis de confiança utilizados no cálculo do VaR. O trabalho não encontra evidências de superioridade de nenhuma das metodologias de cálculo, sendo que todas elas superestimaram as perdas verificadas na prática (o VaR foi excedido menos vezes do que o esperado).
Resumo:
Com o crescente uso das teorias e métodos vindos das áreas de economia regional e urbana, economia e econometria espacial na fronteira entre as áreas de economia e políticas públicas, estudar esse arcabouço teórico e metodológico torna-se relevante no campo da análise de políticas públicas. O objetivo geral dessa dissertação é discutir de modo crítico aspectos da literatura de econometria espacial e sua aplicabilidade, com especial foco na comparação entre os diferentes modelos e matrizes de ponderação espacial. Esse estudo procura analisar diferentes formas de medidas que permitem a construção de uma matriz de ponderação espacial, bem como testar por meio de simulação experimental e em uma aplicação empírica a robustez de algumas dessas matrizes e de diferentes modelos. Dadas as indicações da literatura e as evidências mostradas nessa dissertação, a estratégia mais confiável para a busca de um modelo parece ser utilizar as estimativas dos modelos, em conjunto com as estatísticas de Moran, para identificar presença de algum tipo de correlação espacial, e do teste LM da variável dependente, para indicar esse tipo de correlação especificamente. Observa-se que, de modo geral, não há muita diferença em termos de esperança dos parâmetros não espaciais, quando comparadas a estimações tradicionais com as que utilizam as técnicas espaciais. Com isso, a indicação que se pode fazer é que o uso das ferramentas de econometria espacial deve ser aplicado quando o interesse da análise é justamente na estimação dos parâmetros de correlação espacial. Comparando o uso da matriz de contigüidade no lugar da matriz de distâncias, é possível notar que a matriz de contigüidade não é, de forma geral, uma boa substituição para a matriz de distâncias. Ela capta parcialmente o efeito de rho e lambda, além de captar erroneamente lambda, quando este inexiste.
Resumo:
O trabalho analisa a evolução da política monetária desde a implementação do regime de metas de inflação no período de 1999 a 2009 com o intuito de avaliar se há diferenças na condução de política monetária entre as gestões Armínio Fraga e Henrique Meirelles. Um modelo de equilíbrio geral novo-keynesiano baseado em expectativas racionais é utilizado para modelar a economia brasileira e deriva-se uma regra de Taylor para encontrar a condição suficiente para a convergência da inflação. O processo de analise empírica consiste em estimar um modelo de vetores auto-regressivos, cujos parâmetros variam ao longo do tempo assim como as inovações na matriz de variância-covariância. Para tanto, será utilizado um algoritmo de simulação de Monte Carlo. Os resultados empíricos mostram que (i) não há diferenças significativas na condução de política monetária durante as gestões Armínio Fraga e Henrique Meirelles; (ii) A partir de 2003, a taxa de juros permaneceu acima da necessária para a convergência da inflação de acordo com a condição de estabilidade; e (iii) a gestão Armínio Fraga agiu de acordo com a regra de estabilização na crise de 2002, porém a inflação permaneceu acima da meta por causa da magnitude dos choques exógenos.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.
Resumo:
We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties as well as the traditional ones. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank using our proposed procedure, relative to an unrestricted VAR or a cointegrated VAR estimated by the commonly used procedure of selecting the lag-length only and then testing for cointegration. Two empirical applications forecasting Brazilian in ation and U.S. macroeconomic aggregates growth rates respectively show the usefulness of the model-selection strategy proposed here. The gains in di¤erent measures of forecasting accuracy are substantial, especially for short horizons.
Resumo:
We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. A Monte Carlo study explores the finite sample performance of this procedure and evaluates the forecasting accuracy of models selected by this procedure. Two empirical applications confirm the usefulness of the model selection procedure proposed here for forecasting.
Resumo:
O objetivo dessa dissertação é estabelecer um modelo quantitativo de gestão de riscos estratégicos de um ativo de produção de petróleo, notadamente o valor em risco do seu fluxo de caixa e de sua rentabilidade. Para tanto, foi utilizado um modelo de fluxo de caixa onde a receita operacional foi definida como variável estocástica. A receita operacional foi estimada a partir de uma função de perdas que descreve o volume de produção de petróleo, e de uma trajetória de preços definida por um modelo geométrico browniano sem reversão a média e com volatilidade descrita por um processo GARCH. Os resultados obtidos demonstram que o modelo proposto é capaz de fornecer informações importantes para a gestão de riscos de ativos de produção de petróleo ao passo que permite a quantificação de diferentes fatores de risco que afetam a rentabilidade das operações. Por fim, o modelo aqui proposto pode ser estendido para a avaliação do risco financeiro e operacional de um conjunto de ativos de petróleo, considerando sua estrutura de dependência e a existência de restrições de recursos financeiros, físicos e humanos.
Resumo:
O funcionamento dos bancos comerciais implica no sucesso de suas estratégias de captação de depósitos a prazo. O Certificado de Depósito Bancário (CDB) é um dos instrumentos mais utilizados para este fim. 95% dos CDBs são flutuantes e atrelados ao CDI, sendo que grande parte destes CDBs tem data de carência pré-definida para o resgate. Esta característica é responsável pela opção implícita de resgate oferecida ao investidor. Ou seja, o investidor tem a prerrogativa de resgatar seu investimento entre a data de carência e o vencimento do CDB sem que seja penalizado por isso. Este trabalho apresenta um método de apreçamento da opção de resgate implícita no CDB utilizando o modelo de Black Derman Toy. A técnica empregada inova ao considerar o nível da estrutura a termo de taxa de juros tanto em relação à curva de CDBs observada no mercado, quanto a sua volatilidade. Entretanto, a volatilidade é preservada e, por isso, não é contaminada pelas oscilações da estrutura a termo. No procedimento foram utilizados os CDBs do banco de dados da Cetip com valores maiores que quinhentos mil reais emitidos entre 2007 e 2009. Assumiu-se que todos os investidores eram racionais e não precisaram recorrer aos seus investimentos, portanto só resgataram seus recursos após o fim do prazo de carência. Com o intuito de verificar a validade dos preços calculados através do modelo Black Derman Toy, foi aplicada a técnica da simulação de Monte Carlo com a criação de dez mil trajetórias para o preço do ativo. Os resultados obtidos através do modelo proposto foram confirmados quando confrontados com a simulação de Monte Carlo.
Resumo:
Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).
Resumo:
O objetivo deste trabalho é revisar os principais aspectos teóricos para a aplicação de Opções Reais em avaliação de projetos de investimento e analisar, sob esta metodologia, um caso real de projeto para investir na construção de uma Planta de Liquefação de gás natural. O estudo do caso real considerou a Opção de Troca de Mercado, ao avaliar a possibilidade de colocação de cargas spot de GNL em diferentes mercados internacionais e a Opção de Troca de Produto, devido à flexibilidade gerencial de não liquefazer o gás natural, deixando de comercializar GNL no mercado internacional e passando a vender gás natural seco no mercado doméstico. Para a valoração das Opções Reais foi verificado, através da série histórica dos preços de gás natural, que o Movimento Geométrico Browniano não é rejeitado e foram utilizadas simulações de Monte Carlo do processo estocástico neutro ao risco dos preços. O valor da Opção de Troca de Mercado fez o projeto estudado mais que dobrar de valor, sendo reduzido com o aumento da correlação dos preços. Por outro lado, o valor da Opção de Troca de Produto é menos relevante, mas também pode atingir valores significativos com o incremento de sua volatilidade. Ao combinar as duas opções simultaneamente, foi verificado que as mesmas não são diretamente aditivas e que o efeito do incremento da correlação dos preços, ao contrário do que ocorre na Opção de Troca de Mercado, é inverso na Opção de Troca de Produto, ou seja, o derivativo aumenta de valor com uma maior correlação, apesar do valor total das opções integradas diminuir.
Resumo:
Visando estudar as diferenças entre contratos futuros e contratos a termo no mercado cambial brasileiro, este trabalho foca no contrato de Dólar Futuro negociado na BM&FBOVESPA que, para vencimentos sem liquidez, é marcado a mercado pelo preço teórico dos contratos a termo. Uma simulação por Monte Carlo de uma carteira hedgeada contendo contratos de Dólar Futuro, DI Futuro e DDI Futuro mostra claramente que essa metodologia de marcação a mercado deveria ao menos ser revista
Resumo:
When estimating policy parameters, also known as treatment effects, the assignment to treatment mechanism almost always causes endogeneity and thus bias many of these policy parameters estimates. Additionally, heterogeneity in program impacts is more likely to be the norm than the exception for most social programs. In situations where these issues are present, the Marginal Treatment Effect (MTE) parameter estimation makes use of an instrument to avoid assignment bias and simultaneously to account for heterogeneous effects throughout individuals. Although this parameter is point identified in the literature, the assumptions required for identification may be strong. Given that, we use weaker assumptions in order to partially identify the MTE, i.e. to stablish a methodology for MTE bounds estimation, implementing it computationally and showing results from Monte Carlo simulations. The partial identification we perfom requires the MTE to be a monotone function over the propensity score, which is a reasonable assumption on several economics' examples, and the simulation results shows it is possible to get informative even in restricted cases where point identification is lost. Additionally, in situations where estimated bounds are not informative and the traditional point identification is lost, we suggest a more generic method to point estimate MTE using the Moore-Penrose Pseudo-Invese Matrix, achieving better results than traditional methods.
Resumo:
O uso de opções no mercado financeiro tem ganhado relevância devido ao seu payoff não-linear e a possibilidade de alterar o perfil da distribuição de retornos de um portfolio. Existem diversas estratégias que são adequadas para cada cenário que o investidor acredita estar exposto, mas como o conjunto de cenários forma uma distribuição de retornos, devemos utilizar uma medida adequada para trabalhar com este tipo de informação. Assim, foi utilizada a medida Omega, que é uma medida capaz de capturar todos os momentos de uma distribuição, dado um limiar de retornos. Este trabalho se propõe a desenvolver uma metodologia que possibilite otimizar a medida Omega de um portfolio, através do uso de opções sobre o IBOVESPA. Para a geração das distribuições de retornos foi utilizada simulação de Monte Carlo, com jumps e volatilidade estocástica. Finalmente, foram feitas diversas análises sobre os resultados obtidos, afim de comparar a estratégia otimizada com diversas estratégias aleatórias, e também, realizado um backtest para avaliar a eficácia da implementação da estratégia otimizada.
Resumo:
Esse é um dos primeiros trabalhos a endereçar o problema de avaliar o efeito do default para fins de alocação de capital no trading book em ações listadas. E, mais especificamente, para o mercado brasileiro. Esse problema surgiu em crises mais recentes e que acabaram fazendo com que os reguladores impusessem uma alocação de capital adicional para essas operações. Por essa razão o comitê de Basiléia introduziu uma nova métrica de risco, conhecida como Incremental Risk Charge. Essa medida de risco é basicamente um VaR de um ano com um intervalo de confiança de 99.9%. O IRC visa medir o efeito do default e das migrações de rating, para instrumentos do trading book. Nessa dissertação, o IRC está focado em ações e como consequência, não leva em consideração o efeito da mudança de rating. Além disso, o modelo utilizado para avaliar o risco de crédito para os emissores de ação foi o Moody’s KMV, que é baseado no modelo de Merton. O modelo foi utilizado para calcular a PD dos casos usados como exemplo nessa dissertação. Após calcular a PD, simulei os retornos por Monte Carlo após utilizar um PCA. Essa abordagem permitiu obter os retornos correlacionados para fazer a simulação de perdas do portfolio. Nesse caso, como estamos lidando com ações, o LGD foi mantido constante e o valor utilizado foi baseado nas especificações de basiléia. Os resultados obtidos para o IRC adaptado foram comparados com um VaR de 252 dias e com um intervalo de confiança de 99.9%. Isso permitiu concluir que o IRC é uma métrica de risco relevante e da mesma escala de uma VaR de 252 dias. Adicionalmente, o IRC adaptado foi capaz de antecipar os eventos de default. Todos os resultados foram baseados em portfolios compostos por ações do índice Bovespa.