973 resultados para Monte - Carlo study
Resumo:
We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties as well as the traditional ones. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank using our proposed procedure, relative to an unrestricted VAR or a cointegrated VAR estimated by the commonly used procedure of selecting the lag-length only and then testing for cointegration. Two empirical applications forecasting Brazilian in ation and U.S. macroeconomic aggregates growth rates respectively show the usefulness of the model-selection strategy proposed here. The gains in di¤erent measures of forecasting accuracy are substantial, especially for short horizons.
Resumo:
Este trabalho contribui a discussão de diversificação internacional no contexto de investidores brasileiros com referência na moeda local (Reais). O trabalho testa as seguintes hipóteses: (1) se a adição de ativos internacionais não aumenta a eficiência (melhora na relação retorno/risco) de carteiras somente com ativos brasileiros, (2) se carteiras de menor risco exigem mais alocações internacionais e, (3) se alocação de ativos é parecida para investidores com referências em dólar ou em reais. Esse trabalho utiliza modelos já conhecidos de fronteiras eficientes com aplicação de técnicas que utilizam rotinas de Monte Carlo para suavizar possíveis erros na estimação dos retornos das classes de ativos, que incorporam ainda incertezas sobre o câmbio. Nas simulações são utilizadas uma cesta de ativos locais e uma cesta de ativos que melhor representa o mercado internacional. Apesar da grande maioria dos investidores brasileiros utilizarem muito pouco ativos internacionais em suas carteiras, seja por motivos de Home Bias, fatores históricos macroeconômicos evidenciados pelas altas taxas de juros ou limitações regulatórias, os resultados empíricos demonstram que existem ganhos de eficiência para as carteiras de investidores brasileiros ao se incluir ativos internacionais na alocação de ativos. Esses ganhos de eficiência são evidenciados para todos os perfis de risco, desde os mais conservadores até os perfis mais agressivos. Os resultados mostram que quanto maior o perfil de risco da carteira, maior é a alocação internacional que maximiza a eficiência da carteira. E por último, a referência da moeda muda significativamente a alocação eficiente de carteiras, carteiras com referência em dólar exigem menos diversificação com ativos em reais do que carteiras com referência em Reais exigem diversificação com ativos internacionais.
Resumo:
Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.
Resumo:
Com o objetivo de mostrar uma aplicação dos modelos da família GARCH a taxas de câmbio, foram utilizadas técnicas estatísticas englobando análise multivariada de componentes principais e análise de séries temporais com modelagem de média e variância (volatilidade), primeiro e segundo momentos respectivamente. A utilização de análise de componentes principais auxilia na redução da dimensão dos dados levando a estimação de um menor número de modelos, sem contudo perder informação do conjunto original desses dados. Já o uso dos modelos GARCH justifica-se pela presença de heterocedasticidade na variância dos retornos das séries de taxas de câmbio. Com base nos modelos estimados foram simuladas novas séries diárias, via método de Monte Carlo (MC), as quais serviram de base para a estimativa de intervalos de confiança para cenários futuros de taxas de câmbio. Para a aplicação proposta foram selecionadas taxas de câmbio com maior market share de acordo com estudo do BIS, divulgado a cada três anos.
Resumo:
Este trabalho analisa, sob a ótica da sustentabilidade da dívida, os efeitos de se manter um elevado nível de reservas internacionais juntamente com um elevado estoque de dívida pública. Busca-se o nível ótimo de reservas para o Brasil através de uma ferramenta de gestão de risco, por simulações de Monte Carlo. Considerando as variáveis estocásticas que afetam a equação de acumulação da dívida, e entendendo a relação entre elas, pode-se estudar as propriedades estocásticas da dinâmica da dívida. Da mesma forma, podemos analisar o impacto fiscal de um determinado nível de reservas ao longo do tempo e verificar quais caminhos se mostram sustentáveis. Sob a ótica da sustentabilidade da dívida, a escolha que gera a melhor relação dívida líquida / PIB para o Brasil é aquela que utiliza o máximo das reservas internacionais para reduzir o endividamento local. No entanto, como há aspectos não capturados nesta análise, tais como os benefícios das reservas em prevenir crises e em funcionar como garantia para investimentos externos, sugere-se que as reservas não excedam os níveis reconhecidos pela literatura internacional que atendam a estes fins. A indicação final deste estudo é que as reservas internacionais funcionam como um instrumento de proteção ao país quando o endividamento e o custo dele não são tão expressivos, como são atualmente no Brasil.
Resumo:
Este trabalho tem como objetivo estudar o setor aeroportuário e o mercado de concessões brasileiro e criar um modelo para precificação de um projeto de concessão do aeroporto de Guarulhos. Para isso, foram utilizados dados reais obtidos através dos resultados da concessionária e também dados divulgados publicamente, como inflação e crescimento do PIB, além de projeções baseadas em premissas estabelecidas. Foram considerados diferentes cenários com o objetivo de comparar os resultados, que indicaram uma sensibilidade significativa do modelo às variações de demanda de passageiros e também à flexibilização do cronograma de investimentos.
Resumo:
O uso de opções no mercado financeiro tem ganhado relevância devido ao seu payoff não-linear e a possibilidade de alterar o perfil da distribuição de retornos de um portfolio. Existem diversas estratégias que são adequadas para cada cenário que o investidor acredita estar exposto, mas como o conjunto de cenários forma uma distribuição de retornos, devemos utilizar uma medida adequada para trabalhar com este tipo de informação. Assim, foi utilizada a medida Omega, que é uma medida capaz de capturar todos os momentos de uma distribuição, dado um limiar de retornos. Este trabalho se propõe a desenvolver uma metodologia que possibilite otimizar a medida Omega de um portfolio, através do uso de opções sobre o IBOVESPA. Para a geração das distribuições de retornos foi utilizada simulação de Monte Carlo, com jumps e volatilidade estocástica. Finalmente, foram feitas diversas análises sobre os resultados obtidos, afim de comparar a estratégia otimizada com diversas estratégias aleatórias, e também, realizado um backtest para avaliar a eficácia da implementação da estratégia otimizada.
Resumo:
Os estudos sobre as expectativas de inflação no Brasil rejeitam a hipótese de racionalidade. Essa rejeição se dá por meio de testes estatísticos que identificam a existência de um viés sistemático quando comparamos a expectativa de inflação e a inflação realizada. Atualizamos alguns destes testes com o tamanho de amostra disponível atualmente. No presente trabalho, realizamos um experimento de Monte Carlo que simula o comportamento da inflação e da sua expectativa em um modelo DSGE. Esse modelo inclui uma regra monetária sujeita a choques transitórios e permanentes (que representam uma mudança de regime). A partir das séries simuladas com esses modelos, realizamos testes estatísticos para verificar se os resultados são semelhantes aos observados na prática. O exercício de simulação realizado não foi capaz de gerar séries com essas mesmas características, não trazendo evidência que esse mecanismo de aprendizado possa explicar o viés encontrado nas expectativas de inflação.
Resumo:
The main objective of this study is to apply recently developed methods of physical-statistic to time series analysis, particularly in electrical induction s profiles of oil wells data, to study the petrophysical similarity of those wells in a spatial distribution. For this, we used the DFA method in order to know if we can or not use this technique to characterize spatially the fields. After obtain the DFA values for all wells, we applied clustering analysis. To do these tests we used the non-hierarchical method called K-means. Usually based on the Euclidean distance, the K-means consists in dividing the elements of a data matrix N in k groups, so that the similarities among elements belonging to different groups are the smallest possible. In order to test if a dataset generated by the K-means method or randomly generated datasets form spatial patterns, we created the parameter Ω (index of neighborhood). High values of Ω reveals more aggregated data and low values of Ω show scattered data or data without spatial correlation. Thus we concluded that data from the DFA of 54 wells are grouped and can be used to characterize spatial fields. Applying contour level technique we confirm the results obtained by the K-means, confirming that DFA is effective to perform spatial analysis
Resumo:
In recent years, the DFA introduced by Peng, was established as an important tool capable of detecting long-range autocorrelation in time series with non-stationary. This technique has been successfully applied to various areas such as: Econophysics, Biophysics, Medicine, Physics and Climatology. In this study, we used the DFA technique to obtain the Hurst exponent (H) of the profile of electric density profile (RHOB) of 53 wells resulting from the Field School of Namorados. In this work we want to know if we can or not use H to spatially characterize the spatial data field. Two cases arise: In the first a set of H reflects the local geology, with wells that are geographically closer showing similar H, and then one can use H in geostatistical procedures. In the second case each well has its proper H and the information of the well are uncorrelated, the profiles show only random fluctuations in H that do not show any spatial structure. Cluster analysis is a method widely used in carrying out statistical analysis. In this work we use the non-hierarchy method of k-means. In order to verify whether a set of data generated by the k-means method shows spatial patterns, we create the parameter Ω (index of neighborhood). High Ω shows more aggregated data, low Ω indicates dispersed or data without spatial correlation. With help of this index and the method of Monte Carlo. Using Ω index we verify that random cluster data shows a distribution of Ω that is lower than actual cluster Ω. Thus we conclude that the data of H obtained in 53 wells are grouped and can be used to characterize space patterns. The analysis of curves level confirmed the results of the k-means
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Genetic and environmental heterogeneity of residual variance of weight traits in Nellore beef cattle
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
INTRODUÇÃO: A malaria é uma doença endêmica na região da Amazônia Brasileira, e a detecção de possíveis fatores de risco pode ser de grande interesse às autoridades em saúde pública. O objetivo deste artigo é investigar a associação entre variáveis ambientais e os registros anuais de malária na região amazônica usando métodos bayesianos espaço-temporais. MÉTODOS: Utilizaram-se modelos de regressão espaço-temporais de Poisson para analisar os dados anuais de contagem de casos de malária entre os anos de 1999 a 2008, considerando a presença de alguns fatores como a taxa de desflorestamento. em uma abordagem bayesiana, as inferências foram obtidas por métodos Monte Carlo em cadeias de Markov (MCMC) que simularam amostras para a distribuição conjunta a posteriori de interesse. A discriminação de diferentes modelos também foi discutida. RESULTADOS: O modelo aqui proposto sugeriu que a taxa de desflorestamento, o número de habitants por km² e o índice de desenvolvimento humano (IDH) são importantes para a predição de casos de malária. CONCLUSÕES: É possível concluir que o desenvolvimento humano, o crescimento populacional, o desflorestamento e as alterações ecológicas associadas a estes fatores estão associados ao aumento do risco de malária. Pode-se ainda concluir que o uso de modelos de regressão de Poisson que capturam o efeito temporal e espacial em um enfoque bayesiano é uma boa estratégia para modelar dados de contagem de malária.
Resumo:
We study the critical behavior of the one-dimensional pair contact process (PCP), using the Monte Carlo method for several lattice sizes and three different updating: random, sequential and parallel. We also added a small modification to the model, called Monte Carlo com Ressucitamento" (MCR), which consists of resuscitating one particle when the order parameter goes to zero. This was done because it is difficult to accurately determine the critical point of the model, since the order parameter(particle pair density) rapidly goes to zero using the traditional approach. With the MCR, the order parameter becomes null in a softer way, allowing us to use finite-size scaling to determine the critical point and the critical exponents β, ν and z. Our results are consistent with the ones already found in literature for this model, showing that not only the process of resuscitating one particle does not change the critical behavior of the system, it also makes it easier to determine the critical point and critical exponents of the model. This extension to the Monte Carlo method has already been used in other contact process models, leading us to believe its usefulness to study several others non-equilibrium models