992 resultados para Método de Monte Carlo
Resumo:
Esse é um dos primeiros trabalhos a endereçar o problema de avaliar o efeito do default para fins de alocação de capital no trading book em ações listadas. E, mais especificamente, para o mercado brasileiro. Esse problema surgiu em crises mais recentes e que acabaram fazendo com que os reguladores impusessem uma alocação de capital adicional para essas operações. Por essa razão o comitê de Basiléia introduziu uma nova métrica de risco, conhecida como Incremental Risk Charge. Essa medida de risco é basicamente um VaR de um ano com um intervalo de confiança de 99.9%. O IRC visa medir o efeito do default e das migrações de rating, para instrumentos do trading book. Nessa dissertação, o IRC está focado em ações e como consequência, não leva em consideração o efeito da mudança de rating. Além disso, o modelo utilizado para avaliar o risco de crédito para os emissores de ação foi o Moody’s KMV, que é baseado no modelo de Merton. O modelo foi utilizado para calcular a PD dos casos usados como exemplo nessa dissertação. Após calcular a PD, simulei os retornos por Monte Carlo após utilizar um PCA. Essa abordagem permitiu obter os retornos correlacionados para fazer a simulação de perdas do portfolio. Nesse caso, como estamos lidando com ações, o LGD foi mantido constante e o valor utilizado foi baseado nas especificações de basiléia. Os resultados obtidos para o IRC adaptado foram comparados com um VaR de 252 dias e com um intervalo de confiança de 99.9%. Isso permitiu concluir que o IRC é uma métrica de risco relevante e da mesma escala de uma VaR de 252 dias. Adicionalmente, o IRC adaptado foi capaz de antecipar os eventos de default. Todos os resultados foram baseados em portfolios compostos por ações do índice Bovespa.
Resumo:
Utilizando dados de mercado obtidos na BM&F Bovespa, este trabalho propõe uma possível variação do modelo Heath, Jarrow e Morton em sua forma discreta e multifatorial, com a introdução de jumps como forma de considerar o efeito das reuniões realizadas pelo Cômite de Políticas Monetárias (Copom). Através do uso da análise de componentes principais (PCA), é feita a calibração dos parâmetros do modelo, possibilitando a simulação da evolução da estrutura a termo de taxa de juros (ETTJ) da curva prefixada em reais via simulação de Monte Carlo (MCS). Com os cenários da curva simulada em vértices fixos (sintéticos), os resultados são comparados aos dados observados no mercado.
Resumo:
This Master Thesis consists of one theoretical article and one empirical article on the field of Microeconometrics. The first chapter\footnote{We also thank useful suggestions by Marinho Bertanha, Gabriel Cepaluni, Brigham Frandsen, Dalia Ghanem, Ricardo Masini, Marcela Mello, Áureo de Paula, Cristine Pinto, Edson Severnini and seminar participants at São Paulo School of Economics, the California Econometrics Conference 2015 and the 37\textsuperscript{th} Brazilian Meeting of Econometrics.}, called \emph{Synthetic Control Estimator: A Generalized Inference Procedure and Confidence Sets}, contributes to the literature about inference techniques of the Synthetic Control Method. This methodology was proposed to answer questions involving counterfactuals when only one treated unit and a few control units are observed. Although this method was applied in many empirical works, the formal theory behind its inference procedure is still an open question. In order to fulfill this lacuna, we make clear the sufficient hypotheses that guarantee the adequacy of Fisher's Exact Hypothesis Testing Procedure for panel data, allowing us to test any \emph{sharp null hypothesis} and, consequently, to propose a new way to estimate Confidence Sets for the Synthetic Control Estimator by inverting a test statistic, the first confidence set when we have access only to finite sample, aggregate level data whose cross-sectional dimension may be larger than its time dimension. Moreover, we analyze the size and the power of the proposed test with a Monte Carlo experiment and find that test statistics that use the synthetic control method outperforms test statistics commonly used in the evaluation literature. We also extend our framework for the cases when we observe more than one outcome of interest (simultaneous hypothesis testing) or more than one treated unit (pooled intervention effect) and when heteroskedasticity is present. The second chapter, called \emph{Free Economic Area of Manaus: An Impact Evaluation using the Synthetic Control Method}, is an empirical article. We apply the synthetic control method for Brazilian city-level data during the 20\textsuperscript{th} Century in order to evaluate the economic impact of the Free Economic Area of Manaus (FEAM). We find that this enterprise zone had positive significant effects on Real GDP per capita and Services Total Production per capita, but it also had negative significant effects on Agriculture Total Production per capita. Our results suggest that this subsidy policy achieve its goal of promoting regional economic growth, even though it may have provoked mis-allocation of resources among economic sectors.
Resumo:
Os estudos sobre as expectativas de inflação no Brasil rejeitam a hipótese de racionalidade. Essa rejeição se dá por meio de testes estatísticos que identificam a existência de um viés sistemático quando comparamos a expectativa de inflação e a inflação realizada. Atualizamos alguns destes testes com o tamanho de amostra disponível atualmente. No presente trabalho, realizamos um experimento de Monte Carlo que simula o comportamento da inflação e da sua expectativa em um modelo DSGE. Esse modelo inclui uma regra monetária sujeita a choques transitórios e permanentes (que representam uma mudança de regime). A partir das séries simuladas com esses modelos, realizamos testes estatísticos para verificar se os resultados são semelhantes aos observados na prática. O exercício de simulação realizado não foi capaz de gerar séries com essas mesmas características, não trazendo evidência que esse mecanismo de aprendizado possa explicar o viés encontrado nas expectativas de inflação.
Resumo:
We consider a class of sampling-based decomposition methods to solve risk-averse multistage stochastic convex programs. We prove a formula for the computation of the cuts necessary to build the outer linearizations of the recourse functions. This formula can be used to obtain an efficient implementation of Stochastic Dual Dynamic Programming applied to convex nonlinear problems. We prove the almost sure convergence of these decomposition methods when the relatively complete recourse assumption holds. We also prove the almost sure convergence of these algorithms when applied to risk-averse multistage stochastic linear programs that do not satisfy the relatively complete recourse assumption. The analysis is first done assuming the underlying stochastic process is interstage independent and discrete, with a finite set of possible realizations at each stage. We then indicate two ways of extending the methods and convergence analysis to the case when the process is interstage dependent.
Resumo:
As empresas de capital aberto, listadas em bolsa de valores, são naturalmente aquelas que vieram apresentando retornos superiores perante às demais empresas do seu setor. Assim, será que o viés de seleção desses ativos in uencia sigini cativamente no resultado do Equity Premium Puzzle, primordialmente lançado por Mehra and Prescott (1985)? É essa pergunta que este trabalho investiga e conclui que, sim, de fato pode haver uma in uência desse viés em explicar o Puzzle . Para isso, iremos gerar uma economia cujos ativos, por hipótese, sejam preci cados de acordo com o fator estocástico de desconto (SDF) baseado em consumo, ou seja, os modelos conhecidos como CCAPM (Consumption Capital Asset Pricing Model). Assim, essa economia será gerada via simulação de Monte Carlo, de forma que iremos construir um índice benchmark dessa economia, nos quais participariam apenas os ativos que foram historicamente mais rentáveis. Adota-se tal metodologia em paralelo à forma como os reais benchmarks são construidos (S&P 500, Nasdaq, Ibovespa), em que neles participam, basicamente, as empresas de capital aberta mais negociadas em Bolsa de Valores, que são, comumente, as empresas historicamente mais rentáveis da economia. Em sequência, iremos realizar a estimação via GMM (Generalized Method of Moments) de um dos parâmetros de interesse de uma economia CCAPM: o coe ciente de aversão relativa ao risco (CRRA). Finalmente, os resultados obtidos são comparados e analisados quanto ao viés de estimação.
Resumo:
High-precision calculations of the correlation functions and order parameters were performed in order to investigate the critical properties of several two-dimensional ferro- magnetic systems: (i) the q-state Potts model; (ii) the Ashkin-Teller isotropic model; (iii) the spin-1 Ising model. We deduced exact relations connecting specific damages (the difference between two microscopic configurations of a model) and the above mentioned thermodynamic quanti- ties which permit its numerical calculation, by computer simulation and using any ergodic dynamics. The results obtained (critical temperature and exponents) reproduced all the known values, with an agreement up to several significant figures; of particular relevance were the estimates along the Baxter critical line (Ashkin-Teller model) where the exponents have a continuous variation. We also showed that this approach is less sensitive to the finite-size effects than the standard Monte-Carlo method. This analysis shows that the present approach produces equal or more accurate results, as compared to the usual Monte Carlo simulation, and can be useful to investigate these models in circumstances for which their behavior is not yet fully understood
Resumo:
The ferromagnetic and antiferromagnetic Ising model on a two dimensional inhomogeneous lattice characterized by two exchange constants (J1 and J2) is investigated. The lattice allows, in a continuous manner, the interpolation between the uniforme square (J2 = 0) and triangular (J2 = J1) lattices. By performing Monte Carlo simulation using the sequential Metropolis algorithm, we calculate the magnetization and the magnetic susceptibility on lattices of differents sizes. Applying the finite size scaling method through a data colappse, we obtained the critical temperatures as well as the critical exponents of the model for several values of the parameter α = J2 J1 in the [0, 1] range. The ferromagnetic case shows a linear increasing behavior of the critical temperature Tc for increasing values of α. Inwhich concerns the antiferromagnetic system, we observe a linear (decreasing) behavior of Tc, only for small values of α; in the range [0.6, 1], where frustrations effects are more pronunciated, the critical temperature Tc decays more quickly, possibly in a non-linear way, to the limiting value Tc = 0, cor-responding to the homogeneous fully frustrated antiferromagnetic triangular case.
Resumo:
Existem vários métodos de simulação para calcular as propriedades críticas de sistemas; neste trabalho utilizamos a dinâmica de tempos curtos, com o intuito de testar a eficiência desta técnica aplicando-a ao modelo de Ising com diluição de sítios. A Dinâmica de tempos curtos em combinação com o método de Monte Carlos verificou que mesmo longe do equilíbrio termodinâmico o sistema já se mostra insensível aos detalhes microscópicos das interações locais e portanto, o seu comportamento universal pode ser estudado ainda no regime de não-equilíbrio, evitando-se o problema do alentecimento crítico ( critical slowing down ) a que sistema em equilíbrio fica submetido quando está na temperatura crítica. O trabalho de Huse e Janssen mostrou um comportamento universal e uma lei de escala nos sistemas críticos fora do equilíbrio e identificou a existência de um novo expoente crítico dinâmico θ, associado ao comportamento anômalo da magnetização. Fazemos uima breve revisão das transições de fase e fenômeno críticos. Descrevemos o modelo de Ising, a técnica de Monte Carlo e por final, a dinâmica de tempos curtos. Aplicamos a dinâmica de tempos curtos para o modelo de Insing ferromagnéticos em uma rede quadrada com diluição de sítios. Calculamos o expoente dinâmicos θ e z, onde verificamos que existe quebra de classe de universilidade com relação às diferentes concentrações de sítios (p=0.70,0.75,0.80,0.85,0.90,0.95,1.00). calculamos também os expoentes estáticos β e v, onde encontramos pequenas variações com a desordem. Finalmente, apresentamos nossas conclusões e possíveis extensões deste trabalho
Resumo:
Neste trabalho investigamos aspectos da propagação de danos em sistemas cooperativos, descritos por modelos de variáveis discretas (spins), mutuamente interagentes, distribuídas nos sítios de uma rede regular. Os seguintes casos foram examinados: (i) A influência do tipo de atualização (paralela ou sequencial) das configurações microscópicas, durante o processo de simulação computacional de Monte Carlo, no modelo de Ising em uma rede triangular. Observamos que a atualização sequencial produz uma transição de fase dinâmica (Caótica- Congelada) a uma temperatura TD ≈TC (Temperatura de Curie), para acoplamentos ferromagnéticos (TC=3.6409J/Kb) e antiferromagnéticos (TC=0). A atualização paralela, que neste caso é incapaz de diferenciar os dois tipos de acoplamentos, leva a uma transição em TD ≠TC; (ii) Um estudo do modelo de Ising na rede quadrada, com diluição temperada de sítios, mostrou que a técnica de propagação de danos é um eficiente método para o cálculo da fronteira crítica e da dimensão fractal do aglomerado percolante, já que os resultados obtidos (apesar de um esforço computacional relativamente modesto), são comparáveis àqueles resultantes da aplicação de outros métodos analíticos e/ou computacionais de alto empenho; (iii) Finalmente, apresentamos resultados analíticos que mostram como certas combinações especiais de danos podem ser utilizadas para o cálculo de grandezas termodinâmicas (parâmetros de ordem, funções de correlação e susceptibilidades) do modelo Nα x Nβ, o qual contém como casos particulares alguns dos modelos mais estudados em Mecânica Estatística (Ising, Potts, Ashkin Teller e Cúbico)
Resumo:
Stellar differential rotation is an important key to understand hydromagnetic stellar dynamos, instabilities, and transport processes in stellar interiors as well as for a better treatment of tides in close binary and star-planet systems. The space-borne high-precision photometry with MOST, CoRoT, and Kepler has provided large and homogeneous datasets. This allows, for the first time, the study of differential rotation statistically robust samples covering almost all stages of stellar evolution. In this sense, we introduce a method to measure a lower limit to the amplitude of surface differential rotation from high-precision evenly sampled photometric time series such as those obtained by space-borne telescopes. It is designed for application to main-sequence late-type stars whose optical flux modulation is dominated by starspots. An autocorrelation of the time series is used to select stars that allow an accurate determination of spot rotation periods. A simple two-spot model is applied together with a Bayesian Information Criterion to preliminarily select intervals of the time series showing evidence of differential rotation with starspots of almost constant area. Finally, the significance of the differential rotation detection and a measurement of its amplitude and uncertainty are obtained by an a posteriori Bayesian analysis based on a Monte Carlo Markov Chain (hereafter MCMC) approach. We apply our method to the Sun and eight other stars for which previous spot modelling has been performed to compare our results with previous ones. The selected stars are of spectral type F, G and K. Among the main results of this work, We find that autocorrelation is a simple method for selecting stars with a coherent rotational signal that is a prerequisite to a successful measurement of differential rotation through spot modelling. For a proper MCMC analysis, it is necessary to take into account the strong correlations among different parameters that exists in spot modelling. For the planethosting star Kepler-30, we derive a lower limit to the relative amplitude of the differential rotation. We confirm that the Sun as a star in the optical passband is not suitable for a measurement of the differential rotation owing to the rapid evolution of its photospheric active regions. In general, our method performs well in comparison with more sophisticated procedures used until now in the study of stellar differential rotation
Resumo:
In this work we study the survival cure rate model proposed by Yakovlev (1993) that are considered in a competing risk setting. Covariates are introduced for modeling the cure rate and we allow some covariates to have missing values. We consider only the cases by which the missing covariates are categorical and implement the EM algorithm via the method of weights for maximum likelihood estimation. We present a Monte Carlo simulation experiment to compare the properties of the estimators based on this method with those estimators under the complete case scenario. We also evaluate, in this experiment, the impact in the parameter estimates when we increase the proportion of immune and censored individuals among the not immune one. We demonstrate the proposed methodology with a real data set involving the time until the graduation for the undergraduate course of Statistics of the Universidade Federal do Rio Grande do Norte
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
O conhecimento do genoma pode auxiliar na identificação de regiões cromossômicas e, eventualmente, de genes que controlam características quantitativas (QTLs) de importância econômica. em um experimento com 1.129 suínos resultantes do cruzamento entre machos da raça Meishan e fêmeas Large White e Landrace, foram analisadas as características gordura intramuscular (GIM), em %, e ganho dos 25 aos 90 kg de peso vivo (GP), em g/dia, em 298 animais F1 e 831 F2, e espessura de toucinho (ET), em mm, em 324 F1 e 805 F2. Os animais das gerações F1 e F2 foram tipificados com 29 marcadores microsatélites. Estudou-se a ligação entre os cromossomos 4, 6 e 7 com GIM, ET e GP. Análises de QTL utilizando-se metodologia Bayesiana foram aplicadas mediante três modelos genéticos: modelo poligênico infinitesimal (MPI); modelo poligênico finito (MPF), considerando-se três locos; e MPF combinado com MPI. O número de QTLs, suas respectivas posições nos três cromossomos e o efeito fenotípico foram estimados simultaneamente. Os sumários dos parâmetros estimados foram baseados nas distribuições marginais a posteriori, obtidas por meio do uso da Cadeia de Markov, algoritmos de Monte Carlo (MCMC). Foi possível evidenciar dois QTLs relacionados a GIM nos cromossomos 4 e 6 e dois a ET nos cromossomos 4 e 7. Somente quando se ajustou o MPI, foram observados QTLs no cromossomo 4 para ET e GIM. Não foi possível detectar QTLs para a característica GP com a aplicação dessa metodologia, o que pode ter resultado do uso de marcadores não informativos ou da ausência de QTLs segregando nos cromossomos 4, 6 e 7 desta população. Foi evidenciada a vantagem de se analisar dados experimentais ajustando diferentes modelos genéticos; essas análises ilustram a utilidade e ampla aplicabilidade do método Bayesiano.
Resumo:
Pós-graduação em Biofísica Molecular - IBILCE