947 resultados para Metodo de Monte Carlo - Simulação por computador
Resumo:
Esta dissertação investiga os processos que levam células a se organizarem em certas configurações, focando propriedades topológicas, geométricas e aquelas originadas na sua dinâmica. Para tanto, começamos revisando propriedades de topologia de equilíbrio de sistemas que minimizam áreas de contato entre células. Prosseguimos com o estudo de estruturas de células biológicas, incorporando as devidas modificações provenientes das propriedades biológicas, sendo introduzida, por exemplo, a Hipótese da Adesão Diferenciada formulada por Steinberg (1975). Suas implicações são estudadas utilizando o Modelo Celular de Potts ao realizar simulações de Monte Carlo. Mostramos resultados das dinâmicas de reagrupamento celular que é um dos processos que ocorre na embriogênese e morfogênese, em que células se redistribuem de modo a formar padrões típicos. É feita uma análise, tanto teórica quanto por simulações, de como interações adesivas entre tipos diferentes de células, e estas com o meio, influenciam a evolução destas configurações. A seguir, tornamos evidente analogias entre tecidos e fluidos imiscíveis, de modo a explorar não apenas a influência de coesões e adesões celulares, como também propriedades viscoelásticas e de tensões superficiais apresentadas pelos agregados - estruturas macroscópicas constituídas por muitas subunidades celulares. Acompanhando os resultados teóricos, apresentamos observações experimentais de reorganização celular a partir de agregados aleatórios de células de hidras. A reorganização celular destes agregados é estudada a partir das configurações iniciais aleatórias até o momento em que se estabelece uma esfera com cavidade formada por duas camadas epiteliais, endoderme e ectoderme Neste estágio ocorrem os bursts, eventos de ruptura reversíveis do tecido superficial do agregado com expulsão do conteúdo contido na cavidade. É proposto um estudo via simulações deste fenômeno a fim de elucidar as propriedades básicas de deformações, adesões e movimentos de células num tecido. Ainda no contexto experimental, realizamos outras medidas nos agregados de hidra, como a obtenção de tensões superficiais e registro da dinâmica de arredondamento. Finalmente, unimos as considerações sobre topologias de estruturas celulares com as propriedades emergentes de interações de adesão com mais um elemento, mitose. Apresentamos modelos de crescimento celular e discutimos suas características para a dinâmica populacional de células. Ao introduzir dados sobre comportamentos regulatórios de proliferação celular, colocamos ênfase no estudo das patologias ao estudar câncer utilizando o Modelo de Gompertz como descrição da proliferação. Realizamos experiências utilizando 6 linhagens cancerígenas diferentes e propomos uma interpretação biológica dos parâmetros matemáticos que descrevem o crescimento. A hipótese por nós levantada é de que a forma da célula influencia no seu comportamento. Verificamos a viabilidade de tal hipótese através de uma série de simulações por Modelo Celular de Potts. Os resultados gerados se assemelham aos dados experimentais, de maneira que chegamos a conclusão final que processos intrínsecos regulatórios de uma célula (no caso o ciclo mitótico), propriedades adesivas de células, características fenotípicas e distribuições topológicas de um tecido, são intimamente interligados.
Resumo:
A melhoria da qualidade da prestação de serviços em virtude do aumento da competitividade nas empresas vem se tornando uma realidade evidente para aquelas que desejam continuar atuantes no mercado de serviços. Esta melhoria deve ter como objetivo a satisfação das necessidades de seus clientes e para isto, abordagens de Qualidade como Lean Seis Sigma encontram as condições propícias para sua utilização. Lean Seis Sigma é uma metodologia de melhoria de qualidade que apresenta foco na variabilidade dos processos e objetiva a redução de falhas ou defeitos por meio do arcabouço de técnicas e ferramentas estatísticas da qualidade. Este trabalho tem como proposta a apresentação de um roteiro de referência para a aplicação de Lean Seis Sigma em Serviços utilizando-se, ainda, de Simulação Computacional de processos, uma poderosa ferramenta que possibilita maior agilidade e precisão à aplicação do roteiro. Inicialmente foi realizada uma revisão bibliográfica para apresentar um referencial teórico de conceitos sobre Lean Seis Sigma, Simulação Computacional e Casos de Implementação para que, a partir desta base, fosse desenvolvida o roteiro de aplicação de Lean Seis Sigma em Serviços. Para validação da proposição, realizou-se um estudo de caso em um processo de serviço de uma grande instituição financeira, aplicando-se o roteiro proposto e analisando os resultados obtidos.
Resumo:
Este estudo faz uma revisão das origens do VaR, bem como dos conceitos e teorias que o fundamentam, e sua aplicabilidade aos fundos de pensão. Descreve as principais metodologias de cálculo e as situações nas quais o uso de cada uma é mais adequado. Revisa a literatura internacional acerca do uso do VaR como medida de risco pelos fundos de pensão. A seguir faz a previsão do VaR para as carteiras reais de três fundos de pensão brasileiros com três metodologias distintas: paramétrica, simulação histórica e simulação de Monte Carlo, esta última com duas suposições distintas para a distribuição dos retornos dos fatores de risco (normal e histórica). A partir disso, realiza um teste qualitativo, através da comparação do número de perdas efetivas realizadas pelas carteiras dos três fundos de pensão com o número de perdas correspondente admitido para os diferentes níveis de confiança utilizados no cálculo do VaR. O trabalho não encontra evidências de superioridade de nenhuma das metodologias de cálculo, sendo que todas elas superestimaram as perdas verificadas na prática (o VaR foi excedido menos vezes do que o esperado).
Resumo:
Com o crescente uso das teorias e métodos vindos das áreas de economia regional e urbana, economia e econometria espacial na fronteira entre as áreas de economia e políticas públicas, estudar esse arcabouço teórico e metodológico torna-se relevante no campo da análise de políticas públicas. O objetivo geral dessa dissertação é discutir de modo crítico aspectos da literatura de econometria espacial e sua aplicabilidade, com especial foco na comparação entre os diferentes modelos e matrizes de ponderação espacial. Esse estudo procura analisar diferentes formas de medidas que permitem a construção de uma matriz de ponderação espacial, bem como testar por meio de simulação experimental e em uma aplicação empírica a robustez de algumas dessas matrizes e de diferentes modelos. Dadas as indicações da literatura e as evidências mostradas nessa dissertação, a estratégia mais confiável para a busca de um modelo parece ser utilizar as estimativas dos modelos, em conjunto com as estatísticas de Moran, para identificar presença de algum tipo de correlação espacial, e do teste LM da variável dependente, para indicar esse tipo de correlação especificamente. Observa-se que, de modo geral, não há muita diferença em termos de esperança dos parâmetros não espaciais, quando comparadas a estimações tradicionais com as que utilizam as técnicas espaciais. Com isso, a indicação que se pode fazer é que o uso das ferramentas de econometria espacial deve ser aplicado quando o interesse da análise é justamente na estimação dos parâmetros de correlação espacial. Comparando o uso da matriz de contigüidade no lugar da matriz de distâncias, é possível notar que a matriz de contigüidade não é, de forma geral, uma boa substituição para a matriz de distâncias. Ela capta parcialmente o efeito de rho e lambda, além de captar erroneamente lambda, quando este inexiste.
Resumo:
O trabalho analisa a evolução da política monetária desde a implementação do regime de metas de inflação no período de 1999 a 2009 com o intuito de avaliar se há diferenças na condução de política monetária entre as gestões Armínio Fraga e Henrique Meirelles. Um modelo de equilíbrio geral novo-keynesiano baseado em expectativas racionais é utilizado para modelar a economia brasileira e deriva-se uma regra de Taylor para encontrar a condição suficiente para a convergência da inflação. O processo de analise empírica consiste em estimar um modelo de vetores auto-regressivos, cujos parâmetros variam ao longo do tempo assim como as inovações na matriz de variância-covariância. Para tanto, será utilizado um algoritmo de simulação de Monte Carlo. Os resultados empíricos mostram que (i) não há diferenças significativas na condução de política monetária durante as gestões Armínio Fraga e Henrique Meirelles; (ii) A partir de 2003, a taxa de juros permaneceu acima da necessária para a convergência da inflação de acordo com a condição de estabilidade; e (iii) a gestão Armínio Fraga agiu de acordo com a regra de estabilização na crise de 2002, porém a inflação permaneceu acima da meta por causa da magnitude dos choques exógenos.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.
Resumo:
A dinâmica de propagação da ruptura durante terremotos é um dos assuntos mais relevantes e complexos em Sismologia. Um critério constitutivo para a falha que descreva corretamente a relação das variáveis estáticas (tensões normais e tangenciais) com as variáveis cinéticas (deslocamentos e velocidades) na interface é necessário para efetuar uma análise dinâmica confiável. A fim de determinar um critério constitutivo para o deslizamento com atrito ao longo da falha sísmica, primeiramente apresentam-se métodos para caracterizar as superfícies deslizantes e discutem-se os principais critérios constitutivos que têm sido usados. Também são apresentados os resultados de um estudo experimental realizado, evidenciando, para sólidos metálicos em contato, uma lei constitutiva de variação do atrito com a velocidade. Um modelo numérico tridimensional baseado no Método dos Elementos Discretos (DEM) é usado para representar a região de rocha adjacente à falha. O modelo consiste de uma estrutura tridimensional periódica com massas concentradas nos nós, interconectadas por elementos visco-elásticos unidimensionais. Inicialmente, de acordo com modelos usuais em Sismologia, admite-se que o material é elástico, linear e homogêneo. Em uma segunda análise, a influência da não-homogeneidade do material é avaliada considerando que a massa específica, o módulo de Young e o coeficiente de atrito são campos aleatórios Gaussianos correlacionados. Na análise seguinte, o efeito da fratura na região de rocha adjacente à falha é também numericamente avaliado. Por fim, a influência de ruptura de micro-asperezas nas superfícies deslizantes é analisada. Através de simulação de Monte Carlo, as relações constitutivas macro (ou globais) para a falha são obtidas, admitindo como leis constitutivas micro (ou locais) os dois critérios mais usados em Sismologia: a lei de variação do atrito com a velocidade e a lei de variação do atrito com o deslizamento. Quando os blocos de rocha são admitidos serem elásticos e homogêneos não há um efeito de escala. Novamente, quando a rocha é considerada não-homogênea não há um efeito de escala significativo, apenas pequenas variações nos parâmetros das leis constitutivas macro em relação às leis micro são percebidas, exceto pela influência do campo aleatório do coeficiente de atrito, o qual apresenta um efeito de escala perceptível. A ocorrência de fratura nas proximidades da falha não causa modificações significativas nas leis constitutivas macro, apenas causa algumas oscilações em torno da lei sem fratura. Finalmente, obtém-se um critério constitutivo macro que leva em consideração a ruptura por cisalhamento das micro-asperezas nas superfícies deslizantes. O modelo é chamado lei modificada de variação do atrito com a velocidade e é considerado um critério constitutivo mais geral.
Resumo:
We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We consider model selection criteria which have data-dependent penalties as well as the traditional ones. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. Our Monte Carlo simulations measure the improvements in forecasting accuracy that can arise from the joint determination of lag-length and rank using our proposed procedure, relative to an unrestricted VAR or a cointegrated VAR estimated by the commonly used procedure of selecting the lag-length only and then testing for cointegration. Two empirical applications forecasting Brazilian in ation and U.S. macroeconomic aggregates growth rates respectively show the usefulness of the model-selection strategy proposed here. The gains in di¤erent measures of forecasting accuracy are substantial, especially for short horizons.
Resumo:
We study the joint determination of the lag length, the dimension of the cointegrating space and the rank of the matrix of short-run parameters of a vector autoregressive (VAR) model using model selection criteria. We suggest a new two-step model selection procedure which is a hybrid of traditional criteria and criteria with data-dependant penalties and we prove its consistency. A Monte Carlo study explores the finite sample performance of this procedure and evaluates the forecasting accuracy of models selected by this procedure. Two empirical applications confirm the usefulness of the model selection procedure proposed here for forecasting.
Resumo:
O objetivo dessa dissertação é estabelecer um modelo quantitativo de gestão de riscos estratégicos de um ativo de produção de petróleo, notadamente o valor em risco do seu fluxo de caixa e de sua rentabilidade. Para tanto, foi utilizado um modelo de fluxo de caixa onde a receita operacional foi definida como variável estocástica. A receita operacional foi estimada a partir de uma função de perdas que descreve o volume de produção de petróleo, e de uma trajetória de preços definida por um modelo geométrico browniano sem reversão a média e com volatilidade descrita por um processo GARCH. Os resultados obtidos demonstram que o modelo proposto é capaz de fornecer informações importantes para a gestão de riscos de ativos de produção de petróleo ao passo que permite a quantificação de diferentes fatores de risco que afetam a rentabilidade das operações. Por fim, o modelo aqui proposto pode ser estendido para a avaliação do risco financeiro e operacional de um conjunto de ativos de petróleo, considerando sua estrutura de dependência e a existência de restrições de recursos financeiros, físicos e humanos.
Resumo:
O funcionamento dos bancos comerciais implica no sucesso de suas estratégias de captação de depósitos a prazo. O Certificado de Depósito Bancário (CDB) é um dos instrumentos mais utilizados para este fim. 95% dos CDBs são flutuantes e atrelados ao CDI, sendo que grande parte destes CDBs tem data de carência pré-definida para o resgate. Esta característica é responsável pela opção implícita de resgate oferecida ao investidor. Ou seja, o investidor tem a prerrogativa de resgatar seu investimento entre a data de carência e o vencimento do CDB sem que seja penalizado por isso. Este trabalho apresenta um método de apreçamento da opção de resgate implícita no CDB utilizando o modelo de Black Derman Toy. A técnica empregada inova ao considerar o nível da estrutura a termo de taxa de juros tanto em relação à curva de CDBs observada no mercado, quanto a sua volatilidade. Entretanto, a volatilidade é preservada e, por isso, não é contaminada pelas oscilações da estrutura a termo. No procedimento foram utilizados os CDBs do banco de dados da Cetip com valores maiores que quinhentos mil reais emitidos entre 2007 e 2009. Assumiu-se que todos os investidores eram racionais e não precisaram recorrer aos seus investimentos, portanto só resgataram seus recursos após o fim do prazo de carência. Com o intuito de verificar a validade dos preços calculados através do modelo Black Derman Toy, foi aplicada a técnica da simulação de Monte Carlo com a criação de dez mil trajetórias para o preço do ativo. Os resultados obtidos através do modelo proposto foram confirmados quando confrontados com a simulação de Monte Carlo.
Resumo:
Este trabalho tem o objetivo de realizar uma análise de sensibilidade dos parâmetros operacionais e de projeto de uma usina termelétrica. A análise de sensibilidade serve para indicar qual a importância dessas grandezas no resultado do sistema. A planta modelada é a da Usina Termelétrica Presidente Médici – Fase B, localizada em Candiota, RS, onde cada módulo é capaz de produzir até 160 MW de potência. Para esta planta é apresentado o equacionamento de cada componente do sistema. Destacam-se duas modelagens para a turbina a vapor, usadas para a simulação de seu comportamento em carga parcial, o da Elipse de Stodola e o de Schegliáiev. Ambos os modelos são comparados. Também são apresentados os modos de controle de carga por válvula de estrangulamento, por válvula de bocais e por pressão deslizante. A análise de sensibilidade é feita por meio de três métodos distintos, cujos resultados são comparados. O Método Diferencial utiliza as derivadas parciais para estimar a sensibilidade. O Método de Monte Carlo realiza uma série de avaliações do sistema, com os dados de entrada gerados randomicamente em cada avaliação e análise estatística dos resultados para avaliar a sensibilidade das respostas. É desenvolvido neste trabalho o Método da Transformada de Fourier, que gera os dados de forma senoidal e utiliza a transformada de Fourier para medir as sensibilidades. A medida da sensibilidade é feita através de dois índices. O índice de importância é a derivada parcial de um resultado em relação a um parâmetro, adimensionalizado pelas médias das variáveis, e o índice de sensibilidade é a composição fracional da variância de um resultado. Como conclusão, observa-se que os modelos para operação em carga parcial da turbina de Schegliáiev e de Stodola produzem praticamente os mesmos resultados. Os três métodos de análise de sensibilidade conduzem aos mesmos índices de sensibilidade no caso estudado. A ordenação da importância dos parâmetros estudados é idêntica quando se usa tanto o índice de importância quanto o de sensibilidade, mesmo seus valores sejam diferentes para cada parâmetros.
Resumo:
Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).
Resumo:
O objetivo deste trabalho é revisar os principais aspectos teóricos para a aplicação de Opções Reais em avaliação de projetos de investimento e analisar, sob esta metodologia, um caso real de projeto para investir na construção de uma Planta de Liquefação de gás natural. O estudo do caso real considerou a Opção de Troca de Mercado, ao avaliar a possibilidade de colocação de cargas spot de GNL em diferentes mercados internacionais e a Opção de Troca de Produto, devido à flexibilidade gerencial de não liquefazer o gás natural, deixando de comercializar GNL no mercado internacional e passando a vender gás natural seco no mercado doméstico. Para a valoração das Opções Reais foi verificado, através da série histórica dos preços de gás natural, que o Movimento Geométrico Browniano não é rejeitado e foram utilizadas simulações de Monte Carlo do processo estocástico neutro ao risco dos preços. O valor da Opção de Troca de Mercado fez o projeto estudado mais que dobrar de valor, sendo reduzido com o aumento da correlação dos preços. Por outro lado, o valor da Opção de Troca de Produto é menos relevante, mas também pode atingir valores significativos com o incremento de sua volatilidade. Ao combinar as duas opções simultaneamente, foi verificado que as mesmas não são diretamente aditivas e que o efeito do incremento da correlação dos preços, ao contrário do que ocorre na Opção de Troca de Mercado, é inverso na Opção de Troca de Produto, ou seja, o derivativo aumenta de valor com uma maior correlação, apesar do valor total das opções integradas diminuir.
Resumo:
Visando estudar as diferenças entre contratos futuros e contratos a termo no mercado cambial brasileiro, este trabalho foca no contrato de Dólar Futuro negociado na BM&FBOVESPA que, para vencimentos sem liquidez, é marcado a mercado pelo preço teórico dos contratos a termo. Uma simulação por Monte Carlo de uma carteira hedgeada contendo contratos de Dólar Futuro, DI Futuro e DDI Futuro mostra claramente que essa metodologia de marcação a mercado deveria ao menos ser revista