963 resultados para Monte-Carlo Simulation Method
Resumo:
We discuss the basic hydrodynamics that determines the density structure of the disks around hot stars. Observational evidence supports the idea that these disks are Keplerian (rotationally supported) gaseous disks. A popular scenario in the literature, which naturally leads to the formation of Keplerian disks, is the viscous decretion model. According to this scenario, the disks are hydrostatically supported in the vertical direction, while the radial structure is governed by the viscous transport. This suggests that the temperature is one primary factor that governs the disk density structure. In a previous study we demonstrated, using three-dimensional non-LTE Monte Carlo simulations, that viscous Keplerian disks can be highly nonisothermal. In this paper we build on our previous work and solve the full problem of the steady state nonisothermal viscous diffusion and vertical hydrostatic equilibrium. We find that the self-consistent solution departs significantly from the analytic isothermal density, with potentially large effects on the emergent spectrum. This implies that nonisothermal disk models must be used for a detailed modeling of Be star disks.
Resumo:
The absorption spectrum of the acid form of pterin in water was investigated theoretically. Different procedures using continuum, discrete, and explicit models were used to include the solvation effect on the absorption spectrum, characterized by two bands. The discrete and explicit models used Monte Carlo simulation to generate the liquid structure and time-dependent density functional theory (B3LYP/6-31G+(d)) to obtain the excitation energies. The discrete model failed to give the correct qualitative effect on the second absorption band. The continuum model, in turn, has given a correct qualitative picture and a semiquantitative description. The explicit use of 29 solvent molecules, forming a hydration shell of 6 angstrom, embedded in the electrostatic field of the remaining solvent molecules, gives absorption transitions at 3.67 and 4.59 eV in excellent agreement with the S(0)-S(1) and S(0)-S(2) absorption bands at of 3.66 and 4.59 eV, respectively, that characterize the experimental spectrum of pterin in water environment. (C) 2010 Wiley Periodicals, Inc. Int J Quantum Chem 110: 2371-2377, 2010
Resumo:
A combined and sequential Monte Carlo-quantum mechanics methodology is used to describe the electronic absorption spectrum of the fluorescein dianion in water. Different sets of 100 statistically relevant configurations composed of the solute and several solvent molecules are sampled from the Monte Carlo simulation for a posteriori quantum mechanical calculations of the spectra. In the largest case the configurations are composed of fluorescein and 90 explicit water molecules embedded in the electrostatic field of all remaining water molecules within a distance of 11.3 angstrom. These configurations include 305 atoms and 842 valence electrons, justifying the use of a semi-empirical approach. The electronic spectrum is then calculated using the INDO/CIS method. The solvatochromic shift of fluorescein in water, compared with in isolation, is calculated using the discrete and explicit solvent models. The use of electrostatically embedded explicit water molecules, in INDO/CIS calculations, gives a good description of the spectral shift of the fluorescein dianion in aqueous environment. The results are verified to converge both statistically and with respect to the number of explicit solvent molecules used.
Resumo:
We describe the canonical and microcanonical Monte Carlo algorithms for different systems that can be described by spin models. Sites of the lattice, chosen at random, interchange their spin values, provided they are different. The canonical ensemble is generated by performing exchanges according to the Metropolis prescription whereas in the microcanonical ensemble, exchanges are performed as long as the total energy remains constant. A systematic finite size analysis of intensive quantities and a comparison with results obtained from distinct ensembles are performed and the quality of results reveal that the present approach may be an useful tool for the study of phase transitions, specially first-order transitions. (C) 2009 Elsevier B.V. All rights reserved.
Resumo:
This letter presents pseudolikelihood equations for the estimation of the Potts Markov random field model parameter on higher order neighborhood systems. The derived equation for second-order systems is a significantly reduced version of a recent result found in the literature (from 67 to 22 terms). Also, with the proposed method, a completely original equation for Potts model parameter estimation in third-order systems was obtained. These equations allow the modeling of less restrictive contextual systems for a large number of applications in a computationally feasible way. Experiments with both simulated and real remote sensing images provided good results.
Resumo:
The generalized Birnbaum-Saunders distribution pertains to a class of lifetime models including both lighter and heavier tailed distributions. This model adapts well to lifetime data, even when outliers exist, and has other good theoretical properties and application perspectives. However, statistical inference tools may not exist in closed form for this model. Hence, simulation and numerical studies are needed, which require a random number generator. Three different ways to generate observations from this model are considered here. These generators are compared by utilizing a goodness-of-fit procedure as well as their effectiveness in predicting the true parameter values by using Monte Carlo simulations. This goodness-of-fit procedure may also be used as an estimation method. The quality of this estimation method is studied here. Finally, through a real data set, the generalized and classical Birnbaum-Saunders models are compared by using this estimation method.
Resumo:
This work aims at combining the Chaos theory postulates and Artificial Neural Networks classification and predictive capability, in the field of financial time series prediction. Chaos theory, provides valuable qualitative and quantitative tools to decide on the predictability of a chaotic system. Quantitative measurements based on Chaos theory, are used, to decide a-priori whether a time series, or a portion of a time series is predictable, while Chaos theory based qualitative tools are used to provide further observations and analysis on the predictability, in cases where measurements provide negative answers. Phase space reconstruction is achieved by time delay embedding resulting in multiple embedded vectors. The cognitive approach suggested, is inspired by the capability of some chartists to predict the direction of an index by looking at the price time series. Thus, in this work, the calculation of the embedding dimension and the separation, in Takens‘ embedding theorem for phase space reconstruction, is not limited to False Nearest Neighbor, Differential Entropy or other specific method, rather, this work is interested in all embedding dimensions and separations that are regarded as different ways of looking at a time series by different chartists, based on their expectations. Prior to the prediction, the embedded vectors of the phase space are classified with Fuzzy-ART, then, for each class a back propagation Neural Network is trained to predict the last element of each vector, whereas all previous elements of a vector are used as features.
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
Neste trabalho, analisamos utilização da metodologia CreditRLsk+ do Credit Suisse sua adequação ao mercado brasileiro, com objetivo de calcular risco de uma carteira de crédito. Certas hipóteses assumidas na formulação do modelo CreditRisk+ não valem para o mercado brasileiro, caracterizado, por exemplo, por uma elevada probabilidade de defcnilt. Desenvolvemos, então, uma metodologia para cálculo da distribuição de perdas através do método de Simulação de Monte Cario, alterando algumas hipóteses originais do modelo com objetivo de adaptá-lo ao nosso mercado. utilização de simulações também oferece resultados mais precisos em situações onde as carteiras possuem uma pequena população de contratos, além de eliminar possíveis problemas de convergência do método analítico, mesmo considerando as hipóteses do modelo original. Verifica-se ainda que tempo computacional pode ser menor que da metodologia original, principalmente em carteiras com elevado número de devedores de perfis distintos com alocações em diversos setores da economia. Tendo em vista as restrições acima, acreditamos que metodologia proposta seja uma alternativa para forma analítica do modelo CreditRisk+. Apresentamos exemplos de utilização resultados providos por estas simulações. ponto central deste trabalho realçar importância da utilização de metodologias alternativas de medição de risco de crédito que incorporem as particularidades do mercado brasileiro.
Resumo:
O presente trabalho tem por objetivo descrever, avaliar comparar as metodologias analítica da simulação Monte Cario para cálculo do Value at Risk (Valor em Risco) de instituições financeiras de empresas. Para comparar as vantagens desvantagens de cada metodologia, efetuaremos comparações algébricas realizamos diversos testes empíricos com instituições hipotéticas que apresentassem diferentes níveis de alavancagem de composição em seus balanços, que operassem em diferentes mercados (consideramos os mercados de ações, de opções de compra de títulos de renda fixa prefixados).
Resumo:
A atividade de crédito consiste, em termos financeiros, na entrega de um valor presente mediante uma promessa de pagamento em data futura. Uma vez que se trata de promessa de pagamento, existe a possibilidade de que a mesma não seja cumprida, dando origem ao risco de crédito. Dada a existência desse risco, cabe às instituições que concedem crédito realizar uma análise do proponente, buscando aferir se o mesmo possui condições de cumprir o compromisso assumido. Um dos aspectos a ser levado em consideração nessa análise diz respeito à capacidade de pagamento da empresa, realizada através de projeções do fluxo de caixa da mesma. Com base nisso, o presente trabalho teve por objetivo a construção de um modelo de simulação para avaliar a capacidade de pagamento de empresas em financiamentos de longo prazo. Entende-se que a aplicação de um modelo dessa natureza pode trazer informações adicionais relevantes para o problema em análise. A avaliação do modelo construído, realizada através de consulta a experts no problema de decisão de crédito, aponta que tanto a técnica utilizada quanto o modelo construído mostram-se adequados e aderentes à realidade, propiciando uma maior segurança para a tomada de decisão.
Resumo:
Trata da aplicabilidade da Simulação de Monte Carlo para a análise de riscos e, conseqüentemente, o apoio à decisão de investir ou não em um projeto. São abordados métodos de análise de riscos e seleção de projetos, bem como a natureza, vantagens e limitações da Simulação de Monte Carío. Por fim este instrumento tem sua viabilidade analisada sob a luz do processo de análise de riscos de uma empresa brasileira.
Resumo:
Despite the commonly held belief that aggregate data display short-run comovement, there has been little discussion about the econometric consequences of this feature of the data. We use exhaustive Monte-Carlo simulations to investigate the importance of restrictions implied by common-cyclical features for estimates and forecasts based on vector autoregressive models. First, we show that the ìbestî empirical model developed without common cycle restrictions need not nest the ìbestî model developed with those restrictions. This is due to possible differences in the lag-lengths chosen by model selection criteria for the two alternative models. Second, we show that the costs of ignoring common cyclical features in vector autoregressive modelling can be high, both in terms of forecast accuracy and efficient estimation of variance decomposition coefficients. Third, we find that the Hannan-Quinn criterion performs best among model selection criteria in simultaneously selecting the lag-length and rank of vector autoregressions.
Resumo:
Despite the belief, supported byrecentapplied research, thataggregate datadisplay short-run comovement, there has been little discussion about the econometric consequences ofthese data “features.” W e use exhaustive M onte-Carlo simulations toinvestigate theimportance ofrestrictions implied by common-cyclicalfeatures for estimates and forecasts based on vectorautoregressive and errorcorrection models. First, weshowthatthe“best” empiricalmodeldevelopedwithoutcommoncycles restrictions neednotnestthe“best” modeldevelopedwiththoserestrictions, duetothe use ofinformation criteria forchoosingthe lagorderofthe twoalternative models. Second, weshowthatthecosts ofignoringcommon-cyclicalfeatures inV A R analysis may be high in terms offorecastingaccuracy and e¢ciency ofestimates ofvariance decomposition coe¢cients. A lthough these costs are more pronounced when the lag orderofV A R modelsareknown, theyarealsonon-trivialwhenitis selectedusingthe conventionaltoolsavailabletoappliedresearchers. T hird, we…ndthatifthedatahave common-cyclicalfeatures andtheresearcherwants touseaninformationcriterium to selectthelaglength, theH annan-Q uinn criterium is themostappropriate, sincethe A kaike and theSchwarz criteriahave atendency toover- and under-predictthe lag lengthrespectivelyinoursimulations.