971 resultados para Monte-Carlo simulation
Resumo:
Uma descrição detalhada do processo de electroluminescência é um prérequisito na optimização de detectores gasosos para sistemas de imagiologia, astrofísica, física de altas energias e experiências de eventos raros. Neste trabalho, é apresentada e caracterizada uma nova e versátil plataforma de simulação da emissão de luz durante a deriva de electrões em gases nobres, desenvolvida usando os programas Magboltz e Garfield. Propriedades intrínsecas da electroluminescência em gases nobres são calculadas e apresentadas em função do campo eléctrico aplicado, nomeadamente eficiências, rendimento e flutuações estatísticas associadas. São obtidos resultados em grande concordância com dados experimentais e simulações Monte Carlo anteriores. A plataforma é usada para determinar as condições óptimas de funcionamento de detectores como o NEXT (Neutrino Experiment with a Xenon TPC) e outros baseados nas micro-estruturas GEM (Gas Electron Multiplier) e MHSP (Micro- Hole & Strip Plate).
Resumo:
The technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] provides an attractive method of building exact tests from statistics whose finite sample distribution is intractable but can be simulated (provided it does not involve nuisance parameters). We extend this method in two ways: first, by allowing for MC tests based on exchangeable possibly discrete test statistics; second, by generalizing the method to statistics whose null distributions involve nuisance parameters (maximized MC tests, MMC). Simplified asymptotically justified versions of the MMC method are also proposed and it is shown that they provide a simple way of improving standard asymptotics and dealing with nonstandard asymptotics (e.g., unit root asymptotics). Parametric bootstrap tests may be interpreted as a simplified version of the MMC method (without the general validity properties of the latter).
Resumo:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.
Resumo:
Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.
Resumo:
Le travail de modélisation a été réalisé à travers EGSnrc, un logiciel développé par le Conseil National de Recherche Canada.
Resumo:
While channel coding is a standard method of improving a system’s energy efficiency in digital communications, its practice does not extend to high-speed links. Increasing demands in network speeds are placing a large burden on the energy efficiency of high-speed links and render the benefit of channel coding for these systems a timely subject. The low error rates of interest and the presence of residual intersymbol interference (ISI) caused by hardware constraints impede the analysis and simulation of coded high-speed links. Focusing on the residual ISI and combined noise as the dominant error mechanisms, this paper analyses error correlation through concepts of error region, channel signature, and correlation distance. This framework provides a deeper insight into joint error behaviours in high-speed links, extends the range of statistical simulation for coded high-speed links, and provides a case against the use of biased Monte Carlo methods in this setting
Resumo:
In networks with small buffers, such as optical packet switching based networks, the convolution approach is presented as one of the most accurate method used for the connection admission control. Admission control and resource management have been addressed in other works oriented to bursty traffic and ATM. This paper focuses on heterogeneous traffic in OPS based networks. Using heterogeneous traffic and bufferless networks the enhanced convolution approach is a good solution. However, both methods (CA and ECA) present a high computational cost for high number of connections. Two new mechanisms (UMCA and ISCA) based on Monte Carlo method are proposed to overcome this drawback. Simulation results show that our proposals achieve lower computational cost compared to enhanced convolution approach with an small stochastic error in the probability estimation
Resumo:
In any data mining applications, automated text and text and image retrieval of information is needed. This becomes essential with the growth of the Internet and digital libraries. Our approach is based on the latent semantic indexing (LSI) and the corresponding term-by-document matrix suggested by Berry and his co-authors. Instead of using deterministic methods to find the required number of first "k" singular triplets, we propose a stochastic approach. First, we use Monte Carlo method to sample and to build much smaller size term-by-document matrix (e.g. we build k x k matrix) from where we then find the first "k" triplets using standard deterministic methods. Second, we investigate how we can reduce the problem to finding the "k"-largest eigenvalues using parallel Monte Carlo methods. We apply these methods to the initial matrix and also to the reduced one. The algorithms are running on a cluster of workstations under MPI and results of the experiments arising in textual retrieval of Web documents as well as comparison of the stochastic methods proposed are presented. (C) 2003 IMACS. Published by Elsevier Science B.V. All rights reserved.
Resumo:
Many well-established statistical methods in genetics were developed in a climate of severe constraints on computational power. Recent advances in simulation methodology now bring modern, flexible statistical methods within the reach of scientists having access to a desktop workstation. We illustrate the potential advantages now available by considering the problem of assessing departures from Hardy-Weinberg (HW) equilibrium. Several hypothesis tests of HW have been established, as well as a variety of point estimation methods for the parameter which measures departures from HW under the inbreeding model. We propose a computational, Bayesian method for assessing departures from HW, which has a number of important advantages over existing approaches. The method incorporates the effects-of uncertainty about the nuisance parameters--the allele frequencies--as well as the boundary constraints on f (which are functions of the nuisance parameters). Results are naturally presented visually, exploiting the graphics capabilities of modern computer environments to allow straightforward interpretation. Perhaps most importantly, the method is founded on a flexible, likelihood-based modelling framework, which can incorporate the inbreeding model if appropriate, but also allows the assumptions of the model to he investigated and, if necessary, relaxed. Under appropriate conditions, information can be shared across loci and, possibly, across populations, leading to more precise estimation. The advantages of the method are illustrated by application both to simulated data and to data analysed by alternative methods in the recent literature.
Resumo:
We studied the Ising model ferromagnetic as spin-1/2 and the Blume-Capel model as spin-1, > 0 on small world network, using computer simulation through the Metropolis algorithm. We calculated macroscopic quantities of the system, such as internal energy, magnetization, specific heat, magnetic susceptibility and Binder cumulant. We found for the Ising model the same result obtained by Koreans H. Hong, Beom Jun Kim and M. Y. Choi [6] and critical behavior similar Blume-Capel model
Resumo:
Foram realizados quatro estudos de simulação para verificar a distribuição de inversas de variáveis com distribuição normal, em função de diferentes variâncias, médias, pontos de truncamentos e tamanhos amostrais. As variáveis simuladas foram GMD, com distribuição normal, representando o ganho médio diário e DIAS, obtido a partir da inversa de GMD, representando dias para se obter determinado peso. em todos os estudos, foi utilizado o sistema SAS® (1990) para simulação dos dados e para posterior análise dos resultados. As médias amostrais de DIAS foram dependentes dos desvios-padrão utilizados na simulação. As análises de regressão mostraram redução da média e do desvio-padrão de DIAS em função do aumento na média de GMD. A inclusão de um ponto de truncamento entre 10 e 25% do valor da média de GMD reduziu a média de GMD e aumentou a de DIAS, quando o coeficiente de variação de GMD foi superior a 25%. O efeito do tamanho dos grupos nas médias de GMD e DIAS não foi significativo, mas o desvio-padrão e CV amostrais médios de GMD aumentaram com o tamanho do grupo. em virtude da dependência entre a média e o desvio-padrão e da variação observada nos desvios-padrão de DIAS em função do tamanho do grupo, a utilização de DIAS como critério de seleção pode diminuir a acurácia da variação. Portanto, para a substituição de GMD por DIAS, é necessária a utilização de um método de análise robusto o suficiente para a eliminação da heterogeneidade de variância.
Resumo:
Using data from a single simulation we obtain Monte Carlo renormalization-group information in a finite region of parameter space by adapting the Ferrenberg-Swendsen histogram method. Several quantities are calculated in the two-dimensional N 2 Ashkin-Teller and Ising models to show the feasibility of the method. We show renormalization-group Hamiltonian flows and critical-point location by matching of correlations by doing just two simulations at a single temperature in lattices of different sizes to partially eliminate finite-size effects.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Investigação da dinâmica sequêncial Monte Carlo/Mecânica Quântica para sitemas moleculares orgânicos
Resumo:
O principal objetivo deste trabalho é investigar teóricamente as propriedades eletrônicas e óticas de compostos orgânicos em ambiente líquido. A compreensão das interações em sistemas líquidos é muito importante para a descrição de fenômenos em muitas partes da ciência, como Física, Química, Biologia e Materiais, bem como no desenvolvimento de materiais óticos. As flutuações térmicas fazem que inumaram das configurações para os líquidos possam ser gerados. Esta é a razão do comportamento estatístico observado em sistemas líquidos. Considerando estas dificuldades, o tratamento sequencial Monte Carlo / Mecânica Quântica (SMC/QM) é usado neste trabalho. Neste procedimento, a estrutura líquida é gerada primeiramente por simulações clássicas de MC e mais tarde, somente a parte mais importante do sistema é tratada com mecânica quântica. Usando o procedimento acima, os propriedades do quantum o pirazine dimethyl do thiene Methyl da laranja (MO) e do O 2,3-dimetil tieno[3,4-b] pirazina (DTP) foram investigados. O MO é um conhecido indicador de pH e pode ser encontrado sob circunstâncias básicas e acidas. Suas geometrias de mínima energia foram obtidas mediante a Teoria do Funcional da Densidade pelo funcional B3LYP, sendo o sistema descrito pelas bases de Pople com uma função de polarização (6-31G*). Para obter as propriedades médias dos observaveis, cálculos de química quântica foram executados dentro da aproximação semi-empírica de INDO/S-CI. Com respeito ao espectro de absorção, os dados experimentais existentes na literatura científica reportam a existência de uma larga banda localizada na região de baixas energias, mais precisamente entre 400 e 600 nm. Nossos resultados teóricos para a forma alcalina mostram uma transição intensa transição π → π* aproximadamente à 432.4 ± 0.03 nm e, sob condições ácidas, esta transição aparece aproximadamente à 507.4 ± 0.12, 496.4 ± 0.28 ou 545.3 ± 0.10 nm, dependendo da estrutura, mostrando bom acordo com resultados experimentais. O DTP é um sistema particular usado na produção de polímeros de baixo gap. Suas propriedades elétricas e óticas foram obtidas através de um novo procedimento conhecido por Configuração Eletrostática Média do Solvent (ASEC). O procedimento ASEC inclui moléculas do solvente como cargas pontuais e permite o obtenção das quantidades quânticas executando somente poucos cálculos de mecânica quântica. Para o DTP, usando a teoria das perturbações de segunda ordem Mφller-Plesset (MP2) e o conjunto de bases aug-cc-pVDZ, a convergência do momento de dipolo foi alcançada com apenas quatro cálculos de mecânica quântica à 1.16 D, apresentando um aumento de 42% quando comparado ao dipolo isolado. O polarizabilidade corresponde à outra característica elétrica que pôde ser medida. Considerando o mesmo nível empregado ao cálculo do dipolo, o valor médio 132.7 a30 foi observado. A região de mais baixas da energias do espectro de absorption foi investigada também atravé de procedimento de ASEC usando ambos as aproximações, semi-empírico e DFT. Esta região de absorção é motivo de conclusões contraditórias com relação à natureza das transições n → π* e π → π*. Nossos resultados mostram que realmente que essas excitações são realmente observadas simultanemente podendo sobrepôr-se. Como exemplo, nossos resultados para DFT, encontrados usando o funcional B3LYP nos mostra que estas transições aparecem aproximadamente à 360.6 e 351.1 nm.
Resumo:
The brachytherapy braquiterapia is an x-ray modality radiotherapy in which stamped or halfstamped radioactive sources in format of seeds are used, wires or to one short distance, in contact or implanted to the fabric to be treated. All the treatment modalities require a previous planning. The formalism recommended for calculation of dose was considered by the AAPM for the first TG-43 Report. In it distributions of dose of isolated seeds measured and calculated by Monte Carlo method in water instead of with models half-empiricists. In this work we in accordance with present some preliminary results of the calculation of functions of radial anisotropy and of dose in the distance for seed of 192Ir, wide used in brachytherapy treatments of high tax of dose (HDR), with the aid of the program based on the Monte Carlo method MCNPX v2.50 (Mount Carlo N ParticleeXtended). The materials chosen in the simulation beyond water, had been MS20 and estriado muscle