990 resultados para Simulations Monte Carlo de la chimie de trajectoires
Resumo:
We use the method of Monte Carlo evolution in the coupling constant space of Ferrenberg and Swendsen to evaluate the nonuniversal exponent η* associated to a linear defect in a 2d Ising model. © 1989.
Resumo:
Due to the increasing demand from clients and the search for better performances in the heavy vehicles industry, a progressive evolution in technology in a general way was needed. This paper uses a scientific method to validate, prior to its manufacture, the project of an agricultural wheel for sugar cane harvesters. Monte Carlo Simulation is used in conjunction with Finite Elements Method, in order to simulate the wheel's behavior in a cornering test, identify possible failure regions and get an estimate for its life under fatigue. To this end, test conditions according to EUWA Standards were simulated and obeyed, relevant to fatigue. Simulation results were interesting, according to industry experts involved in the project and manufacture of the product in question, and have provided important elements for the decision making regarding improvements that could be made on the product project before its execution
Resumo:
Evaluations of measurement invariance provide essential construct validity evidence. However, the quality of such evidence is partly dependent upon the validity of the resulting statistical conclusions. The presence of Type I or Type II errors can render measurement invariance conclusions meaningless. The purpose of this study was to determine the effects of categorization and censoring on the behavior of the chi-square/likelihood ratio test statistic and two alternative fit indices (CFI and RMSEA) under the context of evaluating measurement invariance. Monte Carlo simulation was used to examine Type I error and power rates for the (a) overall test statistic/fit indices, and (b) change in test statistic/fit indices. Data were generated according to a multiple-group single-factor CFA model across 40 conditions that varied by sample size, strength of item factor loadings, and categorization thresholds. Seven different combinations of model estimators (ML, Yuan-Bentler scaled ML, and WLSMV) and specified measurement scales (continuous, censored, and categorical) were used to analyze each of the simulation conditions. As hypothesized, non-normality increased Type I error rates for the continuous scale of measurement and did not affect error rates for the categorical scale of measurement. Maximum likelihood estimation combined with a categorical scale of measurement resulted in more correct statistical conclusions than the other analysis combinations. For the continuous and censored scales of measurement, the Yuan-Bentler scaled ML resulted in more correct conclusions than normal-theory ML. The censored measurement scale did not offer any advantages over the continuous measurement scale. Comparing across fit statistics and indices, the chi-square-based test statistics were preferred over the alternative fit indices, and ΔRMSEA was preferred over ΔCFI. Results from this study should be used to inform the modeling decisions of applied researchers. However, no single analysis combination can be recommended for all situations. Therefore, it is essential that researchers consider the context and purpose of their analyses.
Resumo:
Due to the increasing demand from clients and the search for better performances in the heavy vehicles industry, a progressive evolution in technology in a general way was needed. This paper uses a scientific method to validate, prior to its manufacture, the project of an agricultural wheel for sugar cane harvesters. Monte Carlo Simulation is used in conjunction with Finite Elements Method, in order to simulate the wheel's behavior in a cornering test, identify possible failure regions and get an estimate for its life under fatigue. To this end, test conditions according to EUWA Standards were simulated and obeyed, relevant to fatigue. Simulation results were interesting, according to industry experts involved in the project and manufacture of the product in question, and have provided important elements for the decision making regarding improvements that could be made on the product project before its execution
Resumo:
Doctorado en Análisis Económico. Programa en Análisis Económico Aplicado
Resumo:
Monte Carlo-Simulationen zum kritischen Verhalten dünnerIsing-Filme Dünne Ising-Filme können als vereinfachtes Modell zurBeschreibung von binären Mischungen oder von Flüssigkeitenin schlitzartigen Kapillaren dienen. Infolge dereingeschränkten Geometrie unterscheidet sich das kritischeVerhalten dieser Systeme signifikant von dem einesBulk-Systems, es kommt zu einem Crossover von zwei- zudreidimensionalem kritischen Verhalten. Zusätzlichverschiebt sich der Phasenübergang in den ungesättigtenBereich, ein Effekt, der als 'capillary condensation'bezeichnet wird. In der vorliegenden Arbeit wurden die kritischenEigenschaften von Ising-Filmen im Rahmen einer MonteCarlo-Simulation untersucht. Zur Verbesserung der Effizienzwurde ein Cluster-Algorithmus verwendet, der um einenGhost-Spin-Term zur Behandlung der Magnetfelder erweitertwar. Bei der Datenanalyse kamen moderneMulti-Histogramm-Techniken zur Anwendung. Für alle untersuchten Schichtdicken konnten kritischeTemperatur und Magnetfeld sehr präzise bestimmt werden. DieSkalenhypothese von Fisher und Nakanishi, die dieVerschiebung des kritischen Punktes gegenüber seinesBulk-Wertes beschreibt, wurde sowohl für Systeme mit freienOberflächen als auch für Systeme mit schwachemOberflächenfeld bestätigt. Der Wert des Gap-Exponenten derOberfläche wurde mit $Delta_1$=0.459(13) in Übereinstimmungmit den Literaturwerten abgeschätzt. Die Observablen Magnetisierung und magnetischeSuszeptibilität sowie deren auf die Oberfläche bezogenenEntsprechungen zeigen kein reines zweidimensionaleskritisches Verhalten. Zu ihrer Beschreibung in der Nähe deskritischen Punktes wurden effektive Exponenten für dieeinzelnen Schichtdicken bestimmt.
Resumo:
Oberflächengebundene flüssigkristalline Polymere innematischer Lösung - eine Monte Carlo-Untersuchung In der vorliegenden Arbeit wurde ein System vonoberflächengebundenen flüssigkristallinen Polymeren innematischer Lösung mittels Monte Carlo-Simulationen imNpT-Ensemble untersucht. Dabei wurden die Lösungsmittelteilchen und Polymerteilchen durchweiche abstoßende Ellipsoide des Durchmessers sigma_s undder Länge sigma_l modelliert. Darüber hinaus wirktenzwischen Teilchen innerhalb einer Kette zusätzliche Bondlängen- und Bondwinkelpotentiale. Die Kopfenden der Ketten waren mit ihren Mittelpunkten auf einen kubischen Gitter in der Oberfläche fixiert und wechselwirkten nicht mit den übrigen Teilchen. Für die Simulation kam ein neuartiger 'Configurationalbiased Monte Carlo'-Algorithmus zum Einsatz, mit dem esmöglich war, die Simulation stark zu beschleunigen. Dieswurde erreicht, indem die Bindungen einer Polymerkette entfernt und die ehemaligen Kettenteilchen somit zu Lösungsmittelteilchen werden. Aus den Lösungsmittelteilchen wurde dann durch das Ziehen neuer Bindungen eine neue Kette generiert, über deren Annahme dann eine Metropolisabfrage entschied. In den Simulationen sollte untersucht werden, inwieweit esmöglich ist durch Variation der Pfropfdichte einer auf eineglatte Wand aufgebrachten Polymerbürste die Richtung derOrientierung des sie quellenden Lösungsmittels zu einflussen. Neben Systemen ohne Ketten wurden Systeme mit Pfropfdichtenbis zu sigma = 0.84/sigma_s^2 über mehrere Millionen MonteCarlo-Schritte simuliert. Mit den durchgeführten Simulationen konnte gezeigt werden,daß ein Phasenübergang zwischen einer Phase mit flachentlang den Wänden ausgerichteten Teilchen und einer Phasemit Teilchen, deren Orientierung nicht parallel zur Wand ist, existiert.Dieser Phasenübergang tritt im hier betrachteten System beieiner Pfropfdichte von sigma = 0.13/sigma_s^2 auf. Weiterhin konnte bei hohen Pfropfdichten (sigma >=0.8/sigma_s^2) eine Phase mit einer Ausrichtung derLösungsmittelteilchen senkrecht zur Grundfläche gefundenwerden, obwohl die Ketten auch bei diesen Pfropfdichten nicht senkrecht stehen und die Bürste und das Lösungsmittel entkoppeln.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit demAdsorptionsverhalten von Homo- und Blockopolymeren anglatten Wänden im guten Lösungsmittel. Zur Modellierung wirddabei ein vergröbertes Kugel-Feder-Modell benutzt, das diePolymere als Kette von effektiven Monomeren auffasst.Benachbarte Monomere einer Kette werden durch einBindungspotential aneinander gekoppelt; zusätzlich wird eineVolumenausschlusswechselwirkung zwischen allen Monomeren derLösung berücksichtigt. Das Lösungsmittel wird dabei implizitdurch diese effektiven Potentiale berücksichtigt, wobei dieLösungsmittelqualität über die Temperatur geregelt wird.Während das System in z-Richtung durch zwei ebene Wändebegrenzt wird, von denen eine attraktiv mit den Monomerenwechselwirkt, werden in x- und y-Richtung periodischeRandbedingungen vorgegeben. Die Bewegung der Polymereerfolgt durch Monte Carlo-Simulationen im räumlichenKontinuum, welche auf (großkanonischen) Configurational BiasMonte Carlo-Algorithmen sowie lokalen Monomerverschiebungenund Reptationsbewegungen basieren.Über verschiedene Auswertemethoden werden anhand vonEinzelkettensimulationen die (modellabhängige)Adsorptionsschwelle - welche durch Simualtionen derAdsorption aus der Lösung bestätigt wird - sowie der(universelle) Crossoverexponent - dessen gefundener Wertsehr gut mit den neusten analytischen Berechnungenübereinstimmt - bestimmt. Bei der Simulation derBlockcopolymere bilden sich bei niedrigerOberflächenbelegungsdichte pilzartige Konformationen('mushroom'-Bereich), bei hoher OberflächenbelegungsdichtePolymerbürsten ('brush'-Bereich). Die theoretischenVorhersagen für den jeweiligen Bereich werden von denSimulationen im Wesentlichen gut wiedergegeben.
Resumo:
Die vorliegende Arbeit behandelt die Adsorption von Phospholipidvesikeln, Proteinen und Latex Beads an funktionalisierten festkörpergestützten Oberflächen. Der Schwerpunkt der Abhandlung liegt in der Modellierung der Kinetik mit Hilfe eines Simulationsprogramms unter Berücksichtigung des Massentransports in Staupunktgeometrie, der Adsorption und nachfolgender konformativer Änderungen adhärierter Partikel. Das Simulationsprogramm basiert auf einem RSA (random sequential adsorption) Algorithmus und erlaubt es aufgrund zusätzlich implementierter Optionen, z.B. zur Behandlung elektrostatischer Abstoßung, von Spreitprozessen oder von Desorptionsereignissen, den Adsorptionsprozess unter realistischen physikalischen Bedingungen nachzuempfinden und spezifische biologische Fragestellungen zu beantworten. Aus Anpassungen von Simulationen an experimentelle Daten ergeben sich dynamische Parameter, wie z.B. die Transport-, Adsorptions-, Spreit- und die Desorptionsrate. Die experimentellen Daten wurden mit Hilfe der Quarzmikrowaagetechnik (QCM), der Impedanzspektroskopie (IS) und der Rasterkraftmikroskopie (AFM) erhoben. Zusätzlich zur Kinetik gibt die graphische Ausgabe des Simulationsprogramms Aufschluss über die Oberflächenverteilung der adsorbierten und gespreiteten Partikel. Bei der Untersuchung von Systemen, in denen die Adsorption reversibel ist und infolge dessen Desorptionsprozesse eine wichtige Rolle spielen, wurde mit Hilfe des Simulationsprogramms ein völlig neuartiges Sensorkonzept in Aussicht gestellt. Es wurde gezeigt, dass aus der Analyse des Leistungsspektrums der Fluktuationen in der Belegung die Kinetik von Adsorption und Desorption ermittelt werden kann. Dies ist aus sensorischer Sicht interessant, da eine Vielzahl störender Einflüsse, wie z.B: der Massentransport und die elektronische Drift in diesem Fall nicht berücksichtigt werden müssen.
Resumo:
In this study a new, fully non-linear, approach to Local Earthquake Tomography is presented. Local Earthquakes Tomography (LET) is a non-linear inversion problem that allows the joint determination of earthquakes parameters and velocity structure from arrival times of waves generated by local sources. Since the early developments of seismic tomography several inversion methods have been developed to solve this problem in a linearized way. In the framework of Monte Carlo sampling, we developed a new code based on the Reversible Jump Markov Chain Monte Carlo sampling method (Rj-McMc). It is a trans-dimensional approach in which the number of unknowns, and thus the model parameterization, is treated as one of the unknowns. I show that our new code allows overcoming major limitations of linearized tomography, opening a new perspective in seismic imaging. Synthetic tests demonstrate that our algorithm is able to produce a robust and reliable tomography without the need to make subjective a-priori assumptions about starting models and parameterization. Moreover it provides a more accurate estimate of uncertainties about the model parameters. Therefore, it is very suitable for investigating the velocity structure in regions that lack of accurate a-priori information. Synthetic tests also reveal that the lack of any regularization constraints allows extracting more information from the observed data and that the velocity structure can be detected also in regions where the density of rays is low and standard linearized codes fails. I also present high-resolution Vp and Vp/Vs models in two widespread investigated regions: the Parkfield segment of the San Andreas Fault (California, USA) and the area around the Alto Tiberina fault (Umbria-Marche, Italy). In both the cases, the models obtained with our code show a substantial improvement in the data fit, if compared with the models obtained from the same data set with the linearized inversion codes.