964 resultados para Sequential Monte Carlo
Resumo:
Die vorliegende Arbeit beschäftigt sich mit demAdsorptionsverhalten von Homo- und Blockopolymeren anglatten Wänden im guten Lösungsmittel. Zur Modellierung wirddabei ein vergröbertes Kugel-Feder-Modell benutzt, das diePolymere als Kette von effektiven Monomeren auffasst.Benachbarte Monomere einer Kette werden durch einBindungspotential aneinander gekoppelt; zusätzlich wird eineVolumenausschlusswechselwirkung zwischen allen Monomeren derLösung berücksichtigt. Das Lösungsmittel wird dabei implizitdurch diese effektiven Potentiale berücksichtigt, wobei dieLösungsmittelqualität über die Temperatur geregelt wird.Während das System in z-Richtung durch zwei ebene Wändebegrenzt wird, von denen eine attraktiv mit den Monomerenwechselwirkt, werden in x- und y-Richtung periodischeRandbedingungen vorgegeben. Die Bewegung der Polymereerfolgt durch Monte Carlo-Simulationen im räumlichenKontinuum, welche auf (großkanonischen) Configurational BiasMonte Carlo-Algorithmen sowie lokalen Monomerverschiebungenund Reptationsbewegungen basieren.Über verschiedene Auswertemethoden werden anhand vonEinzelkettensimulationen die (modellabhängige)Adsorptionsschwelle - welche durch Simualtionen derAdsorption aus der Lösung bestätigt wird - sowie der(universelle) Crossoverexponent - dessen gefundener Wertsehr gut mit den neusten analytischen Berechnungenübereinstimmt - bestimmt. Bei der Simulation derBlockcopolymere bilden sich bei niedrigerOberflächenbelegungsdichte pilzartige Konformationen('mushroom'-Bereich), bei hoher OberflächenbelegungsdichtePolymerbürsten ('brush'-Bereich). Die theoretischenVorhersagen für den jeweiligen Bereich werden von denSimulationen im Wesentlichen gut wiedergegeben.
Resumo:
A complete understanding of the glass transition isstill a challenging problem. Some researchers attributeit to the (hypothetical) occurrence of a static phasetransition, others emphasize the dynamical transitionof mode coupling-theory from an ergodic to a non ergodicstate. A class of disordered spin models has been foundwhich unifies both scenarios. One of these models isthe p-state infinite range Potts glass with p>4, whichexhibits in the thermodynamic limit both a dynamicalphase transition at a temperature T_D, and a static oneat T_0 < T_D. In this model every spins interacts withall the others, irrespective of distance. Interactionsare taken from a Gaussian distribution.In order to understand better its behavior forfinite number N of spins and the approach to thethermodynamic limit, we have performed extensive MonteCarlo simulations of the p=10 Potts glass up to N=2560.The time-dependent spin-autocorrelation function C(t)shows strong finite size effects and it does not showa plateau even for temperatures around the dynamicalcritical temperature T_D. We show that the N-andT-dependence of the relaxation time for T > T_D can beunderstood by means of a dynamical finite size scalingAnsatz.The behavior in the spin glass phase down to atemperature T=0.7 (about 60% of the transitiontemperature) is studied. Well equilibratedconfigurations are obtained with the paralleltempering method, which is also useful for properlyestablishing static properties, such as the orderparameter distribution function P(q). Evidence is givenfor the compatibility with a one step replica symmetrybreaking scenario. The study of the cumulants of theorder parameter does not permit a reliable estimation ofthe static transition temperature. The autocorrelationfunction at low T exhibits a two-step decay, and ascaling behavior typical of supercooled liquids, thetime-temperature superposition principle, is observed. Inthis region the dynamics is governed by Arrheniusrelaxations, with barriers growing like N^{1/2}.We analyzed the single spin dynamics down to temperaturesmuch lower than the dynamical transition temperature. We found strong dynamical heterogeneities, which explainthe non-exponential character of the spin autocorrelationfunction. The spins seem to relax according to dynamicalclusters. The model in three dimensions tends to acquireferromagnetic order for equal concentration of ferro-and antiferromagnetic bonds. The ordering has differentcharacteristics from the pure ferromagnet. The spinglass susceptibility behaves like chi_{SG} proportionalto 1/T in the region where a spin glass is predicted toexist in mean-field. Also the analysis of the cumulantsis consistent with the absence of spin glass orderingat finite temperature. The dynamics shows multi-scalerelaxations if a bimodal distribution of bonds isused. We propose to understand it with a model based onthe local spin configuration. This is consistent with theabsence of plateaus if Gaussian interactions are used.
Resumo:
Das Phasenverhalten und die Grenzflächeneigenschaften vonPolymeren in superkritischer Lösung werden anhand einesvergröberten Kugel-Feder-Modells für das ReferenzsystemHexadekan-CO2 untersucht. Zur Bestimmung der Parameter imPotential setzt man die kritischen Punkte von Simulation undExperiment gleich. Wechselwirkungen zwischen beidenKomponenten werden durch eine modifizierteLorentz-Berthelot-Regel modelliert. Die Übereinstimmung mitden Experimenten ist sehr gut - insbesondere kann dasPhasendiagramm des Mischsystems inklusive kritischer Linienreproduziert werden. Ein Vergleich mit numerischenStörungsrechnungen (TPT1) liefert eine qualitativeÜbereinstimmung und Hinweise zur Verbesserung derverwendeten Zustandsgleichung. Aufbauend auf diesen Betrachtungen werden die Frühstadiender Keimbildung untersucht. Für das Lennard-Jones-Systemwird zum ersten Mal der Übergang vom homogenen Gas zu einemeinzelnen Tropfen im endlichen Volumen direkt nachgewiesenund quantifiziert. Die freie Energie von kleinen Clusternwird mit einem einfachen, klassischen Nukleationsmodellbestimmt und nach oben abgeschätzt. Die vorgestellten Untersuchungen wurden durch eineWeiterentwicklung des Umbrella-Sampling-Algorithmusermöglicht. Hierbei wird die Simulation in mehrereSimulationsfenster unterteilt, die nacheinander abgearbeitetwerden. Die Methode erlaubt eine Bestimmung derFreien-Energie-Landschaft an einer beliebigen Stelle desPhasendiagramms. Der Fehler ist kontrollierbar undunabhängig von der Art der Unterteilung.
Resumo:
Diese Arbeit beschäftigt sich mit Strukturbildung im schlechten Lösungsmittel bei ein- und zweikomponentigen Polymerbürsten, bei denen Polymerketten durch Pfropfung am Substrat verankert sind. Solche Systeme zeigen laterale Strukturbildungen, aus denen sich interessante Anwendungen ergeben. Die Bewegung der Polymere erfolgt durch Monte Carlo-Simulationen im Kontinuum, die auf CBMC-Algorithmen sowie lokalen Monomerverschiebungen basieren. Eine neu entwickelte Variante des CBMC-Algorithmus erlaubt die Bewegung innerer Kettenteile, da der bisherige Algorithmus die Monomere in Nähe des Pfropfmonomers nicht gut relaxiert. Zur Untersuchung des Phasenverhaltens werden mehrere Analysemethoden entwickelt und angepasst: Dazu gehören die Minkowski-Maße zur Strukturuntersuchung binären Bürsten und die Pfropfkorrelationen zur Untersuchung des Einflusses von Pfropfmustern. Bei einkomponentigen Bürsten tritt die Strukturbildung nur beim schwach gepfropften System auf, dichte Pfropfungen führen zu geschlossenen Bürsten ohne laterale Struktur. Für den graduellen Übergang zwischen geschlossener und aufgerissener Bürste wird ein Temperaturbereich bestimmt, in dem der Übergang stattfindet. Der Einfluss des Pfropfmusters (Störung der Ausbildung einer langreichweitigen Ordnung) auf die Bürstenkonfiguration wird mit den Pfropfkorrelationen ausgewertet. Bei unregelmäßiger Pfropfung sind die gebildeten Strukturen größer als bei regelmäßiger Pfropfung und auch stabiler gegen höhere Temperaturen. Bei binären Systemen bilden sich Strukturen auch bei dichter Pfropfung aus. Zu den Parametern Temperatur, Pfropfdichte und Pfropfmuster kommt die Zusammensetzung der beiden Komponenten hinzu. So sind weitere Strukturen möglich, bei gleicher Häufigkeit der beiden Komponenten bilden sich streifenförmige, lamellare Muster, bei ungleicher Häufigkeit formt die Minoritätskomponente Cluster, die in der Majoritätskomponente eingebettet sind. Selbst bei gleichmäßig gepfropften Systemen bildet sich keine langreichweitige Ordnung aus. Auch bei binären Bürsten hat das Pfropfmuster großen Einfluss auf die Strukturbildung. Unregelmäßige Pfropfmuster führen schon bei höheren Temperaturen zur Trennung der Komponenten, die gebildeten Strukturen sind aber ungleichmäßiger und etwas größer als bei gleichmäßig gepfropften Systemen. Im Gegensatz zur self consistent field-Theorie berücksichtigen die Simulationen Fluktuationen in der Pfropfung und zeigen daher bessere Übereinstimmungen mit dem Experiment.
Resumo:
Il presente lavoro di tesi, sviluppato nell’arco di sei mesi presso l’Institut Supérieur Industriel de Bruxelles (ISIB) in collaborazione con Ion Beam Application Group (IBA, Louvain la Neuve), ha come principale soggetto lo studio della risposta del rem meter WENDI-2 commercializzato da Thermo Scientific. Lo studio si è basato principalmente sull’uso del codice Monte Carlo MCNPX 2.5.0, simulando la risposta del detector sia in caso di campi di radiazione neutronica monoenergetici sia in corrispondenza di spettri neutronici continui. La prima fase è stata dedicata alla modellizzazione MCNPX del rem counter, consentendo così la valutazione della sua funzione risposta. Questa è stata ricostruita interpolando 93 punti, ciascuno calcolato in corrispondenza di un singolo valore di energia di una sorgente puntiforme, compreso tra 1 meV e 5 GeV. In tal caso è stata rilevata un’ottima corrispondenza tra i risultati ottenuti e quelli riportati nella letteratura scientifica esistente. In una seconda fase, al fine di ottenere informazioni sulla risposta di WENDI II in corrispondenza di campi complessi di radiazione, simulazioni MCNPX sono state realizzate riproducendo un ambiente di lavoro esistente presso la sede IBA di Louvain la Neuve: la risposta del detector è stata valutata in corrispondenza di 9 diverse posizioni all’interno di un bunker contenente un ciclotrone PET (18 MeV H-), implicando la rilevazione di campi di radiazione neutronica continui ed estesi dalle energie termiche fino a 18 MeV. I risultati ottenuti sono stati infine comparati con i valori di dose ambiente equivalente calcolata nelle stesse condizioni di irraggiamento.
Resumo:
In this study a new, fully non-linear, approach to Local Earthquake Tomography is presented. Local Earthquakes Tomography (LET) is a non-linear inversion problem that allows the joint determination of earthquakes parameters and velocity structure from arrival times of waves generated by local sources. Since the early developments of seismic tomography several inversion methods have been developed to solve this problem in a linearized way. In the framework of Monte Carlo sampling, we developed a new code based on the Reversible Jump Markov Chain Monte Carlo sampling method (Rj-McMc). It is a trans-dimensional approach in which the number of unknowns, and thus the model parameterization, is treated as one of the unknowns. I show that our new code allows overcoming major limitations of linearized tomography, opening a new perspective in seismic imaging. Synthetic tests demonstrate that our algorithm is able to produce a robust and reliable tomography without the need to make subjective a-priori assumptions about starting models and parameterization. Moreover it provides a more accurate estimate of uncertainties about the model parameters. Therefore, it is very suitable for investigating the velocity structure in regions that lack of accurate a-priori information. Synthetic tests also reveal that the lack of any regularization constraints allows extracting more information from the observed data and that the velocity structure can be detected also in regions where the density of rays is low and standard linearized codes fails. I also present high-resolution Vp and Vp/Vs models in two widespread investigated regions: the Parkfield segment of the San Andreas Fault (California, USA) and the area around the Alto Tiberina fault (Umbria-Marche, Italy). In both the cases, the models obtained with our code show a substantial improvement in the data fit, if compared with the models obtained from the same data set with the linearized inversion codes.
Resumo:
When a liquid crystal is confined to a cavity its director field becomes subject to competing forces: on the one hand, the surface of the cavity orients the director field (``surface anchoring''), on the other hand deformations of the director field cost elastic energy. Hence the equilibrium director field is determined by a compromise between surface anchoring and elasticity. One example of a confined liquid crystal that has attracted particular interest from physicists is the nematic droplet. In this thesis a system of hard rods is considered as the simplest model for nematic liquid crystals consisting of elongated molecules. First, systems of hard spherocylinders in a spherical geometry are investigated by means of canonical Monte Carlo simulations. In contrast to previous simulation work on this problem, a continuum model is used. In particular, the effects of ordering near hard curved walls are studied for the low-density regime. With increasing density, first a uniaxial surface film forms and then a biaxial surface film, which eventually fills the entire cavity. We study how the surface order, the adsorption and the shape of the director field depend on the curvature of the wall. We find that orientational ordering at a curved wall in a cavity is stronger than at a flat wall, while adsorption is weaker. For densities above the isotropic-nematic transition, we always find bipolar configurations. As a next step, an extension of the Asakura-Oosawa-Vrij model for colloid-polymer mixtures to anisotropic colloids is considered. By means of computer simulations we study how droplets of hard, rod-like particles optimize their shape and structure under the influence of the osmotic compression caused by the presence of spherical particles that act as depletion agents. At sufficiently high osmotic pressures the rods that make up the drops spontaneously align to turn them into uniaxial nematic liquid crystalline droplets. The nematic droplets or ``tactoids'' that so form are not spherical but elongated, resulting from the competition between the anisotropic surface tension and the elastic deformation of the director field. In agreement with recent theoretical predictions we find that sufficiently small tactoids have a uniform director field, whilst large ones are characterized by a bipolar director field. From the shape and director-field transformation of the droplets we estimate the surface anchoring strength.
Resumo:
Supernovae are among the most energetic events occurring in the universe and are so far the only verified extrasolar source of neutrinos. As the explosion mechanism is still not well understood, recording a burst of neutrinos from such a stellar explosion would be an important benchmark for particle physics as well as for the core collapse models. The neutrino telescope IceCube is located at the Geographic South Pole and monitors the antarctic glacier for Cherenkov photons. Even though it was conceived for the detection of high energy neutrinos, it is capable of identifying a burst of low energy neutrinos ejected from a supernova in the Milky Way by exploiting the low photomultiplier noise in the antarctic ice and extracting a collective rate increase. A signal Monte Carlo specifically developed for water Cherenkov telescopes is presented. With its help, we will investigate how well IceCube can distinguish between core collapse models and oscillation scenarios. In the second part, nine years of data taken with the IceCube precursor AMANDA will be analyzed. Intensive data cleaning methods will be presented along with a background simulation. From the result, an upper limit on the expected occurrence of supernovae within the Milky Way will be determined.
Resumo:
La radioterapia guidata da immagini (IGRT), grazie alle ripetute verifiche della posizione del paziente e della localizzazione del volume bersaglio, si è recentemente affermata come nuovo paradigma nella radioterapia, avendo migliorato radicalmente l’accuratezza nella somministrazione di dose a scopo terapeutico. Una promettente tecnica nel campo dell’IGRT è rappresentata dalla tomografia computerizzata a fascio conico (CBCT). La CBCT a kilovoltaggio, consente di fornire un’accurata mappatura tridimensionale dell’anatomia del paziente, in fase di pianificazione del trattamento e a ogni frazione del medisimo. Tuttavia, la dose da imaging attribuibile alle ripetute scansioni è diventata, negli ultimi anni, oggetto di una crescente preoccupazione nel contesto clinico. Lo scopo di questo lavoro è di valutare quantitativamente la dose addizionale somministrata da CBCT a kilovoltaggio, con riferimento a tre tipici protocolli di scansione per Varian OnBoard Imaging Systems (OBI, Palo Alto, California). A questo scopo sono state condotte simulazioni con codici Monte Carlo per il calcolo della dose, utilizzando il pacchetto gCTD, sviluppato sull’architettura della scheda grafica. L’utilizzo della GPU per sistemi server di calcolo ha permesso di raggiungere alte efficienze computazionali, accelerando le simulazioni Monte Carlo fino a raggiungere tempi di calcolo di ~1 min per un caso tipico. Inizialmente sono state condotte misure sperimentali di dose su un fantoccio d’acqua. I parametri necessari per la modellazione della sorgente di raggi X nel codice gCTD sono stati ottenuti attraverso un processo di validazione del codice al fine di accordare i valori di dose simulati in acqua con le misure nel fantoccio. Lo studio si concentra su cinquanta pazienti sottoposti a cicli di radioterapia a intensità modulata (IMRT). Venticinque pazienti con tumore al cervello sono utilizzati per studiare la dose nel protocollo standard-dose head e venticinque pazienti con tumore alla prostata sono selezionati per studiare la dose nei protocolli pelvis e pelvis spotlight. La dose media a ogni organo è calcolata. La dose media al 2% dei voxels con i valori più alti di dose è inoltre computata per ogni organo, al fine di caratterizzare l’omogeneità spaziale della distribuzione.
Resumo:
Despite the scientific achievement of the last decades in the astrophysical and cosmological fields, the majority of the Universe energy content is still unknown. A potential solution to the “missing mass problem” is the existence of dark matter in the form of WIMPs. Due to the very small cross section for WIMP-nuleon interactions, the number of expected events is very limited (about 1 ev/tonne/year), thus requiring detectors with large target mass and low background level. The aim of the XENON1T experiment, the first tonne-scale LXe based detector, is to be sensitive to WIMP-nucleon cross section as low as 10^-47 cm^2. To investigate the possibility of such a detector to reach its goal, Monte Carlo simulations are mandatory to estimate the background. To this aim, the GEANT4 toolkit has been used to implement the detector geometry and to simulate the decays from the various background sources: electromagnetic and nuclear. From the analysis of the simulations, the level of background has been found totally acceptable for the experiment purposes: about 1 background event in a 2 tonne-years exposure. Indeed, using the Maximum Gap method, the XENON1T sensitivity has been evaluated and the minimum for the WIMP-nucleon cross sections has been found at 1.87 x 10^-47 cm^2, at 90% CL, for a WIMP mass of 45 GeV/c^2. The results have been independently cross checked by using the Likelihood Ratio method that confirmed such results with an agreement within less than a factor two. Such a result is completely acceptable considering the intrinsic differences between the two statistical methods. Thus, in the PhD thesis it has been proven that the XENON1T detector will be able to reach the designed sensitivity, thus lowering the limits on the WIMP-nucleon cross section by about 2 orders of magnitude with respect to the current experiments.
Resumo:
Per prevedere i campi di dose attorno a dispositivi radiologici, vengono sviluppati e validati, per mezzo di misure sperimentali, modelli Monte Carlo (utilizzando MCNP5). Lo scopo di questo lavoro è quello di valutare le dosi ricevute da persone che operano all'interno della sala di raggi X, mentre il tubo è in funzione. Il tubo utilizzato è un DI-1000/0.6-1.3 della azienda svizzera COMET AG. Per prima cosa si è ottenuto lo spettro di emissione dei raggi X con la Tally F5 simulando l'interazione di un fascio di elettroni contro un anodo di tungsteno. Successivamente, con una F4MESH, si è ricavato il flusso di fotoni in ogni cella della mesh tridimensionale definita sulla sala; la conversione a dose equivalente è ottenuta per mezzo di fattori di conversione estratti dal NIST. I risultati della Tally FMESH vengono confrontati con i valori di dose misurati con una camera di ionizzazione Radcal 1800 cc. I risultati sono ottenuti per le seguenti condizioni operative: 40 kVp, 100 mA, 200 mAs, fuoco fine e filtro in alluminio di spessore 0,8 mm. Confrontando con le misure sperimentali si osserva che tali valori differiscono da quelli simulati di circa un 10%. Possiamo quindi prevedere con buona approssimazione la distribuzione di dose mentre il tubo è in funzione. In questo modo è possibile ridurre al minimo la dose ricevuta dall'operatore.
Resumo:
Die causa finalis der vorliegenden Arbeit ist das Verständnis des Phasendiagramms von Wasserstoff bei ultrahohen Drücken, welche von nichtleitendem H2 bis hin zu metallischem H reichen. Da die Voraussetzungen für ultrahohen Druck im Labor schwer zu schaffen sind, bilden Computersimulationen ein wichtiges alternatives Untersuchungsinstrument. Allerdings sind solche Berechnungen eine große Herausforderung. Eines der größten Probleme ist die genaue Auswertung des Born-Oppenheimer Potentials, welches sowohl für die nichtleitende als auch für die metallische Phase geeignet sein muss. Außerdem muss es die starken Korrelationen berücksichtigen, die durch die kovalenten H2 Bindungen und die eventuellen Phasenübergänge hervorgerufen werden. Auf dieses Problem haben unsere Anstrengungen abgezielt. Im Kontext von Variationellem Monte Carlo (VMC) ist die Shadow Wave Function (SWF) eine sehr vielversprechende Option. Aufgrund ihrer Flexibilität sowohl lokalisierte als auch delokalisierte Systeme zu beschreiben sowie ihrer Fähigkeit Korrelationen hoher Ordnung zu berücksichtigen, ist sie ein idealer Kandidat für unsere Zwecke. Unglücklicherweise bringt ihre Formulierung ein Vorzeichenproblem mit sich, was die Anwendbarkeit limitiert. Nichtsdestotrotz ist es möglich diese Schwierigkeit zu umgehen indem man die Knotenstruktur a priori festlegt. Durch diesen Formalismus waren wir in der Lage die Beschreibung der Elektronenstruktur von Wasserstoff signifikant zu verbessern, was eine sehr vielversprechende Perspektive bietet. Während dieser Forschung haben wir also die Natur des Vorzeichenproblems untersucht, das sich auf die SWF auswirkt, und dabei ein tieferes Verständnis seines Ursprungs erlangt. Die vorliegende Arbeit ist in vier Kapitel unterteilt. Das erste Kapitel führt VMC und die SWF mit besonderer Ausrichtung auf fermionische Systeme ein. Kapitel 2 skizziert die Literatur über das Phasendiagramm von Wasserstoff bei ultrahohem Druck. Das dritte Kapitel präsentiert die Implementierungen unseres VMC Programms und die erhaltenen Ergebnisse. Zum Abschluss fasst Kapitel 4 unsere Bestrebungen zur Lösung des zur SWF zugehörigen Vorzeichenproblems zusammen.
Resumo:
Nell'ambito della Fisica Medica, le simulazioni Monte Carlo sono uno strumento sempre più diffuso grazie alla potenza di calcolo dei moderni calcolatori, sia nell'ambito diagnostico sia in terapia. Attualmente sono disponibili numerosi pacchetti di simulazione Monte Carlo di carattere "general purpose", tra cui Geant4. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico "S.Orsola-Malpighi", è basato sulla realizzazione, utilizzando Geant4, di un modello Monte Carlo del target del ciclotrone GE-PETtrace per la produzione di C-11. Nel modello sono stati simulati i principali elementi caratterizzanti il target ed il fascio di protoni accelerato dal ciclotrone. Per la validazione del modello sono stati valutati diversi parametri fisici, tra i quali il range medio dei protoni nell'azoto ad alta pressione e la posizione del picco di Bragg, confrontando i risultati con quelli forniti da SRIM. La resa a saturazione relativa alla produzione di C-11 è stata confrontata sia con i valori forniti dal database della IAEA sia con i dati sperimentali a nostra disposizione. Il modello è stato anche utilizzato per la stima di alcuni parametri di interesse, legati, in particolare, al deterioramento dell'efficienza del target nel corso del tempo. L'inclinazione del target, rispetto alla direzione del fascio di protoni accelerati, è influenzata dal peso del corpo del target stesso e dalla posizione in cui questo é fissato al ciclotrone. Per questo sono stati misurati sia il calo della resa della produzione di C-11, sia la percentuale di energia depositata dal fascio sulla superficie interna del target durante l'irraggiamento, al variare dell'angolo di inclinazione del target. Il modello che abbiamo sviluppato rappresenta, dunque, un importante strumento per la valutazione dei processi che avvengono durante l'irraggiamento, per la stima delle performance del target nel corso del tempo e per lo sviluppo di nuovi modelli di target.
Resumo:
Thema dieser Arbeit ist die Entwicklung und Kombination verschiedener numerischer Methoden, sowie deren Anwendung auf Probleme stark korrelierter Elektronensysteme. Solche Materialien zeigen viele interessante physikalische Eigenschaften, wie z.B. Supraleitung und magnetische Ordnung und spielen eine bedeutende Rolle in technischen Anwendungen. Es werden zwei verschiedene Modelle behandelt: das Hubbard-Modell und das Kondo-Gitter-Modell (KLM). In den letzten Jahrzehnten konnten bereits viele Erkenntnisse durch die numerische Lösung dieser Modelle gewonnen werden. Dennoch bleibt der physikalische Ursprung vieler Effekte verborgen. Grund dafür ist die Beschränkung aktueller Methoden auf bestimmte Parameterbereiche. Eine der stärksten Einschränkungen ist das Fehlen effizienter Algorithmen für tiefe Temperaturen.rnrnBasierend auf dem Blankenbecler-Scalapino-Sugar Quanten-Monte-Carlo (BSS-QMC) Algorithmus präsentieren wir eine numerisch exakte Methode, die das Hubbard-Modell und das KLM effizient bei sehr tiefen Temperaturen löst. Diese Methode wird auf den Mott-Übergang im zweidimensionalen Hubbard-Modell angewendet. Im Gegensatz zu früheren Studien können wir einen Mott-Übergang bei endlichen Temperaturen und endlichen Wechselwirkungen klar ausschließen.rnrnAuf der Basis dieses exakten BSS-QMC Algorithmus, haben wir einen Störstellenlöser für die dynamische Molekularfeld Theorie (DMFT) sowie ihre Cluster Erweiterungen (CDMFT) entwickelt. Die DMFT ist die vorherrschende Theorie stark korrelierter Systeme, bei denen übliche Bandstrukturrechnungen versagen. Eine Hauptlimitation ist dabei die Verfügbarkeit effizienter Störstellenlöser für das intrinsische Quantenproblem. Der in dieser Arbeit entwickelte Algorithmus hat das gleiche überlegene Skalierungsverhalten mit der inversen Temperatur wie BSS-QMC. Wir untersuchen den Mott-Übergang im Rahmen der DMFT und analysieren den Einfluss von systematischen Fehlern auf diesen Übergang.rnrnEin weiteres prominentes Thema ist die Vernachlässigung von nicht-lokalen Wechselwirkungen in der DMFT. Hierzu kombinieren wir direkte BSS-QMC Gitterrechnungen mit CDMFT für das halb gefüllte zweidimensionale anisotrope Hubbard Modell, das dotierte Hubbard Modell und das KLM. Die Ergebnisse für die verschiedenen Modelle unterscheiden sich stark: während nicht-lokale Korrelationen eine wichtige Rolle im zweidimensionalen (anisotropen) Modell spielen, ist in der paramagnetischen Phase die Impulsabhängigkeit der Selbstenergie für stark dotierte Systeme und für das KLM deutlich schwächer. Eine bemerkenswerte Erkenntnis ist, dass die Selbstenergie sich durch die nicht-wechselwirkende Dispersion parametrisieren lässt. Die spezielle Struktur der Selbstenergie im Impulsraum kann sehr nützlich für die Klassifizierung von elektronischen Korrelationseffekten sein und öffnet den Weg für die Entwicklung neuer Schemata über die Grenzen der DMFT hinaus.