38 resultados para 240500 Classical Physics


Relevância:

40.00% 40.00%

Publicador:

Resumo:

The subject of this thesis is in the area of Applied Mathematics known as Inverse Problems. Inverse problems are those where a set of measured data is analysed in order to get as much information as possible on a model which is assumed to represent a system in the real world. We study two inverse problems in the fields of classical and quantum physics: QCD condensates from tau-decay data and the inverse conductivity problem. Despite a concentrated effort by physicists extending over many years, an understanding of QCD from first principles continues to be elusive. Fortunately, data continues to appear which provide a rather direct probe of the inner workings of the strong interactions. We use a functional method which allows us to extract within rather general assumptions phenomenological parameters of QCD (the condensates) from a comparison of the time-like experimental data with asymptotic space-like results from theory. The price to be paid for the generality of assumptions is relatively large errors in the values of the extracted parameters. Although we do not claim that our method is superior to other approaches, we hope that our results lend additional confidence to the numerical results obtained with the help of methods based on QCD sum rules. EIT is a technology developed to image the electrical conductivity distribution of a conductive medium. The technique works by performing simultaneous measurements of direct or alternating electric currents and voltages on the boundary of an object. These are the data used by an image reconstruction algorithm to determine the electrical conductivity distribution within the object. In this thesis, two approaches of EIT image reconstruction are proposed. The first is based on reformulating the inverse problem in terms of integral equations. This method uses only a single set of measurements for the reconstruction. The second approach is an algorithm based on linearisation which uses more then one set of measurements. A promising result is that one can qualitatively reconstruct the conductivity inside the cross-section of a human chest. Even though the human volunteer is neither two-dimensional nor circular, such reconstructions can be useful in medical applications: monitoring for lung problems such as accumulating fluid or a collapsed lung and noninvasive monitoring of heart function and blood flow.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersucht den Zusammenhang zwischen Skalen in Systemen weicher Materie, der für Multiskalen-Simulationen eine wichtige Rolle spielt. Zu diesem Zweck wurde eine Methode entwickelt, die die Approximation der Separierbarkeit von Variablen für die Molekulardynamik und ähnliche Anwendungen bewertet. Der zweite und größere Teil dieser Arbeit beschäftigt sich mit der konzeptionellen und technischen Erweiterung des Adaptive Resolution Scheme'' (AdResS), einer Methode zur gleichzeitigen Simulation von Systemen mit mehreren Auflösungsebenen. Diese Methode wurde auf Systeme erweitert, in denen klassische und quantenmechanische Effekte eine Rolle spielen.rnrnDie oben genannte erste Methode benötigt nur die analytische Form der Potentiale, wie sie die meisten Molekulardynamik-Programme zur Verfügung stellen. Die Anwendung der Methode auf ein spezielles Problem gibt bei erfolgreichem Ausgang einen numerischen Hinweis auf die Gültigkeit der Variablenseparation. Bei nicht erfolgreichem Ausgang garantiert sie, dass keine Separation der Variablen möglich ist. Die Methode wird exemplarisch auf ein zweiatomiges Molekül auf einer Oberfläche und für die zweidimensionale Version des Rotational Isomer State (RIS) Modells einer Polymerkette angewandt.rnrnDer zweite Teil der Arbeit behandelt die Entwicklung eines Algorithmus zur adaptiven Simulation von Systemen, in denen Quanteneffekte berücksichtigt werden. Die Quantennatur von Atomen wird dabei in der Pfadintegral-Methode durch einen klassischen Polymerring repräsentiert. Die adaptive Pfadintegral-Methode wird zunächst für einatomige Flüssigkeiten und tetraedrische Moleküle unter normalen thermodynamischen Bedingungen getestet. Schließlich wird die Stabilität der Methode durch ihre Anwendung auf flüssigen para-Wasserstoff bei niedrigen Temperaturen geprüft.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit wird das Phasenverhalten fluid-kristallin und kristallin-amorph, die elastischen Eigenschaften, das Nukleationsverhalten und das diffusive Verhalten ladungsstabilisierter Kolloide aus sphärischen Polystyrol- und Polytetrafluorethylenpartikeln in wässerigen Dispersionsmitteln bei sehr geringem Fremdionengehalt systematisch untersucht. Die dazugehörigen Messungen werden an einer neuartigen selbstkonstruierten Kombinationslichtstreuapparatur durchgeführt, die die Meßmethoden der dynamischen Lichtstreuung, statischen Lichtstreuung und Torsionsresonanzspektroskopie in sich vereint. Die drei Meßmethoden sind optimal auf die Untersuchung kolloidaler Festkörper abgestimmt. Das elastische Verhalten der Festkörper kann sehr gut durch die Elastizitätstheorie atomarer Kristallsysteme beschrieben werden, wenn ein Debye-Hückel-Potential im Sinne des Poisson-Boltzmann-Cell Modells als Wechselwirkungspotential verwendet wird. Die ermittelten Phasengrenzen fluid-kristallin stehen erstmalig in guter Übereinstimmung mit Ergebnissen aus molekulardynamischen Simulationen, wenn die in der Torsionsresonanzspektroskopie bestimmte Wechselwirkungsenergie zu Grunde gelegt wird. Neben der Gleichgewichtsstruktur sind Aussagen zur Verfestigungskinetik möglich. Das gefundene Nukleationserhalten kann gut durch die klassische Nukleationstheorie beschrieben werden, wenn bei niedriger Unterkühlung der Schmelze ein Untergrund heterogener Keimung berücksichtigt wird. PTFE-Partikel zeigen auch bei hohen Konzentrationen nur geringfügige Mehrfachstreuung. Durch ihren Einsatz ist erstmals eine systematische Untersuchung des Glasübergangs in hochgeladenen ladungsstabilisierten Systemen möglich. Ladungsstabilisierte Kolloide unterscheiden sich vor allem durch ihre extreme Kristallisationstendenz von früher untersuchten Hartkugelsystemen. Bei hohen Partikelkonzentrationen (Volumenbrüche größer 10 Prozent) kann ein glasartiger Festkörper identifiziert werden, dessen physikalisches Verhalten die Existenz eines Bernalglases nahe legt. Der Glasübergang ist im Vergleich mit den in anderen kolloidalen Systemen und atomaren Systemen beobachteten Übergängen von sehr unterschiedlichem Charakter. Im verwendeten PTFE-System ist auf Grund der langreichweitigen stark repulsiven Wechselwirkung kein direkter Zugang des Glaszustandes aus der übersättigten Schmelze möglich. Der amorphe Festkörper entsteht hier aus einer nanokristallinen Phase. Die Keimrate steigt im zugänglichen Meßbereich annähernd exponentiell mit der Partikelanzahldichte, so daß man feststellen kann, daß der Glaszustand nicht durch Unterdrückung der Nukleation, sondern durch eine Forcierung derselben erreicht wird.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werdenMolekulardynamik-Simulationen zur Untersuchung derstatischen Eigenschaften von amorphenSiliziumdioxidoberflächen (Siliziumdioxid) durchgeführt. Da das von van Beest, Kramer und van Santen vorgeschlagene,sogenannte BKS-Potential für Bulksysteme optimiert wurde und an Oberflächen deutlichandere Ladungsverteilungenauftreten als im Bulk, ist die Anwendbarkeit diesesPotentials für Oberflächensystemefraglich. Aus diesem Grund haben wir untersucht, inwieweitsich die Oberflächeneigenschaften von Systemen, die mit Hilfe des BKS-Potentials äquilibriertwurden, durch ein Nachrelaxieren mit einer ab-initio-Simulation (Car-Parrinello-Methode)ändern. Mit Hilfe der Kombination aus BKS- und Car-Parrinello-Methode (CPMD)konnten wir feststellen, daß sich die Systeme aufgrund des Nachrelaxierens in z-Richtungweiter ausdehnen. Desweiteren zeigte sich insbesondere bei kleinen Ringen (kommen nur ander Oberfläche vor), daß es deutliche Abweichungen in den Geometrien (Atomabstände,Winkel usw.) zwischen der reinen BKS- und der kombinierten BKS-CPMD-Methode gibt. Anhand vonCPMD-Simulationen konnten wir zeigen, daß es durch die Wechselwirkung eines Wassermolekülsmit einem 2er-Ring zum Aufbrechen dieser Ringstruktur und zur Bildung von zweiSilanolgruppen (SiOH) kommt. Desweiteren stellten wir fest, daß es sich hierbei um eineexotherme Reaktion (Energiedifferenz 1.6 eV) handelt, für die eineEnergiebarriere von 1.1 eV überwunden werden muß. Ferner ergab sich, daß die an der Bildung des2er-Ringes beteiligten, stark deformierten Tetraeder nach dem Aufbrechen dieserRingstruktur eine nahezu ideale Tetraederform annehmen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Phasenverhalten und die Grenzflächeneigenschaften vonPolymeren in superkritischer Lösung werden anhand einesvergröberten Kugel-Feder-Modells für das ReferenzsystemHexadekan-CO2 untersucht. Zur Bestimmung der Parameter imPotential setzt man die kritischen Punkte von Simulation undExperiment gleich. Wechselwirkungen zwischen beidenKomponenten werden durch eine modifizierteLorentz-Berthelot-Regel modelliert. Die Übereinstimmung mitden Experimenten ist sehr gut - insbesondere kann dasPhasendiagramm des Mischsystems inklusive kritischer Linienreproduziert werden. Ein Vergleich mit numerischenStörungsrechnungen (TPT1) liefert eine qualitativeÜbereinstimmung und Hinweise zur Verbesserung derverwendeten Zustandsgleichung. Aufbauend auf diesen Betrachtungen werden die Frühstadiender Keimbildung untersucht. Für das Lennard-Jones-Systemwird zum ersten Mal der Übergang vom homogenen Gas zu einemeinzelnen Tropfen im endlichen Volumen direkt nachgewiesenund quantifiziert. Die freie Energie von kleinen Clusternwird mit einem einfachen, klassischen Nukleationsmodellbestimmt und nach oben abgeschätzt. Die vorgestellten Untersuchungen wurden durch eineWeiterentwicklung des Umbrella-Sampling-Algorithmusermöglicht. Hierbei wird die Simulation in mehrereSimulationsfenster unterteilt, die nacheinander abgearbeitetwerden. Die Methode erlaubt eine Bestimmung derFreien-Energie-Landschaft an einer beliebigen Stelle desPhasendiagramms. Der Fehler ist kontrollierbar undunabhängig von der Art der Unterteilung.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Wir betrachten die eindimensionale Heisenberg-Spinkette aus einem neuen und aktuelleren Blickwinkel. Experimentelle Techniken der Herstellung und selbstverständlich auch experimentelle Meßmethoden erlauben nicht nur die Herstellung von Nanopartikeln und Nanodrähten, sondern gestatten es auch, Domänenwände in diesen Strukturen auszumessen. Die meisten heute verwendeten Theorien und Simulationsmethoden haben ihre Grundlage im mikromagnetischen Kontinuumsmodell, daß schon über Jahrzehnte hinweg erforscht und erprobt ist. Wir stellen uns jedoch die Frage, ob die innere diskrete Struktur der Substrate und die quantenmechanischen Effekte bei der Genauigkeit heutiger Messungen in Betracht gezogen werden müssen. Dazu wählen wir einen anderen Ansatz. Wir werden zunächst den wohlbekannten klassischen Fall erweitern, indem wir die diskrete Struktur der Materie in unseren Berechnungen berücksichtigen. Man findet in diesem Formalismus einen strukturellen Phasenübergang zwischen einer Ising-artigen und einer ausgedehnten Wand. Das führt zu bestimmten Korrekturen im Vergleich zum Kontinuumsfall. Der Hauptteil dieser Arbeit wird sich dann mit dem quantenmechanischen Fall beschäftigen. Wir rotieren das System zunächst mit einer Reihe lokaler Transformationen derart, daß alle Spins in die z-Richtung ausgerichtet sind. Im Rahmen einer 1/S-Entwicklung läßt sich der erhaltene neue Hamilton-Operator diagonalisieren. Setzt man hier die klassische Lösung ein, so erhält man Anregungsmoden in diesem Grenzfall. Unsere Resultate erweitern und bestätigen frühere Berechnungen. Mit Hilfe der Numerik wird schließlich der Erwartungswert der Energie minimiert und somit die Form der Domänenwand im quantenmechanischen Fall berechnet. Hieraus ergeben sich auch bestimmte Korrekturen zum kritischen Verhalten des Systems. Diese Ergebnisse sind vollkommen neu.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Kolloidale Suspensionen, bei denen man die kolloidalen Teilchen als "Makroatome" in einem Kontinuum aus Lösungsmittelmolekülen auffaßt, stellen ein geeignetes Modellsystem zur Untersuchung von Verfestigungsvorgängen dar. Auf Grund der typischen beteiligten Längen- und Zeitskalen können Phasenübergänge bequem mit optischen Verfahren studiert werden. In der vorliegenden Arbeit wurde die Kinetik der Kristallisation in drei kolloidalen Systemen unterschiedlicher Teilchen-Teilchen-Wechselwirkung mit Lichtstreu- und mikroskopischen Methoden untersucht. Zur Untersuchung von Suspensionen aus sterisch stabilisierten PMMA-Teilchen, die in guter Näherung wie harte Kugeln wechselwirken, wurde ein neuartiges Laserlichtstreuexperiment aufgebaut, das die gleichzeitige Detektion von Bragg- und Kleinwinkelstreuung an einer Probe erlaubt. Damit konnte der zeitliche Verlauf der Kristallisation verfolgt sowie u.a. Nukleationsraten und erstmals auch Wachstumsgeschwindigkeiten bestimmt werden; diese wurden mit klassischer Nukleationstheorie sowie Wilson-Frenkel-Wachstum verglichen. In beiden Fällen konnte sehr gute Übereinstimmung mit der Theorie festgestellt werden. In Systemen geladener Partikel wurden mit Bragg-Mikroskopie die Wachstumsgeschwindigkeiten heterogener, an der Wand der Probenzelle aufwachsender Kristalle untersucht. Die Anpassung eines Wilson-Frenkel-Wachstumsgesetzes gelingt auch hier, wenn man die dazu eingeführte reskalierte Energiedichte auf den Schmelzpunkt bezieht. Geeignete Reskalierung der Daten erlaubt den Vergleich mit den Hartkugelsystemen. Zum ersten Mal wurde die Kristallisationskinetik in zwei verschiedenen kolloidalen binären Mischungen bestimmt und ausgewertet: In Beimischungen einer nichtkristallisierenden Teilchensorte zu einer kristallisierenden Suspension konnten die Daten mit einem modifizierten Wilson-Frenkel-Gesetz beschrieben werden, während in Mischungen aus zwei kristallisierenden Partikelsystemen eine unerwartet hohe Abnahme der Wachstumsgeschwindigkeiten beobachtet wurde. Kolloidale Suspensionen hartkugelähnlicher Mikrogel-Partikel konnten mit Hilfe des Lichtstreuaufbaues ebenfalls zum ersten Mal untersucht werden. Es wurde eine ähnliche Kristallisationskinetik wie in den PMMA-Systemen gefunden, jedoch auch einige wichtige Unterschiede, die insbesondere den Streumechanismus im Kleinwinkelbereich betrafen. Hier wurden verschiedene Interpretationsvorschläge diskutiert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der Nichtkommutativen Geometrie werden Räume und Strukturen durch Algebren beschrieben. Insbesondere werden hierbei klassische Symmetrien durch Hopf-Algebren und Quantengruppen ausgedrückt bzw. verallgemeinert. Wir zeigen in dieser Arbeit, daß der bekannte Quantendoppeltorus, der die Summe aus einem kommutativen und einem nichtkommutativen 2-Torus ist, nur den Spezialfall einer allgemeineren Konstruktion darstellt, die der Summe aus einem kommutativen und mehreren nichtkommutativen n-Tori eine Hopf-Algebren-Struktur zuordnet. Diese Konstruktion führt zur Definition der Nichtkommutativen Multi-Tori. Die Duale dieser Multi-Tori ist eine Kreuzproduktalgebra, die als Quantisierung von Gruppenorbits interpretiert werden kann. Für den Fall von Wurzeln der Eins erhält man wichtige Klassen von endlich-dimensionalen Kac-Algebren, insbesondere die 8-dim. Kac-Paljutkin-Algebra. Ebenfalls für Wurzeln der Eins kann man die Nichtkommutativen Multi-Tori als Hopf-Galois-Erweiterungen des kommutativen Torus interpretieren, wobei die Rolle der typischen Faser von einer endlich-dimensionalen Hopf-Algebra gespielt wird. Der Nichtkommutative 2-Torus besitzt bekanntlich eine u(1)xu(1)-Symmetrie. Wir zeigen, daß er eine größere Quantengruppen-Symmetrie besitzt, die allerdings nicht auf die Spektralen Tripel des Nichtkommutativen Torus fortgesetzt werden kann.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A polar stratospheric cloud submodel has been developed and incorporated in a general circulation model including atmospheric chemistry (ECHAM5/MESSy). The formation and sedimentation of polar stratospheric cloud (PSC) particles can thus be simulated as well as heterogeneous chemical reactions that take place on the PSC particles. For solid PSC particle sedimentation, the need for a tailor-made algorithm has been elucidated. A sedimentation scheme based on first order approximations of vertical mixing ratio profiles has been developed. It produces relatively little numerical diffusion and can deal well with divergent or convergent sedimentation velocity fields. For the determination of solid PSC particle sizes, an efficient algorithm has been adapted. It assumes a monodisperse radii distribution and thermodynamic equilibrium between the gas phase and the solid particle phase. This scheme, though relatively simple, is shown to produce particle number densities and radii within the observed range. The combined effects of the representations of sedimentation and solid PSC particles on vertical H2O and HNO3 redistribution are investigated in a series of tests. The formation of solid PSC particles, especially of those consisting of nitric acid trihydrate, has been discussed extensively in recent years. Three particle formation schemes in accordance with the most widely used approaches have been identified and implemented. For the evaluation of PSC occurrence a new data set with unprecedented spatial and temporal coverage was available. A quantitative method for the comparison of simulation results and observations is developed and applied. It reveals that the relative PSC sighting frequency can be reproduced well with the PSC submodel whereas the detailed modelling of PSC events is beyond the scope of coarse global scale models. In addition to the development and evaluation of new PSC submodel components, parts of existing simulation programs have been improved, e.g. a method for the assimilation of meteorological analysis data in the general circulation model, the liquid PSC particle composition scheme, and the calculation of heterogeneous reaction rate coefficients. The interplay of these model components is demonstrated in a simulation of stratospheric chemistry with the coupled general circulation model. Tests against recent satellite data show that the model successfully reproduces the Antarctic ozone hole.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present state of the theoretical predictions for the hadronic heavy hadron production is not quite satisfactory. The full next-to-leading order (NLO) ${cal O} (alpha_s^3)$ corrections to the hadroproduction of heavy quarks have raised the leading order (LO) ${cal O} (alpha_s^2)$ estimates but the NLO predictions are still slightly below the experimental numbers. Moreover, the theoretical NLO predictions suffer from the usual large uncertainty resulting from the freedom in the choice of renormalization and factorization scales of perturbative QCD.In this light there are hopes that a next-to-next-to-leading order (NNLO) ${cal O} (alpha_s^4)$ calculation will bring theoretical predictions even closer to the experimental data. Also, the dependence on the factorization and renormalization scales of the physical process is expected to be greatly reduced at NNLO. This would reduce the theoretical uncertainty and therefore make the comparison between theory and experiment much more significant. In this thesis I have concentrated on that part of NNLO corrections for hadronic heavy quark production where one-loop integrals contribute in the form of a loop-by-loop product. In the first part of the thesis I use dimensional regularization to calculate the ${cal O}(ep^2)$ expansion of scalar one-loop one-, two-, three- and four-point integrals. The Laurent series of the scalar integrals is needed as an input for the calculation of the one-loop matrix elements for the loop-by-loop contributions. Since each factor of the loop-by-loop product has negative powers of the dimensional regularization parameter $ep$ up to ${cal O}(ep^{-2})$, the Laurent series of the scalar integrals has to be calculated up to ${cal O}(ep^2)$. The negative powers of $ep$ are a consequence of ultraviolet and infrared/collinear (or mass ) divergences. Among the scalar integrals the four-point integrals are the most complicated. The ${cal O}(ep^2)$ expansion of the three- and four-point integrals contains in general classical polylogarithms up to ${rm Li}_4$ and $L$-functions related to multiple polylogarithms of maximal weight and depth four. All results for the scalar integrals are also available in electronic form. In the second part of the thesis I discuss the properties of the classical polylogarithms. I present the algorithms which allow one to reduce the number of the polylogarithms in an expression. I derive identities for the $L$-functions which have been intensively used in order to reduce the length of the final results for the scalar integrals. I also discuss the properties of multiple polylogarithms. I derive identities to express the $L$-functions in terms of multiple polylogarithms. In the third part I investigate the numerical efficiency of the results for the scalar integrals. The dependence of the evaluation time on the relative error is discussed. In the forth part of the thesis I present the larger part of the ${cal O}(ep^2)$ results on one-loop matrix elements in heavy flavor hadroproduction containing the full spin information. The ${cal O}(ep^2)$ terms arise as a combination of the ${cal O}(ep^2)$ results for the scalar integrals, the spin algebra and the Passarino-Veltman decomposition. The one-loop matrix elements will be needed as input in the determination of the loop-by-loop part of NNLO for the hadronic heavy flavor production.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work we develop and analyze an adaptive numerical scheme for simulating a class of macroscopic semiconductor models. At first the numerical modelling of semiconductors is reviewed in order to classify the Energy-Transport models for semiconductors that are later simulated in 2D. In this class of models the flow of charged particles, that are negatively charged electrons and so-called holes, which are quasi-particles of positive charge, as well as their energy distributions are described by a coupled system of nonlinear partial differential equations. A considerable difficulty in simulating these convection-dominated equations is posed by the nonlinear coupling as well as due to the fact that the local phenomena such as "hot electron effects" are only partially assessable through the given data. The primary variables that are used in the simulations are the particle density and the particle energy density. The user of these simulations is mostly interested in the current flow through parts of the domain boundary - the contacts. The numerical method considered here utilizes mixed finite-elements as trial functions for the discrete solution. The continuous discretization of the normal fluxes is the most important property of this discretization from the users perspective. It will be proven that under certain assumptions on the triangulation the particle density remains positive in the iterative solution algorithm. Connected to this result an a priori error estimate for the discrete solution of linear convection-diffusion equations is derived. The local charge transport phenomena will be resolved by an adaptive algorithm, which is based on a posteriori error estimators. At that stage a comparison of different estimations is performed. Additionally a method to effectively estimate the error in local quantities derived from the solution, so-called "functional outputs", is developed by transferring the dual weighted residual method to mixed finite elements. For a model problem we present how this method can deliver promising results even when standard error estimator fail completely to reduce the error in an iterative mesh refinement process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Arbeit beschäftigt sich mit ein- und zweikomponentigen, geladenen Kolloidsystemen, die in vollentsalzten wässrigen und organischen Dispersionen kristalline Strukturen ausbilden. Im ersten Teil der Arbeit wird die Wechselwirkung der Kolloide mit verschiedenen Methoden charakterisiert. Dabei zeigten sich quantitative Übereinstimmungen zwischen den Resultaten aus Zellenmodellrechnungen und aus elektrokinetischen Messungen einerseits und Messungen des Phasenverhaltens und der Elastizität andererseits. Diese nunmehr gut gesicherten Diskrepanzen und Korrelationen bedürfen des theoretischen Verständnisses. Im zweiten Teil der Arbeit wurde das Erstarrungsverhalten kolloidaler Scherschmelzen in den kristallinen Zustand mit (zeitaufgelöster) statischer Lichtstreuung und mikroskopischen Methoden untersucht. Dies erlaubte zunächst die kritische Überprüfung klassischer Modelle zur Kristallisationskinetik (Wilson- Frenkel- Gesetz, klassische Nukleationstheorie, Kolmogorov- Johnson- Mehl- Avrami (KJMA)- Modell). Es zeigte sich, dass diese Modelle gut geeignet sind die Verfestigung auch geladener kolloidaler Schmelzen zu beschreiben, wenn die diffusive Einteilchendynamik korrekt berücksichtigt wird. Erstmals wurden Oberflächenspannungen zwischen Kristallkeim und Schmelze für geladene Systeme bestimmt, die im Gegensatz zu Hartkugel- Systemen eine lineare Zunahme mit der Partikelkonzentration aufweisen. Der Methodenpark und die Auswerteverfahren wurden sodann auf binäre kolloidale Mischungen übertragen. Entsprechend den Einzelkomponenten kristallisieren alle Mischungen in einer kubischen Struktur. Leitfähigkeitsmessungen und Elastizität stehen meist im Einklang mit der Nukleation zufallsgeordneter Substitutionskristalle. Für mehrere Proben mit unterschiedlichen Größenverhältnissen wurde mit statischer Lichtstreuung der Einfluss der Komposition und der Partikelkonzentration auf das Nukleationsverhalten untersucht. Im Allgemeinen wurde das Nukleationsszenario einkomponentiger Systeme mit einigen unerwarteten, quantitativen Unterschieden reproduziert. Für eine Probe, die eine Kompositionsordnung andeutet, wurden interessante Korrelationen zwischen der Nukleationskinetik und den Eigenschaften des resultierenden Festkörpers gefunden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Germaniumdioxid (GeO2) ist ein Glasbildner, der wie das homologe SiO2 ein ungeordnetes tetraedrisches Netzwerk ausbildet. In dieser Arbeit werden mit Hilfe von Molekulardynamik-Computersimulationen die Struktur und Dynamik von GeO2 in Abhängigkeit von der Temperatur untersucht. Dazu werden sowohl Simulationen mit einem klassischen Paarpotentialmodell von Oeffner und Elliott als auch ab initio-Simulationen gemäß der Car-Parrinello-Molekulardynamik (CPMD), bei der elektronische Freiheitsgrade mittels Dichtefunktionaltheorie beschrieben werden, durchgeführt. In der klassischen Simulation werden dazu ein Temperaturen zwischen 6100 K und 2530 K betrachtet. Darüberhinaus ermöglichen Abkühlläufe auf T=300 K das Studium der Struktur des Glases. Zum Vergleich werden CPMD-Simulationen für kleinere Systeme mit 60 bzw. 120 Teilchen bei den Temperaturen 3760 K und 3000 K durchgeführt. In den klassischen Simulationen kann die im Experiment bis 1700 K nachgewiesene, im Vergleich zu SiO2 starke, Temperaturabhängigkeit der Dichte auch bei höheren Temperaturen beobachtet werden. Gute Übereinstimmungen der Simulationen mit experimentellen Daten zeigen sich bei der Untersuchung verschiedener struktureller Größen, wie z.B. Paarkorrelationsfunktionen, Winkelverteilungen, Koordinationszahlen und Strukturfaktoren. Es können leichte strukturelle Abweichungen der CPMD-Simulationen von den klassischen Simulationen aufgezeigt werden: 1. Die Paarabstände in CPMD sind durchweg etwas kleiner. 2. Es zeigt sich, daß die Bindungen in den ab initio-Simulationen weicher sind, was sich auch in einer etwas stärkeren Temperaturabhängigkeit der strukturellen Größen im Vergleich zu den klassischen Simulationen niederschlägt. 3. Für CPMD kann ein vermehrtes Auftreten von Dreierringstrukturen gezeigt werden. 4. In der CPMD werden temperaturabhängige Defektstrukturen in Form von Sauerstoffpaaren beobachtet, die vor allem bei 3760 K, kaum jedoch bei 3000 K auftreten. Alle strukturellen Unterschiede zwischen klassischer und CPMD-Simulation sind eindeutig nicht auf Finite-Size-Effekte aufgrund der kleinen Systemgrößen in den CPMD-Simulationen zurückzuführen, d.h. sie sind tatsächlich methodisch bedingt. Bei der Dynamik von GeO2 wird in den klassischen Simulationen ebenfalls eine gute Übereinstimmung mit experimentellen Daten beobachtet, was ein Vergleich der Diffusionskonstanten mit Viskositätsmessungen bei hohen Temperaturen belegt. Die Diffusionskonstanten zeigen teilweise ein verschiedenes Verhalten zum homologen SiO2. Sie folgen in GeO2 bei Temperaturen unter 3000 K einem Arrheniusgesetz mit einer deutlich niedrigeren Aktivierungsenergie. Darüberhinaus werden die Möglichkeiten der Parametrisierung eines neuen klassischen Paarpotentials mittels der Kräfte entlang der CPMD-Trajektorien untersucht. Es zeigt sich, daß derartige Parametrisierungen sehr stark von den gewählten Startparametern abhängen. Ferner führen sämtliche an die Schmelze parametrisierten Potentiale zu zu hohen Dichten im Vergleich zum Experiment. Zum einen liegt dies sehr wahrscheinlich daran,daß für das System GeO2 Kraftdaten allein nicht ausreichen, um grundlegende strukturelle Größen, wie z.B. Paarkorrelationen und Winkelverteilungen, der CPMD-Simulationen gut reproduzieren zu können. Zum anderen ist wohl die Beschreibung mittels Paarpotentialen nicht ausreichend und es ist erforderlich, Merkörperwechselwirkungen in Betracht zu ziehen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Elektrische Impedanztomographie soll als kostengünstige und nebenwirkungsfreie Tomographiemethode in der medizinischen Diagnostik, z. B. in der Mammographie dienen. Mit der EIT läßt sich Krebsgewebe von gesundem Gewebe unterscheiden, da es eine signifikant erhöhte Leitfähigkeit aufweist. Damit kann die EIT als Ergänzung zu den klassischen Diagnoseverfahren dienen. So ist z.B. bei jungen Frauen mit einem dichteren Fettgewebe die Identifizierung eines Mammakarzinoms mit der Röntgentomographie nicht immer möglich. Ziel dieser Arbeit war es, einen Prototypen für die Impedanztomographie zu entwickeln und mögliche Anwendungen zu testen. Der Tomograph ist in Zusammenarbeit mit Dr. K.H.Georgi gebaut worden. Der Tomograph erlaubt es niederohmige, Wechselströme an Elektroden auf der Körperoberfläche einzuspeisen. Die Potentiale können an diesen Elektroden programmierbar vorgegeben werden. Weitere hochohmige Elektroden dienen zur Potentialmessung. Um den Hautwiderstand zu überbrücken, werden Wechselstromfrequenzen von 20-100 kHz eingesetzt. Mit der Möglichkeit der Messung von Strom und Potential auf unterschiedlichen Elektroden kann man das Problem des nur ungenau bekannten Hautwiderstandes umgehen. Prinzipiell ist es mit dem Mainzer EIT System möglich, 100 Messungen in der Sekunde durchzuführen. Auf der Basis von mit dem Mainzer EIT gewonnenen Daten sollten unterschiedliche Rekonstruktionsalgorithmen getestet und weiterentwickelt werden. In der Vergangenheit sind verschiedene Rekonstruktionsalgorithmen für das mathematisch schlecht gestellte EIT Problem betrachtet worden. Sie beruhen im Wesentlichen auf zwei Strategien: Die Linearisierung und iterative Lösung des Problems und Gebietserkennungsmethoden. Die iterativen Verfahren wurden von mir dahingehend modifiziert, dass Leitfähigkeitserhöhungen und Leitfähigkeitserniedrigungen gleichberechtigt behandelt werden können. Für den modifizierten Algorithmus wurden zwei verschiedene Rekonstruktionsalgorithmen programmiert und mit synthetischen Daten getestet. Zum einen die Rekonstruktion über die approximative Inverse, zum anderen eine Rekonstruktion mit einer Diskretisierung. Speziell für die Rekonstruktion mittels Diskretisierung wurde eine Methode entwickelt, mit der zusätzliche Informationen in der Rekonstruktion berücksichtigt werden können, was zu einer Verbesserung der Rekonstruktion beiträgt. Der Gebietserkennungsalgorithmus kann diese Zusatzinformationen liefern. In der Arbeit wurde ein neueres Verfahren für die Gebietserkennung derart modifiziert, dass eine Rekonstruktion auch für getrennte Strom- und Spannungselektroden möglich wurde. Mit Hilfe von Differenzdaten lassen sich ausgezeichnete Rekonstruktionen erzielen. Für die medizinischen Anwendungen sind aber Absolutmessungen nötig, d.h. ohne Leermessung. Der erwartende Effekt einer Inhomogenität in der Leitfähigkeit ist sehr klein und als Differenz zweier grosser Zahlen sehr schwierig zu bestimmen. Die entwickelten Algorithmen kommen auch gut mit Absolutdaten zurecht.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit wurde die elektromagnetische Pionproduktion unter der Annahme der Isospinsymmetrie der starken Wechselwirkung im Rahmen der manifest Lorentz-invarianten chiralen Störungstheorie in einer Einschleifenrechnung bis zur Ordnung vier untersucht. Dazu wurden auf der Grundlage des Mathematica-Pakets FeynCalc Algorithmen zur Berechnung der Pionproduktionsamplitude entwickelt. Bis einschließlich der Ordnung vier tragen insgesamt 105 Feynmandiagramme bei, die sich in 20 Baumdiagramme und 85 Schleifendiagramme unterteilen lassen. Von den 20 Baumdiagrammen wiederum sind 16 als Polterme und vier als Kontaktgraphen zu klassifizieren; bei den Schleifendiagrammen tragen 50 Diagramme ab der dritten Ordnung und 35 Diagramme ab der vierten Ordnung bei. In der Einphotonaustauschnäherung lässt sich die Pionproduktionsamplitude als ein Produkt des Polarisationsvektors des (virtuellen) Photons und des Übergangsstrommatrixelements parametrisieren, wobei letzteres alle Abhängigkeiten der starken Wechselwirkung beinhaltet und wo somit die chirale Störungstheorie ihren Eingang findet. Der Polarisationsvektor hingegen hängt von dem leptonischen Vertex und dem Photonpropagator ab und ist aus der QED bekannt. Weiterhin lässt sich das Übergangsstrommatrixelement in sechs eichinvariante Amplituden zerlegen, die sich im Rahmen der Isospinsymmetrie jeweils wiederum in drei Isospinamplituden zerlegen lassen. Linearkombinationen dieser Isospinamplituden erlauben letztlich die Beschreibung der physikalischen Amplituden. Die in dieser Rechnung auftretenden Einschleifenintegrale wurden numerisch mittels des Programms LoopTools berechnet. Im Fall tensorieller Integrale erfolgte zunächst eine Zerlegung gemäß der Methode von Passarino und Veltman. Da die somit erhaltenen Ergebnisse jedoch i.a. noch nicht das chirale Zählschema erfüllen, wurde die entsprechende Renormierung mittels der reformulierten Infrarotregularisierung vorgenommen. Zu diesem Zweck wurde ein Verfahren entwickelt, welches die Abzugsterme automatisiert bestimmt. Die schließlich erhaltenen Isospinamplituden wurden in das Programm MAID eingebaut. In diesem Programm wurden als Test (Ergebnisse bis Ordnung drei) die s-Wellenmultipole E_{0+} und L_{0+} in der Schwellenregion berechnet. Die Ergebnisse wurden sowohl mit Messdaten als auch mit den Resultaten des "klassischen" MAID verglichen, wobei sich i. a. gute Übereinstimmungen im Rahmen der Fehler ergaben.