110 resultados para Numerische Wettervorhersage
Resumo:
In der vorliegenden Dissertation werden zwei verschiedene Aspekte des Sektors ungerader innerer Parität der mesonischen chiralen Störungstheorie (mesonische ChPT) untersucht. Als erstes wird die Ein-Schleifen-Renormierung des führenden Terms, der sog. Wess-Zumino-Witten-Wirkung, durchgeführt. Dazu muß zunächst der gesamte Ein-Schleifen-Anteil der Theorie mittels Sattelpunkt-Methode extrahiert werden. Im Anschluß isoliert man alle singulären Ein-Schleifen-Strukturen im Rahmen der Heat-Kernel-Technik. Zu guter Letzt müssen diese divergenten Anteile absorbiert werden. Dazu benötigt man eine allgemeinste anomale Lagrange-Dichte der Ordnung O(p^6), welche systematisch entwickelt wird. Erweitert man die chirale Gruppe SU(n)_L x SU(n)_R auf SU(n)_L x SU(n)_R x U(1)_V, so kommen zusätzliche Monome ins Spiel. Die renormierten Koeffizienten dieser Lagrange-Dichte, die Niederenergiekonstanten (LECs), sind zunächst freie Parameter der Theorie, die individuell fixiert werden müssen. Unter Betrachtung eines komplementären vektormesonischen Modells können die Amplituden geeigneter Prozesse bestimmt und durch Vergleich mit den Ergebnissen der mesonischen ChPT eine numerische Abschätzung einiger LECs vorgenommen werden. Im zweiten Teil wird eine konsistente Ein-Schleifen-Rechnung für den anomalen Prozeß (virtuelles) Photon + geladenes Kaon -> geladenes Kaon + neutrales Pion durchgeführt. Zur Kontrolle unserer Resultate wird eine bereits vorhandene Rechnung zur Reaktion (virtuelles) Photon + geladenes Pion -> geladenes Pion + neutrales Pion reproduziert. Unter Einbeziehung der abgeschätzten Werte der jeweiligen LECs können die zugehörigen hadronischen Strukturfunktionen numerisch bestimmt und diskutiert werden.
Resumo:
In der vorliegenden Arbeit werden Entwicklung und Test einesneuartigen bildgebenden Verfahrens mit Röntgenstrahlung,Polychromographie genannt, beschrieben. Mit ihm können kontrastmittelgefüllte Strukturen unter effizienterAusnutzung des zur Verfügung stehenden Photonenflussessichtbar gemacht werden. Als Röntgenstrahlungsquelle wird Übergangsstrahlung verwendet, die vom 855 MeVElektronenstrahl des Mainzer Mikrotrons MAMI beimDurchqueren eines Polyimidfolienstapels emittiert wird. Ausdieser wird mit einem hochorientierten pyrolytischenGraphit-Kristall ein quasimonochromatischer Röntgenstrahlerzeugt mit dem das Untersuchungsobjekt ausgeleuchtet wird.Mit Hilfe einer Richtungsänderung des Elektronenstrahls beisynchronem Verfahren und Drehen des Kristalls, wird an jedemPunkt in der Detektorebene die Energie der Strahlung überein mehrere keV breites Intervall um die K-Absorptionskantedes Kontrastmittels variiert. Die Kontrastmittelverteilungwird durch numerische Analyse der mit jedem Bildpunkt eineszweidimensional orts- und energieauflösenden Detektorsaufgenommenen Intensitätsspektren ermittelt. DiePolychromographie wurde bei einer mittleren Energie desRöntgenstrahls von 20 keV erfolgreich an einem Phantombestehend aus Kupfer- und Molybdänfolien (Kontrastmittel)verschiedener Dicken (Cu: 136, 272 Mikrometer und Mo: 10, 5,2.5 Mikrometer) getestet. Es wurde gezeigt, daß sich dasSignal-zu-Rausch-Verhältnis (SNR) in den rekonstruiertenBildern verbessert, solange sich beim Vergrößern desDurchstimmintervalls die im Intervall enthaltenePhotonenzahl proportional vergrößert. Im Vergleich zurDichromographie liefert die Polychromographie ein um einenFaktor zwei geringeres SNR. Das gleiche SNR wird erreicht,wenn das Absorptionsverhalten des Untersuchungsobjektes,z.B. durch eine Leeraufnahme ermittelt, bei der Analysevorgegeben wird.
Resumo:
Der Austausch von Spurengasen und Aerosolpartikeln zwischenAtmosphäre und Biosphäre spielt eine wichtige Rolle in derAtmosphärenphysik und -chemie. Wälder repräsentieren sowohleine signifikante Senke als auch Quelle für Spurengase undPartikel und tragen somit maßgeblich zu derenatmosphärischem Budget bei. Strahlungsnebel beeinflußt durchAufnahme, Entfernen und Prozessieren von Aerosolpartikelnund löslichen Spurengasen deren Konzentrationen in derGasphase. In dieser Arbeit wird erstmalig ein Modell präsentiert,welches die Simulation des Austausches zwischen Atmosphäreund Biosphäre unter Berücksichtigung der dynamischenWechselwirkung zwischen Strahlungsnebel, Blattflächenwasserund Mehrphasenchemie ermöglicht. Numerische Fallstudien mitfolgenden Schwerpunkten werden präsentiert: - Einfluß von Vegetation und Blattflächenwasser auf diezeitlichen und räumlichen Schwankungen derGrößenabhängigkeit der Flüssigphasenkonzentrationen inNebeltropfen, - Einfluß von Blattflächenwasser auf dieTrockendepositionsflüsse von Ammoniak im Wald - Simulationenwurden mit einem neuen dynamischen Depositionsmodelldurchgeführt und mit dem Widerstandsansatz verglichen -, - Einfluß von physikalischen und chemischen Prozessen aufdie Reduktion von NO- und Isoprenemissionen aus demWaldbestand verglichen mit den primären Emissionen.
Resumo:
Zusammenfassung der Dissertation von Gerd Jochen ArnoldThema: Aufstieg und Fall eines Gebirges - Konvektionsmodelle zur variscischen Orogenese Diese Arbeit befaßt sich mit der Entwicklung der variscischen Gebirgswurzel. Numerische Modellierung wurden mit dem Finite-Differenzen-Programm FDCON durchgeführt. Dieses berechnet auf einem Gitter die Entwicklung von Konvektion unter Berücksichtigung von Massen-, Impuls- und Energieerhaltung. Der Modellansatz eignet sich für die Untersuchung der Orogenese unter Miteinbeziehung der thermo-mechanischen Wechselwirkung von Kruste und Mantel. Kapitel 1 beschreibt wesentliche Aspekte der variscischen Gebirgsbildung. Die tektonostratigraphische Gliederung erlaubt Rückschlüsse auf das plattentektonische Szenarium während der Gebirgsbildung. Die Kollision involvierte einige Terranes, die sukzessive an Laurasia angebaut wurden und die finale Konvergenz von Gondwana mit den konsolidierten Einheiten. Diese bewirkte den maximalen Aufbau der Varisciden, der durch Hochdruck-Gesteine dokumentiert ist. Diese wurden kurz nach maximaler Krustenverdickung innerhalb weniger Millionen Jahre in geringe Tiefen angehoben. Darauf folgte eine Aufheizung der Kruste, die durch Granite dokumentiert ist. Eine zentrale Frage der Variscidenforschung ist die Ursache für die erhöhten Temperaturen in der späten orogenen Phase. Geringe und gleichförmige Krustenmächtigkeiten unter den heutigen europäischen Varisciden legen die Vermutung nahe, daß sich Teile der Mantelwurzel des Gebirges abgelöst und abgesunken sind.Kapitel 2 beschreibt physikalische Aspekte von gebirgsbildenden Prozessen, insbesondere den thermischen Zustand kontinentaler Lithosphäre und die Folgen von Krustenkonvergenz. Der Einfluß von kompositioneller Schichtung und extrinsischen Parametern auf die Rheologie und das Wechselspiel zwischen auf- und abwärts gerichteten Kräften in verschiedenen orogenen Szenarien werden diskutiert.Kapitel 3 stellt die Modelle zur variscischen Gebirgsbildung vor. Ausgehend von Kontinent-Kontinent-Kollision werden Konsequenzen von rheologischer Schichtung und tiefreichenden Schwächezonen auf das Deformationsverhalten der Kruste untersucht. Außerdem wird ein Modell zum Abriß von Mantellithosphäre während Kollision vorgestellt. Abschließend werden die thermischen Konsequenzen von Subduktion junger ozeanischer Lithosphäre diskutiert.Kapitel 4 versucht eine Synthese der Kollisionsmodelle mit Modellen zur spätorogenen variscischen Entwicklung. Die mechanischen Eigenschaften der Delaminationsmodelle sollten während der Aufbauphase des Orogens angelegt worden sein. Außerdem wird eine Fallstudie vorgestellt, bei der die Modellparameter auf die Entwicklungsgeschichte erzgebirgischer Einheiten angepaßt worden sind. Schließlich werden Modelle zur thermischen Entwicklung nach Aufstieg von Asthenosphäre an die Krustenwurzel diskutiert. Die vulkanische Aktivität während der spätorogenen variscischen Phase kann plausibel erklärt werden.Kapitel 5 faßt die Ergebnisse zusammen und interpretiert diese bezüglich des plattentektonischen Szenariums der variscischen Orogenese. Durch die sukzessive Anlegung der Suturzonen während der Konsolidierung der Terranes sind die für Delamination nötigen Schwächezonen sukzessive ins variscische Orogen eingebaut worden.
Resumo:
Im Mittelpunkt dieser Arbeit steht Beweis der Existenz- und Eindeutigkeit von Quadraturformeln, die für das Qualokationsverfahren geeignet sind. Letzteres ist ein von Sloan, Wendland und Chandler entwickeltes Verfahren zur numerischen Behandlung von Randintegralgleichungen auf glatten Kurven (allgemeiner: periodische Pseudodifferentialgleichungen). Es erreicht die gleichen Konvergenzordnungen wie das Petrov-Galerkin-Verfahren, wenn man durch den Operator bestimmte Quadraturformeln verwendet. Zunächst werden die hier behandelten Pseudodifferentialoperatoren und das Qualokationsverfahren vorgestellt. Anschließend wird eine Theorie zur Existenz und Eindeutigkeit von Quadraturformeln entwickelt. Ein wesentliches Hilfsmittel hierzu ist die hier bewiesene Verallgemeinerung eines Satzes von Nürnberger über die Existenz und Eindeutigkeit von Quadraturformeln mit positiven Gewichten, die exakt für Tschebyscheff-Räume sind. Es wird schließlich gezeigt, dass es stets eindeutig bestimmte Quadraturformeln gibt, welche die in den Arbeiten von Sloan und Wendland formulierten Bedingungen erfüllen. Desweiteren werden 2-Punkt-Quadraturformeln für so genannte einfache Operatoren bestimmt, mit welchen das Qualokationsverfahren mit einem Testraum von stückweise konstanten Funktionen eine höhere Konvergenzordnung hat. Außerdem wird gezeigt, dass es für nicht-einfache Operatoren im Allgemeinen keine Quadraturformel gibt, mit der die Konvergenzordnung höher als beim Petrov-Galerkin-Verfahren ist. Das letzte Kapitel beinhaltet schließlich numerische Tests mit Operatoren mit konstanten und variablen Koeffizienten, welche die theoretischen Ergebnisse der vorangehenden Kapitel bestätigen.
Resumo:
Spin-Restricted Coupled-Cluster-Theorie fuer offenschaligeZustaende Die Berechnung von Energien und Eigenschaften offenschaligerAtome undMolekuele mit Hilfe der hochgenauenCoupled-Cluster-(CC)-Theoriewar bisher mit einem - im Vergleich zur BerechnunggeschlossenschaligerZustaende - erhoehten Rechenaufwand und der sogenannten'Spinkontamination' behaftet. Um diesen Problemenentgegenzuwirken,stellten P.G.Szalay und J.Gauss die 'Spin-RestrictedCoupled-Cluster-Theorie' vor. Im Rahmen dieser Arbeit wird die urspruenglich aufDublett-Zustaendebeschraenkte Theorie so verallgemeinert, dass jederbeliebige Spinzustandmit einem einheitlichen Satz von Gleichungen beschriebenwerden kann. Dadie Moller-Plesset-(MP)-Stoerungstheorie bei der BerechnungoffenschaligerZustaende mit aehnlichen Problemen behaftet ist, wirddarueberhinaus dieSpin-Restricted-(SR)-MP-Stoerungstheorie zweiter und dritterOrdnungeingefuehrt. Um Molekueleigenschaften berechnen zu koennen,werdenanalytische Ableitungen der Energie sowohl fuer den SR-CC-als auch denSR-MP-Ansatz hergeleitet. Bei den folgenden Testrechnungenstellt sichheraus, dass sowohl SR-CC- als auch SR-MP-Ansaetze diegleiche Genauigkeitbieten wie konventionelle CC- und MP-Ansaetze. Dabei sinddieSpinerwartungswerte der SR-CC-Wellenfunktionen identisch mitdem exaktenWert. Im Rahmen der Testrechnungen stellt sich heraus, dassder SR-CC-Ansatz nicht 'size-konsistent', der numerische Fehler abervernachlaessigbar klein ist. Abschliessend werden dieHintergruende derfehlenden 'Size-Konsistenz' diskutiert.
Resumo:
In der vorliegenden Arbeit werden zwei physikalischeFließexperimente an Vliesstoffen untersucht, die dazu dienensollen, unbekannte hydraulische Parameter des Materials, wiez. B. die Diffusivitäts- oder Leitfähigkeitsfunktion, ausMeßdaten zu identifizieren. Die physikalische undmathematische Modellierung dieser Experimente führt auf einCauchy-Dirichlet-Problem mit freiem Rand für die degeneriertparabolische Richardsgleichung in derSättigungsformulierung, das sogenannte direkte Problem. Ausder Kenntnis des freien Randes dieses Problems soll dernichtlineare Diffusivitätskoeffizient derDifferentialgleichung rekonstruiert werden. Für diesesinverse Problem stellen wir einOutput-Least-Squares-Funktional auf und verwenden zu dessenMinimierung iterative Regularisierungsverfahren wie dasLevenberg-Marquardt-Verfahren und die IRGN-Methode basierendauf einer Parametrisierung des Koeffizientenraumes durchquadratische B-Splines. Für das direkte Problem beweisen wirunter anderem Existenz und Eindeutigkeit der Lösung desCauchy-Dirichlet-Problems sowie die Existenz des freienRandes. Anschließend führen wir formal die Ableitung desfreien Randes nach dem Koeffizienten, die wir für dasnumerische Rekonstruktionsverfahren benötigen, auf einlinear degeneriert parabolisches Randwertproblem zurück.Wir erläutern die numerische Umsetzung und Implementierungunseres Rekonstruktionsverfahrens und stellen abschließendRekonstruktionsergebnisse bezüglich synthetischer Daten vor.
Resumo:
Sandwich-Singularitäten sind die Singularitäten auf derNormalisierung von Aufblasungen eines regulärenFlächenkeimes. In der Arbeit wird ein enger Zusammenhangzwischen Topologie und Deformationstheorie vonSandwich-Singularitäten einerseits und ebenenKurvensingularitäten andererseits dargestellt. NeueErgebnisse betreffen u.a. Deformationen vonnulldimensionalen komplexen Räumen in der Ebene, die durchvollständige Ideale beschrieben werden, z.B. wann'simultanes Aufblasen' der Fasern einer solchen Deformationmöglich ist. Zudem werden Glättungskomponenten und dieKollar-Vermutung für Sandwich-Singularitäten untersucht undim Zusammenhang damit numerische Kriterien für die Frage, obdie symbolische Algebra einer Raumkurve endlich erzeugt ist.
Resumo:
In dieser Arbeit werden die QCD-Strahlungskorrekturen in erster Ordnung der starken Kopplungskonstanten für verschiedene Polarisationsobservablen zu semileptonischen Zerfällen eines bottom-Quarks in ein charm-Quark und ein Leptonpaar berechnet. Im ersten Teil wird der Zerfall eines unpolarisierten b-Quarks in ein polarisiertes c-Quark sowie ein geladenes Lepton und ein Antineutrino im Ruhesystem des b-Quarks analysiert. Es werden die Strahlungskorrekturen für den unpolarisierten und den polarisierten Beitrag zur differentiellen Zerfallsrate nach der Energie des c-Quarks berechnet, wobei das geladene Lepton als leicht angesehen und seine Masse daher vernachlässigt wird. Die inklusive differentielle Rate wird durch zwei Strukturfunktionen in analytischer Form dargestellt. Anschließend werden die Strukturfunktionen und die Polarisation des c-Quarks numerisch ausgewertet. Nach der Einführung der Helizitäts-Projektoren befaßt sich der zweite Teil mit dem kaskadenartigen Zerfall eines polarisierten b-Quarks in ein unpolarisiertes c-Quark und ein virtuelles W-Boson, welches weiter in ein Paar leichter Leptonen zerfällt. Es werden die inklusiven Strahlungskorrekturen zu drei unpolarisierten und fünf polarisierten Helizitäts-Strukturfunktionen in analytischer Form berechnet, welche die Winkelverteilung für die differentielle Zerfallsrate nach dem Viererimpulsquadrat des W-Bosons beschreiben. Die Strukturfunktionen enthalten die Informationen sowohl über die polare Winkelverteilung zwischen dem Spinvektor des b-Quarks und dem Impulsvektor des W-Bosons als auch über die räumliche Winkelverteilung zwischen den Impulsen des W-Bosons und des Leptonpaars. Der Impuls und der Spinvektor des b-Quarks sowie der Impuls des W-Bosons werden im b-Ruhesystem analysiert, während die Impulse des Leptonpaars im W-Ruhesystem ausgewertet werden. Zusätzlich zu den genannten Strukturfunktionen werden noch die unpolarisierte und die polarisierte skalare Strukturfunktion angegeben, die in Anwendungen bei hadronischen Zerfällen eine Rolle spielen. Anschließend folgt eine numerische Auswertung aller berechneten Strukturfunktionen. Im dritten Teil werden die nichtperturbativen HQET-Korrekturen zu inklusiven semileptonischen Zerfällen schwerer Hadronen diskutiert, welche ein b-Quark enthalten. Sie beschreiben hadronische Korrekturen, die durch die feste Bindung des b-Quarks in Hadronen hervorgerufen werden. Es werden insgesamt fünf unpolarisierte und neun polarisierte Helizitäts-Strukturfunktionen in analytischer Form angegeben, die auch eine endliche Masse und den Spin des geladenen Leptons berücksichtigen. Die Strukturfunktionen werden sowohl in differentieller Form in Abhängigkeit des quadrierten Viererimpulses des W-Bosons als auch in integrierter Form präsentiert. Zum Schluß werden die zuvor erhaltenen Resultate auf die semi-inklusiven hadronischen Zerfälle eines polarisierten Lambda_b-Baryons oder eines B-Mesons in ein D_s- oder ein D_s^*-Meson unter Berücksichtigung der D_s^*-Polarisation angewandt. Für die zugehörigen Winkelverteilungen werden die inklusiven QCD- und die nichtperturbativen HQET-Korrekturen zu den Helizitäts-Strukturfunktionen in analytischer Form angegeben und anschließend numerisch ausgewertet.
Resumo:
The present state of the theoretical predictions for the hadronic heavy hadron production is not quite satisfactory. The full next-to-leading order (NLO) ${cal O} (alpha_s^3)$ corrections to the hadroproduction of heavy quarks have raised the leading order (LO) ${cal O} (alpha_s^2)$ estimates but the NLO predictions are still slightly below the experimental numbers. Moreover, the theoretical NLO predictions suffer from the usual large uncertainty resulting from the freedom in the choice of renormalization and factorization scales of perturbative QCD.In this light there are hopes that a next-to-next-to-leading order (NNLO) ${cal O} (alpha_s^4)$ calculation will bring theoretical predictions even closer to the experimental data. Also, the dependence on the factorization and renormalization scales of the physical process is expected to be greatly reduced at NNLO. This would reduce the theoretical uncertainty and therefore make the comparison between theory and experiment much more significant. In this thesis I have concentrated on that part of NNLO corrections for hadronic heavy quark production where one-loop integrals contribute in the form of a loop-by-loop product. In the first part of the thesis I use dimensional regularization to calculate the ${cal O}(ep^2)$ expansion of scalar one-loop one-, two-, three- and four-point integrals. The Laurent series of the scalar integrals is needed as an input for the calculation of the one-loop matrix elements for the loop-by-loop contributions. Since each factor of the loop-by-loop product has negative powers of the dimensional regularization parameter $ep$ up to ${cal O}(ep^{-2})$, the Laurent series of the scalar integrals has to be calculated up to ${cal O}(ep^2)$. The negative powers of $ep$ are a consequence of ultraviolet and infrared/collinear (or mass ) divergences. Among the scalar integrals the four-point integrals are the most complicated. The ${cal O}(ep^2)$ expansion of the three- and four-point integrals contains in general classical polylogarithms up to ${rm Li}_4$ and $L$-functions related to multiple polylogarithms of maximal weight and depth four. All results for the scalar integrals are also available in electronic form. In the second part of the thesis I discuss the properties of the classical polylogarithms. I present the algorithms which allow one to reduce the number of the polylogarithms in an expression. I derive identities for the $L$-functions which have been intensively used in order to reduce the length of the final results for the scalar integrals. I also discuss the properties of multiple polylogarithms. I derive identities to express the $L$-functions in terms of multiple polylogarithms. In the third part I investigate the numerical efficiency of the results for the scalar integrals. The dependence of the evaluation time on the relative error is discussed. In the forth part of the thesis I present the larger part of the ${cal O}(ep^2)$ results on one-loop matrix elements in heavy flavor hadroproduction containing the full spin information. The ${cal O}(ep^2)$ terms arise as a combination of the ${cal O}(ep^2)$ results for the scalar integrals, the spin algebra and the Passarino-Veltman decomposition. The one-loop matrix elements will be needed as input in the determination of the loop-by-loop part of NNLO for the hadronic heavy flavor production.
Resumo:
Wegen der fortschreitenden Miniaturisierung von Halbleiterbauteilen spielen Quanteneffekte eine immer wichtigere Rolle. Quantenphänomene werden gewöhnlich durch kinetische Gleichungen beschrieben, aber manchmal hat eine fluid-dynamische Beschreibung Vorteile: die bessere Nutzbarkeit für numerische Simulationen und die einfachere Vorgabe von Randbedingungen. In dieser Arbeit werden drei Diffusionsgleichungen zweiter und vierter Ordnung untersucht. Der erste Teil behandelt die implizite Zeitdiskretisierung und das Langzeitverhalten einer degenerierten Fokker-Planck-Gleichung. Der zweite Teil der Arbeit besteht aus der Untersuchung des viskosen Quantenhydrodynamischen Modells in einer Raumdimension und dessen Langzeitverhaltens. Im letzten Teil wird die Existenz von Lösungen einer parabolischen Gleichung vierter Ordnung in einer Raumdimension bewiesen, und deren Langzeitverhalten studiert.
Resumo:
In this work we are concerned with the analysis and numerical solution of Black-Scholes type equations arising in the modeling of incomplete financial markets and an inverse problem of determining the local volatility function in a generalized Black-Scholes model from observed option prices. In the first chapter a fully nonlinear Black-Scholes equation which models transaction costs arising in option pricing is discretized by a new high order compact scheme. The compact scheme is proved to be unconditionally stable and non-oscillatory and is very efficient compared to classical schemes. Moreover, it is shown that the finite difference solution converges locally uniformly to the unique viscosity solution of the continuous equation. In the next chapter we turn to the calibration problem of computing local volatility functions from market data in a generalized Black-Scholes setting. We follow an optimal control approach in a Lagrangian framework. We show the existence of a global solution and study first- and second-order optimality conditions. Furthermore, we propose an algorithm that is based on a globalized sequential quadratic programming method and a primal-dual active set strategy, and present numerical results. In the last chapter we consider a quasilinear parabolic equation with quadratic gradient terms, which arises in the modeling of an optimal portfolio in incomplete markets. The existence of weak solutions is shown by considering a sequence of approximate solutions. The main difficulty of the proof is to infer the strong convergence of the sequence. Furthermore, we prove the uniqueness of weak solutions under a smallness condition on the derivatives of the covariance matrices with respect to the solution, but without additional regularity assumptions on the solution. The results are illustrated by a numerical example.
Resumo:
In this work we develop and analyze an adaptive numerical scheme for simulating a class of macroscopic semiconductor models. At first the numerical modelling of semiconductors is reviewed in order to classify the Energy-Transport models for semiconductors that are later simulated in 2D. In this class of models the flow of charged particles, that are negatively charged electrons and so-called holes, which are quasi-particles of positive charge, as well as their energy distributions are described by a coupled system of nonlinear partial differential equations. A considerable difficulty in simulating these convection-dominated equations is posed by the nonlinear coupling as well as due to the fact that the local phenomena such as "hot electron effects" are only partially assessable through the given data. The primary variables that are used in the simulations are the particle density and the particle energy density. The user of these simulations is mostly interested in the current flow through parts of the domain boundary - the contacts. The numerical method considered here utilizes mixed finite-elements as trial functions for the discrete solution. The continuous discretization of the normal fluxes is the most important property of this discretization from the users perspective. It will be proven that under certain assumptions on the triangulation the particle density remains positive in the iterative solution algorithm. Connected to this result an a priori error estimate for the discrete solution of linear convection-diffusion equations is derived. The local charge transport phenomena will be resolved by an adaptive algorithm, which is based on a posteriori error estimators. At that stage a comparison of different estimations is performed. Additionally a method to effectively estimate the error in local quantities derived from the solution, so-called "functional outputs", is developed by transferring the dual weighted residual method to mixed finite elements. For a model problem we present how this method can deliver promising results even when standard error estimator fail completely to reduce the error in an iterative mesh refinement process.
Resumo:
Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.
Resumo:
In this thesis I present theoretical and experimental results concern- ing the operation and properties of a new kind of Penning trap, the planar trap. It consists of circular electrodes printed on an isolating surface, with an homogeneous magnetic field pointing perpendicular to that surface. The motivation of such geometry is to be found in the construction of an array of planar traps for quantum informa- tional purposes. The open access to radiation of this geometry, and the long coherence times expected for Penning traps, make the planar trap a good candidate for quantum computation. Several proposals for quantum 2-qubit interactions are studied and estimates for their rates are given. An expression for the electrostatic potential is presented, and its fea- tures exposed. A detailed study of the anharmonicity of the potential is given theoretically and is later demonstrated by experiment and numerical simulations, showing good agreement. Size scalability of this trap has been studied by replacing the original planar trap by a trap twice smaller in the experimental setup. This substitution shows no scale effect apart from those expected for the scaling of the parameters of the trap. A smaller lifetime for trapped electrons is seen for this smaller trap, but is clearly matched to a bigger misalignment of the trap’s surface and the magnetic field, due to its more difficult hand manipulation. I also give a hint that this trap may be of help in studying non-linear dynamics for a sextupolarly perturbed Penning trap.