30 resultados para Dataflow diagrams
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
The increasing precision of current and future experiments in high-energy physics requires a likewise increase in the accuracy of the calculation of theoretical predictions, in order to find evidence for possible deviations of the generally accepted Standard Model of elementary particles and interactions. Calculating the experimentally measurable cross sections of scattering and decay processes to a higher accuracy directly translates into including higher order radiative corrections in the calculation. The large number of particles and interactions in the full Standard Model results in an exponentially growing number of Feynman diagrams contributing to any given process in higher orders. Additionally, the appearance of multiple independent mass scales makes even the calculation of single diagrams non-trivial. For over two decades now, the only way to cope with these issues has been to rely on the assistance of computers. The aim of the xloops project is to provide the necessary tools to automate the calculation procedures as far as possible, including the generation of the contributing diagrams and the evaluation of the resulting Feynman integrals. The latter is based on the techniques developed in Mainz for solving one- and two-loop diagrams in a general and systematic way using parallel/orthogonal space methods. These techniques involve a considerable amount of symbolic computations. During the development of xloops it was found that conventional computer algebra systems were not a suitable implementation environment. For this reason, a new system called GiNaC has been created, which allows the development of large-scale symbolic applications in an object-oriented fashion within the C++ programming language. This system, which is now also in use for other projects besides xloops, is the main focus of this thesis. The implementation of GiNaC as a C++ library sets it apart from other algebraic systems. Our results prove that a highly efficient symbolic manipulator can be designed in an object-oriented way, and that having a very fine granularity of objects is also feasible. The xloops-related parts of this work consist of a new implementation, based on GiNaC, of functions for calculating one-loop Feynman integrals that already existed in the original xloops program, as well as the addition of supplementary modules belonging to the interface between the library of integral functions and the diagram generator.
Resumo:
The main part of this thesis describes a method of calculating the massless two-loop two-point function which allows expanding the integral up to an arbitrary order in the dimensional regularization parameter epsilon by rewriting it as a double Mellin-Barnes integral. Closing the contour and collecting the residues then transforms this integral into a form that enables us to utilize S. Weinzierl's computer library nestedsums. We could show that multiple zeta values and rational numbers are sufficient for expanding the massless two-loop two-point function to all orders in epsilon. We then use the Hopf algebra of Feynman diagrams and its antipode, to investigate the appearance of Riemann's zeta function in counterterms of Feynman diagrams in massless Yukawa theory and massless QED. The class of Feynman diagrams we consider consists of graphs built from primitive one-loop diagrams and the non-planar vertex correction, where the vertex corrections only depend on one external momentum. We showed the absence of powers of pi in the counterterms of the non-planar vertex correction and diagrams built by shuffling it with the one-loop vertex correction. We also found the invariance of some coefficients of zeta functions under a change of momentum flow through these vertex corrections.
Resumo:
The goal of the present study is to understand the mechanism of mass transfer, the composition and the role of fluids during crustal metasomatism in high-temperature metamorphic terranes. A well constrained case study, a locality at Rupaha, Sri Lanka was selected. It is located in the Highland Complex of Sri Lanka, which represents a small, but important fragment of the super-continent Gondwana. Excellent exposures of ultramafic rocks, which are embedded in granulites, were found at 10 localities. These provide a unique background for understanding the metasomatic processes. The boundary between the ultramafic and the granulite rocks are lined with metasomatic reaction zones up to 50cm in width. Progressing from the ultramafics to the granulite host rock, three distinct zones with the following mineral assemblages can be distinguished: (1). phlogopite + spinel + sapphirine, (2). spinel + sapphirine and (3). corundum + biotite + plagioclase. In order to assess the P-T-t path, the peak metamorphism and the exhumation history were constrained using different thermobarometers, as well as a diffusion model of garnet zoning. A maximum temperature of 875 ± 20oC (Opx-Cpx thermometer) and at the peak pressure of 9.0 ± 0.1 kbar (Grt-Cpx-Pl-Qtz) was calculated for the silicic granulite. The ultramafic rocks recorded a peak temperature of 840 ± 70oC (Opx-Cpx thermometer) at 9 kbar. Coexisting spinel and sapphirine from the reaction zone yield a temperature of 820 ± 40oC. This is in agreement with the peak-temperatures recorded in the adjacent granulites and ultramafics rocks. The structural concordance of the ultramafic rocks with the siliceous granulite host rock further support the suggestion, that all units have experienced the same peak metamorphism. Diffusion modeling of retrograde zoning in garnets from mafic granulites suggests a three-step cooling history. A maximum cooling rate of 1oC/Ma is estimated during the initial stage of cooling, followed by a cooling rate of ~30oC/Ma. The outermost rims of garnet indicate a slightly slower cooling rate at about 10-15oC/Ma. The sequences of mineral zones, containing a variety of Al-rich, silica undersaturated minerals in the reaction zones separating the ultramafic rocks from the silica-rich rocks can be explained by a diffusion model. This involves the diffusion of Mg from ultramafic rocks across the layers, and K and Si diffuse in opposite direction. Chemical potential of Mg and Si generated continuous monotonic gradient, allowing steady state diffusional transport across the profile. The strong enrichment in Al, and the considerable loss of Si, during the formation of reaction bands can be inferred from isocon diagrams. Some Al was probably added to the reaction zones, while Si was lost. This is most likely due to fluids percolating parallel to the zones at the boundary of the rock units. This study has shown that not only pressure and temperature conditions but most importantly PH2O and the concentration of the chlorine and fluorine in aqueous fluids also control the mass transport in different geological environments.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.
Resumo:
In dieser Dissertation wird der seltene Zerfall K_L->emu imRahmen eines verallgemeinerten Standardmodells detailliertstudiert. In diesem Prozess bleibt die zu einer gegebenen Familie gehoerende Leptonenzahl nicht erhalten. Deswegenwerden unsere Untersuchungen im Rahmen der SU(2)_L x U(1)_Y-und SU(2)_R x SU(2)_L x U(1)_{B-L}-Modelle mit schwerenMajorana-Neutrinos ausgefuehrt. Die wichtigsten Ergebnisse dieser Arbeit betreffen dieBerechnung des Verzweigungsverhaeltnisses fuer den ZerfallK_L->emu. Im SU(2)_L x U(1)_Y-Modell mit schwerenMajorana-Neutrinos wird eine deutliche Steigerung desVerzweigungsverhaeltnisses gefunden, jedoch liegen dieerhaltenen Ergebnisse um einige Groessenordnungen unter derjetzigen experimentellen Grenze. Benutzt man das gewaehlte,auf der SU(2)_R x SU(2)_L x U(1)_{B-L}$-Eichgruppebasierende Modell mit Links-Rechts-Symmetrie, dann erhoehtdie Anwesenheit der links- und rechtshaendigen Stroeme inden Schleifendiagrammen deutlich den Wert desVerzweigungsverhaeltnisses. Dadurch koennen sich Werte inder Naehe der aktuellen experimentellen Grenze vonB(K_L->emu) < 4.7 x 10^{-12} ergeben. Um unsere Ergebnisse zu untermauern, wird die Frage derEichinvarianz bei diesem Zerfallsprozess auf demEin-Schleifen-Niveau mit besonderer Aufmerksamkeitbehandelt. Ein sogenanntes ,,on-shell skeleton``Renormierungsschema wird benutzt, um die erste vollstaendigeAnalyse der Eichinvarianz fuer den Prozess K_L->emuauszufuehren.
Resumo:
Die Arbeit beginnt mit dem Vergleich spezieller Regularisierungsmethoden in der Quantenfeldtheorie mit dem Verfahren zur störungstheoretischen Konstruktion der S-Matrix nach Epstein und Glaser. Da das Epstein-Glaser-Verfahren selbst als Regularisierungsverfahren verwandt werden kann und darüberhinaus ausschließlich auf physikalisch motivierten Postulaten basiert, liefert dieser Vergleich ein Kriterium für die Zulässigkeit anderer Regularisierungsmethoden. Zusätzlich zur Herausstellung dieser Zulässigkeit resultiert aus dieser Gegenüberstellung als weiteres wesentliches Resultat ein neues, in der Anwendung praktikables sowie konsistentes Regularisierungsverfahren, das modifizierte BPHZ-Verfahren. Dieses wird anhand von Ein-Schleifen-Diagrammen aus der QED (Elektronselbstenergie, Vakuumpolarisation und Vertexkorrektur) demonstriert. Im Gegensatz zur vielverwandten Dimensionalen Regularisierung ist dieses Verfahren uneingeschränkt auch für chirale Theorien anwendbar. Als Beispiel hierfür dient die Berechnung der im Rahmen einer axialen Erweiterung der QED-Lagrangedichte auftretenden U(1)-Anomalie. Auf der Stufe von Mehr-Schleifen-Diagrammen zeigt der Vergleich der Epstein-Glaser-Konstruktion mit dem bekannten BPHZ-Verfahren an mehreren Beispielen aus der Phi^4-Theorie, darunter das sog. Sunrise-Diagramm, daß zu deren Berechnung die nach der Waldformel des BPHZ-Verfahrens zur Regularisierung beitragenden Unterdiagramme auf eine kleinere Klasse eingeschränkt werden können. Dieses Resultat ist gleichfalls für die Praxis der Regularisierung bedeutsam, da es bereits auf der Stufe der zu berücksichtigenden Unterdiagramme zu einer Vereinfachung führt.
Resumo:
Flory-Huggins interaction parameters and thermal diffusion coefficients were measured for aqueous biopolymer solutions. Dextran (a water soluble polysaccharide) and bovine serum albumin (BSA, a water soluble protein) were used for this study. The former polymer is representative for chain macromolecules and the latter is for globular macromolecules. The interaction parameters for the systems water/dextran and water/BSA were determined as a function of composition by means of vapor pressure measurements, using a combination of headspace sampling and gas chromatography (HS-GC). A new theoretical approach, accounting for chain connectivity and conformational variability, describes the observed dependencies quantitatively for the system water/dextran and qualitatively for the system water/BSA. The phase diagrams of the ternary systems water/methanol/dextran and water/dextran/BSA were determined via cloud point measurements and modeled by means of the direct minimization of the Gibbs energy using the information on the binary subsystems as input parameters. The thermal diffusion of dextran was studied for aqueous solutions in the temperature range 15 < T < 55 oC. The effects of the addition of urea were also studied. In the absence of urea, the Soret coefficient ST changes its sign as T is varied; it is positive for T > 45.0 oC, but negative for T < 45.0 oC. The positive sign of ST means that the dextran molecules migrate towards the cold side of the fluid; this behavior is typical for polymer solutions. While a negative sign indicates the macromolecules move toward the hot side; this behavior has so far not been observed with any other binary aqueous polymer solutions. The addition of urea to the aqueous solution of dextran increases ST and reduces the inversion temperature. For 2 M urea, the change in the sign of ST is observed at T = 29.7 oC. At higher temperature ST is always positive in the studied temperature range. To rationalize these observations it is assumed that the addition of urea opens hydrogen bonds, similar to that induced by an increase in temperature. For a future extension of the thermodynamic studies to the effects of poly-dispersity, dextran was fractionated by means of a recently developed technique called Continuous Spin Fractionation (CSF). The solvent/precipitant/polymer system used for the thermodynamic studies served as the basis for the fractionation of dextran The starting polymer had a weight average molar mass Mw = 11.1 kg/mol and a molecular non-uniformity U= Mw / Mn -1= 1.0. Seventy grams of dextran were fractionated using water as the solvent and methanol as the precipitant. Five fractionation steps yielded four samples with Mw values between 4.36 and 18.2 kg/mol and U values ranging from 0.28 to 0.48.
Resumo:
Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.
Resumo:
Palynologie und Sedimentologie der Interglazialprofile Döttingen, Bonstorf, Munster und Bilshausen Zusammenfassung In der vorliegenden Dissertation wurden vier dem Holstein-Interglazial zugehörige Bohrkerne sowie ein rhumezeitlicher Bohrkern palynologisch und sedimentologisch bearbeitet. Die holsteinzeitlichen Bohrkerne stammen aus Kieselgurlagerstätten der Lüneburger Heide (Bonstorf und Munster) und aus einem Trockenmaar (Döttingen) in der Eifel. Der rhumezeitliche Kern stammt aus der Typlokalität Bilshausen im Harzvorland. Neben Prozentwertdiagrammen werden Pollendichte- und wenn möglich Polleninfluxwerte vorgestellt, die insbesondere für die Lokalitäten Hetendorf/Bonstorf und Munster/Breloh bisher nicht verfügbar waren. Mit dem Profil Döttingen konnte erstmals eine sowohl vollständige als auch nicht innerhalb des klassischen Aufkommens holsteinzeitlicher Fundstellen im norddeutschen Tiefland positionierte Holsteinsequenz aus dem deutschen Mittelgebirge dokumentiert werden. Das erhaltene Pollendiagramm bestätigt die aus den norddeutschen Profilen bekannte holsteintypische Vegetationsabfolge, durch die das Holstein gegenüber anderen Interglazialen wie Holozän, Eem oder Rhume palynologisch definiert ist. Neben der grundsätzlichen Übereinstimmung der Pollensequenz unterscheidet sich das Profil Döttingen aber deutlich im prozentualen Aufkommen der beteiligten Taxa von den norddeutschen Profilen. So wird eine hohe Alnus-Präsenz als Merkmal deutscher Holsteinprofile bestätigt, jedoch ist die, in den norddeutschen Lokalitäten durchhaltend hohe oder dominante Beteiligung von Pinus im deutschen Mittelgebirge nicht vorhanden und muss daher auf die Standortbedingungen Norddeutschlands zurückgeführt werden. Abies dagegen ist im Holstein der Mittelgebirge wesentlich präsenter als im norddeutschen Flachland. Im Profil Döttingen wurden insgesamt 10 Tephralagen gefunden. Auf eine dieser Tephren folgt ein „Birken-Kiefern-Gräser Vorstoß“, der palynostratigraphisch dem älteren „Birken-Kiefern Vorstoß“ in Munster/Breloh entspricht. Als eine Typologie des Holstein kann das in den Profilen Döttingen und Munster bestätigte intraholsteinzeitliche Carpinus-Minimum verstanden werden. An Hand sedimentologischer und palynologischer Befunde aus dem Bohrkern MU 2 muss die Existenz zweier, in der Literatur postulierter, postholsteinzeitlicher, „Nachschwankungen“ in Munster/Breloh in Frage gestellt, wenn nicht abgelehnt werden. In Kern MU 2 fallen palynostratigraphische Grenzen häufig mit Sandeinschaltungen zusammen. Eine dieser Sandeinschaltungen, nämlich unmittelbar vor dem älteren „Birken-Kiefern-Vorstoß“, korreliert in ihrer stratigraphischen Position mit der den „Birken-Kiefern-Gräser-Vorstoß“ im Profil Döttingen einleitenden Tephralage. Es gelang die Dauer des intraholsteinzeitlichen Carpinus Minimums auf etwa 1500±100 Jahre zu bestimmen und eine interne Zweigliederung zu dokumentieren. Im rhumezeitlichen Kern von Bilshausen (BI 1) konnten zahlreiche Störungen nachgewiesen werden. Insbesondere im Teufenbereich des Bilshausener „Birken-Kiefern-Vorstoßes“ deuten diese auf eine möglicherweise verfälschte Überlieferung. Der palynologisch markante „Lindenfall“ von Bilshausen liegt im Bereich einer isoklinalen Schichtenverfaltung. Die in der Literatur im Horizont des „Lindenfalls“ beschriebene „Bilshausentephra“ wurde nicht gefunden. Warvenzählungen an den Kernen MU 1, MU 2 und BI 1 ermöglichten Pollenzonendauern in Holstein- und Rhume-Interglazial zu bestimmen. Dabei wurde mittels den Warvenzählungen, unter zu Hilfenahme von Literaturdaten und von Schätzwerten eine Dauer für das Holstein-Interglazial sensu stricto (Pollenzonen I-XIV) von 15400-17800 Jahren und für das Rhume-Interglazial von wahrscheinlich 22000 Jahren bis maximal 26000 Jahren ermittelt.
Resumo:
This thesis is concerned with calculations in manifestly Lorentz-invariant baryon chiral perturbation theory beyond order D=4. We investigate two different methods. The first approach consists of the inclusion of additional particles besides pions and nucleons as explicit degrees of freedom. This results in the resummation of an infinite number of higher-order terms which contribute to higher-order low-energy constants in the standard formulation. In this thesis the nucleon axial, induced pseudoscalar, and pion-nucleon form factors are investigated. They are first calculated in the standard approach up to order D=4. Next, the inclusion of the axial-vector meson a_1(1260) is considered. We find three diagrams with an axial-vector meson which are relevant to the form factors. Due to the applied renormalization scheme, however, the contributions of the two loop diagrams vanish and only a tree diagram contributes explicitly. The appearing coupling constant is fitted to experimental data of the axial form factor. The inclusion of the axial-vector meson results in an improved description of the axial form factor for higher values of momentum transfer. The contributions to the induced pseudoscalar form factor, however, are negligible for the considered momentum transfer, and the axial-vector meson does not contribute to the pion-nucleon form factor. The second method consists in the explicit calculation of higher-order diagrams. This thesis describes the applied renormalization scheme and shows that all symmetries and the power counting are preserved. As an application we determine the nucleon mass up to order D=6 which includes the evaluation of two-loop diagrams. This is the first complete calculation in manifestly Lorentz-invariant baryon chiral perturbation theory at the two-loop level. The numerical contributions of the terms of order D=5 and D=6 are estimated, and we investigate their pion-mass dependence. Furthermore, the higher-order terms of the nucleon sigma term are determined with the help of the Feynman-Hellmann theorem.
Resumo:
In dieser Arbeit wurde die elektromagnetische Pionproduktion unter der Annahme der Isospinsymmetrie der starken Wechselwirkung im Rahmen der manifest Lorentz-invarianten chiralen Störungstheorie in einer Einschleifenrechnung bis zur Ordnung vier untersucht. Dazu wurden auf der Grundlage des Mathematica-Pakets FeynCalc Algorithmen zur Berechnung der Pionproduktionsamplitude entwickelt. Bis einschließlich der Ordnung vier tragen insgesamt 105 Feynmandiagramme bei, die sich in 20 Baumdiagramme und 85 Schleifendiagramme unterteilen lassen. Von den 20 Baumdiagrammen wiederum sind 16 als Polterme und vier als Kontaktgraphen zu klassifizieren; bei den Schleifendiagrammen tragen 50 Diagramme ab der dritten Ordnung und 35 Diagramme ab der vierten Ordnung bei. In der Einphotonaustauschnäherung lässt sich die Pionproduktionsamplitude als ein Produkt des Polarisationsvektors des (virtuellen) Photons und des Übergangsstrommatrixelements parametrisieren, wobei letzteres alle Abhängigkeiten der starken Wechselwirkung beinhaltet und wo somit die chirale Störungstheorie ihren Eingang findet. Der Polarisationsvektor hingegen hängt von dem leptonischen Vertex und dem Photonpropagator ab und ist aus der QED bekannt. Weiterhin lässt sich das Übergangsstrommatrixelement in sechs eichinvariante Amplituden zerlegen, die sich im Rahmen der Isospinsymmetrie jeweils wiederum in drei Isospinamplituden zerlegen lassen. Linearkombinationen dieser Isospinamplituden erlauben letztlich die Beschreibung der physikalischen Amplituden. Die in dieser Rechnung auftretenden Einschleifenintegrale wurden numerisch mittels des Programms LoopTools berechnet. Im Fall tensorieller Integrale erfolgte zunächst eine Zerlegung gemäß der Methode von Passarino und Veltman. Da die somit erhaltenen Ergebnisse jedoch i.a. noch nicht das chirale Zählschema erfüllen, wurde die entsprechende Renormierung mittels der reformulierten Infrarotregularisierung vorgenommen. Zu diesem Zweck wurde ein Verfahren entwickelt, welches die Abzugsterme automatisiert bestimmt. Die schließlich erhaltenen Isospinamplituden wurden in das Programm MAID eingebaut. In diesem Programm wurden als Test (Ergebnisse bis Ordnung drei) die s-Wellenmultipole E_{0+} und L_{0+} in der Schwellenregion berechnet. Die Ergebnisse wurden sowohl mit Messdaten als auch mit den Resultaten des "klassischen" MAID verglichen, wobei sich i. a. gute Übereinstimmungen im Rahmen der Fehler ergaben.
Resumo:
Im Mittelpunkt der vorliegenden Arbeit standen Untersuchungen zu strukturellen Ordnungs- und Unordnungsphänomenen an natürlichen, substitutionellen Mischkristallen. Aufgrund der enormen Vielfalt an potentiellen Austauschpartnern wurden hierfür Vertreter der Biotit-Mischkristallreihe "Phlogopit-Annit" ausgewählt. Ihr modulartiger Aufbau ermöglichte die gezielte Beschreibung von Verteilungsmustern anionischer und kationischer Merkmalsträger innerhalb der Oktaederschicht der Biotit-Mischkristalle. Basierend auf der postulierten Bindungsaffinität zwischen Mg2+ und F- einerseits und Fe2+ und OH- andererseits, wurde die strukturelle Separation einer Fluor-Phlogopit-Komponente als primäre Ausprägungsform des Mg/F-Ordnungsprinzips abgeleitet. Im Rahmen dieser Modellvorstellung koexistieren im makroskopisch homogenen Biotit-Mischkristall Domänen zweier chemisch divergenter Phasen nebeneinander: Eine rein Mg2+/F- - führende Phlogopit-Phase und eine Wirtskristallphase, die mit fortschreitender Separation bzw. Entmischung der erstgenannten Phase sukzessive reicher an einer hydroxylführenden eisenreichen Annit-Komponente wird. Zwecks numerischer Beschreibung diverser Stadien der Entmischungsreaktion wurden die Begriffe der "Relativen" und "Absoluten Domänengröße" eingeführt. Sie stellen ein quantitatives Maß zur Beurteilung der diskutierten Ordnungsphänomene dar. Basierend auf einem sich stetig ändernden Chemismus der Wirtskristallphase kann jeder Übergangszustand zwischen statistischer Verteilung und vollständiger Ordnung durch das korrespondierende Verteilungsmuster der interessierenden Merkmalsträger ( = Nahordnungskonfiguration und Besetzungswahrscheinlichkeit) charakterisiert und beschrieben werden. Durch mößbauerspektroskopische Untersuchungen konnten die anhand der entwickelten Modelle vorhergesagten Ausprägungsformen von Ordnungs-/Unordnungsphänomenen qualitativ und quantitativ verifiziert werden. Es liessen sich hierbei zwei Gruppen von Biotit-Mischkristallen unterscheiden. Eine erste Gruppe, deren Mößbauer-Spektren durch den OH/F-Chemismus als dominierendes Differenzierungsmerkmal geprägt wird, und eine zweite Gruppe, deren Mößbauer-Spektren durch Gruppierungen von höherwertigen Kationen und Vakanzen ( = Defektchemie) geprägt wird. Auf der Basis von Korrelationsdiagrammen, die einen numerischen und graphischen Bezug zwischen absoluter und relativer Domänengröße einerseits und experimentell zugänglichem Mößbauer-Parameter A (= relativer Flächenanteil, korrespondierend mit der Besetzungswahrscheinlichkeit einer bestimmten Nahordnungs-konstellation) andererseits herstellen, konnten für die erste Gruppe die Volumina der beiden miteinander koexistierenden Komponenten "Hydroxyl-Annit reicher Wirtskristall" und "Fluor-Phlogopit" exakt quantifiziert werden. Das Spektrum der untersuchten Proben umfasste hierbei Kristallspezies, die einerseits durch geringe bis mittlere Mg2+/F- - bzw. Fe2+/OH- -Ordnungsgrade gekennzeichnet sind, andererseits eine nahezu vollständige Ordnung der interessierenden Merkmalsträger Mg2+, Fe2+, OH- und F- widerspiegeln. Desweiteren konnte der Nachweis geführt werden, dass für ausgewählte Proben eine quantitative Bestimmung der Defektvolumina möglich ist.
Resumo:
The subject of this thesis is the development of a Gaschromatography (GC) system for non-methane hydrocarbons (NMHCs) and measurement of samples within the project CARIBIC (Civil Aircraft for the Regular Investigation of the atmosphere Based on an Instrument Container, www.caribic-atmospheric.com). Air samples collected at cruising altitude from the upper troposphere and lowermost stratosphere contain hydrocarbons at low levels (ppt range), which imposes substantial demands on detection limits. Full automation enabled to maintain constant conditions during the sample processing and analyses. Additionally, automation allows overnight operation thus saving time. A gas chromatography using flame ionization detection (FID) together with the dual column approach enables simultaneous detection with almost equal carbon atom response for all hydrocarbons except for ethyne. The first part of this thesis presents the technical descriptions of individual parts of the analytical system. Apart from the sample treatment and calibration procedures, the sample collector is described. The second part deals with analytical performance of the GC system by discussing tests that had been made. Finally, results for measurement flight are assessed in terms of quality of the data and two flights are discussed in detail. Analytical performance is characterized using detection limits for each compound, using uncertainties for each compound, using tests of calibration mixture conditioning and carbon dioxide trap to find out their influence on analyses, and finally by comparing the responses of calibrated substances during period when analyses of the flights were made. Comparison of both systems shows good agreement. However, because of insufficient capacity of the CO2 trap the signal of one column was suppressed due to breakthroughed carbon dioxide so much that its results appeared to be unreliable. Plausibility tests for the internal consistency of the given data sets are based on common patterns exhibited by tropospheric NMHCs. All tests show that samples from the first flights do not comply with the expected pattern. Additionally, detected alkene artefacts suggest potential problems with storing or contamination within all measurement flights. Two last flights # 130-133 and # 166-169 comply with the tests therefore their detailed analysis is made. Samples were analyzed in terms of their origin (troposphere vs. stratosphere, backward trajectories), their aging (NMHCs ratios) and detected plumes were compared to chemical signatures of Asian outflows. In the last chapter a future development of the presented system with focus on separation is drawn. An extensive appendix documents all important aspects of the dissertation from theoretical introduction through illustration of sample treatment to overview diagrams for the measured flights.
Resumo:
This thesis is concerned with the calculation of virtual Compton scattering (VCS) in manifestly Lorentz-invariant baryon chiral perturbation theory to fourth order in the momentum and quark-mass expansion. In the one-photon-exchange approximation, the VCS process is experimentally accessible in photon electro-production and has been measured at the MAMI facility in Mainz, at MIT-Bates, and at Jefferson Lab. Through VCS one gains new information on the nucleon structure beyond its static properties, such as charge, magnetic moments, or form factors. The nucleon response to an incident electromagnetic field is parameterized in terms of 2 spin-independent (scalar) and 4 spin-dependent (vector) generalized polarizabilities (GP). In analogy to classical electrodynamics the two scalar GPs represent the induced electric and magnetic dipole polarizability of a medium. For the vector GPs, a classical interpretation is less straightforward. They are derived from a multipole expansion of the VCS amplitude. This thesis describes the first calculation of all GPs within the framework of manifestly Lorentz-invariant baryon chiral perturbation theory. Because of the comparatively large number of diagrams - 100 one-loop diagrams need to be calculated - several computer programs were developed dealing with different aspects of Feynman diagram calculations. One can distinguish between two areas of development, the first concerning the algebraic manipulations of large expressions, and the second dealing with numerical instabilities in the calculation of one-loop integrals. In this thesis we describe our approach using Mathematica and FORM for algebraic tasks, and C for the numerical evaluations. We use our results for real Compton scattering to fix the two unknown low-energy constants emerging at fourth order. Furthermore, we present the results for the differential cross sections and the generalized polarizabilities of VCS off the proton.
Resumo:
Diese Arbeit beschäftigt sich mit den Unterschieden zwischen linearen und verzweigten Oligomeren/Polymeren mit praktisch gleichem chemischem Bau. Untersucht wurden eine Reihe von ungeladenen Polymeren in Hinsicht auf deren Wechselwirkungsparameter mit Lö-sungsmitteln sowie peripher geladene Dendrimere im Hinblick auf deren Staudingerindices in Wasser. Bei den ungeladenen Oligomeren/Polymeren handelt es sich um Oligoisoprene, Polygly-cerine und Oligo-Dimetylsiloxane. Vor den thermodynamischen Messungen war es notwen-dig, die verzweigten Produkte durch diskontinuierliche Spinn-Fraktionierung von linearen Bestandteilen zu befreien. In diesem Zusammenhang wurden die Phasendiagramme der Aus-gangsproben und der fraktionierten Proben bestimmt und mit denen der entsprechenden linea-ren Polymeren verglichen. Die Ergebnisse zeigen deutliche Einflüsse der Molekularchitektur, wobei Mischungen aus linearen und verzweigten Polymeren plus niedermolekularen Flüssig-keiten infolge der Unverträglichkeit der hochmolekularen Komponenten ungewöhnliches Verhalten zeigen. Die Flory-Huggins Wechselwirkungsparameter von linearen und verzweigten Polyme-ren wurden mit Hilfe von Dampfdruckmessungen (Headspace-Gaschromatographie) und dampfdruckosmometrischen Messungen bei unterschiedlichen Temperaturen bestimmt. Es zeigt sich, daß die -Werte in komplexer Weise von der Konzentration abhängen und mit einem Ansatz nach Wolf (Gleichung 26 und 31) quantitativ modellierbar sind. Allgemein gilt die folgende Ungleichung: bra > lin. Die Untersuchungen bezüglich der Staudingerindeces von Polyelektrolyten wurden an vier Generationen von peripher geladenen Dendrimeren durchgeführt. Die Ergebnisse zeigen, dass die [ ] Werte mit zunehmender Generation deutlich sinken. Bei der 1. Generation ver-hält sich das Dendrimer noch sehr ähnlich wie lineare Polyelektrolyte. Mit steigender Zahl der Generationen nimmt der Staudingerindex trotz zunehmendem Molekulargewicht deutlich ab, da der Polyelektrolyteffekt (Aufweitung der Knäuel durch elektrostatische Wechselwirkung) an Bedeutung verliert. Der Grund dafür liegt in einer Zunahme des Abstands der Ladungen zur Hauptkette und der Tatsache, dass der Zahl der Ladungen pro Molekül bei konstantem n entsprechend einer quadratischen Reihe zu (2, 4, 8, 16) zunimmt. Wie aus Messungen an der ETH Zürich bekannt ist, verhalten sich ungeladene Dendrimere in organischen Lösungsmit-teln wie die Lösungen von linearem Polystyrol.