468 resultados para Helizitätsmethode, Subtraktionsmethode, Numerische Methoden

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The goal of this thesis is the acceleration of numerical calculations of QCD observables, both at leading order and next–to–leading order in the coupling constant. In particular, the optimization of helicity and spin summation in the context of VEGAS Monte Carlo algorithms is investigated. In the literature, two such methods are mentioned but without detailed analyses. Only one of these methods can be used at next–to–leading order. This work presents a total of five different methods that replace the helicity sums with a Monte Carlo integration. This integration can be combined with the existing phase space integral, in the hope that this causes less overhead than the complete summation. For three of these methods, an extension to existing subtraction terms is developed which is required to enable next–to–leading order calculations. All methods are analyzed with respect to efficiency, accuracy, and ease of implementation before they are compared with each other. In this process, one method shows clear advantages in relation to all others.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit stelle ich Aspekte zu QCD Berechnungen vor, welche eng verknüpft sind mit der numerischen Auswertung von NLO QCD Amplituden, speziell der entsprechenden Einschleifenbeiträge, und der effizienten Berechnung von damit verbundenen Beschleunigerobservablen. Zwei Themen haben sich in der vorliegenden Arbeit dabei herauskristallisiert, welche den Hauptteil der Arbeit konstituieren. Ein großer Teil konzentriert sich dabei auf das gruppentheoretische Verhalten von Einschleifenamplituden in QCD, um einen Weg zu finden die assoziierten Farbfreiheitsgrade korrekt und effizient zu behandeln. Zu diesem Zweck wird eine neue Herangehensweise eingeführt welche benutzt werden kann, um farbgeordnete Einschleifenpartialamplituden mit mehreren Quark-Antiquark Paaren durch Shufflesummation über zyklisch geordnete primitive Einschleifenamplituden auszudrücken. Ein zweiter großer Teil konzentriert sich auf die lokale Subtraktion von zu Divergenzen führenden Poltermen in primitiven Einschleifenamplituden. Hierbei wurde im Speziellen eine Methode entwickelt, um die primitiven Einchleifenamplituden lokal zu renormieren, welche lokale UV Counterterme und effiziente rekursive Routinen benutzt. Zusammen mit geeigneten lokalen soften und kollinearen Subtraktionstermen wird die Subtraktionsmethode dadurch auf den virtuellen Teil in der Berechnung von NLO Observablen erweitert, was die voll numerische Auswertung der Einschleifenintegrale in den virtuellen Beiträgen der NLO Observablen ermöglicht. Die Methode wurde schließlich erfolgreich auf die Berechnung von NLO Jetraten in Elektron-Positron Annihilation im farbführenden Limes angewandt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In der Archäologie werden elektrische Widerstandsmessungen routinemäßig zur Prospektion von Fundstellen eingesetzt. Die Methode ist kostengünstig, leicht anwendbar und liefert in den meisten Fällen zuverlässige und leicht zu interpretierende Ergebnisse. Dennoch kann die Methode die archäologischen Strukturen in manchen Fällen nur teilweise oder gar nicht abbilden, wenn die bodenphysikalischen und bodenchemischen Eigenschaften des Bodens und der archäologischen Strukturen dies nicht zulassen. Der spezifische elektrische Widerstand wird durch Parameter wie Wassergehalt, Bodenstruktur, Bodenskelett, Bodentextur, Salinität und Bodentemperatur beeinflusst. Manche dieser Parameter, wie z.B. der Wassergehalt und die Bodentemperatur, unterliegen einer saisonalen Veränderung. Die vorliegende Arbeit untersucht den spezifischen elektrischen Widerstand von archäologischen Steinstrukturen und evaluiert die Möglichkeit, auf Grundlage von Geländemessungen und Laboranalysen archäologische Strukturen und Böden als numerische Modelle darzustellen. Dazu wurde eine Kombination von verschiedenen bodenkundlichen, geoarchäologischen und geophysikalischen Methoden verwendet. Um archäologische Strukturen und Bodenprofile als numerische Widerstandsmodelle darstellen zu können, werden Informationen zur Geometrie der Strukturen und ihren elektrischen Widerstandswerten benötigt. Dabei ist die Qualität der Hintergrundinformationen entscheidend für die Genauigkeit des Widerstandsmodells. Die Geometrie der Widerstandsmodelle basiert auf den Ergebnissen von Rammkernsondierungen und archäologische Ausgrabungen. Die an der Ausbildung des elektrischen Widerstands beteiligten Parameter wurden durch die Analyse von Bodenproben gemessen und ermöglichen durch Pedotransfer-Funktion, wie die Rhoades-Formel, die Abschätzung des spezifischen elektrischen Widerstandes des Feinbodens. Um den Einfluss des Bodenskeletts auf den spezifischen elektrischen Widerstand von Bodenprofilen und archäologischen Strukturen zu berechnen, kamen die Perkolationstheorie und die Effective Medium Theory zum Einsatz. Die Genauigkeit und eventuelle Limitierungen der Methoden wurden im Labor durch experimentelle Widerstandsmessungen an ungestörten Bodenproben und synthetischen Materialien überprüft. Die saisonale Veränderung des Wassergehalts im Boden wurde durch numerische Modelle mit der Software HYDRUS simuliert. Die hydraulischen Modelle wurden auf Grundlage der ermittelten bodenkundlichen und archäologischen Stratigraphie erstellt und verwenden die Daten von lokalen Wetterstationen als Eingangsparameter. Durch die Kombination der HYDRUS-Ergebnisse mit den Pedotransfer-Funktionen konnte der Einfluss dieser saisonalen Veränderung auf die Prospektionsergebnisse von elektrischen Widerstandsmethoden berechnet werden. Die Ergebnisse der Modellierungsprozesse wurden mit den Geländemessungen verglichen. Die beste Übereinstimmung zwischen Modellergebnissen und den Prospektionsergebnissen konnte für die Fallstudie bei Katzenbach festgestellt werden. Bei dieser wurden die Modelle auf Grundlage von archäologischen Grabungsergebnissen und detaillierten bodenkundlichen Analysen erstellt. Weitere Fallstudien zeigen, dass elektrische Widerstandsmodelle eingesetzt werden können, um den Einfluss von ungünstigen Prospektionsbedingungen auf die Ergebnisse der elektrischen Widerstandsmessungen abzuschätzen. Diese Informationen unterstützen die Planung und Anwendung der Methoden im Gelände und ermöglichen eine effektivere Interpretation der Prospektionsergebnisse. Die präsentierten Modellierungsansätze benötigen eine weitere Verifizierung durch den Vergleich der Modellierungsergebnisse mit detailliertem geophysikalischem Gelände-Monitoring von archäologischen Fundstellen. Zusätzlich könnten elektrische Widerstandsmessungen an künstlichen Mauerstrukturen unter kontrollierten Bedingungen zur Überprüfung der Modellierungsprozesse genutzt werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Nichtlineare Zeitreihenanalyse konnte in den letzten Jahren im Rahmen von Laborexperimenten ihre prinzipelle Brauchbarkeit beweisen. Allerdings handelte es sich in der Regel um ausgewählte oder speziell konstruierte nichtlineare Systeme. Sieht man einmal von der Überwachung von Prozessen und Produkten ab, so sind Anwendungen auf konkrete, vorgegebene dynamische Probleme im industriellen Bereich kaum bekannt geworden. Ziel dieser Arbeit war es, an Hand von zwei Problemen aus der technischen Praxis zu untersuchen, ob die Anwendung des kanonischen Schemas der Nichtlinearen Zeitreihenanalyse auch dort zu brauchbaren Resultaten führt oder ob Modifikationen (Vereinfachungen oder Erweiterungen) notwendig werden. Am Beispiel der Herstellung von optischen Oberflächen durch Hochpräzisionsdrehbearbeitung konnte gezeigt werden, daß eine aktive Störungskompensation in Echtzeit mit einem speziell entwickelten nichtlinearen Vorhersagealgorithmus möglich ist. Standardverfahren der Nichtlinearen Zeitreihenanalyse beschreiten hier den allgemeinen, aber sehr aufwendigen Weg über eine möglichst vollständige Phasenraumrekonstruktion. Das neue Verfahren verzichtet auf viele der kanonischen Zwischenschritte. Dies führt zu einererheblichen Rechenzeitersparnis und zusätzlich zu einer wesentlich höheren Stabilität gegenüber additivem Meßrauschen. Mit den berechneten Vorhersagen der unerwünschten Maschinenschwingungen wurde eine Störungskompensation realisiert, die die Oberflächengüte des bearbeiteten Werkstücks um 20-30% verbesserte. Das zweite Beispiel betrifft die Klassifikation von Körperschallsignalen, die zur Überwachung von Zerspansprozessen gemessen werden. Diese Signale zeigen, wie auch viele andere Prozesse im Bereich der Produktion, ein hochgradig nichtstationäres Verhalten. Hier versagen die Standardverfahren der Nichtlinearen Datenanalyse, die FT- bzw. AAFT-Surrogate benutzen. Daher wurde eine neue Klasse von Surrogatdaten zum Testen der Nullhypothese nichtstationärer linearer stochastischer Prozesse entwickelt, die in der Lage ist, zwischen deterministischen nichtlinear chaotischen und stochastischen linearen nichtstationären Zeitreihen mit change points zu unterscheiden. Damit konnte gezeigt werden, daß die untersuchten Köperschallsignale sich statistisch signifikant einer nichtstationären stochastischen Folge von einfachen linearen Prozessen zuordnen lassen und eine Interpretation als nichtlineare chaotische Zeitreihe nicht erforderlich ist.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Standardmodell der elektroschwachen Wechselwirkung hatin den vergangenen Jahrzehnten beachtliche Erfolge erzielt.Die Suche nach

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Rahmen dieser Dissertation wurden die Synthese und die Charakterisierung verschiedener, zum Teil neuartiger Blockcopolymere beschrieben, wobei die Einbeziehung radikalischer Polymeri-sationsmechanismen den konzeptionellen Kern ausmachte. Mit einer auf die jeweilige Kombination von Monomeren zugeschnittenen Syntheseroute gelang die Verknüpfung von Segmenten, die allein mittels der herkömmlich zur Synthese von Blockcopolymeren genutzten, ionischen Mechanismen nur mit hohem Aufwand oder gar nicht zu verbinden sind. Auf materieller Seite stand die Herstellung amphiphiler Strukturen im Vordergrund. Diese wurden entweder direkt beim Aufbau der Blockcopo-lymere oder nach anschließender polymeranaloger Umsetzung eines ihrer Segmente erhalten. Solche amphiphilen Substanzen besitzen aufgrund ihrer Grenzflächenaktivität Anwendungspotential z. B. als Stabilisatoren in der Dispersionspolymerisation oder als Flokkulantien. Es wurden drei Verfahren zum Aufbau von Blockcopolymeren untersucht:1. Die Transformation von anionischer zu freier radikalischer Polymerisation für die Synthese von Polystyrol-b-poly(N-vinylformamid) (PS-b-P(VFA)).2. Die Transformation von anionischer zu kontrollierter radikalischer Polymerisation (ATRP) für den Aufbau von Blockcopolymeren aus Poly(dimethylsiloxan) PDMS und Segmenten von t-Butylacrylat (t-BuA) bzw. (2-(Trimethylsiloxy)ethyl)methacrylat (TMS-HEMA).3. Die kontrollierte radikalische Polymerisation unter Einsatz von Triazolinyl als Gegenradikal zur Synthese von Poly[(2-(trimethylsiloxy)ethyl)methacrylat]-b-polystyrol (P(TMS-HEMA)-b-PS) als alternative Route zur anionischen Polymerisation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Methoden und Modelle zur Phytoplanktonanalyse am Beispiel einer Restaurierungsmaßnahme an der Bleiloch Talsperre Zusammenfassung An der hypertrophen Bleiloch Talsperre (Thüringen, BRD) werden die Auswirkungen der 1997 in Betrieb genommenen partiellen Destratifikation (0- 20m) untersucht. Ziel der Maßnahme war die Hemmung des Phytoplanktonwachstums durch Lichtlimitation.Da es nicht gelang, auch die Oberflächenlammelle in die Durchmischung einzubeziehen, wurde auch keine Reduktion des Phytoplanktons beobachtet. Seine zeitliche Dynamik nahm deutlich zu und es traten neben typischen Längsgradienten auch extreme, kleinräumige Konzentrationsunterschiede auf. Die vorher häufigen Cyanobakterien spielten jedoch keine quantitativ bedeutsame Rolle mehr. Es wird diskutiert, wie die Belüftung die Saisonalität des Planktons stört und zu Verschiebungen der Zusammensetzung führt. Der Zusammenhang zwischen der Chlorophyll a Menge und der Stabilität der Wassersäule sowie der Einfluß wachstumsbestimmender Größen werden modelliert. Methodische Schwerpunkte umfassen die Auswertung von Phytoplankton-Pigmentdaten (HPLC-Analyse) und die Entwicklung einer Durchflußzytometer-Methode. Bei letzerer werden an lebenden Phytoplanktern die Vorwärtsstreuung sowie vier Fluoreszenzen (2 Phycoerythrine, Phycocyanin und Chlorophyll a, 514nm Anregungswellenlänge) gemessen. Zur Klassifizierung von Algen anhand von Referenzen werden zwei Methoden entwickelt, Möglichkeiten des Sortierens aufgezeigt und es wird ein Vergleich mit Mikroskopie und HPLC- Pigmentanalyse durchgeführt. Anhand von Modellrechnungen wird demonstriert, wie sich systematische bzw. zufällige Abweichungen der Pigmentstöchiometrien auf die Berechnung von Algengruppenanteilen auswirken. Strategien zur Auswertung von Pigmentdaten werden empfohlen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Wachstum von Nervenzellen und deren Verbindungen im zentralen und peripheren Nervensystem wird durch Proteine der extrazellulären Matrix kontrolliert. In dieser Arbeit wurde das Matrixprotein Laminin verwendet, um Netzwerke von Nervenzellen auf künstlichen Substraten in vitro zu erzeugen. Zu diesem Zweck wurden Lamininstrukturen mit Mikrostempeln aus Polydimethylsiloxan auf Zellkultursubstrate übertragen. Die Mikrostempel wurden in einem mehrstufigen Verfahren durch Abformung von photolithographisch hergestellten Masken angefertigt. Nach Vorversuchen mit neuronal differenzierten Zellen der Zellinien MzN und P19 zur Identifizierung geeigneter Abmessungen der Mikrotrukturen, gelang die Realisierung von Linien- und Gitternetzwerken sowie von komplexeren Schaltungen. Eine morphologische Charakterisierung der erzeugten Netzwerke erfolgte durch Phasenkontrast- und Fluoreszenzmikroskopie.Elektrophysiologische Messungen wurden mit der Patch-Clamp Technik an einer Kultur von Nervenzellen aus primär isolierten Hirnschnitten durchgeführt. Der Erhalt des intakten Zellverbundes im Hirnschnitt sollte Bedingungen möglichst nahe zur Situation in vivo schaffen, um die Bildung von Synapsen zu begünstigen. In Patch-Clamp Messungen an bis zu drei Neuronen gleichzeitig, gelang der Nachweis synaptischer Kopplung in strukturierten Netzwerken solcher Hirnschnitt-Kulturen. Sowohl funktionale chemische Synapsen, als auch Ohm'sche Kopplung über Gap-Junctions wurde beobachtet. Es wurde ein elektrisches Kopplungsmodell abgeleitet. Die Signalleitung in den Nervenfasern erfolgt demnach wie in einem zylindrischen, durch die Zellmembran von der Umgebung isolierten Kabel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Dissertation stellen wir einen neuen Ansatz zurModellierungvon Polymersystemen vor. Es werden (von methodischer Seiteher) zweiautomatisierte Iterationschemata dazu eingeführt,Kraftfeldparametermesoskopischer Polymersysteme systematisch zu optimieren:DasSimplex-Verfahren und das Struktur-Differenzen-Verfahren. Sowerdendiejenigen Freiheitsgrade aus Polymersystemen eliminiert,die einehohe Auflösung erfordern, was die Modellierung größerersystemeermöglicht. Nach Tests an einfachen Flüssigkeiten werdenvergröberteModelle von drei prototypischen Polymeren (Polyacrylsäure,Polyvinylalkohol und Polyisopren) in unterschiedlichenUmgebungen(gutes Lösungsmittel und Schmelze) entwickelt und ihrVerhalten aufder Mesoskala ausgiebig geprüft. Die zugehörige Abbildung(vonphysikalischer Seite her) so zu gestalten, daß sie dieunverwechselbaren Charakteristiken jedes systems auf diemesoskopischeLängenskala überträgt, stellt eine entscheidende Anforderungan dieautomatisierten Verfahren dar. Unsere Studien belegen, daß mesoskopische Kraftfeldertemperatur- unddichtespezifisch sind und daher bei geändernden Bedingungennachoptimiert werden müssen. Gleichzeitig läßt sichabschätzen, beiwelchen Umgebungsbedingungen dies noch nicht notwendig wird.In allenFällen reichen effektive Paarpotentiale aus, einrealistischesmesoskopisches Modell zu konstruieren. VergröberteSimulationenwerden im Falle der Polyacrylsäure erfolgreich gegenexperimentelleLichtstreudaten getestet. Wir erzielen für Molmassen bis zu300000g/mol eine hervorragende Übereinstimmung für denhydrodynamischenRadius. Unsere Ergebnisse erklären auch Korrekturen zudessenVerhalten als Funktion der Kettenlänge ('Skalenverhalten'). Im Fallevon Polyisopren untersuchen wir sowohl statische als auchdynamischeGrößen und stellen klare Unterschiede unserer Ergebnisse zudeneneines einfachen semi-flexiblen Mesoskalenmodells fest. InderProteinforschung werden aus Datenbanken gewonnene effektivePaarwechselwirkungen dazu verwendet, die freie Energie einesneuensystems vorherzusagen. Wir belegen in einem Exkurs mittelsGittersimulationen, daß es selbst in einfachsten Fällennicht gelingt,dies auch nur qualitativ korrekt zu bewerkstelligen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Rahmen der gezielten Suche nach neuen Leitstrukturen mit antitumoraler Wirkung werden im Arbeitskreis U. Pindur seit Jahren verschiedene Strukturvarianten der Indol-, Carbazol und Pyrrol-Reihe studiert. Durch die Vielzahl neu synthetisierter Verbindungen war es erforderlich, geeignete Screening-Verfahren für die Routineanalyse zu etablieren, die möglichst früh vielversprechende Substanzen detektieren können.Zwei bedeutsame Targets der antitumoralen Wirkstoffe sind die DNA und die Topoisomerase I. Demzufolge war es das Kernziel dieser Arbeit, in erster Linie Assay-Verfahren zu studieren und neu zu etablieren, die eine Wechselwirkung von neu-synthetisierten Verbindungen mit diesen Targets nachweisen könnten.Im Rahmen dieser Arbeit wurden vier Assay-Verfahren neu etabliert und für die Routineanwendung optimiert: die Bestimmung der DNA-Schmelztemperatur, der Ethidiumbromid-Verdrängungsassay, der Unwinding-Assay und die Bestimmung der Topoisomerase I-Hemmung.Mit diesen vier Methoden, die mit Hilfe neuer Synthesesubstanzen und bekannter Standard-Cytostatika in dieser Arbeit aufgebaut, validiert und optimiert wurden, und mit den Ergebnissen der Zytotoxizitätsbestimmung, die im National Cancer Institute durchgeführt wurde, sollten nun erste Basisinformationen zum zukünftigen Aufbau von Struktur-Wirkungsbeziehungen der im Arbeitskreis U. Pindur synthetisierten Verbindungen geliefert werden.Aus der Analyse der Problematik bei der Durchführung der Assays zur Bestimmung der Wechselwirkungen mit der DNA und der damit ermittelten Ergebnisse hat sich eine Reduktion der Lipophilie der Testverbindungen als besonders wichtig herausgestellt, denn die meisten Assays werden in wäßrigem Puffer durchgeführt.In Hinblick auf Struktur-Wirkungsbeziehungen der neu synthetisierten Verbindungen konnten ausgehend von den bisherigen Ergebnissen erste vororientierende Korrelationen zwischen den verschiedenen Assay-Daten aufgestellt werden. Allerdings konnte auf Grund der Heterogenität der rationalen Hintergründe der Testverfahren und der Heterogenität der untersuchten Stoffgruppen noch kein einheitliches weiterführendes Strukturkonzept erarbeitet werden. Lediglich bei den Pyrrolcarboxamid-Derivaten konnte unter Berücksichtigung folgender Informationen eine weitergehende Strukturoptimierung vorgenommen werden. Eine terminale Dimethylaminopropyl-Gruppe sowie mindestens zwei Pyrroleinheiten bzw. drei amidische Gruppen bei den DNA-rinnenbindenden Pyrrolcarboxamid-Ketten sind erforderlich, um eine Wechselwirkung mit der DNA zu erreichen. Der interkalierende Teil der als potentielle „Combilexine“ entwickelten Oligopyrrolcarboxamid-Derivate sollte eine große Affinität zur DNA aufweisen, sonst scheint dieser Strukturabschnitt eher einen sterischen Störeffekt bei der Bindung in die Rinnen der Seitenkette hervorzurufen.Eine Analyse der erforderlichen strukturellen Eigenschaften für die Wechselwirkung mit der Topoisomerase I war nicht möglich, denn Testverbindungen unterschiedlichster Struktur haben eine Hemmung dieses Enzyms gezeigt. Weiterhin ist keine Korrelation zwischen der DNA-Affinität und der Fähigkeit zur Hemmung der Topo I festzustellen. Dennoch konnte die zytotoxische Wirkung bei einer Vielzahl von Verbindungen mit einer Hemmung der Topoisomerase I erklärt.Auf Grund der vorliegenden Ergebnisse sollten nun weitere Verbindungen gezielter synthetisiert werden, deren Analyse mit Hilfe der im Rahmen dieser Arbeit etablierten Verfahren zur Aufklärung weiterer essentieller Punkte für die Wechselwirkung mit der DNA und den Topoisomerasen führen soll.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersucht mittels lichtunterstützter Tunnelmikroskopie (STM) den Elektronentransport in farbstoffbedeckten, nanoporösen TiO2-Schichten, die in photoelektrochemischen Solarzellen eingesetzt werden. Transportrelevante Eigenschaften wie die elektronische Zustandsdichte sowie lichtinduzierte Vorgänge wie der Aufbau einer lichtinduzierten Oberflächenladung und lokale Photoströme werden ortsaufgelöst gemessen. Für einen möglichen Einsatz in lichtunterstützter Tunnelmikroskopie werden desweiteren Gold-Nanopartikel auf einer Amino-Hexanthiol-Monolage auf Coulomb-Blockaden untersucht. Den zweite Schwerpunkt stellen methodische Arbeiten zur Messung optischer Nahfelder in STM-Experimenten dar. Erstens sollen die Vorteile von Apertur- und aperturloser optischer Rasternahfeld-Mikroskopie mit komplett metallisierten Faserspitzen verbunden werden, die durch die Faser beleuchtet werden. Es gelingt nicht, theoretisch vorhergesagte hohe optische Auflösungen zu bestätigen. Zweitens werden transparente Spitzen aus Sb-dotiertem Zinnoxid erfolgreich als Tunnelspitzen getestet. Die Spitzen ermöglichen STM-Elektrolumineszenz-Experimente zur Charakterisierung optischer Nahfelder, ohne diese durch eine metallische Spitze zu beeinträchtigen. In einer STM-Studie wird das Selbstorganisations-Verhalten von Oktanthiol und Oktandithiol auf Au(111) aus Ethanol untersucht. Bei geringer relativer Konzentration der Dithiole (1:2000), bildet sich eine Phase liegender Dithiole, deren Ordnung durch die Präsenz der Oktanthiole katalysiert wird. Schließlich wird ein als 'dynamische Tunnelmikroskopie' bezeichneter Modus für die Tunnelmikroskopie in elektrisch leitfähiger Umgebung erfolgreich getestet, der zur Unterdrückung des elektrochemischen Leckstromanteils die Ableitung des Stroms nach dem Abstand als STM-Abstandssignal verwendet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Arbeit beginnt mit dem Vergleich spezieller Regularisierungsmethoden in der Quantenfeldtheorie mit dem Verfahren zur störungstheoretischen Konstruktion der S-Matrix nach Epstein und Glaser. Da das Epstein-Glaser-Verfahren selbst als Regularisierungsverfahren verwandt werden kann und darüberhinaus ausschließlich auf physikalisch motivierten Postulaten basiert, liefert dieser Vergleich ein Kriterium für die Zulässigkeit anderer Regularisierungsmethoden. Zusätzlich zur Herausstellung dieser Zulässigkeit resultiert aus dieser Gegenüberstellung als weiteres wesentliches Resultat ein neues, in der Anwendung praktikables sowie konsistentes Regularisierungsverfahren, das modifizierte BPHZ-Verfahren. Dieses wird anhand von Ein-Schleifen-Diagrammen aus der QED (Elektronselbstenergie, Vakuumpolarisation und Vertexkorrektur) demonstriert. Im Gegensatz zur vielverwandten Dimensionalen Regularisierung ist dieses Verfahren uneingeschränkt auch für chirale Theorien anwendbar. Als Beispiel hierfür dient die Berechnung der im Rahmen einer axialen Erweiterung der QED-Lagrangedichte auftretenden U(1)-Anomalie. Auf der Stufe von Mehr-Schleifen-Diagrammen zeigt der Vergleich der Epstein-Glaser-Konstruktion mit dem bekannten BPHZ-Verfahren an mehreren Beispielen aus der Phi^4-Theorie, darunter das sog. Sunrise-Diagramm, daß zu deren Berechnung die nach der Waldformel des BPHZ-Verfahrens zur Regularisierung beitragenden Unterdiagramme auf eine kleinere Klasse eingeschränkt werden können. Dieses Resultat ist gleichfalls für die Praxis der Regularisierung bedeutsam, da es bereits auf der Stufe der zu berücksichtigenden Unterdiagramme zu einer Vereinfachung führt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Elemente Uran und Plutonium besitzen seit Entdeckung der Kernspaltung und der technischen Nutzung der Kernenergie eine globale Bedeutung. So trägt Pu hauptsächlich zur Radiotoxizität von abgebrannten Brennelementen bei und erfordert im Falle einer Endlagerung in einer tiefen geologischen Formation einen sicheren Verschluss für bis zu einer Million Jahre. Das Wissen über die vorliegenden chemischen Spezies ist dabei entscheidend für das Verständnis der chemisch-physikalischen Wechselwirkungen im jeweiligen geochemischen System, insbesondere mit dem Wirtsgestein (hier Ton) und den allgegenwärtigen Huminstoffen (hier Fulvinsäure). Längerfristig sind so Vorhersagen über einen Transport des hochradioaktiven Abfalls nach Auslaugung und Austritt aus einem Endlager bis in die Biosphäre möglich. Gerade der Ultraspurenbereich, im Fernfeld eines Endlagers zu erwarten, ist dabei von besonderem Interesse. Darüber hinaus machen nuklearforensische Untersuchungen – in Hinblick auf illegal benutztes Nuklearmaterial, Schmuggel oder Nuklearterrorismus – zur Bestimmung der Herkunft, des Alters oder der Radiotoxizität isotopenselektive Nachweismethoden im Ultraspurenbereich notwendig. Im Rahmen dieser Arbeit wurden hierfür die Resonanzionisationsmassenspektrometrie (RIMS) zur isotopenselektiven Spuren- und Ultraspurenanalyse von U und Pu sowie die Kapillarelektrophorese (CE) gekoppelt an die induktiv gekoppelte Plasma (ICP)-Massenspektrometrie (CE-ICP-MS) zur Speziation von Pu eingesetzt. Für den isotopenselektiven Nachweis von Ultraspurenmengen von Uran mittels RIMS wurden vorbereitende Studien durchgeführt und mehrere zweifach resonante Anregungsleitern mit nicht-resonanter Ionisation untersucht. Eine Effizienz von ca. 10^-10 bei einer Nachweisgrenze von 10^12 Atomen U-238 konnte erzielt werden. In Zusammenarbeit mit dem Institut für Radiochemie, TU München, wurde mittels RIMS die Isotopenzusammensetzung von Plutonium, abgetrennt aus einem panzerbrechenden Urangeschoss aus dem Kosovokonflikt, bestimmt und dieses als Waffenplutonium mit einem Gehalt von 15 pg Pu-239/g Uran identifiziert. Rückschlüsse über Herkunft und Alter des Plutoniums konnten daraus gewonnen werden. Für Studien zur Umweltüberwachung von Plutonium in Rheinland-Pfalz wurden Grund-, Oberflächen- und Klärwasserproben mittels RIMS untersucht. Oberhalb der Nachweisgrenze von ca. 10^7 Atomen Pu-239/500 mL konnte kein signifikanter Gehalt bestimmt werden. Zusätzlich wurden Klärschlammproben untersucht, wobei in einer Probe 5,1*10^7 Atome Pu-239/g gemessen wurde, was auf eine Anreicherung von Pu im Klärschlamm aus großen Wasservolumina hindeuten könnte. Speziationsuntersuchungen von Plutonium in Kontakt mit Fulvinsäure und dem Tonmineral Kaolinit wurden in Hinblick auf die Wechselwirkungen im Umfeld eines nuklearen Endlagers durchgeführt. Die Redoxkinetik von Pu(VI) in Kontakt mit Gorleben-Fulvinsäure zeigt eine mit steigendem pH zunehmend schnellere und vollständige Reduktion und ein vergleichbares Verhalten zur Huminsäure. Für ein Plutoniumgemisch aus allen vier umweltrelevanten Oxidationsstufen in Kontakt mit Gorleben-Fulvinsäure konnte nach ca. 1 Monat Kontaktzeit eine fasst vollständige Reduktion zum tri- und tetravalenten Pu beobachtet werden. Sorptionsuntersuchungen der stabilsten Oxidationsstufe, Pu(IV), in Kontakt mit Kaolinit bei pH = 0 bis 13 im Konzentrationsbereich 10^-7 bis 10^-9 mol/L verdeutlichen das ausgeprägte Sorptionsverhalten von Pu(IV) (ca. 60% bis 90% Sorption) im umweltrelevanten pH-Bereich bei einem Einsetzen der Sorption bei pH = 0 bis 2. Im Rahmen des "Colloid and Radionuclide Retardation" (CRR) Experiments im Felslabor Grimsel, Schweizer Alpen, wurde in Zusammenarbeit mit dem Institut für Nukleare Entsorgung, Karlsruhe, die kolloidgetragene Migration von Pu(IV) in einem Grundwasserstrom durch Scherzonen im Granitgestein unter umweltrelevanten Bedingungen untersucht. Bei Zugabe von im Grundwasser stabilen Bentonitkolloiden – Bentonit wird als ein geeignetes Verschlussmaterial für nukleare Abfälle erforscht – konnte ein erhöhter Transport des Pu(IV) beobachtet werden, der durch Sorption des Pu an die mobilen Kolloide hervorgerufen wird. Zur Speziation von Plutonium im Ultraspurenbereich wurde im Rahmen dieser Arbeit an der Entwicklung der Kopplung der CE mit der sehr sensitiven RIMS gearbeitet. Das Prinzip der offline-Kopplung basiert auf dem Sammeln der zu unterschiedlichen Zeiten am Ende der Kapillare eluierten Oxidationsstufen in einzelnen Fraktionen. Aus jeder Fraktion wird ein eigenes Filament hergestellt und mit RIMS auf seinen Plutoniumgehalt untersucht. Eine erste Validierung der Methode konnte durch Bestimmung der Oxidationsstufenzusammensetzung eines bekannten Gemischs erfolgreich für einen Gehalt von ca. 6*10^9 Atome Pu-239 durchgeführt werden. Dies stellt einen möglichen Zugang zu dem erwarteten Konzentrationsbereich im Fernfeld eines Endlagers dar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work we develop and analyze an adaptive numerical scheme for simulating a class of macroscopic semiconductor models. At first the numerical modelling of semiconductors is reviewed in order to classify the Energy-Transport models for semiconductors that are later simulated in 2D. In this class of models the flow of charged particles, that are negatively charged electrons and so-called holes, which are quasi-particles of positive charge, as well as their energy distributions are described by a coupled system of nonlinear partial differential equations. A considerable difficulty in simulating these convection-dominated equations is posed by the nonlinear coupling as well as due to the fact that the local phenomena such as "hot electron effects" are only partially assessable through the given data. The primary variables that are used in the simulations are the particle density and the particle energy density. The user of these simulations is mostly interested in the current flow through parts of the domain boundary - the contacts. The numerical method considered here utilizes mixed finite-elements as trial functions for the discrete solution. The continuous discretization of the normal fluxes is the most important property of this discretization from the users perspective. It will be proven that under certain assumptions on the triangulation the particle density remains positive in the iterative solution algorithm. Connected to this result an a priori error estimate for the discrete solution of linear convection-diffusion equations is derived. The local charge transport phenomena will be resolved by an adaptive algorithm, which is based on a posteriori error estimators. At that stage a comparison of different estimations is performed. Additionally a method to effectively estimate the error in local quantities derived from the solution, so-called "functional outputs", is developed by transferring the dual weighted residual method to mixed finite elements. For a model problem we present how this method can deliver promising results even when standard error estimator fail completely to reduce the error in an iterative mesh refinement process.