237 resultados para generative Verfahren


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit beginnt mit dem Vergleich spezieller Regularisierungsmethoden in der Quantenfeldtheorie mit dem Verfahren zur störungstheoretischen Konstruktion der S-Matrix nach Epstein und Glaser. Da das Epstein-Glaser-Verfahren selbst als Regularisierungsverfahren verwandt werden kann und darüberhinaus ausschließlich auf physikalisch motivierten Postulaten basiert, liefert dieser Vergleich ein Kriterium für die Zulässigkeit anderer Regularisierungsmethoden. Zusätzlich zur Herausstellung dieser Zulässigkeit resultiert aus dieser Gegenüberstellung als weiteres wesentliches Resultat ein neues, in der Anwendung praktikables sowie konsistentes Regularisierungsverfahren, das modifizierte BPHZ-Verfahren. Dieses wird anhand von Ein-Schleifen-Diagrammen aus der QED (Elektronselbstenergie, Vakuumpolarisation und Vertexkorrektur) demonstriert. Im Gegensatz zur vielverwandten Dimensionalen Regularisierung ist dieses Verfahren uneingeschränkt auch für chirale Theorien anwendbar. Als Beispiel hierfür dient die Berechnung der im Rahmen einer axialen Erweiterung der QED-Lagrangedichte auftretenden U(1)-Anomalie. Auf der Stufe von Mehr-Schleifen-Diagrammen zeigt der Vergleich der Epstein-Glaser-Konstruktion mit dem bekannten BPHZ-Verfahren an mehreren Beispielen aus der Phi^4-Theorie, darunter das sog. Sunrise-Diagramm, daß zu deren Berechnung die nach der Waldformel des BPHZ-Verfahrens zur Regularisierung beitragenden Unterdiagramme auf eine kleinere Klasse eingeschränkt werden können. Dieses Resultat ist gleichfalls für die Praxis der Regularisierung bedeutsam, da es bereits auf der Stufe der zu berücksichtigenden Unterdiagramme zu einer Vereinfachung führt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present thesis is concerned with the study of a quantum physical system composed of a small particle system (such as a spin chain) and several quantized massless boson fields (as photon gasses or phonon fields) at positive temperature. The setup serves as a simplified model for matter in interaction with thermal "radiation" from different sources. Hereby, questions concerning the dynamical and thermodynamic properties of particle-boson configurations far from thermal equilibrium are in the center of interest. We study a specific situation where the particle system is brought in contact with the boson systems (occasionally referred to as heat reservoirs) where the reservoirs are prepared close to thermal equilibrium states, each at a different temperature. We analyze the interacting time evolution of such an initial configuration and we show thermal relaxation of the system into a stationary state, i.e., we prove the existence of a time invariant state which is the unique limit state of the considered initial configurations evolving in time. As long as the reservoirs have been prepared at different temperatures, this stationary state features thermodynamic characteristics as stationary energy fluxes and a positive entropy production rate which distinguishes it from being a thermal equilibrium at any temperature. Therefore, we refer to it as non-equilibrium stationary state or simply NESS. The physical setup is phrased mathematically in the language of C*-algebras. The thesis gives an extended review of the application of operator algebraic theories to quantum statistical mechanics and introduces in detail the mathematical objects to describe matter in interaction with radiation. The C*-theory is adapted to the concrete setup. The algebraic description of the system is lifted into a Hilbert space framework. The appropriate Hilbert space representation is given by a bosonic Fock space over a suitable L2-space. The first part of the present work is concluded by the derivation of a spectral theory which connects the dynamical and thermodynamic features with spectral properties of a suitable generator, say K, of the time evolution in this Hilbert space setting. That way, the question about thermal relaxation becomes a spectral problem. The operator K is of Pauli-Fierz type. The spectral analysis of the generator K follows. This task is the core part of the work and it employs various kinds of functional analytic techniques. The operator K results from a perturbation of an operator L0 which describes the non-interacting particle-boson system. All spectral considerations are done in a perturbative regime, i.e., we assume that the strength of the coupling is sufficiently small. The extraction of dynamical features of the system from properties of K requires, in particular, the knowledge about the spectrum of K in the nearest vicinity of eigenvalues of the unperturbed operator L0. Since convergent Neumann series expansions only qualify to study the perturbed spectrum in the neighborhood of the unperturbed one on a scale of order of the coupling strength we need to apply a more refined tool, the Feshbach map. This technique allows the analysis of the spectrum on a smaller scale by transferring the analysis to a spectral subspace. The need of spectral information on arbitrary scales requires an iteration of the Feshbach map. This procedure leads to an operator-theoretic renormalization group. The reader is introduced to the Feshbach technique and the renormalization procedure based on it is discussed in full detail. Further, it is explained how the spectral information is extracted from the renormalization group flow. The present dissertation is an extension of two kinds of a recent research contribution by Jakšić and Pillet to a similar physical setup. Firstly, we consider the more delicate situation of bosonic heat reservoirs instead of fermionic ones, and secondly, the system can be studied uniformly for small reservoir temperatures. The adaption of the Feshbach map-based renormalization procedure by Bach, Chen, Fröhlich, and Sigal to concrete spectral problems in quantum statistical mechanics is a further novelty of this work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel der Arbeit war die Entwicklung computergestützter Methoden zur Erstellung einer Gefahrenhinweiskarte für die Region Rheinhessen, zur Minimierung der Hangrutschungsgefährdung. Dazu wurde mit Hilfe zweier statistischer Verfahren (Diskriminanzanalyse, Lo­gistische Regression) und einer Methode aus dem Bereich der Künstlichen Intelligenz (Fuzzy Logik) versucht, die potentielle Gefährdung auch solcher Hänge zu klassifizieren, die bis heute noch nicht durch Massenbewegungen aufgefallen sind. Da ingenieurgeologische und geotechnische Hanguntersuchungen aus Zeit und Kostengründen im regionalen Maßstab nicht möglich sind, wurde auf punktuell vorhandene Datenbestände zu einzelnen Rut­schungen des Winters 1981/82, die in einer Rutschungsdatenbank zu­sammengefaßt sind, zurückgegriffen, wobei die daraus gewonnenen Erkenntnisse über Prozeßmechanismen und auslösende Faktoren genutzt und in das jeweilige Modell integriert wurden. Flächenhafte Daten (Lithologie, Hangneigung, Landnutzung, etc.), die für die Berechnung der Hangstabilität notwendig sind, wurden durch Fernerkundungsmethoden, dem Digitalisieren von Karten und der Auswertung von Digitalen Geländemodellen (Reliefanalyse) gewonnen. Für eine weiterführende Untersuchung von einzelnen, als rutschgefährdet klassifi­zierten Bereichen der Gefahrenhinweiskarte, wurde am Beispiel eines Testgebietes, eine auf dem infinite-slope-stability Modell aufbauende Me­thode untersucht, die im Maßstabsbereich von Grundkarten (1:5000) auch geotechnische und hydrogeologische Parameter berücksichtigt und damit eine genauere, der jeweiligen klimatischen Situation angepaßte, Gefahrenabschätzung ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Funktionsapproximators und dessen Verwendung in Verfahren zum Lernen von diskreten und kontinuierlichen Aktionen: 1. Ein allgemeiner Funktionsapproximator – Locally Weighted Interpolating Growing Neural Gas (LWIGNG) – wird auf Basis eines Wachsenden Neuralen Gases (GNG) entwickelt. Die topologische Nachbarschaft in der Neuronenstruktur wird verwendet, um zwischen benachbarten Neuronen zu interpolieren und durch lokale Gewichtung die Approximation zu berechnen. Die Leistungsfähigkeit des Ansatzes, insbesondere in Hinsicht auf sich verändernde Zielfunktionen und sich verändernde Eingabeverteilungen, wird in verschiedenen Experimenten unter Beweis gestellt. 2. Zum Lernen diskreter Aktionen wird das LWIGNG-Verfahren mit Q-Learning zur Q-LWIGNG-Methode verbunden. Dafür muss der zugrunde liegende GNG-Algorithmus abgeändert werden, da die Eingabedaten beim Aktionenlernen eine bestimmte Reihenfolge haben. Q-LWIGNG erzielt sehr gute Ergebnisse beim Stabbalance- und beim Mountain-Car-Problem und gute Ergebnisse beim Acrobot-Problem. 3. Zum Lernen kontinuierlicher Aktionen wird ein REINFORCE-Algorithmus mit LWIGNG zur ReinforceGNG-Methode verbunden. Dabei wird eine Actor-Critic-Architektur eingesetzt, um aus zeitverzögerten Belohnungen zu lernen. LWIGNG approximiert sowohl die Zustands-Wertefunktion als auch die Politik, die in Form von situationsabhängigen Parametern einer Normalverteilung repräsentiert wird. ReinforceGNG wird erfolgreich zum Lernen von Bewegungen für einen simulierten 2-rädrigen Roboter eingesetzt, der einen rollenden Ball unter bestimmten Bedingungen abfangen soll.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work we are concerned with the analysis and numerical solution of Black-Scholes type equations arising in the modeling of incomplete financial markets and an inverse problem of determining the local volatility function in a generalized Black-Scholes model from observed option prices. In the first chapter a fully nonlinear Black-Scholes equation which models transaction costs arising in option pricing is discretized by a new high order compact scheme. The compact scheme is proved to be unconditionally stable and non-oscillatory and is very efficient compared to classical schemes. Moreover, it is shown that the finite difference solution converges locally uniformly to the unique viscosity solution of the continuous equation. In the next chapter we turn to the calibration problem of computing local volatility functions from market data in a generalized Black-Scholes setting. We follow an optimal control approach in a Lagrangian framework. We show the existence of a global solution and study first- and second-order optimality conditions. Furthermore, we propose an algorithm that is based on a globalized sequential quadratic programming method and a primal-dual active set strategy, and present numerical results. In the last chapter we consider a quasilinear parabolic equation with quadratic gradient terms, which arises in the modeling of an optimal portfolio in incomplete markets. The existence of weak solutions is shown by considering a sequence of approximate solutions. The main difficulty of the proof is to infer the strong convergence of the sequence. Furthermore, we prove the uniqueness of weak solutions under a smallness condition on the derivatives of the covariance matrices with respect to the solution, but without additional regularity assumptions on the solution. The results are illustrated by a numerical example.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit soll der Stellenwert der ce-MRA unter Verwendung von MS-325, einem neuen intravaskulären Kontrastmittel, bei der Untersuchung der Fußgefäße im Vergleich zur DSA bewertet, und das Übereinstimmen der Befunde zweier unterschiedlich erfahrener Untersucher untersucht werden. Im Rahmen einer klinischen Phase-III-Studie wurden 18 Patienten mit pAVK und / oder diabetischem Fußsyndrom rekrutiert. Die ce-MRA-Untersuchungen wurden in einem 1,5-Tesla-Magnetom durchgeführt. Dabei wurden dynamische Serien und eine hochaufgelöste Steady-state-Sequenz des zu untersuchenden Fußes akquiriert. Als Kontrastmittel wurde MS-325 in einer an das Körpergewicht adap-tierten Dosis appliziert. Die DSA-Untersuchung enthielt eine komplette Becken-Bein-Angiographie mit selektiver Darstellung der Fußgefäße. Vor der Befundung wurden die Bilddaten der MR-Angiographie nachbearbeitet und MIP-Projektionen erstellt. Zwei Untersucher befundeten unabhängig voneinander und in zufälliger Reinfolge die MRA, die DSA wurde in einem Konsensusverfahren beider Unter-sucher beurteilt. In eine qualitative Analyse gingen die Bewertung der Bildquali-tät, die Sichtbarkeit von sieben Gefäßsegmenten und deren hämodynamisch relevanter Stenosegrad ein. Quantitativ wurde das Signal-Rausch-Verhältnis und das Kontrast-Rausch-Verhältnis untersucht. Die Bildqualität beider Modalitäten wurde im Median mit gut bewertet. Hinsichtlich der Sichtbarkeit der Gefäßsegmente zeigte sich die ce-MRA der DSA überlegen. Von insgesamt 126 Gefäßsegmenten waren nur 80 in der DSA sichtbar, dagegen waren 106 Gefäßsegmente in der ce-MRA sichtbar (p-Wert <0,001, McNemar-Test). Die Übereinstimmung zwischen beiden Untersuchern der ce-MRA war sehr gut, beide erkannten 105 von 126 Gefäßsegmenten (Kappa-Maß κ=0,97). Beide Modalitäten werteten übereinstimmend 46 Gefäßsegmente als hämodynamisch relevant stenosiert. 16 Gefäßstenosen wurden durch die ce-MRA im Gegensatz zur DSA überbewertet. Zwischen Untersucher 1 und Untersucher 2 der ce-MRA fand sich erneut eine sehr gute Übereinstimmung (Kappa-Maß к = 0,89). Die Messungen des SNR und des CNR ergaben sowohl in den dynamischen Se-quenzen als auch in der später akquirierten hochaufgelösten Steady-state Unter-suchung hohe Werte. Die Bildqualität der hochaufgelösten Steady-state ce-MRA war hervorragend, jedoch beeinträchtigt venöse Überlagerung die Interpretation. In der Literatur wird die ce-MRA als ein geeignetes Verfahren zur Darstellung von Fußgefäßen beschrieben. Zahlreiche Studien zeigen, dass mit der ce-MRA mehr Gefäßsegmente dargestellt werden können. Dieses Ergebnis konnte in der vor-liegenden Arbeit bestätigt werden. Eine mit MS-325 verstärkte Magnetresonanz-angiographie der Fußgefäße ist der selektiven DSA überlegen. Die Tatsache, dass mit der ce-MRA mehr Gefäßsegmente dargestellt werden können, hat den Begriff des angiographisch „verborgenen“ Blutgefäßes initiiert. In vielen klini-schen Zentren hat die ce-MRA die DSA weitgehend verdrängt. Aus diesem Grund wird in der Literatur vorgeschlagen, dass die ce-MRA die DSA als einen „verbes-serten Goldstandard“ ersetzten könnte. Kann mit der DSA kein passendes An-schlussgefäß für eine Revaskularisationsmaßnahme mittels Bypass gefunden werden, so sollte auf jeden Fall eine ce-MRA der Fußgefäße durchgeführt wer-den, um eine Amputation zu verhindern. In der Literatur wird von der Änderung der Behandlungsstrategie nach der Durchführung der ce-MRA berichtet. Bei der Klassifikation von Gefäßstenosen wertet die ce-MRA öfter höher als die DSA, diese Überbewertung ist in der Literatur bekannt und konnte ebenfalls in der vorliegenden Arbeit bestätigt werden. Diese Überschätzung resultiert aus „Spin-Dephasierung“ durch turbulente Blutströmung im Bereich einer Stenose oder besteht auf Grund von Partialvolumeneffekten. Die Verwendung eines intravaskulären Kontrastmittels, wie bsw. MS-325, zur MR-Angiographie bringt den Vorteil, dass sowohl dynamische als auch Steady-state Untersuchungen aller vaskulären Strukturen im menschlichen Körper durchge-führt werden können. Da eine hohe Signalintensität über einen langen Zeitraum besteht, können auch mehrere Körperregionen während einer einzigen Untersu-chung dargestellt werden. Nachteilig ist jedoch die Beeinträchtigung der Bildge-bung durch venöse Überlagerung. Mittels computergestützter Bildnachbearbeitung ist es jedoch möglich, Venen in Steady-state-Sequenzen zu unterdrücken und daraus ergibt sich die Möglichkeit, hochaufgelöste, überlage-rungsfreie Datensätze zu erhalten. Diese könnten dann der erste Schritt in Rich-tung einer Perfusionsbildgebung am Fuß sein, um bsw. den Erfolg von Revaskularisationsmaßnahmen auch auf Kapillarebene beurteilen zu können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurden neuartige substituierte N-Benzylbenzothiazoliumhexa-fluorophosphate und –antimonate synthetisiert und hinsichtlich ihre Wirksamkeit als photo- und thermolatente Initiatoren für Epoxidpolymerisationen untersucht. Zur Synthese der Benzothiazoliumderivate wurden zunächst substituierte Benzothiazole nach verschiedenen Verfahren hergestellt, diese mit den entsprechenden Benzylbromiden quaternisiert und die N-quaternären Bromide zu den Hexafluorophosphaten bzw. –antimonaten umgesalzt. Neben den niedermolekularen Benzothiazoliumsalzen wurden auch Copolymere mit dieser Struktur in der Seitenkette durch radikalische Copolymerisation vinylsubstituierter N-quaternärer Benzothiazoliumsalze mit MMA hergestellt. Sowohl die niedermolekularen als auch die polymergebundenen Benzothiazoliumhexafluorophosphate erwiesen sich als effektive direkte kationische Photo- und Thermoinitiatoren für die Polymerisation von Epoxiden. Durch die Einführung auxochromer Ethergruppierungen konnte eine bathochrome Verschiebung der UV-Absorptionswellenlänge des energieärmsten elektronischen Überganges erreicht werden. Kinetische IR-Studien der kationischen Polymerisation von Glycidylphenylether (GPE) im Nassfilm unter Bestrahlung in Gegenwart der hergestellten Benzothiazoliumsalze als Photoinitiatoren zeigten dass durch die so erreichte verbesserte Ausnutzung der einwirkenden Strahlung die kationische Photoinitiatoreffektivität deutlich gesteigert werden konnte. Der Zusatz eines photolytischen Radikalbildners führte zu einer weiteren Steigerung der Photopolymerisationsgeschwindigkeit und zu einer Umkehr der beobacheteten Initiatoreffektivitäten. UV-, 1H NMR-, sowie MALDI-TOF- Untersuchungen, sowie die vollständige Unterdrückung der Photopolymerisation durch den Protonenfänger DBP deuten auf die photolytische Generierung von Protonen als initiierende Spezies der photokationischen Polymerisation und DSC- und 1H-NMR Ergebnisse auf die thermische Generierung von Benzylkationen als initiierende Spezies der thermischen Polymerisation hin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) wird zur individuellen Dosiseinstellung genutzt, um die Effizienz der Medikamentenwirkung zu steigern und das Auftreten von Nebenwirkungen zu senken. Für das TDM von Antipsychotika und Antidepressiva besteht allerdings das Problem, dass es mehr als 50 Medikamente gibt. Ein TDM-Labor muss dementsprechend über 50 verschiedene Wirkstoffe und zusätzlich aktive Metaboliten messen. Mit der Flüssigchromatographie (LC oder HPLC) ist die Analyse vieler unterschiedlicher Medikamente möglich. LC mit Säulenschaltung erlaubt eine Automatisierung. Dabei wird Blutserum oder -plasma mit oder ohne vorherige Proteinfällung auf eine Vorsäule aufgetragen. Nach Auswaschen von störenden Matrixbestandteilen werden die Medikamente auf einer nachgeschalteten analytischen Säule getrennt und über Ultraviolettspektroskopie (UV) oder Massenspektrometrie (MS) detektiert. Ziel dieser Arbeit war es, LC-Methoden zu entwickeln, die die Messung möglichst vieler Antipsychotika und Antidepressiva erlaubt und die für die TDM-Routine geeignet ist. Eine mit C8-modifiziertem Kieselgel gefüllte Säule (20 µm 10x4.0 mm I.D.) erwies sich in Vorexperimenten als optimal geeignet bezüglich Extraktionsverhalten, Regenerierbarkeit und Stabilität. Mit einer ersten HPLC-UV-Methode mit Säulenschaltung konnten 20 verschiedene Psychopharmaka einschließlich ihrer Metabolite, also insgesamt 30 verschiedene Substanzen quantitativ erfasst werden. Die Analysenzeit betrug 30 Minuten. Die Vorsäule erlaubte 150 Injektionen, die analytische Säule konnte mit mehr als 300 Plasmainjektionen belastet werden. Abhängig vom Analyten, musste allerdings das Injektionsvolumen, die Flussrate oder die Detektionswellenlänge verändert werden. Die Methode war daher für eine Routineanwendung nur eingeschränkt geeignet. Mit einer zweiten HPLC-UV-Methode konnten 43 verschiedene Antipsychotika und Antidepressiva inklusive Metaboliten nachgewiesen werden. Nach Vorreinigung über C8-Material (10 µm, 10x4 mm I.D.) erfolgte die Trennung auf Hypersil ODS (5 µm Partikelgröße) in der analytischen Säule (250x4.6 mm I.D.) mit 37.5% Acetonitril im analytischen Eluenten. Die optimale Flussrate war 1.5 ml/min und die Detektionswellenlänge 254 nm. In einer Einzelprobe, konnten mit dieser Methode 7 bis 8 unterschiedliche Substanzen gemessen werden. Für die Antipsychotika Clozapin, Olanzapin, Perazin, Quetiapin und Ziprasidon wurde die Methode validiert. Der Variationskoeffizient (VK%) für die Impräzision lag zwischen 0.2 und 6.1%. Im erforderlichen Messbereich war die Methode linear (Korrelationskoeffizienten, R2 zwischen 0.9765 und 0.9816). Die absolute und analytische Wiederfindung lagen zwischen 98 und 118 %. Die für das TDM erforderlichen unteren Nachweisgrenzen wurden erreicht. Für Olanzapin betrug sie 5 ng/ml. Die Methode wurde an Patienten für das TDM getestet. Sie erwies sich für das TDM als sehr gut geeignet. Nach retrospektiver Auswertung von Patientendaten konnte erstmalig ein möglicher therapeutischer Bereich für Quetiapin (40-170 ng/ml) und Ziprasidon (40-130 ng/ml) formuliert werden. Mit einem Massenspektrometer als Detektor war die Messung von acht Neuroleptika und ihren Metaboliten möglich. 12 Substanzen konnten in einem Lauf bestimmt werden: Amisulprid, Clozapin, N-Desmethylclozapin, Clozapin-N-oxid, Haloperidol, Risperidon, 9-Hydroxyrisperidon, Olanzapin, Perazin, N-Desmethylperazin, Quetiapin und Ziprasidon. Nach Vorreinigung mit C8-Material (20 µm 10x4.0 mm I.D.) erfolgte die Trennung auf Synergi MAX-RP C12 (4 µm 150 x 4.6 mm). Die Validierung der HPLC-MS-Methode belegten einen linearen Zusammenhang zwischen Konzentration und Detektorsignal (R2= 0,9974 bis 0.9999). Die Impräzision lag zwischen 0.84 bis 9.78%. Die für das TDM erforderlichen unteren Nachweisgrenzen wurden erreicht. Es gab keine Hinweise auf das Auftreten von Ion Suppression durch Matrixbestandteile. Die absolute und analytische Wiederfindung lag zwischen 89 und 107 %. Es zeigte sich, dass die HPLC-MS-Methode ohne Modifikation erweitert werden kann und anscheinend mehr als 30 verschiedene Psychopharmaka erfasst werden können. Mit den entwickelten flüssigchromatographischen Methoden stehen neue Verfahren für das TDM von Antipsychotika und Antidepressiva zur Verfügung, die es erlauben, mit einer Methode verschiedene Psychopharmaka und ihre aktiven Metabolite zu messen. Damit kann die Behandlung psychiatrischer Patienten insbesondere mit Antipsychotika verbessert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work we develop and analyze an adaptive numerical scheme for simulating a class of macroscopic semiconductor models. At first the numerical modelling of semiconductors is reviewed in order to classify the Energy-Transport models for semiconductors that are later simulated in 2D. In this class of models the flow of charged particles, that are negatively charged electrons and so-called holes, which are quasi-particles of positive charge, as well as their energy distributions are described by a coupled system of nonlinear partial differential equations. A considerable difficulty in simulating these convection-dominated equations is posed by the nonlinear coupling as well as due to the fact that the local phenomena such as "hot electron effects" are only partially assessable through the given data. The primary variables that are used in the simulations are the particle density and the particle energy density. The user of these simulations is mostly interested in the current flow through parts of the domain boundary - the contacts. The numerical method considered here utilizes mixed finite-elements as trial functions for the discrete solution. The continuous discretization of the normal fluxes is the most important property of this discretization from the users perspective. It will be proven that under certain assumptions on the triangulation the particle density remains positive in the iterative solution algorithm. Connected to this result an a priori error estimate for the discrete solution of linear convection-diffusion equations is derived. The local charge transport phenomena will be resolved by an adaptive algorithm, which is based on a posteriori error estimators. At that stage a comparison of different estimations is performed. Additionally a method to effectively estimate the error in local quantities derived from the solution, so-called "functional outputs", is developed by transferring the dual weighted residual method to mixed finite elements. For a model problem we present how this method can deliver promising results even when standard error estimator fail completely to reduce the error in an iterative mesh refinement process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bohrbrunnen sind die unmittelbare Schnittstelle zwischen dem Grundwasser als Ressource und der Nutzung zur Trinkwasserbereitstellung. Ihre Leistung nimmt jedoch mit fortschreitendem Alter infolge komplexer chemischer und biologischer Vorgänge ab, so dass sie regelmäßig gewartet und regeneriert werden müssen. Um die Auswahl geeigneter Maßnahmen zu erleichtern, erfolglose Regenerierungen zu vermeiden und Kosten zu sparen, ist ein geeignetes, auf den Betrieb und die Standortbedingungen ausgelegtes Überwachungsprogramm notwendig, Im Rahmen der Arbeit wurden aus den Ergebnissen von Regeneriermaßnahmen mit dem Ultraschallverfahren an Brunnen des Wasserwerkes Wiesbaden-Schierstein und der Analyse vorliegender Altdaten Zusammenhänge zwischen der Brunnenalterung und dem Regeneriererfolg einerseits und der Dokumentation und Überwachung eines Brunnens andererseits abgeleitet. Sie bildet damit die noch fehlende Brücke zwischen der Betrachtung einzelner Verfahren und einer allgemeingültigen Brunnenbewirtschaftung. Aus den Schlussfolgerungen für das Wasserwerk Wiesbaden-Schierstein, den Empfehlungen des DVGW, dem Fachwissen aus anderen Publikationen und der Einbeziehung der Erfahrungen aus der wissenschaftlichen Begleitung von Regenerierungen mit Ultraschall konnten die Mindestparameter unter geologischen und hydrochemischen Aspekten und daraus ein Leitfaden zur Entscheidungshilfe über Zeitpunkt und Wahl des Verfahrens einer Brunnenregenerierung abgeleitet werden. Das richtige Brunnenmonitoring ist somit Grundlage der optimalen Brunnennutzung und –pflege.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die resonante Laserionisation hat sich als ein universales Verfahren für eine Vielzahl von Anwendungen etabliert, die eine selektive Ionisation bei hoher Effizienz erfordern. Hierzu wurden zwei Lasersysteme mit unterschiedlichen Zielsetzungen und Schwerpunkten entwickelt und in dieser Arbeit angewendet. Im ersten Teil der Arbeit wird die Entwicklung der hochauflösenden Resonanzionisations-Massenspektrometrie zum Ultraspurennachweis von 41Ca vorgestellt. Hierzu wurden drei kontinuierliche Diodenlaser mit einem Quadrupolmassenspektrometer kombiniert. Bei einer Nachweiseffizienz von 1 × 10^−5 konnte eine Nachweisgrenze von 2 × 10^-13 41Ca/totCa erreicht werden. Das in den Routinebetrieb überführte Meßverfahren ermöglichte die Teilnahme an einem interdisziplinären Netzwerk zur Osteoporose-Forschung. In Vergleichsmessungen der Resonanzionisations-Massenspektrometrie mit allen derzeit existierenden Meßverfahren zum 41Ca-Ultraspurennachweis konnte eine sehr gute Übereinstimmung erzielt werden. Der zweite Teil der Arbeit beinhaltet die Adaption eines durchstimmbaren, hochrepetierenden Titan:Saphir-Lasersystem für den Einsatz an Laserionenquellen zur selektiven Erzeugung radioaktiver Ionenstrahlen. Das entwickelte Lasersystem ermöglicht eine effiziente, resonante Anregung des Großteils der Elemente im Periodensystem. Hierzu wurde eine kombinierte Frequenzverdopplungs- und Frequenzverdreifachungseinheit zur Erzeugung höherer Harmonischer aufgebaut. Die Anwendbarkeit eines solchen reinen Festkörper-Lasersystems wurde in zahlreichen off-line Testmessungen sowohl in Mainz als auch an den ISOL Einrichtungen am TRIUMF und ORNL gezeigt und führte zum ersten on-line Einsatz am TRIUMF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A study of maar-diatreme volcanoes has been perfomed by inversion of gravity and magnetic data. The geophysical inverse problem has been solved by means of the damped nonlinear least-squares method. To ensure stability and convergence of the solution of the inverse problem, a mathematical tool, consisting in data weighting and model scaling, has been worked out. Theoretical gravity and magnetic modeling of maar-diatreme volcanoes has been conducted in order to get information, which is used for a simple rough qualitative and/or quantitative interpretation. The information also serves as a priori information to design models for the inversion and/or to assist the interpretation of inversion results. The results of theoretical modeling have been used to roughly estimate the heights and the dip angles of the walls of eight Eifel maar-diatremes — each taken as a whole. Inversemodeling has been conducted for the Schönfeld Maar (magnetics) and the Hausten-Morswiesen Maar (gravity and magnetics). The geometrical parameters of these maars, as well as the density and magnetic properties of the rocks filling them, have been estimated. For a reliable interpretation of the inversion results, beside the knowledge from theoretical modeling, it was resorted to other tools such like field transformations and spectral analysis for complementary information. Geologic models, based on thesynthesis of the respective interpretation results, are presented for the two maars mentioned above. The results gave more insight into the genesis, physics and posteruptive development of the maar-diatreme volcanoes. A classification of the maar-diatreme volcanoes into three main types has been elaborated. Relatively high magnetic anomalies are indicative of scoria cones embeded within maar-diatremes if they are not caused by a strong remanent component of the magnetization. Smaller (weaker) secondary gravity and magnetic anomalies on the background of the main anomaly of a maar-diatreme — especially in the boundary areas — are indicative for subsidence processes, which probably occurred in the late sedimentation phase of the posteruptive development. Contrary to postulates referring to kimberlite pipes, there exists no generalized systematics between diameter and height nor between geophysical anomaly and the dimensions of the maar-diatreme volcanoes. Although both maar-diatreme volcanoes and kimberlite pipes are products of phreatomagmatism, they probably formed in different thermodynamic and hydrogeological environments. In the case of kimberlite pipes, large amounts of magma and groundwater, certainly supplied by deep and large reservoirs, interacted under high pressure and temperature conditions. This led to a long period phreatomagmatic process and hence to the formation of large structures. Concerning the maar-diatreme and tuff-ring-diatreme volcanoes, the phreatomagmatic process takes place due to an interaction between magma from small and shallow magma chambers (probably segregated magmas) and small amounts of near-surface groundwater under low pressure and temperature conditions. This leads to shorter time eruptions and consequently to structures of smaller size in comparison with kimberlite pipes. Nevertheless, the results show that the diameter to height ratio for 50% of the studied maar-diatremes is around 1, whereby the dip angle of the diatreme walls is similar to that of the kimberlite pipes and lies between 70 and 85°. Note that these numerical characteristics, especially the dip angle, hold for the maars the diatremes of which — estimated by modeling — have the shape of a truncated cone. This indicates that the diatreme can not be completely resolved by inversion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation beschreibt die Entwicklung, den Aufbau und die Erprobung eines neuartigen lasermassenspektrometrischen Nachweises des Ultraspurenisotops 236U. Das Nuklid 236U wird vorwiegend in Kernreaktoren durch Neutroneneinfang aus 235U gebildet und dient damit als Schlüsselisotop zur Unterscheidung anthropogenen Urans von natürlichem Uran-Vorkommen. Mit seinem Nachweis wird die Untersuchung der Migration von Kernbrennstoff in der Umwelt und die Beantwortung kritischer Fragen in der nuklearen Forensik ermöglicht. Im Rahmen dieser Arbeit wurde das Verfahren der hochauflösenden Resonanzionisations-Massenspektrometrie auf die Anforderungen des selektiven Nachweises von Uran-Isotopen angepasst. Wesentliche Schritte waren hierbei die Untersuchung einer effizienten Atomisation von Uran-Proben, die Identifikation atomarer und autoionisierender Zustände für eine resonante Anregungsleiter, die vollständige Spezifikation der Anregungsleiter für alle Uran-Isotope und schließlich die Umsetzung der Erkenntnisse in ein analytisches Messverfahren. Die optische Selektivität des Verfahrens konnte durch Dichtematrixrechnungen zu ca. 14 Größenordnungen abgeschätzt werden; die Nachweisgrenze des Verfahrens für das Isotopenverhältnis 236U / 238U ist dabei gegenwärtig durch Untergrund begrenzt und beträgt ca. 3 · 10−8. Mit diesen Spezifikationen konnte die Linearität und Präzision des Nachweisverfahrens über einen dynamischen Bereich von vier Größenordnungen nachgewiesen werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation beinhaltet Anwendungen der Quantenchemie und methodische Entwicklungen im Bereich der "Coupled-Cluster"-Theorie zu den folgenden Themen: 1.) Die Bestimmung von Geometrieparametern in wasserstoffverbrückten Komplexen mit Pikometer-Genauigkeit durch Kopplung von NMR-Experimenten und quantenchemischen Rechnungen wird an zwei Beispielen dargelegt. 2.) Die hierin auftretenden Unterschiede in Theorie und Experiment werden diskutiert. Hierzu wurde die Schwingungsmittelung des Dipolkopplungstensors implementiert, um Nullpunkt-Effekte betrachten zu können. 3.) Ein weiterer Aspekt der Arbeit behandelt die Strukturaufklärung an diskotischen Flüssigkristallen. Die quantenchemische Modellbildung und das Zusammenspiel mit experimentellen Methoden, vor allem der Festkörper-NMR, wird vorgestellt. 4.) Innerhalb dieser Arbeit wurde mit der Parallelisierung des Quantenchemiepaketes ACESII begonnen. Die grundlegende Strategie und erste Ergebnisse werden vorgestellt. 5.) Zur Skalenreduktion des CCCSD(T)-Verfahrens durch Faktorisierung wurden verschiedene Zerlegungen des Energienenners getestet. Ein sich hieraus ergebendes Verfahren zur Berechnung der CCSD(T)-Energie wurde implementiert. 6.) Die Reaktionsaufklärung der Bildung von HSOH aus di-tert-Butyl-Sulfoxid wird vorgestellt. Dazu wurde die Thermodynamik der Reaktionsschritte mit Methoden der Quantenchemie berechnet.