688 resultados para Verfahren
Resumo:
Kolloidale Suspensionen, bei denen man die kolloidalen Teilchen als "Makroatome" in einem Kontinuum aus Lösungsmittelmolekülen auffaßt, stellen ein geeignetes Modellsystem zur Untersuchung von Verfestigungsvorgängen dar. Auf Grund der typischen beteiligten Längen- und Zeitskalen können Phasenübergänge bequem mit optischen Verfahren studiert werden. In der vorliegenden Arbeit wurde die Kinetik der Kristallisation in drei kolloidalen Systemen unterschiedlicher Teilchen-Teilchen-Wechselwirkung mit Lichtstreu- und mikroskopischen Methoden untersucht. Zur Untersuchung von Suspensionen aus sterisch stabilisierten PMMA-Teilchen, die in guter Näherung wie harte Kugeln wechselwirken, wurde ein neuartiges Laserlichtstreuexperiment aufgebaut, das die gleichzeitige Detektion von Bragg- und Kleinwinkelstreuung an einer Probe erlaubt. Damit konnte der zeitliche Verlauf der Kristallisation verfolgt sowie u.a. Nukleationsraten und erstmals auch Wachstumsgeschwindigkeiten bestimmt werden; diese wurden mit klassischer Nukleationstheorie sowie Wilson-Frenkel-Wachstum verglichen. In beiden Fällen konnte sehr gute Übereinstimmung mit der Theorie festgestellt werden. In Systemen geladener Partikel wurden mit Bragg-Mikroskopie die Wachstumsgeschwindigkeiten heterogener, an der Wand der Probenzelle aufwachsender Kristalle untersucht. Die Anpassung eines Wilson-Frenkel-Wachstumsgesetzes gelingt auch hier, wenn man die dazu eingeführte reskalierte Energiedichte auf den Schmelzpunkt bezieht. Geeignete Reskalierung der Daten erlaubt den Vergleich mit den Hartkugelsystemen. Zum ersten Mal wurde die Kristallisationskinetik in zwei verschiedenen kolloidalen binären Mischungen bestimmt und ausgewertet: In Beimischungen einer nichtkristallisierenden Teilchensorte zu einer kristallisierenden Suspension konnten die Daten mit einem modifizierten Wilson-Frenkel-Gesetz beschrieben werden, während in Mischungen aus zwei kristallisierenden Partikelsystemen eine unerwartet hohe Abnahme der Wachstumsgeschwindigkeiten beobachtet wurde. Kolloidale Suspensionen hartkugelähnlicher Mikrogel-Partikel konnten mit Hilfe des Lichtstreuaufbaues ebenfalls zum ersten Mal untersucht werden. Es wurde eine ähnliche Kristallisationskinetik wie in den PMMA-Systemen gefunden, jedoch auch einige wichtige Unterschiede, die insbesondere den Streumechanismus im Kleinwinkelbereich betrafen. Hier wurden verschiedene Interpretationsvorschläge diskutiert.
Resumo:
In der vorliegenden Arbeit wird die Faktorisierungsmethode zur Erkennung von Inhomogenitäten der Leitfähigkeit in der elektrischen Impedanztomographie auf unbeschränkten Gebieten - speziell der Halbebene bzw. dem Halbraum - untersucht. Als Lösungsräume für das direkte Problem, d.h. die Bestimmung des elektrischen Potentials zu vorgegebener Leitfähigkeit und zu vorgegebenem Randstrom, führen wir gewichtete Sobolev-Räume ein. In diesen wird die Existenz von schwachen Lösungen des direkten Problems gezeigt und die Gültigkeit einer Integraldarstellung für die Lösung der Laplace-Gleichung, die man bei homogener Leitfähigkeit erhält, bewiesen. Mittels der Faktorisierungsmethode geben wir eine explizite Charakterisierung von Einschlüssen an, die gegenüber dem Hintergrund eine sprunghaft erhöhte oder erniedrigte Leitfähigkeit haben. Damit ist zugleich für diese Klasse von Leitfähigkeiten die eindeutige Rekonstruierbarkeit der Einschlüsse bei Kenntnis der lokalen Neumann-Dirichlet-Abbildung gezeigt. Die mittels der Faktorisierungsmethode erhaltene Charakterisierung der Einschlüsse haben wir in ein numerisches Verfahren umgesetzt und sowohl im zwei- als auch im dreidimensionalen Fall mit simulierten, teilweise gestörten Daten getestet. Im Gegensatz zu anderen bekannten Rekonstruktionsverfahren benötigt das hier vorgestellte keine Vorabinformation über Anzahl und Form der Einschlüsse und hat als nicht-iteratives Verfahren einen vergleichsweise geringen Rechenaufwand.
Resumo:
Kanzerogene polyaromatische Kohlenwasserstoffe (PAKs), wie Benzo[a]pyren, besitzen eine Bay-Region mit ortho-kondensiertem Benzoring. Dadurch ist die enzymatische Bildung von Bay-Region-Dihydrodiolepoxiden (Oxiranylring in der sterisch abgeschirmten Molekülbucht) möglich, die als ultimal kanzerogene Metaboliten der PAKs gelten. Diese lösen durch DNA-Modifikation Primärläsionen aus, die, sofern sie nicht enzymatisch repariert werden, bei der DNA-Replikation Fehler verursachen (Mu-tationen). Der Mehrstufenprozeß der Kanzerogenese (Promotion und Progression) führt schließlich zur neoplastischen Entartung der Zelle. Benzo[ghi]perylen (BghiP) repräsentiert eine Gruppe von PAKs, die keine „klassische“ Bay-Region besitzen und daher keine vicinalen Dihydrodiolepoxiden bilden können. Trotzdem ist BghiP mutagen, z. B. in den Stämmen TA98 und TA100 von Salmonella typhimurium (1,3- bzw. 4,3 his+-Revertanten/nmol) nach metabolischer Aktivierung mit der postmitochondrialen Fraktion von Ratten nach Behandlung mit 3-Methylcholanthren. Hemmung der mikrosomalen Epoxidhydrolase (mEH) mit 1,1,1-Trichlor-2-propenoxid (TCPO) steigert die bakterielle Mutagenität von BghiP im Stamm TA98 um das 4-fache, was Arenoxide als ultimale Mutagene wahrscheinlich macht. Dieses Ergebnis wird au-ßerdem durch Untersuchung der DNA-Bindung mit dem Verfahren des 32P-Postlabelings bestätigt (Dr. Fickler, Institut für Toxikologie, Universität Mainz). Danach bildete mikrosomal aktiviertes BghiP drei Addukte (ein Hauptaddukt, zwei Nebenaddukte), die durch Hemmung der mEH mit TCPO verstärkt wurden (das Hauptaddukt um 29%). Um den für die bakterielle Mutagenität von BghiP verantwortlichen Metaboliten zu identifizieren, wurde die mikrosomale Biotransformaton von BghiP aufgeklärt. Umsetzung von BghiP mit Lebermikrosomen von Ratten nach Behandlung mit Aroclor 1254 lieferte 17 mit Ethylacetat extrahierbare Metaboliten. Zwölf dieser Metaboliten konnten durch eine Kombination von chromatographischen, spektroskopi-schen und biochemischen Methoden identifiziert werden. Daraus ergeben sich zwei Biotransformati-onswege: Weg I beginnt mit einem Angriff von Cytochrom P450-abhängigen Monooxygenasen an Position 7 und der Bildung des 7-Phenols. Dieses wird dann in das 7,8- bzw. 7,10-Diphenol überführt, die schließlich zu den mehrkernigen Chinonen an der 7,8- bzw. 7,10-Position oxidiert werden. Im Bio-transformationsweg II werden die K-Regionen von BghiP durch Cytochrom P450 funktionalisiert. Zu-nächst entstehen das auf indirektem Weg identifizierte 3,4-Oxid und das 3,4,11,12-Bisoxid, die in mikrosomalen Umsetzungen von BghiP nur nach Hemmung der mEH gebildet werden. Enzymatische Hydrolyse des 3,4-Oxides ergibt das trans-3,4-Dihydrodiol, das zum 3,4-Chinon oxidiert wird. Ebenso entsteht aus dem 3,4,11,12-Bisoxid das trans-3,4-trans-11,12-Bisdihydrodiol, aus dem durch Oxidati-on das trans-3,4-Dihydrodiol-11,12-Chinon hervorgeht. Untersuchung der stereoselektiven enzymati-schen Bildung der K-Region-trans-Di¬hydrodiole ergaben eine präferentielle Entstehung der 3R,4R- bzw. 3R,4R,11R,12R-Enantiomere. Untersuchungen der bakteriellen Mutagenität der Hauptmetaboliten 3,4-Dihydrodiol und dem 7-Phenol machte deutlich, dass beide Biotransformationswege I und II von BghiP zur bakteriellen Mutagenität beitragen. Das 7-Phenol aus Weg I ist ein proximales Mutagen, was auch von Phenolen anderer PAKs bekannt ist. Das 3,4-Dihydrodiol aus Weg II wird so schwach zu Mutagenen aktiviert, dass dem vermutlich gebildete 3,4-Dihydrodiol-11,12-oxid keine große Bedeutung als ultimales Mutagen von BghiP zukommt. Die Bestimmung der direkten mutagenen Aktivität (ohne metabolische Aktivierung) der mutmaßlich ultimal mutagenen Arenoxide von BghiP ergab, dass die des 3,4,11,12-Bisarenoxides sehr gering war (1,3 his+-Revertanten/nmol im Stamm TA98). Das 3,4-Oxid hingegen bewirkte einen deutlichen gentoxischen Effekt in den Stämmen TA98 und TA100 (5,5 bzw. 10 his+-Revertanten/nmol). Dies wurde durch die Bestimmung der DNA-Bindung mit dem 32P-Postlabeling, in dem das 3,4-Oxid für das Hauptaddukt von BghiP verantwortlich gemacht werden konnte, bestätigt. Daher kommt dem 3,4-Oxid als ultimales Mutagen die größte Bedeutung für die Gentoxizität von BghiP zu. Die Ergebnisse dieser Arbeit lassen bei PAKs ohne Bay-Region auf Arenoxide schließen, die eine notwendige Voraussetzung für DNA-Bindung und Mutagenität sind.
Resumo:
Die Arbeit beginnt mit dem Vergleich spezieller Regularisierungsmethoden in der Quantenfeldtheorie mit dem Verfahren zur störungstheoretischen Konstruktion der S-Matrix nach Epstein und Glaser. Da das Epstein-Glaser-Verfahren selbst als Regularisierungsverfahren verwandt werden kann und darüberhinaus ausschließlich auf physikalisch motivierten Postulaten basiert, liefert dieser Vergleich ein Kriterium für die Zulässigkeit anderer Regularisierungsmethoden. Zusätzlich zur Herausstellung dieser Zulässigkeit resultiert aus dieser Gegenüberstellung als weiteres wesentliches Resultat ein neues, in der Anwendung praktikables sowie konsistentes Regularisierungsverfahren, das modifizierte BPHZ-Verfahren. Dieses wird anhand von Ein-Schleifen-Diagrammen aus der QED (Elektronselbstenergie, Vakuumpolarisation und Vertexkorrektur) demonstriert. Im Gegensatz zur vielverwandten Dimensionalen Regularisierung ist dieses Verfahren uneingeschränkt auch für chirale Theorien anwendbar. Als Beispiel hierfür dient die Berechnung der im Rahmen einer axialen Erweiterung der QED-Lagrangedichte auftretenden U(1)-Anomalie. Auf der Stufe von Mehr-Schleifen-Diagrammen zeigt der Vergleich der Epstein-Glaser-Konstruktion mit dem bekannten BPHZ-Verfahren an mehreren Beispielen aus der Phi^4-Theorie, darunter das sog. Sunrise-Diagramm, daß zu deren Berechnung die nach der Waldformel des BPHZ-Verfahrens zur Regularisierung beitragenden Unterdiagramme auf eine kleinere Klasse eingeschränkt werden können. Dieses Resultat ist gleichfalls für die Praxis der Regularisierung bedeutsam, da es bereits auf der Stufe der zu berücksichtigenden Unterdiagramme zu einer Vereinfachung führt.
Resumo:
The present thesis is concerned with the study of a quantum physical system composed of a small particle system (such as a spin chain) and several quantized massless boson fields (as photon gasses or phonon fields) at positive temperature. The setup serves as a simplified model for matter in interaction with thermal "radiation" from different sources. Hereby, questions concerning the dynamical and thermodynamic properties of particle-boson configurations far from thermal equilibrium are in the center of interest. We study a specific situation where the particle system is brought in contact with the boson systems (occasionally referred to as heat reservoirs) where the reservoirs are prepared close to thermal equilibrium states, each at a different temperature. We analyze the interacting time evolution of such an initial configuration and we show thermal relaxation of the system into a stationary state, i.e., we prove the existence of a time invariant state which is the unique limit state of the considered initial configurations evolving in time. As long as the reservoirs have been prepared at different temperatures, this stationary state features thermodynamic characteristics as stationary energy fluxes and a positive entropy production rate which distinguishes it from being a thermal equilibrium at any temperature. Therefore, we refer to it as non-equilibrium stationary state or simply NESS. The physical setup is phrased mathematically in the language of C*-algebras. The thesis gives an extended review of the application of operator algebraic theories to quantum statistical mechanics and introduces in detail the mathematical objects to describe matter in interaction with radiation. The C*-theory is adapted to the concrete setup. The algebraic description of the system is lifted into a Hilbert space framework. The appropriate Hilbert space representation is given by a bosonic Fock space over a suitable L2-space. The first part of the present work is concluded by the derivation of a spectral theory which connects the dynamical and thermodynamic features with spectral properties of a suitable generator, say K, of the time evolution in this Hilbert space setting. That way, the question about thermal relaxation becomes a spectral problem. The operator K is of Pauli-Fierz type. The spectral analysis of the generator K follows. This task is the core part of the work and it employs various kinds of functional analytic techniques. The operator K results from a perturbation of an operator L0 which describes the non-interacting particle-boson system. All spectral considerations are done in a perturbative regime, i.e., we assume that the strength of the coupling is sufficiently small. The extraction of dynamical features of the system from properties of K requires, in particular, the knowledge about the spectrum of K in the nearest vicinity of eigenvalues of the unperturbed operator L0. Since convergent Neumann series expansions only qualify to study the perturbed spectrum in the neighborhood of the unperturbed one on a scale of order of the coupling strength we need to apply a more refined tool, the Feshbach map. This technique allows the analysis of the spectrum on a smaller scale by transferring the analysis to a spectral subspace. The need of spectral information on arbitrary scales requires an iteration of the Feshbach map. This procedure leads to an operator-theoretic renormalization group. The reader is introduced to the Feshbach technique and the renormalization procedure based on it is discussed in full detail. Further, it is explained how the spectral information is extracted from the renormalization group flow. The present dissertation is an extension of two kinds of a recent research contribution by Jakšić and Pillet to a similar physical setup. Firstly, we consider the more delicate situation of bosonic heat reservoirs instead of fermionic ones, and secondly, the system can be studied uniformly for small reservoir temperatures. The adaption of the Feshbach map-based renormalization procedure by Bach, Chen, Fröhlich, and Sigal to concrete spectral problems in quantum statistical mechanics is a further novelty of this work.
Resumo:
Das Ziel der Arbeit war die Entwicklung computergestützter Methoden zur Erstellung einer Gefahrenhinweiskarte für die Region Rheinhessen, zur Minimierung der Hangrutschungsgefährdung. Dazu wurde mit Hilfe zweier statistischer Verfahren (Diskriminanzanalyse, Logistische Regression) und einer Methode aus dem Bereich der Künstlichen Intelligenz (Fuzzy Logik) versucht, die potentielle Gefährdung auch solcher Hänge zu klassifizieren, die bis heute noch nicht durch Massenbewegungen aufgefallen sind. Da ingenieurgeologische und geotechnische Hanguntersuchungen aus Zeit und Kostengründen im regionalen Maßstab nicht möglich sind, wurde auf punktuell vorhandene Datenbestände zu einzelnen Rutschungen des Winters 1981/82, die in einer Rutschungsdatenbank zusammengefaßt sind, zurückgegriffen, wobei die daraus gewonnenen Erkenntnisse über Prozeßmechanismen und auslösende Faktoren genutzt und in das jeweilige Modell integriert wurden. Flächenhafte Daten (Lithologie, Hangneigung, Landnutzung, etc.), die für die Berechnung der Hangstabilität notwendig sind, wurden durch Fernerkundungsmethoden, dem Digitalisieren von Karten und der Auswertung von Digitalen Geländemodellen (Reliefanalyse) gewonnen. Für eine weiterführende Untersuchung von einzelnen, als rutschgefährdet klassifizierten Bereichen der Gefahrenhinweiskarte, wurde am Beispiel eines Testgebietes, eine auf dem infinite-slope-stability Modell aufbauende Methode untersucht, die im Maßstabsbereich von Grundkarten (1:5000) auch geotechnische und hydrogeologische Parameter berücksichtigt und damit eine genauere, der jeweiligen klimatischen Situation angepaßte, Gefahrenabschätzung ermöglicht.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Funktionsapproximators und dessen Verwendung in Verfahren zum Lernen von diskreten und kontinuierlichen Aktionen: 1. Ein allgemeiner Funktionsapproximator – Locally Weighted Interpolating Growing Neural Gas (LWIGNG) – wird auf Basis eines Wachsenden Neuralen Gases (GNG) entwickelt. Die topologische Nachbarschaft in der Neuronenstruktur wird verwendet, um zwischen benachbarten Neuronen zu interpolieren und durch lokale Gewichtung die Approximation zu berechnen. Die Leistungsfähigkeit des Ansatzes, insbesondere in Hinsicht auf sich verändernde Zielfunktionen und sich verändernde Eingabeverteilungen, wird in verschiedenen Experimenten unter Beweis gestellt. 2. Zum Lernen diskreter Aktionen wird das LWIGNG-Verfahren mit Q-Learning zur Q-LWIGNG-Methode verbunden. Dafür muss der zugrunde liegende GNG-Algorithmus abgeändert werden, da die Eingabedaten beim Aktionenlernen eine bestimmte Reihenfolge haben. Q-LWIGNG erzielt sehr gute Ergebnisse beim Stabbalance- und beim Mountain-Car-Problem und gute Ergebnisse beim Acrobot-Problem. 3. Zum Lernen kontinuierlicher Aktionen wird ein REINFORCE-Algorithmus mit LWIGNG zur ReinforceGNG-Methode verbunden. Dabei wird eine Actor-Critic-Architektur eingesetzt, um aus zeitverzögerten Belohnungen zu lernen. LWIGNG approximiert sowohl die Zustands-Wertefunktion als auch die Politik, die in Form von situationsabhängigen Parametern einer Normalverteilung repräsentiert wird. ReinforceGNG wird erfolgreich zum Lernen von Bewegungen für einen simulierten 2-rädrigen Roboter eingesetzt, der einen rollenden Ball unter bestimmten Bedingungen abfangen soll.
Resumo:
In this work we are concerned with the analysis and numerical solution of Black-Scholes type equations arising in the modeling of incomplete financial markets and an inverse problem of determining the local volatility function in a generalized Black-Scholes model from observed option prices. In the first chapter a fully nonlinear Black-Scholes equation which models transaction costs arising in option pricing is discretized by a new high order compact scheme. The compact scheme is proved to be unconditionally stable and non-oscillatory and is very efficient compared to classical schemes. Moreover, it is shown that the finite difference solution converges locally uniformly to the unique viscosity solution of the continuous equation. In the next chapter we turn to the calibration problem of computing local volatility functions from market data in a generalized Black-Scholes setting. We follow an optimal control approach in a Lagrangian framework. We show the existence of a global solution and study first- and second-order optimality conditions. Furthermore, we propose an algorithm that is based on a globalized sequential quadratic programming method and a primal-dual active set strategy, and present numerical results. In the last chapter we consider a quasilinear parabolic equation with quadratic gradient terms, which arises in the modeling of an optimal portfolio in incomplete markets. The existence of weak solutions is shown by considering a sequence of approximate solutions. The main difficulty of the proof is to infer the strong convergence of the sequence. Furthermore, we prove the uniqueness of weak solutions under a smallness condition on the derivatives of the covariance matrices with respect to the solution, but without additional regularity assumptions on the solution. The results are illustrated by a numerical example.
Resumo:
In der vorliegenden Arbeit soll der Stellenwert der ce-MRA unter Verwendung von MS-325, einem neuen intravaskulären Kontrastmittel, bei der Untersuchung der Fußgefäße im Vergleich zur DSA bewertet, und das Übereinstimmen der Befunde zweier unterschiedlich erfahrener Untersucher untersucht werden. Im Rahmen einer klinischen Phase-III-Studie wurden 18 Patienten mit pAVK und / oder diabetischem Fußsyndrom rekrutiert. Die ce-MRA-Untersuchungen wurden in einem 1,5-Tesla-Magnetom durchgeführt. Dabei wurden dynamische Serien und eine hochaufgelöste Steady-state-Sequenz des zu untersuchenden Fußes akquiriert. Als Kontrastmittel wurde MS-325 in einer an das Körpergewicht adap-tierten Dosis appliziert. Die DSA-Untersuchung enthielt eine komplette Becken-Bein-Angiographie mit selektiver Darstellung der Fußgefäße. Vor der Befundung wurden die Bilddaten der MR-Angiographie nachbearbeitet und MIP-Projektionen erstellt. Zwei Untersucher befundeten unabhängig voneinander und in zufälliger Reinfolge die MRA, die DSA wurde in einem Konsensusverfahren beider Unter-sucher beurteilt. In eine qualitative Analyse gingen die Bewertung der Bildquali-tät, die Sichtbarkeit von sieben Gefäßsegmenten und deren hämodynamisch relevanter Stenosegrad ein. Quantitativ wurde das Signal-Rausch-Verhältnis und das Kontrast-Rausch-Verhältnis untersucht. Die Bildqualität beider Modalitäten wurde im Median mit gut bewertet. Hinsichtlich der Sichtbarkeit der Gefäßsegmente zeigte sich die ce-MRA der DSA überlegen. Von insgesamt 126 Gefäßsegmenten waren nur 80 in der DSA sichtbar, dagegen waren 106 Gefäßsegmente in der ce-MRA sichtbar (p-Wert <0,001, McNemar-Test). Die Übereinstimmung zwischen beiden Untersuchern der ce-MRA war sehr gut, beide erkannten 105 von 126 Gefäßsegmenten (Kappa-Maß κ=0,97). Beide Modalitäten werteten übereinstimmend 46 Gefäßsegmente als hämodynamisch relevant stenosiert. 16 Gefäßstenosen wurden durch die ce-MRA im Gegensatz zur DSA überbewertet. Zwischen Untersucher 1 und Untersucher 2 der ce-MRA fand sich erneut eine sehr gute Übereinstimmung (Kappa-Maß к = 0,89). Die Messungen des SNR und des CNR ergaben sowohl in den dynamischen Se-quenzen als auch in der später akquirierten hochaufgelösten Steady-state Unter-suchung hohe Werte. Die Bildqualität der hochaufgelösten Steady-state ce-MRA war hervorragend, jedoch beeinträchtigt venöse Überlagerung die Interpretation. In der Literatur wird die ce-MRA als ein geeignetes Verfahren zur Darstellung von Fußgefäßen beschrieben. Zahlreiche Studien zeigen, dass mit der ce-MRA mehr Gefäßsegmente dargestellt werden können. Dieses Ergebnis konnte in der vor-liegenden Arbeit bestätigt werden. Eine mit MS-325 verstärkte Magnetresonanz-angiographie der Fußgefäße ist der selektiven DSA überlegen. Die Tatsache, dass mit der ce-MRA mehr Gefäßsegmente dargestellt werden können, hat den Begriff des angiographisch „verborgenen“ Blutgefäßes initiiert. In vielen klini-schen Zentren hat die ce-MRA die DSA weitgehend verdrängt. Aus diesem Grund wird in der Literatur vorgeschlagen, dass die ce-MRA die DSA als einen „verbes-serten Goldstandard“ ersetzten könnte. Kann mit der DSA kein passendes An-schlussgefäß für eine Revaskularisationsmaßnahme mittels Bypass gefunden werden, so sollte auf jeden Fall eine ce-MRA der Fußgefäße durchgeführt wer-den, um eine Amputation zu verhindern. In der Literatur wird von der Änderung der Behandlungsstrategie nach der Durchführung der ce-MRA berichtet. Bei der Klassifikation von Gefäßstenosen wertet die ce-MRA öfter höher als die DSA, diese Überbewertung ist in der Literatur bekannt und konnte ebenfalls in der vorliegenden Arbeit bestätigt werden. Diese Überschätzung resultiert aus „Spin-Dephasierung“ durch turbulente Blutströmung im Bereich einer Stenose oder besteht auf Grund von Partialvolumeneffekten. Die Verwendung eines intravaskulären Kontrastmittels, wie bsw. MS-325, zur MR-Angiographie bringt den Vorteil, dass sowohl dynamische als auch Steady-state Untersuchungen aller vaskulären Strukturen im menschlichen Körper durchge-führt werden können. Da eine hohe Signalintensität über einen langen Zeitraum besteht, können auch mehrere Körperregionen während einer einzigen Untersu-chung dargestellt werden. Nachteilig ist jedoch die Beeinträchtigung der Bildge-bung durch venöse Überlagerung. Mittels computergestützter Bildnachbearbeitung ist es jedoch möglich, Venen in Steady-state-Sequenzen zu unterdrücken und daraus ergibt sich die Möglichkeit, hochaufgelöste, überlage-rungsfreie Datensätze zu erhalten. Diese könnten dann der erste Schritt in Rich-tung einer Perfusionsbildgebung am Fuß sein, um bsw. den Erfolg von Revaskularisationsmaßnahmen auch auf Kapillarebene beurteilen zu können.
Resumo:
In dieser Arbeit wurden neuartige substituierte N-Benzylbenzothiazoliumhexa-fluorophosphate und –antimonate synthetisiert und hinsichtlich ihre Wirksamkeit als photo- und thermolatente Initiatoren für Epoxidpolymerisationen untersucht. Zur Synthese der Benzothiazoliumderivate wurden zunächst substituierte Benzothiazole nach verschiedenen Verfahren hergestellt, diese mit den entsprechenden Benzylbromiden quaternisiert und die N-quaternären Bromide zu den Hexafluorophosphaten bzw. –antimonaten umgesalzt. Neben den niedermolekularen Benzothiazoliumsalzen wurden auch Copolymere mit dieser Struktur in der Seitenkette durch radikalische Copolymerisation vinylsubstituierter N-quaternärer Benzothiazoliumsalze mit MMA hergestellt. Sowohl die niedermolekularen als auch die polymergebundenen Benzothiazoliumhexafluorophosphate erwiesen sich als effektive direkte kationische Photo- und Thermoinitiatoren für die Polymerisation von Epoxiden. Durch die Einführung auxochromer Ethergruppierungen konnte eine bathochrome Verschiebung der UV-Absorptionswellenlänge des energieärmsten elektronischen Überganges erreicht werden. Kinetische IR-Studien der kationischen Polymerisation von Glycidylphenylether (GPE) im Nassfilm unter Bestrahlung in Gegenwart der hergestellten Benzothiazoliumsalze als Photoinitiatoren zeigten dass durch die so erreichte verbesserte Ausnutzung der einwirkenden Strahlung die kationische Photoinitiatoreffektivität deutlich gesteigert werden konnte. Der Zusatz eines photolytischen Radikalbildners führte zu einer weiteren Steigerung der Photopolymerisationsgeschwindigkeit und zu einer Umkehr der beobacheteten Initiatoreffektivitäten. UV-, 1H NMR-, sowie MALDI-TOF- Untersuchungen, sowie die vollständige Unterdrückung der Photopolymerisation durch den Protonenfänger DBP deuten auf die photolytische Generierung von Protonen als initiierende Spezies der photokationischen Polymerisation und DSC- und 1H-NMR Ergebnisse auf die thermische Generierung von Benzylkationen als initiierende Spezies der thermischen Polymerisation hin.
Resumo:
Therapeutisches Drug Monitoring (TDM) wird zur individuellen Dosiseinstellung genutzt, um die Effizienz der Medikamentenwirkung zu steigern und das Auftreten von Nebenwirkungen zu senken. Für das TDM von Antipsychotika und Antidepressiva besteht allerdings das Problem, dass es mehr als 50 Medikamente gibt. Ein TDM-Labor muss dementsprechend über 50 verschiedene Wirkstoffe und zusätzlich aktive Metaboliten messen. Mit der Flüssigchromatographie (LC oder HPLC) ist die Analyse vieler unterschiedlicher Medikamente möglich. LC mit Säulenschaltung erlaubt eine Automatisierung. Dabei wird Blutserum oder -plasma mit oder ohne vorherige Proteinfällung auf eine Vorsäule aufgetragen. Nach Auswaschen von störenden Matrixbestandteilen werden die Medikamente auf einer nachgeschalteten analytischen Säule getrennt und über Ultraviolettspektroskopie (UV) oder Massenspektrometrie (MS) detektiert. Ziel dieser Arbeit war es, LC-Methoden zu entwickeln, die die Messung möglichst vieler Antipsychotika und Antidepressiva erlaubt und die für die TDM-Routine geeignet ist. Eine mit C8-modifiziertem Kieselgel gefüllte Säule (20 µm 10x4.0 mm I.D.) erwies sich in Vorexperimenten als optimal geeignet bezüglich Extraktionsverhalten, Regenerierbarkeit und Stabilität. Mit einer ersten HPLC-UV-Methode mit Säulenschaltung konnten 20 verschiedene Psychopharmaka einschließlich ihrer Metabolite, also insgesamt 30 verschiedene Substanzen quantitativ erfasst werden. Die Analysenzeit betrug 30 Minuten. Die Vorsäule erlaubte 150 Injektionen, die analytische Säule konnte mit mehr als 300 Plasmainjektionen belastet werden. Abhängig vom Analyten, musste allerdings das Injektionsvolumen, die Flussrate oder die Detektionswellenlänge verändert werden. Die Methode war daher für eine Routineanwendung nur eingeschränkt geeignet. Mit einer zweiten HPLC-UV-Methode konnten 43 verschiedene Antipsychotika und Antidepressiva inklusive Metaboliten nachgewiesen werden. Nach Vorreinigung über C8-Material (10 µm, 10x4 mm I.D.) erfolgte die Trennung auf Hypersil ODS (5 µm Partikelgröße) in der analytischen Säule (250x4.6 mm I.D.) mit 37.5% Acetonitril im analytischen Eluenten. Die optimale Flussrate war 1.5 ml/min und die Detektionswellenlänge 254 nm. In einer Einzelprobe, konnten mit dieser Methode 7 bis 8 unterschiedliche Substanzen gemessen werden. Für die Antipsychotika Clozapin, Olanzapin, Perazin, Quetiapin und Ziprasidon wurde die Methode validiert. Der Variationskoeffizient (VK%) für die Impräzision lag zwischen 0.2 und 6.1%. Im erforderlichen Messbereich war die Methode linear (Korrelationskoeffizienten, R2 zwischen 0.9765 und 0.9816). Die absolute und analytische Wiederfindung lagen zwischen 98 und 118 %. Die für das TDM erforderlichen unteren Nachweisgrenzen wurden erreicht. Für Olanzapin betrug sie 5 ng/ml. Die Methode wurde an Patienten für das TDM getestet. Sie erwies sich für das TDM als sehr gut geeignet. Nach retrospektiver Auswertung von Patientendaten konnte erstmalig ein möglicher therapeutischer Bereich für Quetiapin (40-170 ng/ml) und Ziprasidon (40-130 ng/ml) formuliert werden. Mit einem Massenspektrometer als Detektor war die Messung von acht Neuroleptika und ihren Metaboliten möglich. 12 Substanzen konnten in einem Lauf bestimmt werden: Amisulprid, Clozapin, N-Desmethylclozapin, Clozapin-N-oxid, Haloperidol, Risperidon, 9-Hydroxyrisperidon, Olanzapin, Perazin, N-Desmethylperazin, Quetiapin und Ziprasidon. Nach Vorreinigung mit C8-Material (20 µm 10x4.0 mm I.D.) erfolgte die Trennung auf Synergi MAX-RP C12 (4 µm 150 x 4.6 mm). Die Validierung der HPLC-MS-Methode belegten einen linearen Zusammenhang zwischen Konzentration und Detektorsignal (R2= 0,9974 bis 0.9999). Die Impräzision lag zwischen 0.84 bis 9.78%. Die für das TDM erforderlichen unteren Nachweisgrenzen wurden erreicht. Es gab keine Hinweise auf das Auftreten von Ion Suppression durch Matrixbestandteile. Die absolute und analytische Wiederfindung lag zwischen 89 und 107 %. Es zeigte sich, dass die HPLC-MS-Methode ohne Modifikation erweitert werden kann und anscheinend mehr als 30 verschiedene Psychopharmaka erfasst werden können. Mit den entwickelten flüssigchromatographischen Methoden stehen neue Verfahren für das TDM von Antipsychotika und Antidepressiva zur Verfügung, die es erlauben, mit einer Methode verschiedene Psychopharmaka und ihre aktiven Metabolite zu messen. Damit kann die Behandlung psychiatrischer Patienten insbesondere mit Antipsychotika verbessert werden.
Resumo:
In this work we develop and analyze an adaptive numerical scheme for simulating a class of macroscopic semiconductor models. At first the numerical modelling of semiconductors is reviewed in order to classify the Energy-Transport models for semiconductors that are later simulated in 2D. In this class of models the flow of charged particles, that are negatively charged electrons and so-called holes, which are quasi-particles of positive charge, as well as their energy distributions are described by a coupled system of nonlinear partial differential equations. A considerable difficulty in simulating these convection-dominated equations is posed by the nonlinear coupling as well as due to the fact that the local phenomena such as "hot electron effects" are only partially assessable through the given data. The primary variables that are used in the simulations are the particle density and the particle energy density. The user of these simulations is mostly interested in the current flow through parts of the domain boundary - the contacts. The numerical method considered here utilizes mixed finite-elements as trial functions for the discrete solution. The continuous discretization of the normal fluxes is the most important property of this discretization from the users perspective. It will be proven that under certain assumptions on the triangulation the particle density remains positive in the iterative solution algorithm. Connected to this result an a priori error estimate for the discrete solution of linear convection-diffusion equations is derived. The local charge transport phenomena will be resolved by an adaptive algorithm, which is based on a posteriori error estimators. At that stage a comparison of different estimations is performed. Additionally a method to effectively estimate the error in local quantities derived from the solution, so-called "functional outputs", is developed by transferring the dual weighted residual method to mixed finite elements. For a model problem we present how this method can deliver promising results even when standard error estimator fail completely to reduce the error in an iterative mesh refinement process.
Resumo:
Bohrbrunnen sind die unmittelbare Schnittstelle zwischen dem Grundwasser als Ressource und der Nutzung zur Trinkwasserbereitstellung. Ihre Leistung nimmt jedoch mit fortschreitendem Alter infolge komplexer chemischer und biologischer Vorgänge ab, so dass sie regelmäßig gewartet und regeneriert werden müssen. Um die Auswahl geeigneter Maßnahmen zu erleichtern, erfolglose Regenerierungen zu vermeiden und Kosten zu sparen, ist ein geeignetes, auf den Betrieb und die Standortbedingungen ausgelegtes Überwachungsprogramm notwendig, Im Rahmen der Arbeit wurden aus den Ergebnissen von Regeneriermaßnahmen mit dem Ultraschallverfahren an Brunnen des Wasserwerkes Wiesbaden-Schierstein und der Analyse vorliegender Altdaten Zusammenhänge zwischen der Brunnenalterung und dem Regeneriererfolg einerseits und der Dokumentation und Überwachung eines Brunnens andererseits abgeleitet. Sie bildet damit die noch fehlende Brücke zwischen der Betrachtung einzelner Verfahren und einer allgemeingültigen Brunnenbewirtschaftung. Aus den Schlussfolgerungen für das Wasserwerk Wiesbaden-Schierstein, den Empfehlungen des DVGW, dem Fachwissen aus anderen Publikationen und der Einbeziehung der Erfahrungen aus der wissenschaftlichen Begleitung von Regenerierungen mit Ultraschall konnten die Mindestparameter unter geologischen und hydrochemischen Aspekten und daraus ein Leitfaden zur Entscheidungshilfe über Zeitpunkt und Wahl des Verfahrens einer Brunnenregenerierung abgeleitet werden. Das richtige Brunnenmonitoring ist somit Grundlage der optimalen Brunnennutzung und –pflege.
Resumo:
Die resonante Laserionisation hat sich als ein universales Verfahren für eine Vielzahl von Anwendungen etabliert, die eine selektive Ionisation bei hoher Effizienz erfordern. Hierzu wurden zwei Lasersysteme mit unterschiedlichen Zielsetzungen und Schwerpunkten entwickelt und in dieser Arbeit angewendet. Im ersten Teil der Arbeit wird die Entwicklung der hochauflösenden Resonanzionisations-Massenspektrometrie zum Ultraspurennachweis von 41Ca vorgestellt. Hierzu wurden drei kontinuierliche Diodenlaser mit einem Quadrupolmassenspektrometer kombiniert. Bei einer Nachweiseffizienz von 1 × 10^−5 konnte eine Nachweisgrenze von 2 × 10^-13 41Ca/totCa erreicht werden. Das in den Routinebetrieb überführte Meßverfahren ermöglichte die Teilnahme an einem interdisziplinären Netzwerk zur Osteoporose-Forschung. In Vergleichsmessungen der Resonanzionisations-Massenspektrometrie mit allen derzeit existierenden Meßverfahren zum 41Ca-Ultraspurennachweis konnte eine sehr gute Übereinstimmung erzielt werden. Der zweite Teil der Arbeit beinhaltet die Adaption eines durchstimmbaren, hochrepetierenden Titan:Saphir-Lasersystem für den Einsatz an Laserionenquellen zur selektiven Erzeugung radioaktiver Ionenstrahlen. Das entwickelte Lasersystem ermöglicht eine effiziente, resonante Anregung des Großteils der Elemente im Periodensystem. Hierzu wurde eine kombinierte Frequenzverdopplungs- und Frequenzverdreifachungseinheit zur Erzeugung höherer Harmonischer aufgebaut. Die Anwendbarkeit eines solchen reinen Festkörper-Lasersystems wurde in zahlreichen off-line Testmessungen sowohl in Mainz als auch an den ISOL Einrichtungen am TRIUMF und ORNL gezeigt und führte zum ersten on-line Einsatz am TRIUMF.
Resumo:
A study of maar-diatreme volcanoes has been perfomed by inversion of gravity and magnetic data. The geophysical inverse problem has been solved by means of the damped nonlinear least-squares method. To ensure stability and convergence of the solution of the inverse problem, a mathematical tool, consisting in data weighting and model scaling, has been worked out. Theoretical gravity and magnetic modeling of maar-diatreme volcanoes has been conducted in order to get information, which is used for a simple rough qualitative and/or quantitative interpretation. The information also serves as a priori information to design models for the inversion and/or to assist the interpretation of inversion results. The results of theoretical modeling have been used to roughly estimate the heights and the dip angles of the walls of eight Eifel maar-diatremes — each taken as a whole. Inversemodeling has been conducted for the Schönfeld Maar (magnetics) and the Hausten-Morswiesen Maar (gravity and magnetics). The geometrical parameters of these maars, as well as the density and magnetic properties of the rocks filling them, have been estimated. For a reliable interpretation of the inversion results, beside the knowledge from theoretical modeling, it was resorted to other tools such like field transformations and spectral analysis for complementary information. Geologic models, based on thesynthesis of the respective interpretation results, are presented for the two maars mentioned above. The results gave more insight into the genesis, physics and posteruptive development of the maar-diatreme volcanoes. A classification of the maar-diatreme volcanoes into three main types has been elaborated. Relatively high magnetic anomalies are indicative of scoria cones embeded within maar-diatremes if they are not caused by a strong remanent component of the magnetization. Smaller (weaker) secondary gravity and magnetic anomalies on the background of the main anomaly of a maar-diatreme — especially in the boundary areas — are indicative for subsidence processes, which probably occurred in the late sedimentation phase of the posteruptive development. Contrary to postulates referring to kimberlite pipes, there exists no generalized systematics between diameter and height nor between geophysical anomaly and the dimensions of the maar-diatreme volcanoes. Although both maar-diatreme volcanoes and kimberlite pipes are products of phreatomagmatism, they probably formed in different thermodynamic and hydrogeological environments. In the case of kimberlite pipes, large amounts of magma and groundwater, certainly supplied by deep and large reservoirs, interacted under high pressure and temperature conditions. This led to a long period phreatomagmatic process and hence to the formation of large structures. Concerning the maar-diatreme and tuff-ring-diatreme volcanoes, the phreatomagmatic process takes place due to an interaction between magma from small and shallow magma chambers (probably segregated magmas) and small amounts of near-surface groundwater under low pressure and temperature conditions. This leads to shorter time eruptions and consequently to structures of smaller size in comparison with kimberlite pipes. Nevertheless, the results show that the diameter to height ratio for 50% of the studied maar-diatremes is around 1, whereby the dip angle of the diatreme walls is similar to that of the kimberlite pipes and lies between 70 and 85°. Note that these numerical characteristics, especially the dip angle, hold for the maars the diatremes of which — estimated by modeling — have the shape of a truncated cone. This indicates that the diatreme can not be completely resolved by inversion.