40 resultados para Weiterentwicklung
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Zusammenfassung Quecksilber kommt in der Natur in seinen vier umweltrelevanten Spezies Hg0, Hg2+, Me2Hg, MeHg+ vor. Die methylierten Spezies wurden dabei in der Vergangenheit aufgrund ihres relativ geringen Anteils am Gesamtquecksilber oft vernachlässigt. Me2Hg und MeHg+ spielen aber eine wichtige Rolle als intermediäre Transportspezies im Quecksilberkreislauf, und eine richtige Analytik dieser Verbindungen ist daher notwendig. Die GC/AFD-Methode (Gaschromatographie/Atomfluoreszenzdetektion) in Verbindung mit einem Purge&Trap-Probenaufgabesystem ermöglicht eine nachweisstarke Analytik dieser Verbindungen in Umweltproben. Dabei müssen die ionischen Quecksilberverbindungen MeHg+ und Hg2+ derivatisiert werden, um sie einer gaschromatographischen Trennung zugänglich zu machen.Das bestehende Verfahren wurde im Rahmen dieser Arbeit mit Hilfe einer alternativen Derivatisierungsmethode verbessert. Das optimierte Verfahren erlaubt auch eine Analyse von MeHg+-Gehalten in Proben mit hoher Chloridbelastung. Solche Proben konnten mit der herkömmlichen Ethylierung als Derivatisierungsmethode nicht analysiert werden, da während der Derivatisierung eine Umwandlung des MeHg+ zu Hg0 auftritt. Bei der Propylierung findet keine solche Transformation statt und sie ist daher eine hervorragende Ergänzung der bestehenden Methode.Die GC/AFD-Methode wurde zur Quecksilberspeziation in der Antarktis als Beispiel für ein anthropogen unbeeinflusstes Gebiet verwendet. Dabei konnten methylierte Quecksilberverbindungen im Meerwasser, in der Atmosphäre und erstmals im antarktischen Schnee nachgewiesen werden und somit die bedeutende Rolle der methylierten Quecksilberspezies am biogeochemischen Stoffkreislauf des Quecksilbers in dieser Region gezeigt werden. Vergleiche mit einer kontinentalen Region zeigten, dass dort MeHg+ und Me2Hg wesentlich weniger produziert bzw. schneller abgebaut werden.
Resumo:
Der Bedarf an hyperpolarisiertem 3He in Medizin und physikalischer Grundlagenforschung ist in den letzten ca. 10-15 Jahren sowohl in Bezug auf die zu Verfügung stehende Menge, als auch auf den benötigten Grad der Kernspinpolarisation stetig gestiegen. Gleichzeitig mußten Lösungen für die polarisationserhaltende Speicherung und den Transport gefunden werden, die je nach Anwendung anzupassen waren. Als Ergebnis kann mit dieser Arbeit ein in sich geschlossenes Gesamtkonzept vorgestellt werden, daß sowohl die entsprechenden Mengen für klinische Anwendungen, als auch höchste Polarisation für physikalische Grundlagenfor-schung zur Verfügung stellen kann. Verschiedene unabhängige Polarimetriemethoden zeigten in sich konsistente Ergebnisse und konnten, neben ihrer eigenen Weiterentwicklung, zu einer verläßlichen Charakterisierung des neuen Systems und auch der Transportzellen und –boxen eingesetzt werden. Die Polarisation wird mittels „Metastabilem Optischen Pumpen“ bei einem Druck von 1 mbar erzeugt. Dabei werden ohne Gasfluß Werte von P = 84% erreicht. Im Flußbetrieb sinkt die erreichbare Polarisation auf P ≈ 77%. Das 3He kann dann weitgehend ohne Polarisationsver-luste auf mehrere bar komprimiert und zu den jeweiligen Experimenten transportiert werden. Durch konsequente Weiterentwicklung der vorgestellten Polarisationseinheit an fast allen Komponenten kann somit jetzt bei einem Fluß von 0,8 barl/h eine Polarisation von Pmax = 77% am Auslaß der Apparatur erreicht werden. Diese skaliert linear mit dem Fluß, sodaß bei 3 barl/h die Polarisation immer noch bei ca. 60% liegt. Dabei waren die im Rahmen dieser Arbeit durchgeführten Verbesserungen an den Lasern, der Optik, der Kompressionseinheit, dem Zwischenspeicher und der Gasreinigung wesentlich für das Erreichen dieser Polarisatio-nen. Neben dem Einsatz eines neuen Faserlasersystems ist die hohe Gasreinheit und die lang-lebige Kompressionseinheit ein Schlüssel für diese Leistungsfähigkeit. Seit Herbst 2001 er-zeugte das System bereits über 2000 barl hochpolarisiertes 3He und ermöglichte damit zahl-reiche interdisziplinäre Experimente und Untersuchungen. Durch Verbesserungen an als Prototypen bereits vorhandenen Transportboxen und durch weitgehende Unterdrückung der Wandrelaxation in den Transportgefäßen aufgrund neuer Erkenntnisse über deren Ursachen stellen auch polarisationserhaltende Transporte über große Strecken kein Problem mehr dar. In unbeschichteten 1 Liter Kolben aus Aluminosilikatglä-sern werden nun problemlos Speicherzeiten von T1 > 200h erreicht. Im Rahmen des europäi-schen Forschungsprojektes „Polarized Helium to Image the Lung“ wurden während 19 Liefe-rungen 70barl 3He nach Sheffield (UK) und bei 13 Transporten 100 barl nach Kopenhagen (DK) per Flugzeug transportiert. Zusammenfassend konnte gezeigt werden, daß die Problematik der Kernspinpolarisationser-zeugung von 3He, die Speicherung, der Transport und die Verwendung des polarisierten Ga-ses in klinischer Diagnostik und physikalischen Grundlagenexperimenten weitgehend gelöst ist und das Gesamtkonzept die Voraussetzungen für allgemeine Anwendungen auf diesen Gebieten geschaffen hat.
Resumo:
Die vorliegende Arbeit untersucht die Möglichkeiten und Limitierungen der MR-Lungenbildgebung mit hyperpolarisiertem 3-He bei gegenüber üblichen Magnetfeldstärken reduzierten magnetischen Führungsfeldern. Dabei werden insbesondere auch die funktionellen Bildgebungstechniken (dynamische Bildgebung, diffusionsgewichtete Bildgebung und Bestimmung des Sauerstoff-Partialdrucks) berücksichtigt. Experimentell geschieht dies durch in vivo Messungen an einem 0.1 T-Ganzkörpertomographen. Zur systematischen Untersuchung der MR-Bildgebung unter dem Einfluss diffundierender Kontrastmittel werden analytische Simulationen, Monte-Carlo-Studien und Referenzexperimente durchgeführt. Hier wird das Augenmerk besonders auf den Einfluss von Diffusions- und Suszeptibilitätsartefakten auf die morphologische und die diffusionsgewichtete Bildgebung gerichtet. Die Entwicklung und der Vergleich verschiedener Konzepte zur Erzeugung von MR-Führungsmagnetfeldern führt zur Erfindung eines neuartigen Prinzips zur weiträumigen Homogenisierung von Magnetfeldern. Die Umsetzung dieses Prinzips erfolgt in Form eines besonders kompakten Transportbehälters für kernspinpolarisierte Edelgase. Die Arbeit beinhaltet eine ausführliche Diskussion der MR-Bildgebungstechnik in Theorie und Praxis, um die Anknüpfungspunkte an die angestellten Untersuchungen herauszuarbeiten. Teile dieser Studien wurden von der Europäischen Raumfahrtorganisation ESA finanziert (Contract No.15308/01/NL/PA).
Resumo:
Resonante Laserionisations-Massenspektrometrie an Gadolinium zur Isotopenhäufigkeitsanalyse mit geringsten Mengen Die selektive Spuren- und Ultraspurenanalyse des Erdalkalielements Gadolinium eröffnet eine Vielzahl von Anwendungen in der Biomedizin und Kosmochemie. Zum Erreichen der hohen Anforderungen bezüglich Isotopen- und Isobarenselektivität von S>10^7 sowie Gesamteffizienz von e>10^-6 wurde der Einsatz der resonanten Laserionisations-Massenspektrometrie untersucht. Dazu erfolgte die Weiterentwicklung und Anpassung des existierenden Diodenlaser-Quadrupolmassenspektrometersystems. Durch Ionenflugbahn-Simulationsrechnungen wurde für das Quadrupol-Massenspektrometer die erreichbare Nachbarmassenunterdrückung und Transmission in Abhängigkeit von der Auflösung theoretisch vorhergesagt. Die Werte wurden experimentell bestätigt. Aus der beobachteten Peakstruktur erfolgte die Ableitung einer Methode zur Bestimmung der Energieunschärfe des eingesetzten Ionisationsprozesses. Zum Auffinden eines effizienten dreifach resonanten Anregungsschemas wurden die Isotopieverschiebungen und Hyperfeinstrukturen aller stabilen Gadoliniumisotope in zahlreichen Übergängen für die einfach, zweifach und dreifach resonante Ionisation präzise vermessen. Das aufgenommene Spektrum autoionisierender Resonanzen zeigte etwa 150 bislang unbekannter Zustände mit Resonanzüberhöhungen von bis zu fünf Größenordnungen im Ionisationswirkungsquerschnitt. Die entwickelte Methode der Hyperfeinzustandsselektion ermöglichte die Bestimmung der Drehimpulsquantenzahl J der autoionisierenden Resonanzen. Die analytische Charakterisierung der dreistufig resonanten Ionisation von Gadolinium ergab eine Isotopen- und Isobarenselektivität von S(Isotop)>10^12 und S(Isobar)>10^7. Die mit dem Diodenlasersystem erreichte Nachweiseffizienz von e=1-3x10^-6 mit einer untergrundlimitierten Nachweisgrenze von wenigen 10^9 Atomen Gd-158 erlaubte erste Demonstrationsmessungen an medizinischen Gewebeproben.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.
Resumo:
Zusammenfassung Zur Weiterentwicklung derResonanzionisations-Massenspektrometrie (RIMS) für dieUltra-Spurenanalyse von Plutonium wurde im Rahmen dieserArbeit eine neue RIMS-Apparatur konzipiert und aufgebaut.Erstmals wurden bei der spektroskopischen Untersuchung vonPlutonium schmalbandige kontinuierliche Laser verwendet. Eswurdenumfangreiche Messreihen durchgeführt, um denResonanzionisationsprozess von Plutonium mit kontinuierlichenLasern zuspezifizieren und möglichst effiziente Anregungsleitern für dieResonanzionisation zu ermitteln. Ein maßgeblicherBestandteil derExperimente war in diesem Zusammenhang die Untersuchung vonautoionisierenden Zuständen. Für die zwei bestenAnregungsleiternwurden Sättigungsintensitäten, Linienbreiten sowieHyperfeinstruktur- und Isotopeneffekte vermessen. Mit denErkenntnissen aus diesen Voruntersuchungen konnten genaueIsotopenverhältnisbestimmungen durchgeführt werden. DieEffizienzdes Gesamtsystems wurde mit Hilfe von synthetischen Probenbestimmt. Alle Messungen wurden wegen der hohen Aktivität undRadiotoxizität von Plutonium mit vergleichsweise geringenTeilchenzahlen durchgeführt. Unterschiedliche Laserionisationsverfahren mit kontinuierlicheroder/und gepulster Laseranregung wurden hinsichtlich ihrerrelativen Effizienz und Selektivität direkt miteinanderverglichen. Weiterhin wurde ein sehr effizientes drei-Stufen, zwei-FarbenAnregungsschema für die gepulste Resonanzionisation vonPlutoniumuntersucht, welches u. a. auf einem Zwei-Photonenübergang ineinenautoionisierenden Zustand beruht. Schließlich wurden mit demetablierten RIMS-Verfahren eine Vielzahl von Umweltmessungendurchgeführt und es wurde an der Weiterentwicklung und derQualitätssicherung des Verfahrens gearbeitet.
Resumo:
Streulängen beschreiben die s-Wellen-Streuung niederenergetischer Neutronen an Kernen. Solche Streuprozesse laufen nahezu ausschließlich über die starke Wechselwirkung ab. Wegen der Spinabhängigkeit der starken Wechselwirkung werden den Multiplett-Streulängen, d.h. den Streulängen der Gesamtspinzustände J, im Allgemeinen verschiedene Werte zugeordnet. Im Experiment sind die Multiplett-Streuzustände an makroskopischen Proben in der Regel nicht unmittelbar zugänglich. Messbar sind jedoch der polarisationsabhängige und -unabhängige Anteil der Streulänge, welche als inkohärente Streulänge und kohärente Streulänge bezeichnet werden und Linearkombinationen der Multiplettstreulängen sind. Durch komplexe Streulängen lässt sich der für reine Streuprozesse entwickelte Formalismus erweitern: Der Imaginärteil der Streulänge beschreibt dann die Absorption von Projektilen im Target. Sämtliche Reaktionsquerschnitte lassen sich als Funktionen der Streulänge angeben. Verbesserte Messungen der 3He-Streulängen sind für die Entwicklung theoretischer Modelle von Wenig-Nukleonen-Systemen wichtig. Für die Systeme (n,D) und (n,T) wurden in den letzten Jahren u.a. präzise theoretische Vorhersagen für die Multiplett-Streulängen gemacht. Die Übereinstimmung mit den experimentellen Ergebnissen untermauert, dass die theoretischen Unsicherheiten dieser Werte nur etwa 1 Promille betragen. Demgegenüber ist die theoretische Behandlung des n-3He-Systems aufwändiger. Bis zu Beginn der 1980er Jahre wurde eine Reihe von Vorhersagen für die Multiplett-Streulängen gemacht, die auf erfolgreichen Dreinukleon-Potentialmodellen basierten, untereinander aber vollkommen inkompatibel waren. Daneben waren zwei disjunkte Wertepaare für die Multiplett-Streulängen mit den experimentellen Ergebnissen verträglich. Obwohl es begründete Argumente zugunsten eines der Wertepaare gab, bestand die Hoffnung auf eine experimentelle Verifikation durch direkte Messung der inkohärenten Streulänge bereits 1980. Die Bestimmung des Realteils der inkohärenten Streulänge liefert in der Multiplettstreulängenebene eine Gerade, die fast orthogonal zum Band des Realteils der kohärenten Streulänge verläuft. Vermutlich aufgrund der unzureichenden Kenntnis der Realteile hat in den letzten Jahren keine nennenswerte Weiterentwicklung der Modelle für das System n–3He stattgefunden. Diese Arbeit entstand in der Absicht, durch polarisierte und unpolarisierte Experimente an 3He quantitative Fakten zur Beurteilung konkurrierender Vier-Nukleonen-Modelle zu schaffen und somit der theoretischen Arbeit auf diesem Feld einen neuen Impuls zu geben. Eine jüngst veröffentlichte theoretische Arbeit [H. M. Hofmann und G. M. Hale. Phys. Rev. C, 68(021002(R)): 1–4, Apr. 2003] zur spinabhängigen Streulänge des 3He belegt, dass die im Rahmen dieser Arbeit unternommenen Anstrengungen auf reges Interesse stoßen. Durch die Anwendung zweier sehr unterschiedlicher experimenteller Konzepte wurden Präzisionsmessungen der Realteile der kohärenten und inkohärenten Neutronenstreulänge des 3He durchgeführt. Während sich die Methode der Neutroneninterferometrie seit Ende der 1970er Jahre als Standardverfahren zur Messung von spinunabhängigen Streulängen etabliert hat, handelt es sich bei der Messung des pseudomagnetischen Präzessionswinkels am Spinecho-Spektrometer um ein neues experimentelles Verfahren. Wir erhalten aus den Experimenten für die gebundenen kohärenten und inkohärenten Streulängen neue Werte, welche die Unsicherheiten im Falle der kohärenten Streulänge um eine Größenordnung, im Falle der inkohärenten Streulänge sogar um den Faktor 30 reduzieren. Die Kombination dieser Resultate liefert verbesserte Werte der, für die nukleare Wenigkörper-Theorie wichtigen, Singulett- und Triplett-Streulängen. Wir erhalten neue Werte für die kohärenten und inkohärenten Anteile des gebundenen Streuquerschnitts, das für die Neutronenstreuung an der 3He-Quantenflüssigkeit wichtige Verhältnis von inkohärentem und kohärentem Streuquerschnitt und für den freien totalen Streuquerschnitt.
Resumo:
Wiederherstellung einer physiologischen Blutzuckerregelung durch Xenotransplantation mikroenkapsulierter Langerhans-Inseln in zwei diabetische Maus-modelle. Die Inseltransplantation ist ein vielversprechendes Verfahren zur Behandlung des Typ 1 Diabetes. Das Verfah-ren ist nicht invasiv, erfordert jedoch eine lebenslange Immunsuppression der Patienten. Zudem sind nur be-grenzte Spenderorgane verfügbar. Es wäre ein großer Fortschritt, wenn man transplantierte Inseln im Empfänger von dessen Immunsystem abschirmen könnte. Die vorliegende Arbeit zeigt, dass es möglich ist, funktionsfähige Inseln von Ratten in Alginatkügelchen (Beads) einzuschließen und in dieser Form in diabetische Mäuse zu trans-plantieren. Mit dem ultrahochviskosem Alginat stand erstmals ein speziell für die klinische Anwendung konzipiertes und hergestelltes Alginat zur Verfügung. Im Gegensatz zu den kommerziell erhältlichen Alginaten konnte dieses Al-ginat in hoher Reinheit reproduzierbar produziert werden. Zudem war es erstmals möglich, durch eine interne Kapselstabilisierung auf die bislang benötigte, äußere Stützmembran zu verzichten. Ziel der Arbeit war es, das ultrahochviskose Alginat und das neue „thermodynamisch-stabilisierte“ Verkapse-lungssystem für die Transplantation der Langerhans-Inseln zu optimieren. In der anschließenden Studie sollten verkapselte Inseln von Ratten in zwei Typen diabetische Mäuse transplantiert werden und Tauglichkeit des Ver-fahren in vivo geprüft werden. In vitro wurden die Parameter (insbesondere die Alginatkonzentration) zur Verkapselung der Langerhans-Inseln optimiert. Die Vitalität (Überleben der Inseln) und die Funktionalität (Sekretion von Insulin) des enkapsulierten Gewebes dienten zur Bewertung der Verkapselungsmethode. Die Zugabe von humanem Serumalbumin führte sowohl zur Langzeitstabilisierung der Alginatbeads als auch zur Verbesserung der Nährstoffversorgung des enkapsulierten Gewebes. Durch Transplantationen von Leerkapseln mit verschiedenen Albumin-Konzentrationen wurde die benötigte Albumin-Supplementation bestimmt. Als Empfänger dienten Streptozotozin-diabetische Balb/c- und spontan diabetische NOD-Mäuse. Die intraperitoneale Transplantation von 1.800 mikroenkapsulierten, adulten Ratteninseln bewirkten in Streptozotozin-diabetischen Balb/c-Mäusen eine langanhaltende (>30 Wochen) Normalisierung des Blutzuckerspiegels. Die Glucose-Clearance-Raten des intraperitonealen-Glucose-Toleranz-Tests in der 3., 9. und 16. Woche zeigten aber einen sukzes-siven Verlust der Transplantatfunktion, der aber in den „non fasting“ Blutzuckerwerten nicht evident wurde. Der Diabetes der NOD-Maus wird durch eine autoimmunogene Zerstörung der ß-Zellen durch ein hyperkompe-tentes Immunsystem ausgelöst, da die NOD-Tiere schon auf ß-zellspezifische Antigene konditioniert waren. Auch hier führte die Alginatkapsel zu einem deutlich verlängerten Überleben des Transplantates im Vergleich zu den unverkapselten Kontrollzellen. Jedoch trat dann nach 4-5 Wochen ein spontanes Transplantatversagen auf. Konventionell polymerisierte Kapseln zeigten inhomogene Vernetzungen des Alginates. Dies führte mit zunehmender Transplantationsdauer zu Instabilitäten der Alginatbeads, so dass schließlich Inselgewebe oder ß-Zell-spezifische Antigene frei wurden. Diese Antigene induzierten im hyperkompetenten Immunsystem der NOD-Mäuse eine massive Abwehrreaktion mit rascher Zerstörung der transplantierten Inseln. Im Rahmen der Weiterentwicklung der Verkapselungstechnik konnte mit Hilfe der neuen „Crystal Gun Verkap-selung“ erstmals eine homogene Vernetzung des gesamten Alginatbeads sichergestellt werden. Gegen Ende die-ser Arbeit konnte bei einer dreiwöchigen Kultur in vitro gezeigt werden, dass das „Crystal Gun Verfahren“ zur Mikroenkapsulierung von Langerhans-Inseln geeignet ist. Daher ist zu erwarten, dass mit Hilfe des „Crystal Gun Verfahrens“ auch ein Durchbruch bei der Transplantation von Inseln in NOD-Mäusen zu erreichen sein wird.
Resumo:
Das Time-of-Flight Aerosol Mass Spectrometer (ToF-AMS) der Firma Aerodyne ist eine Weiterentwicklung des Aerodyne Aerosolmassenspektrometers (Q-AMS). Dieses ist gut charakterisiert und kommt weltweit zum Einsatz. Beide Instrumente nutzen eine aerodynamische Linse, aerodynamische Partikelgrößenbestimmung, thermische Verdampfung und Elektronenstoß-Ionisation. Im Gegensatz zum Q-AMS, wo ein Quadrupolmassenspektrometer zur Analyse der Ionen verwendet wird, kommt beim ToF-AMS ein Flugzeit-Massenspektrometer zum Einsatz. In der vorliegenden Arbeit wird anhand von Laborexperimenten und Feldmesskampagnen gezeigt, dass das ToF-AMS zur quantitativen Messung der chemischen Zusammensetzung von Aerosolpartikeln mit hoher Zeit- und Größenauflösung geeignet ist. Zusätzlich wird ein vollständiges Schema zur ToF-AMS Datenanalyse vorgestellt, dass entwickelt wurde, um quantitative und sinnvolle Ergebnisse aus den aufgenommenen Rohdaten, sowohl von Messkampagnen als auch von Laborexperimenten, zu erhalten. Dieses Schema basiert auf den Charakterisierungsexperimenten, die im Rahmen dieser Arbeit durchgeführt wurden. Es beinhaltet Korrekturen, die angebracht werden müssen, und Kalibrationen, die durchgeführt werden müssen, um zuverlässige Ergebnisse aus den Rohdaten zu extrahieren. Beträchtliche Arbeit wurde außerdem in die Entwicklung eines zuverlässigen und benutzerfreundlichen Datenanalyseprogramms investiert. Dieses Programm kann zur automatischen und systematischen ToF-AMS Datenanalyse und –korrektur genutzt werden.
Resumo:
Recent developments in the theory of plasma-based collisionally excited x-ray lasers (XRL) have shown an optimization potential based on the dependence of the absorption region of the pumping laser on its angle of incidence on the plasma. For the experimental proof of this idea, a number of diagnostic schemes were developed, tested, qualified and applied. A high-resolution imaging system, yielding the keV emission profile perpendicular to the target surface, provided positions of the hottest plasma regions, interesting for the benchmarking of plasma simulation codes. The implementation of a highly efficient spectrometer for the plasma emission made it possible to gain information about the abundance of the ionization states necessary for the laser action in the plasma. The intensity distribution and deflection angle of the pump laser beam could be imaged for single XRL shots, giving access to its refraction process within the plasma. During a European collaboration campaign at the Lund Laser Center, Sweden, the optimization of the pumping laser incidence angle resulted in a reduction of the required pumping energy for a Ni-like Mo XRL, which enabled the operation at a repetition rate of 10 Hz. Using the experiences gained there, the XRL performance at the PHELIX facility, GSI Darmstadt with respect to achievable repetition rate and at wavelengths below 20 nm was significantly improved, and also important information for the development towards multi-100 eV plasma XRLs was acquired. Due to the setup improvements achieved during the work for this thesis, the PHELIX XRL system now has reached a degree of reproducibility and versatility which is sufficient for demanding applications like the XRL spectroscopy of heavy ions. In addition, a European research campaign, aiming towards plasma XRLs approaching the water-window (wavelengths below 5 nm) was initiated.
Resumo:
Auf der Suche nach dem „vulnerablen Plaque“, der ein besonders hohes Risiko für Schlaganfall und Herzinfarkt besitzt, findet momentan ein Paradigmenwechsel statt. Anstelle des klassischen Stenosegrades gewinnt die Darstellung der Plaquemorphologie zunehmend an Bedeutung. Fragestellung: Ziel dieser Arbeit ist es, die Fähigkeiten eines modernen 16-Kanal-CT hinsichtlich der Auflösung des Plaqueinneren bei Atherosklerose der Karotiden zu untersuchen und den Halo-Effekt in vivo zu erforschen. Methoden: Für die Studie wurden von 28 Patienten mit bekannter, symptomatischer Karotisstenose vor der gefäßchirurgischen Intervention CT-Bilder angefertigt, die nachfolgend mit der Histologie der Gefäßpräparate korreliert wurden. Auf diese Weise konnten die mikroskopisch identifizierten Lipidkerne im CT-Bild eingezeichnet und hinsichtlich ihrer Fläche und Dichtewerte evaluiert werden. In einem weiteren Schritt führten 2 Radiologen in Unkenntnis der histologischen Ergebnisse unabhängig voneinander eine Befundung durch und markierten mutmaßliche Lipidkerne. Zudem wurden sowohl in der verblindeten als auch in der histologiekontrollierten Auswertung die Plaquetypen anhand der AHA-Klassifikation bestimmt. Ein dritter Befundungsdurchgang geschah unter Zuhilfenahme einer von uns entwickelten Software, die CT-Bilder farbkodiert um die Detektion der Lipidkerne zu verbessern. Anhand der Farbkodierung wurde zudem ein Indexwert errechnet, der eine objektive Zuordnung zur AHA-Klassifikation ermöglichen sollte. Von 6 Patienten wurde zusätzlich noch eine native CT-Aufnahme angefertigt, die durch MPR exakt an die Kontrastmittelserie angeglichen wurde. Auf diese Weise konnte der Halo-Effekt, der die Plaqueanteile im lumennahen Bereich überstrahlt, quantifiziert und charakterisiert werden. Ergebnisse: Während die Einstufung in die AHA-Klassifikation sowohl durch den Befunder als auch durch den Softwarealgorithmus eine hohe Korrelation mit der Histologie aufweist (Typ IV/Va: 89 %, Typ Vb: 70 %, Typ Vc: 89 %, Typ VI: 55 %), ist die Detektion der Lipidkerne in beiden Fällen nicht ausreichend gut und die Befunderabhängigkeit zu groß (Cohens Kappa: 18 %). Eine Objektivierung der AHA-Klassifikation der Plaques durch Indexberechnung nach Farbkodierung scheint möglich, wenn auch dem Befunder nicht überlegen. Die fibröse Kappe kann nicht abgegrenzt werden, da Überstrahlungseffekte des Kontrastmittels dessen HU-Werte verfälschen. Dieser Halo-Effekt zeigte sich im Median 1,1 mm breit mit einer Standardabweichung von 0,38 mm. Eine Abhängigkeit von der Kontrastmitteldichte im Gefäßlumen konnte dabei nicht nachgewiesen werden. Der Halo-Effekt fiel im Median um -106 HU/mm ab, bei einer Standardabweichung von 33 HU/mm. Schlussfolgerung: Die CT-Technologie zeigt sich, was die Darstellung von einzelnen Plaquekomponenten angeht, den bekannten Fähigkeiten der MRT noch unterlegen, insbesondere in Bezug auf die fibröse Kappe. Ihre Fähigkeiten liegen bisher eher in der Einstufung von Plaques in eine grobe Klassifikation, angelehnt an die der AHA. Die klinische Relevanz dessen jedoch gilt es in Zukunft in größeren Studien weiter zu untersuchen. Auch lässt die Weiterentwicklung der Computertomographie auf eine zukünftig höhere Auflösung der Plaquemorphologie hoffen.
Resumo:
Das Vorliegen einer Leistenhernie ist Ausdruck einer Insuffizienz der bindegewebi-gen Stabilisierungsmechanismen der Leistenkanalrückwand. Deshalb können auch nur diejenigen Operationsmethoden, welche die Hinterwand des Leistenkanals stabil verstärken, zu einem dauerhaftem Erfolg führen. Die sogenannten konventionellen Methoden nach Bassini, Mcvay und Shouldice versuchen, durch einen anterioren inguinalen Zugang die Hinterwand des Leisten-kanals mit autologem ortsständigem Gewebe zu verstärken. Dabei wird jedoch durch die Verwendung lokaler Strukturen die erzielte Stabilitätserhöhung mit einem allgemeinen Anstieg der Gewebsspannung in der Leistenregion erkauft. Das Konzept der spannungsfreien Operationsmethoden versucht, auf eine Verstär-kung der Hinterwand des Leistenkanals durch die Raffung lokaler Strukturen zu verzichten und damit verbundene postoperative Schmerzen und spannungsbeding-te Gewebsnekrosen zu minimieren. Die spannungsfreie Verstärkung der Hinter-wand des Leistenkanals wird dabei durch Verwendung synthetischer Fremdmateri-alien erreicht. Diese können sowohl in einem konventionellen anterioren Zugang (z.B. nach Lichtenstein, Rutkow) als auch minimalinvasiv endoskopisch (z.B. TAPP, TEPP) eingebracht werden. Seit Anfang der 1990er Jahre hat die laparoskopische Chirurgie sprunghaft zuge-nommen (Schumpelick et al. 1996), denn durch minimale Invasivität, modernes Instrumentarium und computergestützte Technologie erfüllt sie alle Forderungen der modernen Chirurgie nach Praktikabilität, Gewebeschonung, geringer Schmerz-haftigkeit und schneller Rehabilitation (Mayer et al. 1997). Dabei kam es zu einer vielfältigen Weiterentwicklung der endoskopischen Technik zur Leistenhernioplastik: standen zunächst noch endoskopische Naht- und Klam-mertechniken im Fokus (Ger et al. 1990, Meyer 1991), lag bald schon der Schwer-punkt auf einer spannungsfreien Reparation mit Hilfe alloplastischer Materialien (Arregui et al. 1992, Corbitt 1991, Corbitt et al. 1993), die sowohl als zweidimensi-onale Netze als auch in dreidimensionaler Ausprägung (Röllchen, Schirmchen, Plugs) zum Einsatz kamen (Shultz et al. 1990, Schleef et al. 1992, Amid et al. 19994, Dudai 1995). In der Folgezeit entwickelte sich noch eine Diskussion um den endoskopischen Zugangsweg, als nach zunächst rein laparoskopischem Vorgehen (TAPP) auch ein total extraperitonealer Zugang im präperitonealen Raum (TEPP) beschrieben und mit entsprechend verlässlichem Instrumentarium verfügbar wurde. Allgemein anerkannt sind heute bei den minimal invasiven Verfahren sowohl TAPP als auch TEPP und die Verwendung alloplastischer Netze oder dreidimensionaler Plug-Netz-Kombinationen zur dorsalen Verstärkung der Fascia transversalis (Bitt-ner et al. 1995, Horeyseck et al. 1999). Reine Naht- oder Cliptechniken werden wegen schlechter Ergebnisse nicht mehr empfohlen. Zugleich mit der Laparoskopie hat die offene Netzhernioplastik nach Lichtenstein ihre Aktualität jedoch nicht verloren (Horeyseck et al. 1999), im Gegenteil: durch zunehmende Verlagerung der Leistenhernienchirurgie in den ambulanten Bereich nimmt sie wieder an Umfang deutlich zu.
Resumo:
Liquids under the influence of external fields exhibit a wide range of intriguing phenomena that can be markedly different from the behaviour of a quiescent system. This work considers two different systems — a glassforming Yukawa system and a colloid-polymer mixture — by Molecular Dynamics (MD) computer simulations coupled to dissipative particle dynamics. The former consists of a 50-50 binary mixture of differently-sized, like-charged colloids interacting via a screened Coulomb (Yukawa) potential. Near the glass transition the influence of an external shear field is studied. In particular, the transition from elastic response to plastic flow is of interest. At first, this model is characterised in equilibrium. Upon decreasing temperature it exhibits the typical dynamics of glassforming liquids, i.e. the structural relaxation time τα grows strongly in a rather small temperature range. This is discussed with respect to the mode-coupling theory of the glass transition (MCT). For the simulation of bulk systems under shear, Lees-Edwards boundary conditions are applied. At constant shear rates γ˙ ≫ 1/τα the relevant time scale is given by 1/γ˙ and the system shows shear thinning behaviour. In order to understand the pronounced differences between a quiescent system and a system under shear, the response to a suddenly commencing or terminating shear flow is studied. After the switch-on of the shear field the shear stress shows an overshoot, marking the transition from elastic to plastic deformation, which is connected to a super-diffusive increase of the mean squared displacement. Since the average static structure only depends on the value of the shear stress, it does not discriminate between those two regimes. The distribution of local stresses, in contrast, becomes broader as soon as the system starts flowing. After a switch-off of the shear field, these additional fluctuations are responsible for the fast decay of stresses, which occurs on a time scale 1/γ˙ . The stress decay after a switch-off in the elastic regime, on the other hand, happens on the much larger time scale of structural relaxation τα. While stresses decrease to zero after a switch-off for temperatures above the glass transition, they decay to a finite value for lower temperatures. The obtained results are important for advancing new theoretical approaches in the framework of mode-coupling theory. Furthermore, they suggest new experimental investigations on colloidal systems. The colloid-polymer mixture is studied in the context of the behaviour near the critical point of phase separation. For the MD simulations a new effective model with soft interaction potentials is introduced and its phase diagram is presented. Here, mainly the equilibrium properties of this model are characterised. While the self-diffusion constants of colloids and polymers do not change strongly when the critical point is approached, critical slowing down of interdiffusion is observed. The order parameter fluctuations can be determined through the long-wavelength limit of static structure factors. For this strongly asymmetric mixture it is shown how the relevant structure factor can be extracted by a diagonalisation of a matrix that contains the partial static structure factors. By presenting first results of this model under shear it is demonstrated that it is suitable for non-equilibrium simulations as well.
Resumo:
The central aim of this thesis work is the application and further development of a hybrid quantum mechanical/molecular mechanics (QM/MM) based approach to compute spectroscopic properties of molecules in complex chemical environments from electronic structure theory. In the framework of this thesis, an existing density functional theory implementation of the QM/MM approach is first used to calculate the nuclear magnetic resonance (NMR) solvent shifts of an adenine molecule in aqueous solution. The findings show that the aqueous solvation with its strongly fluctuating hydrogen bond network leads to specific changes in the NMR resonance lines. Besides the absolute values, also the ordering of the NMR lines changes under the influence of the solvating water molecules. Without the QM/MM scheme, a quantum chemical calculation could have led to an incorrect assignment of these lines. The second part of this thesis describes a methodological improvement of the QM/MM method that is designed for cases in which a covalent chemical bond crosses the QM/MM boundary. The development consists in an automatized protocol to optimize a so-called capping potential that saturates the electronic subsystem in the QM region. The optimization scheme is capable of tuning the parameters in such a way that the deviations of the electronic orbitals between the regular and the truncated (and "capped") molecule are minimized. This in turn results in a considerable improvement of the structural and spectroscopic parameters when computed with the new optimized capping potential within the QM/MM technique. This optimization scheme is applied and benchmarked on the example of truncated carbon-carbon bonds in a set of small test molecules. It turns out that the optimized capping potentials yield an excellent agreement of NMR chemical shifts and protonation energies with respect to the corresponding full molecules. These results are very promising, so that the application to larger biological complexes will significantly improve the reliability of the prediction of the related spectroscopic properties.
Resumo:
Die vorliegende Dissertation entstand im Rahmen eines multizentrischen EU-geförderten Projektes, das die Anwendungsmöglichkeiten von Einzelnukleotid-Polymorphismen (SNPs) zur Individualisierung von Personen im Kontext der Zuordnung von biologischen Tatortspuren oder auch bei der Identifizierung unbekannter Toter behandelt. Die übergeordnete Zielsetzung des Projektes bestand darin, hochauflösende Genotypisierungsmethoden zu etablieren und zu validieren, die mit hoher Genauigkeit aber geringen Aufwand SNPs im Multiplexformat simultan analysieren können. Zunächst wurden 29 Y-chromosomale und 52 autosomale SNPs unter der Anforderung ausgewählt, dass sie als Multiplex eine möglichst hohe Individualisierungschance aufweisen. Anschließend folgten die Validierungen beider Multiplex-Systeme und der SNaPshot™-Minisequenzierungsmethode in systematischen Studien unter Beteiligung aller Arbeitsgruppen des Projektes. Die validierte Referenzmethode auf der Basis einer Minisequenzierung diente einerseits für die kontrollierte Zusammenarbeit unterschiedlicher Laboratorien und andererseits als Grundlage für die Entwicklung eines Assays zur SNP-Genotypisierung mittels der elektronischen Microarray-Technologie in dieser Arbeit. Der eigenständige Hauptteil dieser Dissertation beschreibt unter Verwendung der zuvor validierten autosomalen SNPs die Neuentwicklung und Validierung eines Hybridisierungsassays für die elektronische Microarray-Plattform der Firma Nanogen Dazu wurden im Vorfeld drei verschiedene Assays etabliert, die sich im Funktionsprinzip auf dem Microarray unterscheiden. Davon wurde leistungsorientiert das Capture down-Assay zur Weiterentwicklung ausgewählt. Nach zahlreichen Optimierungsmaßnahmen hinsichtlich PCR-Produktbehandlung, gerätespezifischer Abläufe und analysespezifischer Oligonukleotiddesigns stand das Capture down-Assay zur simultanen Typisierung von drei Individuen mit je 32 SNPs auf einem Microarray bereit. Anschließend wurde dieses Verfahren anhand von 40 DNA-Proben mit bekannten Genotypen für die 32 SNPs validiert und durch parallele SNaPshot™-Typisierung die Genauigkeit bestimmt. Das Ergebnis beweist nicht nur die Eignung des validierten Analyseassays und der elektronischen Microarray-Technologie für bestimmte Fragestellungen, sondern zeigt auch deren Vorteile in Bezug auf Schnelligkeit, Flexibilität und Effizienz. Die Automatisierung, welche die räumliche Anordnung der zu untersuchenden Fragmente unmittelbar vor der Analyse ermöglicht, reduziert unnötige Arbeitsschritte und damit die Fehlerhäufigkeit und Kontaminationsgefahr bei verbesserter Zeiteffizienz. Mit einer maximal erreichten Genauigkeit von 94% kann die Zuverlässigkeit der in der forensischen Genetik aktuell eingesetzten STR-Systeme jedoch noch nicht erreicht werden. Die Rolle des neuen Verfahrens wird damit nicht in einer Ablösung der etablierten Methoden, sondern in einer Ergänzung zur Lösung spezieller Probleme wie z.B. der Untersuchung stark degradierter DNA-Spuren zu finden sein.