688 resultados para Verfahren
Resumo:
Die inhaltsorientierte und die psychophysiologische Glaubhaftigkeitsbeurteilung wurden einem direkten empirischen Validitätsvergleich unterzogen. Einhundertundzwei Probandinnen nahmen als Täterinnen (Schuldige), Zeuginnen (Unschuldige mit Tatwissen) oder falsche Zeuginnen (Unschuldige ohne Tatwissen) an einer experimentellen Verbrechenssimulation teil. Die Täterinnen stritten anschließend die Täterschaft wahrheitswidrig ab und machten eine wahrheitswidrige 'Zeugenaussage'. Die Zeuginnen stritten die Täterschaft wahrheitsgemäß ab und machten eine wahrheitsgemäße Zeugenaussage. Die falschen Zeuginnen stritten die Täterschaft wahrheitsgemäß ab und machten eine wahrheitswidrige 'Zeugenaussage'. Die Glaubhaftigkeit der vermeintlichen Zeugenaussage wurde jeweils mit Hilfe der Kriterienorientierten Inhaltsanalyse beurteilt. Die Glaubhaftigkeit der Täterschaftsabstreitung beurteilte man jeweils mit dem Guilty Actions Test (GAT), einem speziellen psychophysiologischen Verfahren, das zwischen Schuldigen, Unschuldigen mit Tatwissen und Unschuldigen ohne Tatwissen differenzieren soll. Als Kontrollbedingung wurde zudem eine naive, d.h. rein intuitive Glaubhaftigkeitsbeurteilung vorgenommen. Die diagnostische Differenzierungsfähigkeit der inhaltsorientierten Glaubhaftigkeitsbeurteilung und des GAT war höher als die der naiven Glaubhaftigkeitsbeurteilung. Der GAT differenzierte nur zwischen Personen mit und ohne Tatwissen, nicht jedoch zwischen Schuldigen und Unschuldigen mit Tatwissen. Die Validität des GAT bezüglich der Identifizierung von Personen mit und ohne Tatwissen war höher als die Validität des inhaltsorientierten Ansatzes bezüglich der Identifizierung glaubhafter und unglaubhafter Zeugenaussagen. Die Ergebnisse wurden insbesondere im Hinblick auf methodische Aspekte der vorliegenden Untersuchung diskutiert.
Resumo:
In der vorliegenden Arbeit wurde die Druckabhängigkeit der molekularen Dynamik mittels 2H-NMR und Viskositätsmessungen untersucht. Für die Messungen wurde der niedermolekulare organische Glasbildner ortho-Terphenyl (OTP) ausgewählt, da dieser aufgrund einer Vielzahl vorliegender Arbeiten als Modellsubstanz angesehen werden kann. Daneben wurden auch Messungen an Salol durchgeführt.Die Untersuchungen erstreckten sich über einen weiten Druck- und Temperaturbereich ausgehend von der Schmelze bis weit in die unterkühlte Flüssigkeit. Dieser Bereich wurde aufgrund experimenteller Voraussetzungen immer durch eine Druckerhöhung erreicht.Beide Substanzen zeigten druckabhängig ein Verhalten, das dem der Temperaturvariation bei Normaldruck sehr ähnelt. Auf einer Zeitskala der molekularen Dynamik von 10E-9 s bis zu 10E+2 s wurde daher am Beispiel von OTP ein Druck-Temperatur-Zeit-Superpositionsprinzip diskutiert. Zudem konnte eine Temperatur-Dichte-Skalierung mit rho T-1/4 erfolgreich durchgeführt werden. Dies entspricht einem rein repulsiven Potentialverlauf mit rho -12±3 .Zur Entscheidung, ob die Verteilungsbreiten der mittleren Rotationskorrelationszeiten durch Druckvariation beeinflußt werden, wurden auch Ergebnisse anderer experimenteller Methoden herangezogen. Unter Hinzuziehung aller Meßergebnisse kann sowohl eine Temperatur- als auch Druckabhängigkeit der Verteilungsbreite bestätigt werden. Zur Auswertung von Viskositätsdaten wurde ein Verfahren vorgestellt, das eine quantitative Aussage über den Fragilitätsindex von unterkühlten Flüssigkeiten auch dann zuläßt, wenn die Messungen nicht bis zur Glasübergangstemperatur Tg durchgeführt werden. Die Auswertung der druckabhängigen Viskositätsdaten von OTP und Salol zeigt einen sehr differenzierten druckabhängigen Verlauf des Fragilitätsindexes für beide Glasbildner. OTP zeigt zunächst eine leichte Abnahme und danach wieder eine Zunahme des Fragilitätsindexes, dieses Ergebnis wird auch von Simulationsdaten, die der Literatur entnommen wurden, unterstützt. Salol hingegen zeigt zunächst eine deutliche Zunahme und danach eine Abnahme des Fragilitätsindexes. Das unterschiedliche Verhalten der beiden Glasbildner mit ähnlichem Fragilitätsindex bei Normaldruck wird auf die Wasserstoffbrückenbindungen innerhalb von Salol zurückgeführt.
Resumo:
Die Arbeit befasst sich mit der Haftungsproblematik des vorläufigen Insolvenzverwalters, dem das Insolvenzgericht bereits im Eröffnungsverfahren die Verwaltungs- und Verfügungsbefugnis über das schuldnerische Vermögen übertragen hat. Nach § 55 Abs. 2 InsO haben Verbindlichkeiten, die der vorläufige Insolvenzverwalter begründet hat, im eröffneten Verfahren den Rang von Masseverbindlichkeiten. Gleiches gilt im Fall der Inanspruchnahme von Gegenleistungen aus bereits bestehenden Dauerschuldverhältnissen. Für die von ihm dergestalt begründeten Masseverbindlichkeiten haftet der vorläufige Insolvenzverwalter im Fall eines späteren Forderungsausfalls gegenüber den Gläubigern persönlich, sofern er nicht den Entlastungsbeweis führen kann, dass bei Eingehung der Verbindlichkeit der spätere Ausfall nicht absehbar war (§§ 21, 61 InsO). Schwerpunkt der vorliegenden Arbeit ist die Herausarbeitung der Haftungsvoraussetzungen des § 61 InsO, der an ein pflichtwidriges Verhalten des (vorläufigen) Insolvenzverwalters anknüpft. Der vorläufige Verwalter hat, um einer Haftung nach §§ 21, 61 InsO zu entgehen, vor Eingehung neuer Masseverbindlichkeiten die zukünftige Massedeckung zu prüfen. Hierbei müssen die zukünftigen Einnahmen und Ausgaben im Wege einer Finanzplanung erfasst und bewertet werden. Die Herausarbeitung dieser in Literatur und Praxis bislang stiefmütterlich behandelten Problematik ist Kernthema der Dissertation.
Resumo:
Die Kenntnis immunogener Tumorantigene ist Grundlage für die rationale Entwicklung immunologisch orientierter Therapieverfahren. In der vorliegenden Arbeit wurden im autologen Melanommodell MZ7 drei neue T-zellerkannte Tumorantigene vorgestellt. Während nahezu alle bisher beschriebenen Tumorantigene mit Hilfe von T-Zellklonen (CTL) entdeckt wurden, die aus tumorreaktiven MLTCs (gemischte Lymphozyten/Tumor-Zellkulturen) generiert worden waren, wurde in dieser Arbeit versucht, wenige Wochen stimulierte MLTCs direkt zur Antigensuche zu verwenden. Als sensitives Nachweissystem wurde der IFNg-ELISPOT-Assay eingesetzt. Die Motivation dazu waren einerseits praktische Erwägungen, da CTL-Klonierungen material- und zeitaufwendig sind. Andererseits wurde vermutet, dass die Etablierung von CTL-Klonen in Langzeitkultur neben Zufallsprozessen auch Selektionsprozessen unterliegt, die CTL mit bestimmten Eigenschaften favorisieren. Eventuell eröffnete sich durch den Einsatz der MLTCs die Möglichkeit, Antigene zu entdecken, die mit Hilfe permanent kultivierter CTL aus den MLTCs nicht gefunden würden.Um beispielsweise Schwankungen im Proliferationsverhalten und in Effektorfunktionen permanent kultivierter T-Zellen zu umgehen, wurden für die Versuche in dieser Arbeit in Portionen eingefrorene T-Zellen verwendet, die zuvor zu ausreichender Menge expandiert worden waren. Es ließ sich zeigen, dass durch die Kryokonservierung der T-Zellen zu einem bestimmten Zeitpunkt nach einer Restimulation mit den Tumorzellen der Aktivierungszustand der T-Zellen konserviert wurde, und dass die T-Zellen nach dem Auftauen in ELISPOT-Assays ohne wesentliche Einbußen spezifisch auf einen erneuten Antigenkontakt reagierten. Bei der Testung von mehreren, unabhängig generierten MLTCs gegen bekannte Tumorantigene wurden T-Zellantworten gegen gp100/HLA-B7.2, Tyrosinase/HLA-A26.1, SIRT2P182L/HLA-A3.1 und, deutlich stärker, gegen die Melanomzelllinie festgestellt. Nachfolgend wurde mit Hilfe bereits etablierter CTL-Klone die peptidkodierende Region von gp100 über die Transfektion von gp100-Fragmenten in COS-7-Zellen eingegrenzt und anschließend ein synthetisches Peptid identifiziert, das von den CTL-Klonen erkannt wurde. Das zweite identifizierte Tumorantigen, Tyrosinase/HLA-A26.1, wurde nur in einer von sechs neu generierten, unabhängigen MLTCs entdeckt. Da keine Tyrosinase/HLA-A26.1-reaktiven CTL-Klone zur Verfügung standen, wurden die zur Eingrenzung der peptidkodierenden Region transfizierten COS-7-Zellen mit der MLTC selbst getestet. Anschließend wurde ein synthetisches Peptid identifiziert, das von der MLTC erkannt wurde.Die Reaktivität der MLTCs gegen die Melanomzelllinie war bei weitem nicht durch die bis dahin gefundenen T-Zellantworten erklärbar. Daher wurde mit einer der MLTCs versucht, durch cDNA-Expressionsklonierung ein neues Antigen in der cDNA-Bank aus dem MZ7-Melanom zu identifizieren. Die Reaktivität der MLTC gegen den Tumor war hauptsächlich durch einen Antikörper gegen HLA-A3 blockierbar. Daher wurde HLA-A*03011-cDNA für das âScreeningâ kotransfiziert. Das Verfahren führte zur Identifizierung eines weiteren punktmutierten Tumorantigens: GPNMBG181D (GPNMBmutiert). Die Mutation führte dazu, dass ein Teil eines ungespleißten Introns Bestandteil der im Tumor entdeckten cDNA war. Ein aus der Exon/Intron-Region kodiertes synthetisches Peptid mit der ausgetauschten Aminosäure wurde von der MLTC deutlich erkannt. Durch RT-PCR-Analysen wurde im MZ7-Melanom, in fast allen getesteten weiteren Melanomen sowie in einem Teil der überprüften Nierenzellkarzinome eine Variante der GPNMB-cDNA entdeckt, in der ebenfalls das erwähnte Intron enthalten war, ohne dass die Mutation vorlag (GPNMB/INT4). Diese Spleißvariante wurde nicht in EBV-B-Zelllinien und anderen Tumorzelllinien gefunden. Zusätzlich zu dem bereits zuvor charakterisierten Tumorantigen SIRT2P182L wurden drei weitere T-zellerkannte Antigene im Melanommodell MZ7 identifiziert. T-Zellreaktivität gegen das Antigen GPNMBG181D entwickelte sich, im Gegensatz zu den anderen Antigenen, in allen getesteten MLTCs. Dies spricht für eine immunologische Dominanz des Antigens im Melanommodell MZ7. Die Tatsache, dass das âstärksteâ Antigen mit Hilfe einer MLTC identifiziert wurde, bietet die Aussicht, evtl. weitere dominante Antigene mit dem Verfahren identifizieren zu können. Die Verwendung von kurzzeitstimulierten MLTCs anstelle von permanent kultivierten CTL-Klonen stellt einen ersten Schritt auf dem Weg zur Beschleunigung der Suche nach Tumorantigenen dar. Die Verfahrensbeschleunigung ist die Voraussetzung dafür, in Zukunft Antigene nicht nur in archivierten Modellen zu suchen, sondern in Patienten zu einem frühen Zeitpunkt der malignen Erkrankung. Dann bestünde die Chance, dass die Kenntnis individueller Tumorantigene in immuntherapeutische Konzepte eingeht.
Resumo:
In der vorliegenden Arbeit werden Entwicklung und Test einesneuartigen bildgebenden Verfahrens mit Röntgenstrahlung,Polychromographie genannt, beschrieben. Mit ihm können kontrastmittelgefüllte Strukturen unter effizienterAusnutzung des zur Verfügung stehenden Photonenflussessichtbar gemacht werden. Als Röntgenstrahlungsquelle wird Übergangsstrahlung verwendet, die vom 855 MeVElektronenstrahl des Mainzer Mikrotrons MAMI beimDurchqueren eines Polyimidfolienstapels emittiert wird. Ausdieser wird mit einem hochorientierten pyrolytischenGraphit-Kristall ein quasimonochromatischer Röntgenstrahlerzeugt mit dem das Untersuchungsobjekt ausgeleuchtet wird.Mit Hilfe einer Richtungsänderung des Elektronenstrahls beisynchronem Verfahren und Drehen des Kristalls, wird an jedemPunkt in der Detektorebene die Energie der Strahlung überein mehrere keV breites Intervall um die K-Absorptionskantedes Kontrastmittels variiert. Die Kontrastmittelverteilungwird durch numerische Analyse der mit jedem Bildpunkt eineszweidimensional orts- und energieauflösenden Detektorsaufgenommenen Intensitätsspektren ermittelt. DiePolychromographie wurde bei einer mittleren Energie desRöntgenstrahls von 20 keV erfolgreich an einem Phantombestehend aus Kupfer- und Molybdänfolien (Kontrastmittel)verschiedener Dicken (Cu: 136, 272 Mikrometer und Mo: 10, 5,2.5 Mikrometer) getestet. Es wurde gezeigt, daß sich dasSignal-zu-Rausch-Verhältnis (SNR) in den rekonstruiertenBildern verbessert, solange sich beim Vergrößern desDurchstimmintervalls die im Intervall enthaltenePhotonenzahl proportional vergrößert. Im Vergleich zurDichromographie liefert die Polychromographie ein um einenFaktor zwei geringeres SNR. Das gleiche SNR wird erreicht,wenn das Absorptionsverhalten des Untersuchungsobjektes,z.B. durch eine Leeraufnahme ermittelt, bei der Analysevorgegeben wird.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.
Resumo:
Der 'gestopfte Hochquarz' ß-Eukryptit (LiAlSiO4) ist bekannt für seine außergewöhnliche anisotrope Li-Ionenleitfähigkeit und die nahe Null liegende thermische Ausdehnung.Untersucht wurde die temperaturabhängige ß-Eukryptit-Phasenabfolge, insbesondere die modulierte Phase. Deren Satellitenreflexe sind gegenüber den normalen Reflexen erheblich verbreitert, überlappen miteinander sowie mit den dazwischen liegenden 'a-Reflexen' zu Tripletts. Für die Separation der Triplett-Intensitäten waren bisherige Standardverfahren zur Beugungsdatensammlung ungeeignet. Mit 'axialen q-Scans' wurde ein neuartiges Verfahren entwickelt. Intensitäten wurden mit dem neu-entwickelten least squares-Programm GKLS aus 2000 Profilen seriell und automatisch gewonnen und erfolgreich auf Standarddaten skaliert. Die Verwendung verbreiterter Reflexprofile erwies sich als zulässig.Die Verbreiterung wurde auf eine verminderte Fernordnung der Modulation von 11 bis 16 Perioden zurückgeführt (Analyse mit der Gitterfunktion), womit ein ungewöhnliches beugungswinkelabhängiges Verhalten der Reflexbreiten korrespondiert und mit typischen Antiphasendomänendurchmessern (andere Autoren) korreliert.Eine verminderte Si-/ Al-Ordnung wird als ursächlich für geringe Domänengrößen und Fernordnung angesehen, sowie für Eigenschaften wie z.B. a/c-Verhältnisse, Ausdehnungskoeffizienten, Ionenleitfähigkeit, Strukturtyp und Umwandlungstemperaturen. Änderungen des SiO2-Gehaltes, der Temperatur oder der Si- /Al-Ordnung zeitigen für einige Eigenschaften ähnliche Wirkungen.Die gemittelte Struktur der modulierten Phase wurde erstmals zuverlässig bestimmt, die Rolle des Li charakterisiert, Zweifel an der hexagonalen Symmetrie des ß-Eukryptits wurden ausgeräumt und die Bestimmung der modulierten Struktur wurde weitgehend vorbereitet.
Resumo:
Die Arbeit befasst sich mit den Änderungen der Resonanzparameter von Schwingquarzen, die durch Kontakte mit festen Körpern an der Oberfläche hervorgerufen werden (Quarz als kontaktmechanische Sonde). Bei Kontakt zwischen (weichen) Gold-Oberflächen tritt ein Peak bei der Dämpfung auf, der mit Reibung in Verbindung gebracht wird.Zur Bestimmung der Resonanzparameter wurde das ring-down Verfahren angewendet, bei dem der Quarzresonator zunächst auf seiner Resonanzfrequenz angeregt wird und dann die frei abklingende Quarzschwingung mit einer exponentiell abfallenden Sinusschwingung angefittet wird. Eine Unterteilung der Abklingkurve in einzelne Segmente liefert bei Kontakt eine amplitudenabhängige Resonanzfrequenz und Abkling-Konstante. Mittels Störungsrechnung wurden daraus explizit nichtlineare Federkraft-Auslenkung und Reibungskraft-Geschwindigkeit Relationen berechnet.Bei Gold-Gold Kontakten zeigt sich ein sublinearer Anstieg der elastischen Kraft mit der Auslenkung, und ein linearer Anstieg der Reibungskraft mit der Geschwindigkeit, der im Gegensatz zu Kontakten zwischen harten und spröden Oberflächen oft erst ab einer kritischen Geschwindigkeit einsetzt. Ist eine Thiol-Monolage in der Kontaktfläche vorhanden, so verringert sich die kritische Geschwindigkeit stark.Das Analyseverfahren wurde weiterhin auf die Untersuchung granularer Medien angewendet, die sich von Festkörpern und Flüssigkeiten durch das Auftreten von Spannungspfaden und Scherinstabilitäten unterscheiden. Dieses Verhalten ist bei kubischen Körnern stärker ausgeprägt als bei Kugeln.
Resumo:
Im Mittelpunkt dieser Arbeit steht Beweis der Existenz- und Eindeutigkeit von Quadraturformeln, die für das Qualokationsverfahren geeignet sind. Letzteres ist ein von Sloan, Wendland und Chandler entwickeltes Verfahren zur numerischen Behandlung von Randintegralgleichungen auf glatten Kurven (allgemeiner: periodische Pseudodifferentialgleichungen). Es erreicht die gleichen Konvergenzordnungen wie das Petrov-Galerkin-Verfahren, wenn man durch den Operator bestimmte Quadraturformeln verwendet. Zunächst werden die hier behandelten Pseudodifferentialoperatoren und das Qualokationsverfahren vorgestellt. Anschließend wird eine Theorie zur Existenz und Eindeutigkeit von Quadraturformeln entwickelt. Ein wesentliches Hilfsmittel hierzu ist die hier bewiesene Verallgemeinerung eines Satzes von Nürnberger über die Existenz und Eindeutigkeit von Quadraturformeln mit positiven Gewichten, die exakt für Tschebyscheff-Räume sind. Es wird schließlich gezeigt, dass es stets eindeutig bestimmte Quadraturformeln gibt, welche die in den Arbeiten von Sloan und Wendland formulierten Bedingungen erfüllen. Desweiteren werden 2-Punkt-Quadraturformeln für so genannte einfache Operatoren bestimmt, mit welchen das Qualokationsverfahren mit einem Testraum von stückweise konstanten Funktionen eine höhere Konvergenzordnung hat. Außerdem wird gezeigt, dass es für nicht-einfache Operatoren im Allgemeinen keine Quadraturformel gibt, mit der die Konvergenzordnung höher als beim Petrov-Galerkin-Verfahren ist. Das letzte Kapitel beinhaltet schließlich numerische Tests mit Operatoren mit konstanten und variablen Koeffizienten, welche die theoretischen Ergebnisse der vorangehenden Kapitel bestätigen.
Resumo:
Die vorliegende Arbeit beschäftigt sich vorwiegend mit Detektionsproblemen, die bei Experimenten zur Chemie der Transactiniden mit dem schnellen Flüssig-Flüssig-Extraktionssystem SISAK auftraten. Bei diesen Experimenten wird als Detektionsmethode die Flüssigszintillationsspektroskopie (LSC) eingesetzt. Es werden Szintillationspulse registriert, die für das verursachende Teilchen charakteristische Formen zeigen, die unterschieden werden müssen. Am Beispiel der Auswertung des SISAK-Experimentes zur Chemie des Rutherfordiums vom November 1998 wurde gezeigt, dass es mit den herkömmlichen Verfahren zur Pulsformdiskriminierung nicht möglich ist, die aus dem Zerfall der Transactiniden stammenden alpha-Ereignisse herauszufiltern. Ursache dafür ist ein hoher Untergrund, der in erster Linie von beta/gamma-Teilchen, Spaltfragmenten und pile ups verursacht wird. Durch die Verfügbarkeit von Transientenrecordern ergeben sich neue Möglichkeiten für eine digitale Pulsformdiskriminierung. In dieser Arbeit wird erstmals die Methode der digitalen Pulsformdiskriminierung mit künstlichen neuronalen Netzen (PSD-NN) vorgestellt. Es wurde im Zuge der Auswertung des SISAK-Experimentes vom Februar 2000 gezeigt, dass neuronale Netze in der Lage sind, Pulsformen automatisch richtig zu klassifizieren. Es ergeben sich nahezu untergrundfreie alpha-Flüssigszintillationsspektren. Es werden Vor- und Nachteile der neuen Methode diskutiert. Es ist dadurch möglich geworden, in SISAK-Experimenten Transactinidenatome anhand ihres Zerfalls eindeutig zu charakterisieren. Das SISAK-System kann somit bei Experimenten zum Studium des chemischen Verhaltens von Transactiniden in flüssiger Phase eingesetzt werden.____
Resumo:
Zusammenfassung Quecksilber kommt in der Natur in seinen vier umweltrelevanten Spezies Hg0, Hg2+, Me2Hg, MeHg+ vor. Die methylierten Spezies wurden dabei in der Vergangenheit aufgrund ihres relativ geringen Anteils am Gesamtquecksilber oft vernachlässigt. Me2Hg und MeHg+ spielen aber eine wichtige Rolle als intermediäre Transportspezies im Quecksilberkreislauf, und eine richtige Analytik dieser Verbindungen ist daher notwendig. Die GC/AFD-Methode (Gaschromatographie/Atomfluoreszenzdetektion) in Verbindung mit einem Purge&Trap-Probenaufgabesystem ermöglicht eine nachweisstarke Analytik dieser Verbindungen in Umweltproben. Dabei müssen die ionischen Quecksilberverbindungen MeHg+ und Hg2+ derivatisiert werden, um sie einer gaschromatographischen Trennung zugänglich zu machen.Das bestehende Verfahren wurde im Rahmen dieser Arbeit mit Hilfe einer alternativen Derivatisierungsmethode verbessert. Das optimierte Verfahren erlaubt auch eine Analyse von MeHg+-Gehalten in Proben mit hoher Chloridbelastung. Solche Proben konnten mit der herkömmlichen Ethylierung als Derivatisierungsmethode nicht analysiert werden, da während der Derivatisierung eine Umwandlung des MeHg+ zu Hg0 auftritt. Bei der Propylierung findet keine solche Transformation statt und sie ist daher eine hervorragende Ergänzung der bestehenden Methode.Die GC/AFD-Methode wurde zur Quecksilberspeziation in der Antarktis als Beispiel für ein anthropogen unbeeinflusstes Gebiet verwendet. Dabei konnten methylierte Quecksilberverbindungen im Meerwasser, in der Atmosphäre und erstmals im antarktischen Schnee nachgewiesen werden und somit die bedeutende Rolle der methylierten Quecksilberspezies am biogeochemischen Stoffkreislauf des Quecksilbers in dieser Region gezeigt werden. Vergleiche mit einer kontinentalen Region zeigten, dass dort MeHg+ und Me2Hg wesentlich weniger produziert bzw. schneller abgebaut werden.
Resumo:
Diese Arbeit untersucht die longitudinale und transversaleStrahldynamik am Mainzer Mikrotron MAMI. Die gemessenen Abbildungseigenschaften werden mit den Design-Rechnungen verglichen. Dadurch konnte die Strahlqualitaet von MAMI B und das Design der neuen HDSM Mikrotronstufe verbessert werden. Es wurde eine Stoerungsrechnung formuliert, um die 6-DAbbildungsmatrix entlang der Beschleunigungsstrecke zu berechnen. Ausgehend von der linearisierten Hamilton Funktion wird die Transfermatrix M in eine unendliche Summe ueber Matrizen M(n) zerlegt, die jeweils eine n-fache Wechselwirkung des Strahls mit dem Quadrupolanteil des Fuehrungsfeldes darstellen. Dank des tieferen Einblicks in die Auswirkung von Feldfehlern konnte damit das Mikrotron-Modell leicht an die gemessenen Transfermatrizen angepasst werden. Ferner wurde die Identifizierung und Korrektur anti-symmetrischer Feldfehler in den Mikrotron-Dipolen untersucht. Es wurde ein Messverfahren entwickelt, um kleine Feldkomponenten in der Bahnebene von der Groessenordnung 10E-3 zu erkennen. Das vorgeschlagene Verfahren wurde mit Hilfe des Simulationsprogramms TOSCA ausgetestet. Schliesslich wurde die Stabilitaet der Longitudinaloptik verbessert. Dadurch konnte eine hochpraezise Energiestabi-lisierung verwirklicht werden. Bei 855 MeV Strahlenergie wird eine Stabilitaet von etwa 10E-6 erreicht.
Resumo:
ZUSAMMENFASSUNG Langzeitbeobachtungsstudien zur Landschaftsdynamik inSahelländern stehen generell einem defizitären Angebot anquantitativen Rauminformationen gegenüber. Der in Malivorgefundene lokal- bis regionalräumliche Datenmangelführte zu einer methodologischen Studie, die die Entwicklungvon Verfahren zur multi-temporalen Erfassung und Analyse vonLandschaftsveränderungsdaten beinhaltet. Für den RaumWestafrika existiert in großer Flächenüberdeckunghistorisches Fernerkundungsmaterial in Form hochauflösenderLuftbilder ab den 50er Jahren und erste erdbeobachtendeSatellitendaten von Landsat-MSS ab den 70er Jahren.Multitemporale Langzeitanalysen verlangen zur digitalenReproduzierbarkeit, zur Datenvergleich- undObjekterfaßbarkeit die a priori-Betrachtung derDatenbeschaffenheit und -qualität. Zwei, ohne verfügbare, noch rekonstruierbareBodenkontrolldaten entwickelte Methodenansätze zeigen nichtnur die Möglichkeiten, sondern auch die Grenzen eindeutigerradiometrischer und morphometrischerBildinformationsgewinnung. Innerhalb desÜberschwemmungsgunstraums des Nigerbinnendeltas im ZentrumMalis stellen sich zwei Teilstudien zur Extraktion vonquantitativen Sahelvegetationsdaten den radiometrischen undatmosphärischen Problemen:1. Präprozessierende Homogenisierung von multitemporalenMSS-Archivdaten mit Simulationen zur Wirksamkeitatmosphärischer und sensorbedingter Effekte2. Entwicklung einer Methode zur semi-automatischenErfassung und Quantifizierung der Dynamik derGehölzbedeckungsdichte auf panchromatischenArchiv-Luftbildern Die erste Teilstudie stellt historischeLandsat-MSS-Satellitenbilddaten für multi-temporale Analysender Landschaftsdynamik als unbrauchbar heraus. In derzweiten Teilstudie wird der eigens, mittelsmorphomathematischer Filteroperationen für die automatischeMusterkennung und Quantifizierung von Sahelgehölzobjektenentwickelte Methodenansatz präsentiert. Abschließend wird die Forderung nach kosten- undzeiteffizienten Methodenstandards hinsichtlich ihrerRepräsentativität für die Langzeitbeobachtung desRessourceninventars semi-arider Räume sowie deroperationellen Transferierbarkeit auf Datenmaterial modernerFernerkundungssensoren diskutiert.
Resumo:
In der vorliegenden Arbeit werden zwei physikalischeFließexperimente an Vliesstoffen untersucht, die dazu dienensollen, unbekannte hydraulische Parameter des Materials, wiez. B. die Diffusivitäts- oder Leitfähigkeitsfunktion, ausMeßdaten zu identifizieren. Die physikalische undmathematische Modellierung dieser Experimente führt auf einCauchy-Dirichlet-Problem mit freiem Rand für die degeneriertparabolische Richardsgleichung in derSättigungsformulierung, das sogenannte direkte Problem. Ausder Kenntnis des freien Randes dieses Problems soll dernichtlineare Diffusivitätskoeffizient derDifferentialgleichung rekonstruiert werden. Für diesesinverse Problem stellen wir einOutput-Least-Squares-Funktional auf und verwenden zu dessenMinimierung iterative Regularisierungsverfahren wie dasLevenberg-Marquardt-Verfahren und die IRGN-Methode basierendauf einer Parametrisierung des Koeffizientenraumes durchquadratische B-Splines. Für das direkte Problem beweisen wirunter anderem Existenz und Eindeutigkeit der Lösung desCauchy-Dirichlet-Problems sowie die Existenz des freienRandes. Anschließend führen wir formal die Ableitung desfreien Randes nach dem Koeffizienten, die wir für dasnumerische Rekonstruktionsverfahren benötigen, auf einlinear degeneriert parabolisches Randwertproblem zurück.Wir erläutern die numerische Umsetzung und Implementierungunseres Rekonstruktionsverfahrens und stellen abschließendRekonstruktionsergebnisse bezüglich synthetischer Daten vor.
Resumo:
Deutsch:Schwerpunkt dieser Arbeit war die Entwicklung einer Methode zur Spurenbestimmung von Silicium in organischen und anorganischen Matrices unter Verwendung der massenspektrometrischen Isotopenverdünnungsanalyse (MSIVA) an einem hochauflösenden induktiv gekoppelten Plasma-Massenspektrometer (HR-ICP-MS). Zusätzlich zur Elementspurenbestimmung wurde eine GC/HR-ICP-MS Kopplung entwickelt, die zur Analyse linearer und cyclischer Siloxane verwendet wurde.Die hier entwickelte Analysenmethode erlaubt Nachweisgrenzen für Silicium sowohl in organischen als auch in anorganischen Matrices im oberen ng/g-Bereich und ergab für die im Rahmen dieser Arbeit analysierten Proben Reproduzierbarkeiten von < 20%. Durch einfache Verdünnung nach der Probenvorbereitung in Verbindung mit dem sehr empfindlichen Detektionsverfahren sowie der internen Standardisierung mittels MSIVA erlaubt das Verfahren eine präzise Bestimmung von Silicium in jeglicher Matrix. Neben der Schnelligkeit und Einfachheit eignet sich die hier entwickelte Methode besonders für die Routineanalytik. Die gute Reproduzierbarkeit und der Vergleich mit Ergebnissen von zwei Interlaborstudien unterstreicht zusätzlich die Fähigkeit präzise und richtige Ergebnisse zur Zertifizierung an Standardreferenzmaterialien bezüglich des Siliciums im Spurenbereich zu liefern.Neben dem Gesamtgehalt von Silicium konnten medizinisch relevante Siliciumverbindungen analysiert und quantifiziert werden. Hierbei wurden niedermolekulare Polydimethlysiloxane (PDMS) untersucht, die als Nebenprodukte vor allem in Brustimplantaten auftreten. Grundlage für die Bestimmung dieser Siliciumspezies ist die Kopplung eines hochauflösenden ICP-MS an einen Gaschromatographen. Der hohe Ionisierungsgrad des ICP, gerade unter trockenen Plasmabedingungen, und der elementspezifische und sehr empfindliche massenspektrometrische Detektor erlauben in Verbindung mit dem GC die Bestimmung von Siloxanen bis in den pg/g-Bereich. Aus der Bestimmung des Gesamtgehalts an Silicium und der Bestimmung des Gehalts an den untersuchten Siliciumverbindungen können Vergleiche gemacht werden. Die Analyse beider Parameter ist mit Hilfe in dieser Arbeit entwickelten Methode möglich.Zusätzlich zur Siliciumbestimmung wurde der Gehalt an Platin in Humanproben analysiert, da bei der Herstellung der Füllung von Siliconimplantaten Platinkatalysatoren verwendet werden.