237 resultados para generative Verfahren
Resumo:
Die Kenntnis immunogener Tumorantigene ist Grundlage für die rationale Entwicklung immunologisch orientierter Therapieverfahren. In der vorliegenden Arbeit wurden im autologen Melanommodell MZ7 drei neue T-zellerkannte Tumorantigene vorgestellt. Während nahezu alle bisher beschriebenen Tumorantigene mit Hilfe von T-Zellklonen (CTL) entdeckt wurden, die aus tumorreaktiven MLTCs (gemischte Lymphozyten/Tumor-Zellkulturen) generiert worden waren, wurde in dieser Arbeit versucht, wenige Wochen stimulierte MLTCs direkt zur Antigensuche zu verwenden. Als sensitives Nachweissystem wurde der IFNg-ELISPOT-Assay eingesetzt. Die Motivation dazu waren einerseits praktische Erwägungen, da CTL-Klonierungen material- und zeitaufwendig sind. Andererseits wurde vermutet, dass die Etablierung von CTL-Klonen in Langzeitkultur neben Zufallsprozessen auch Selektionsprozessen unterliegt, die CTL mit bestimmten Eigenschaften favorisieren. Eventuell eröffnete sich durch den Einsatz der MLTCs die Möglichkeit, Antigene zu entdecken, die mit Hilfe permanent kultivierter CTL aus den MLTCs nicht gefunden würden.Um beispielsweise Schwankungen im Proliferationsverhalten und in Effektorfunktionen permanent kultivierter T-Zellen zu umgehen, wurden für die Versuche in dieser Arbeit in Portionen eingefrorene T-Zellen verwendet, die zuvor zu ausreichender Menge expandiert worden waren. Es ließ sich zeigen, dass durch die Kryokonservierung der T-Zellen zu einem bestimmten Zeitpunkt nach einer Restimulation mit den Tumorzellen der Aktivierungszustand der T-Zellen konserviert wurde, und dass die T-Zellen nach dem Auftauen in ELISPOT-Assays ohne wesentliche Einbußen spezifisch auf einen erneuten Antigenkontakt reagierten. Bei der Testung von mehreren, unabhängig generierten MLTCs gegen bekannte Tumorantigene wurden T-Zellantworten gegen gp100/HLA-B7.2, Tyrosinase/HLA-A26.1, SIRT2P182L/HLA-A3.1 und, deutlich stärker, gegen die Melanomzelllinie festgestellt. Nachfolgend wurde mit Hilfe bereits etablierter CTL-Klone die peptidkodierende Region von gp100 über die Transfektion von gp100-Fragmenten in COS-7-Zellen eingegrenzt und anschließend ein synthetisches Peptid identifiziert, das von den CTL-Klonen erkannt wurde. Das zweite identifizierte Tumorantigen, Tyrosinase/HLA-A26.1, wurde nur in einer von sechs neu generierten, unabhängigen MLTCs entdeckt. Da keine Tyrosinase/HLA-A26.1-reaktiven CTL-Klone zur Verfügung standen, wurden die zur Eingrenzung der peptidkodierenden Region transfizierten COS-7-Zellen mit der MLTC selbst getestet. Anschließend wurde ein synthetisches Peptid identifiziert, das von der MLTC erkannt wurde.Die Reaktivität der MLTCs gegen die Melanomzelllinie war bei weitem nicht durch die bis dahin gefundenen T-Zellantworten erklärbar. Daher wurde mit einer der MLTCs versucht, durch cDNA-Expressionsklonierung ein neues Antigen in der cDNA-Bank aus dem MZ7-Melanom zu identifizieren. Die Reaktivität der MLTC gegen den Tumor war hauptsächlich durch einen Antikörper gegen HLA-A3 blockierbar. Daher wurde HLA-A*03011-cDNA für das âScreeningâ kotransfiziert. Das Verfahren führte zur Identifizierung eines weiteren punktmutierten Tumorantigens: GPNMBG181D (GPNMBmutiert). Die Mutation führte dazu, dass ein Teil eines ungespleißten Introns Bestandteil der im Tumor entdeckten cDNA war. Ein aus der Exon/Intron-Region kodiertes synthetisches Peptid mit der ausgetauschten Aminosäure wurde von der MLTC deutlich erkannt. Durch RT-PCR-Analysen wurde im MZ7-Melanom, in fast allen getesteten weiteren Melanomen sowie in einem Teil der überprüften Nierenzellkarzinome eine Variante der GPNMB-cDNA entdeckt, in der ebenfalls das erwähnte Intron enthalten war, ohne dass die Mutation vorlag (GPNMB/INT4). Diese Spleißvariante wurde nicht in EBV-B-Zelllinien und anderen Tumorzelllinien gefunden. Zusätzlich zu dem bereits zuvor charakterisierten Tumorantigen SIRT2P182L wurden drei weitere T-zellerkannte Antigene im Melanommodell MZ7 identifiziert. T-Zellreaktivität gegen das Antigen GPNMBG181D entwickelte sich, im Gegensatz zu den anderen Antigenen, in allen getesteten MLTCs. Dies spricht für eine immunologische Dominanz des Antigens im Melanommodell MZ7. Die Tatsache, dass das âstärksteâ Antigen mit Hilfe einer MLTC identifiziert wurde, bietet die Aussicht, evtl. weitere dominante Antigene mit dem Verfahren identifizieren zu können. Die Verwendung von kurzzeitstimulierten MLTCs anstelle von permanent kultivierten CTL-Klonen stellt einen ersten Schritt auf dem Weg zur Beschleunigung der Suche nach Tumorantigenen dar. Die Verfahrensbeschleunigung ist die Voraussetzung dafür, in Zukunft Antigene nicht nur in archivierten Modellen zu suchen, sondern in Patienten zu einem frühen Zeitpunkt der malignen Erkrankung. Dann bestünde die Chance, dass die Kenntnis individueller Tumorantigene in immuntherapeutische Konzepte eingeht.
Resumo:
In der vorliegenden Arbeit werden Entwicklung und Test einesneuartigen bildgebenden Verfahrens mit Röntgenstrahlung,Polychromographie genannt, beschrieben. Mit ihm können kontrastmittelgefüllte Strukturen unter effizienterAusnutzung des zur Verfügung stehenden Photonenflussessichtbar gemacht werden. Als Röntgenstrahlungsquelle wird Übergangsstrahlung verwendet, die vom 855 MeVElektronenstrahl des Mainzer Mikrotrons MAMI beimDurchqueren eines Polyimidfolienstapels emittiert wird. Ausdieser wird mit einem hochorientierten pyrolytischenGraphit-Kristall ein quasimonochromatischer Röntgenstrahlerzeugt mit dem das Untersuchungsobjekt ausgeleuchtet wird.Mit Hilfe einer Richtungsänderung des Elektronenstrahls beisynchronem Verfahren und Drehen des Kristalls, wird an jedemPunkt in der Detektorebene die Energie der Strahlung überein mehrere keV breites Intervall um die K-Absorptionskantedes Kontrastmittels variiert. Die Kontrastmittelverteilungwird durch numerische Analyse der mit jedem Bildpunkt eineszweidimensional orts- und energieauflösenden Detektorsaufgenommenen Intensitätsspektren ermittelt. DiePolychromographie wurde bei einer mittleren Energie desRöntgenstrahls von 20 keV erfolgreich an einem Phantombestehend aus Kupfer- und Molybdänfolien (Kontrastmittel)verschiedener Dicken (Cu: 136, 272 Mikrometer und Mo: 10, 5,2.5 Mikrometer) getestet. Es wurde gezeigt, daß sich dasSignal-zu-Rausch-Verhältnis (SNR) in den rekonstruiertenBildern verbessert, solange sich beim Vergrößern desDurchstimmintervalls die im Intervall enthaltenePhotonenzahl proportional vergrößert. Im Vergleich zurDichromographie liefert die Polychromographie ein um einenFaktor zwei geringeres SNR. Das gleiche SNR wird erreicht,wenn das Absorptionsverhalten des Untersuchungsobjektes,z.B. durch eine Leeraufnahme ermittelt, bei der Analysevorgegeben wird.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.
Resumo:
Der 'gestopfte Hochquarz' ß-Eukryptit (LiAlSiO4) ist bekannt für seine außergewöhnliche anisotrope Li-Ionenleitfähigkeit und die nahe Null liegende thermische Ausdehnung.Untersucht wurde die temperaturabhängige ß-Eukryptit-Phasenabfolge, insbesondere die modulierte Phase. Deren Satellitenreflexe sind gegenüber den normalen Reflexen erheblich verbreitert, überlappen miteinander sowie mit den dazwischen liegenden 'a-Reflexen' zu Tripletts. Für die Separation der Triplett-Intensitäten waren bisherige Standardverfahren zur Beugungsdatensammlung ungeeignet. Mit 'axialen q-Scans' wurde ein neuartiges Verfahren entwickelt. Intensitäten wurden mit dem neu-entwickelten least squares-Programm GKLS aus 2000 Profilen seriell und automatisch gewonnen und erfolgreich auf Standarddaten skaliert. Die Verwendung verbreiterter Reflexprofile erwies sich als zulässig.Die Verbreiterung wurde auf eine verminderte Fernordnung der Modulation von 11 bis 16 Perioden zurückgeführt (Analyse mit der Gitterfunktion), womit ein ungewöhnliches beugungswinkelabhängiges Verhalten der Reflexbreiten korrespondiert und mit typischen Antiphasendomänendurchmessern (andere Autoren) korreliert.Eine verminderte Si-/ Al-Ordnung wird als ursächlich für geringe Domänengrößen und Fernordnung angesehen, sowie für Eigenschaften wie z.B. a/c-Verhältnisse, Ausdehnungskoeffizienten, Ionenleitfähigkeit, Strukturtyp und Umwandlungstemperaturen. Änderungen des SiO2-Gehaltes, der Temperatur oder der Si- /Al-Ordnung zeitigen für einige Eigenschaften ähnliche Wirkungen.Die gemittelte Struktur der modulierten Phase wurde erstmals zuverlässig bestimmt, die Rolle des Li charakterisiert, Zweifel an der hexagonalen Symmetrie des ß-Eukryptits wurden ausgeräumt und die Bestimmung der modulierten Struktur wurde weitgehend vorbereitet.
Resumo:
Die Arbeit befasst sich mit den Änderungen der Resonanzparameter von Schwingquarzen, die durch Kontakte mit festen Körpern an der Oberfläche hervorgerufen werden (Quarz als kontaktmechanische Sonde). Bei Kontakt zwischen (weichen) Gold-Oberflächen tritt ein Peak bei der Dämpfung auf, der mit Reibung in Verbindung gebracht wird.Zur Bestimmung der Resonanzparameter wurde das ring-down Verfahren angewendet, bei dem der Quarzresonator zunächst auf seiner Resonanzfrequenz angeregt wird und dann die frei abklingende Quarzschwingung mit einer exponentiell abfallenden Sinusschwingung angefittet wird. Eine Unterteilung der Abklingkurve in einzelne Segmente liefert bei Kontakt eine amplitudenabhängige Resonanzfrequenz und Abkling-Konstante. Mittels Störungsrechnung wurden daraus explizit nichtlineare Federkraft-Auslenkung und Reibungskraft-Geschwindigkeit Relationen berechnet.Bei Gold-Gold Kontakten zeigt sich ein sublinearer Anstieg der elastischen Kraft mit der Auslenkung, und ein linearer Anstieg der Reibungskraft mit der Geschwindigkeit, der im Gegensatz zu Kontakten zwischen harten und spröden Oberflächen oft erst ab einer kritischen Geschwindigkeit einsetzt. Ist eine Thiol-Monolage in der Kontaktfläche vorhanden, so verringert sich die kritische Geschwindigkeit stark.Das Analyseverfahren wurde weiterhin auf die Untersuchung granularer Medien angewendet, die sich von Festkörpern und Flüssigkeiten durch das Auftreten von Spannungspfaden und Scherinstabilitäten unterscheiden. Dieses Verhalten ist bei kubischen Körnern stärker ausgeprägt als bei Kugeln.
Resumo:
Im Mittelpunkt dieser Arbeit steht Beweis der Existenz- und Eindeutigkeit von Quadraturformeln, die für das Qualokationsverfahren geeignet sind. Letzteres ist ein von Sloan, Wendland und Chandler entwickeltes Verfahren zur numerischen Behandlung von Randintegralgleichungen auf glatten Kurven (allgemeiner: periodische Pseudodifferentialgleichungen). Es erreicht die gleichen Konvergenzordnungen wie das Petrov-Galerkin-Verfahren, wenn man durch den Operator bestimmte Quadraturformeln verwendet. Zunächst werden die hier behandelten Pseudodifferentialoperatoren und das Qualokationsverfahren vorgestellt. Anschließend wird eine Theorie zur Existenz und Eindeutigkeit von Quadraturformeln entwickelt. Ein wesentliches Hilfsmittel hierzu ist die hier bewiesene Verallgemeinerung eines Satzes von Nürnberger über die Existenz und Eindeutigkeit von Quadraturformeln mit positiven Gewichten, die exakt für Tschebyscheff-Räume sind. Es wird schließlich gezeigt, dass es stets eindeutig bestimmte Quadraturformeln gibt, welche die in den Arbeiten von Sloan und Wendland formulierten Bedingungen erfüllen. Desweiteren werden 2-Punkt-Quadraturformeln für so genannte einfache Operatoren bestimmt, mit welchen das Qualokationsverfahren mit einem Testraum von stückweise konstanten Funktionen eine höhere Konvergenzordnung hat. Außerdem wird gezeigt, dass es für nicht-einfache Operatoren im Allgemeinen keine Quadraturformel gibt, mit der die Konvergenzordnung höher als beim Petrov-Galerkin-Verfahren ist. Das letzte Kapitel beinhaltet schließlich numerische Tests mit Operatoren mit konstanten und variablen Koeffizienten, welche die theoretischen Ergebnisse der vorangehenden Kapitel bestätigen.
Resumo:
Die vorliegende Arbeit beschäftigt sich vorwiegend mit Detektionsproblemen, die bei Experimenten zur Chemie der Transactiniden mit dem schnellen Flüssig-Flüssig-Extraktionssystem SISAK auftraten. Bei diesen Experimenten wird als Detektionsmethode die Flüssigszintillationsspektroskopie (LSC) eingesetzt. Es werden Szintillationspulse registriert, die für das verursachende Teilchen charakteristische Formen zeigen, die unterschieden werden müssen. Am Beispiel der Auswertung des SISAK-Experimentes zur Chemie des Rutherfordiums vom November 1998 wurde gezeigt, dass es mit den herkömmlichen Verfahren zur Pulsformdiskriminierung nicht möglich ist, die aus dem Zerfall der Transactiniden stammenden alpha-Ereignisse herauszufiltern. Ursache dafür ist ein hoher Untergrund, der in erster Linie von beta/gamma-Teilchen, Spaltfragmenten und pile ups verursacht wird. Durch die Verfügbarkeit von Transientenrecordern ergeben sich neue Möglichkeiten für eine digitale Pulsformdiskriminierung. In dieser Arbeit wird erstmals die Methode der digitalen Pulsformdiskriminierung mit künstlichen neuronalen Netzen (PSD-NN) vorgestellt. Es wurde im Zuge der Auswertung des SISAK-Experimentes vom Februar 2000 gezeigt, dass neuronale Netze in der Lage sind, Pulsformen automatisch richtig zu klassifizieren. Es ergeben sich nahezu untergrundfreie alpha-Flüssigszintillationsspektren. Es werden Vor- und Nachteile der neuen Methode diskutiert. Es ist dadurch möglich geworden, in SISAK-Experimenten Transactinidenatome anhand ihres Zerfalls eindeutig zu charakterisieren. Das SISAK-System kann somit bei Experimenten zum Studium des chemischen Verhaltens von Transactiniden in flüssiger Phase eingesetzt werden.____
Resumo:
Zusammenfassung Quecksilber kommt in der Natur in seinen vier umweltrelevanten Spezies Hg0, Hg2+, Me2Hg, MeHg+ vor. Die methylierten Spezies wurden dabei in der Vergangenheit aufgrund ihres relativ geringen Anteils am Gesamtquecksilber oft vernachlässigt. Me2Hg und MeHg+ spielen aber eine wichtige Rolle als intermediäre Transportspezies im Quecksilberkreislauf, und eine richtige Analytik dieser Verbindungen ist daher notwendig. Die GC/AFD-Methode (Gaschromatographie/Atomfluoreszenzdetektion) in Verbindung mit einem Purge&Trap-Probenaufgabesystem ermöglicht eine nachweisstarke Analytik dieser Verbindungen in Umweltproben. Dabei müssen die ionischen Quecksilberverbindungen MeHg+ und Hg2+ derivatisiert werden, um sie einer gaschromatographischen Trennung zugänglich zu machen.Das bestehende Verfahren wurde im Rahmen dieser Arbeit mit Hilfe einer alternativen Derivatisierungsmethode verbessert. Das optimierte Verfahren erlaubt auch eine Analyse von MeHg+-Gehalten in Proben mit hoher Chloridbelastung. Solche Proben konnten mit der herkömmlichen Ethylierung als Derivatisierungsmethode nicht analysiert werden, da während der Derivatisierung eine Umwandlung des MeHg+ zu Hg0 auftritt. Bei der Propylierung findet keine solche Transformation statt und sie ist daher eine hervorragende Ergänzung der bestehenden Methode.Die GC/AFD-Methode wurde zur Quecksilberspeziation in der Antarktis als Beispiel für ein anthropogen unbeeinflusstes Gebiet verwendet. Dabei konnten methylierte Quecksilberverbindungen im Meerwasser, in der Atmosphäre und erstmals im antarktischen Schnee nachgewiesen werden und somit die bedeutende Rolle der methylierten Quecksilberspezies am biogeochemischen Stoffkreislauf des Quecksilbers in dieser Region gezeigt werden. Vergleiche mit einer kontinentalen Region zeigten, dass dort MeHg+ und Me2Hg wesentlich weniger produziert bzw. schneller abgebaut werden.
Resumo:
Diese Arbeit untersucht die longitudinale und transversaleStrahldynamik am Mainzer Mikrotron MAMI. Die gemessenen Abbildungseigenschaften werden mit den Design-Rechnungen verglichen. Dadurch konnte die Strahlqualitaet von MAMI B und das Design der neuen HDSM Mikrotronstufe verbessert werden. Es wurde eine Stoerungsrechnung formuliert, um die 6-DAbbildungsmatrix entlang der Beschleunigungsstrecke zu berechnen. Ausgehend von der linearisierten Hamilton Funktion wird die Transfermatrix M in eine unendliche Summe ueber Matrizen M(n) zerlegt, die jeweils eine n-fache Wechselwirkung des Strahls mit dem Quadrupolanteil des Fuehrungsfeldes darstellen. Dank des tieferen Einblicks in die Auswirkung von Feldfehlern konnte damit das Mikrotron-Modell leicht an die gemessenen Transfermatrizen angepasst werden. Ferner wurde die Identifizierung und Korrektur anti-symmetrischer Feldfehler in den Mikrotron-Dipolen untersucht. Es wurde ein Messverfahren entwickelt, um kleine Feldkomponenten in der Bahnebene von der Groessenordnung 10E-3 zu erkennen. Das vorgeschlagene Verfahren wurde mit Hilfe des Simulationsprogramms TOSCA ausgetestet. Schliesslich wurde die Stabilitaet der Longitudinaloptik verbessert. Dadurch konnte eine hochpraezise Energiestabi-lisierung verwirklicht werden. Bei 855 MeV Strahlenergie wird eine Stabilitaet von etwa 10E-6 erreicht.
Resumo:
ZUSAMMENFASSUNG Langzeitbeobachtungsstudien zur Landschaftsdynamik inSahelländern stehen generell einem defizitären Angebot anquantitativen Rauminformationen gegenüber. Der in Malivorgefundene lokal- bis regionalräumliche Datenmangelführte zu einer methodologischen Studie, die die Entwicklungvon Verfahren zur multi-temporalen Erfassung und Analyse vonLandschaftsveränderungsdaten beinhaltet. Für den RaumWestafrika existiert in großer Flächenüberdeckunghistorisches Fernerkundungsmaterial in Form hochauflösenderLuftbilder ab den 50er Jahren und erste erdbeobachtendeSatellitendaten von Landsat-MSS ab den 70er Jahren.Multitemporale Langzeitanalysen verlangen zur digitalenReproduzierbarkeit, zur Datenvergleich- undObjekterfaßbarkeit die a priori-Betrachtung derDatenbeschaffenheit und -qualität. Zwei, ohne verfügbare, noch rekonstruierbareBodenkontrolldaten entwickelte Methodenansätze zeigen nichtnur die Möglichkeiten, sondern auch die Grenzen eindeutigerradiometrischer und morphometrischerBildinformationsgewinnung. Innerhalb desÜberschwemmungsgunstraums des Nigerbinnendeltas im ZentrumMalis stellen sich zwei Teilstudien zur Extraktion vonquantitativen Sahelvegetationsdaten den radiometrischen undatmosphärischen Problemen:1. Präprozessierende Homogenisierung von multitemporalenMSS-Archivdaten mit Simulationen zur Wirksamkeitatmosphärischer und sensorbedingter Effekte2. Entwicklung einer Methode zur semi-automatischenErfassung und Quantifizierung der Dynamik derGehölzbedeckungsdichte auf panchromatischenArchiv-Luftbildern Die erste Teilstudie stellt historischeLandsat-MSS-Satellitenbilddaten für multi-temporale Analysender Landschaftsdynamik als unbrauchbar heraus. In derzweiten Teilstudie wird der eigens, mittelsmorphomathematischer Filteroperationen für die automatischeMusterkennung und Quantifizierung von Sahelgehölzobjektenentwickelte Methodenansatz präsentiert. Abschließend wird die Forderung nach kosten- undzeiteffizienten Methodenstandards hinsichtlich ihrerRepräsentativität für die Langzeitbeobachtung desRessourceninventars semi-arider Räume sowie deroperationellen Transferierbarkeit auf Datenmaterial modernerFernerkundungssensoren diskutiert.
Resumo:
In der vorliegenden Arbeit werden zwei physikalischeFließexperimente an Vliesstoffen untersucht, die dazu dienensollen, unbekannte hydraulische Parameter des Materials, wiez. B. die Diffusivitäts- oder Leitfähigkeitsfunktion, ausMeßdaten zu identifizieren. Die physikalische undmathematische Modellierung dieser Experimente führt auf einCauchy-Dirichlet-Problem mit freiem Rand für die degeneriertparabolische Richardsgleichung in derSättigungsformulierung, das sogenannte direkte Problem. Ausder Kenntnis des freien Randes dieses Problems soll dernichtlineare Diffusivitätskoeffizient derDifferentialgleichung rekonstruiert werden. Für diesesinverse Problem stellen wir einOutput-Least-Squares-Funktional auf und verwenden zu dessenMinimierung iterative Regularisierungsverfahren wie dasLevenberg-Marquardt-Verfahren und die IRGN-Methode basierendauf einer Parametrisierung des Koeffizientenraumes durchquadratische B-Splines. Für das direkte Problem beweisen wirunter anderem Existenz und Eindeutigkeit der Lösung desCauchy-Dirichlet-Problems sowie die Existenz des freienRandes. Anschließend führen wir formal die Ableitung desfreien Randes nach dem Koeffizienten, die wir für dasnumerische Rekonstruktionsverfahren benötigen, auf einlinear degeneriert parabolisches Randwertproblem zurück.Wir erläutern die numerische Umsetzung und Implementierungunseres Rekonstruktionsverfahrens und stellen abschließendRekonstruktionsergebnisse bezüglich synthetischer Daten vor.
Resumo:
Deutsch:Schwerpunkt dieser Arbeit war die Entwicklung einer Methode zur Spurenbestimmung von Silicium in organischen und anorganischen Matrices unter Verwendung der massenspektrometrischen Isotopenverdünnungsanalyse (MSIVA) an einem hochauflösenden induktiv gekoppelten Plasma-Massenspektrometer (HR-ICP-MS). Zusätzlich zur Elementspurenbestimmung wurde eine GC/HR-ICP-MS Kopplung entwickelt, die zur Analyse linearer und cyclischer Siloxane verwendet wurde.Die hier entwickelte Analysenmethode erlaubt Nachweisgrenzen für Silicium sowohl in organischen als auch in anorganischen Matrices im oberen ng/g-Bereich und ergab für die im Rahmen dieser Arbeit analysierten Proben Reproduzierbarkeiten von < 20%. Durch einfache Verdünnung nach der Probenvorbereitung in Verbindung mit dem sehr empfindlichen Detektionsverfahren sowie der internen Standardisierung mittels MSIVA erlaubt das Verfahren eine präzise Bestimmung von Silicium in jeglicher Matrix. Neben der Schnelligkeit und Einfachheit eignet sich die hier entwickelte Methode besonders für die Routineanalytik. Die gute Reproduzierbarkeit und der Vergleich mit Ergebnissen von zwei Interlaborstudien unterstreicht zusätzlich die Fähigkeit präzise und richtige Ergebnisse zur Zertifizierung an Standardreferenzmaterialien bezüglich des Siliciums im Spurenbereich zu liefern.Neben dem Gesamtgehalt von Silicium konnten medizinisch relevante Siliciumverbindungen analysiert und quantifiziert werden. Hierbei wurden niedermolekulare Polydimethlysiloxane (PDMS) untersucht, die als Nebenprodukte vor allem in Brustimplantaten auftreten. Grundlage für die Bestimmung dieser Siliciumspezies ist die Kopplung eines hochauflösenden ICP-MS an einen Gaschromatographen. Der hohe Ionisierungsgrad des ICP, gerade unter trockenen Plasmabedingungen, und der elementspezifische und sehr empfindliche massenspektrometrische Detektor erlauben in Verbindung mit dem GC die Bestimmung von Siloxanen bis in den pg/g-Bereich. Aus der Bestimmung des Gesamtgehalts an Silicium und der Bestimmung des Gehalts an den untersuchten Siliciumverbindungen können Vergleiche gemacht werden. Die Analyse beider Parameter ist mit Hilfe in dieser Arbeit entwickelten Methode möglich.Zusätzlich zur Siliciumbestimmung wurde der Gehalt an Platin in Humanproben analysiert, da bei der Herstellung der Füllung von Siliconimplantaten Platinkatalysatoren verwendet werden.
Resumo:
Die vorliegende Arbeit beschreibt unter anderem die Realisierung eines Assays aus mikrostrukturierten und selektiv funktionalisierten künstlichen Membransegmenten auf einem Chip. Die Strukturierungsmethode kombiniert die softlithographische Technik des Mikroformens in Kapillaren mit der Vesikelspreittechnik und bietet ein elegantes Verfahren, einzeln adressierbare Lipidsegmente im Mikrometer Regime zu erzeugen. Unter Berücksichtigung des hydrodynamischen Fließverhaltens und der Stabilitätskriterien für PDMS-Elastomere wurden außerdem neue Strukturen entwi-ckelt, die für den kombinierten Einsatz von Rasterkraftmikroskopie und Fluoreszenz-mikroskopie optimiert sind. Die Anwendbarkeit des Lab-On-A-Chip-Devices als Bio-sensor wurde durch zwei prominente Protein-Rezeptor-Bindungsstudien fluores-zenzmikroskopisch und rasterkraftmikroskopisch belegt. Im zweiten Teil der Arbeit sind die mechanischen und adhäsiven Eigenschaften aus-gewählter Lipidsysteme mit einer neuen Charakterisierungstechnik untersucht wor-den, die die Kontaktmechanik von Rastersonden und Lipidmembranen auf Basis der Digitalisierung von Hochgeschwindigkeitskraftkurven und einer automatisierten Multi-parameteranalyse quantitativ erfasst. Dabei konnte die Korrelation zwischen der Ad-häsion und den materialspezifischen Durchbruchlängen und Durchbruchkräften, die charakteristische Stabilitätsparameter der Lipidmembran darstellen, auf Systemen mit variierenden Kopfgruppen und Kettenlängen analysiert werden. Das Verfahren erlaubte zudem die simultane Quantifizierung der elastischen Eigenschaften der Li-piddoppelschichten. Zu den Kraftkurven wurden Simulationen der Systemantwort durchgeführt, die ein tieferes Verständnis der Kontrastentstehung ermöglichen.
Resumo:
Zusammenfassung In der vorliegenden Arbeit wurden im Zuge derAjmalinbiosynthese in Rauvolfia serpentina die NADPH2abhängigen Reduktionsschritte des Alkaloids Vomilenin zu 17O Acetylnorajmalin genauer untersucht.Dabei konnte erstmals die exakte Reaktionsreihenfolgeaufgedeckt und die daran beteiligten Enzyme ausPflanzenzellsuspensionskulturen isoliert und aufgereinigtwerden. Die ausgearbeiteten, optimierten Reinigungsprotokolleführten in wenigen Stufen gezielt zu den voneinandergetrennten Reduktase Fraktionen. Durch die Trennung derReduktase Aktivitäten war der Grundstein gelegt, dasZwischenprodukt der Reaktion anzureichern und mitverschiedenen analytischen Verfahren als 2?-(R)-1.2Dihydrovomilenin zu identifizieren. Die daraufhin vergebenenBezeichnungen Vomilenin Reduktase (EC.1.5.1.32) und 1.2Dihydrovomilenin Reduktase (EC.1.3.1.73) zielen auf dasumzusetzende Substrat ab.Für die Vomilenin Reduktase konnte eine 4 stufige Reinigungüber (NH4)2SO4 Fällung, Anionen-austauschchromatographie mitSOURCE 30Q, Hydrophobe Interaktionschromatographie an SOURCE15Phe und Affinitätschromatographie mit 2,5 ADP Sepharoseausgearbeitet werden. Hierbei konnte die 1.2Dihydrovomilenin Reduktase schon nach dem erstensäulenchromatogra-phischen Schritt (S 30Q) abgetrenntwerden. Das am Ende der Proteinreinigung angefertigte SDSGel zeigte nur noch 3 Banden, von denen die beiden bei ca.40 und 43 kDa gelegenen Banden mit dem Aktivitätsverlaufder Vomilenin Reduktase korrelierten. Diese wurden einempartiellen Verdau mit der Endoproteinase LysC unterworfen,wobei jeweils 2 Spaltpeptide erhalten werden konnten.Die 1.2 Dihydrovomilenin Reduktase Reinigung umfaßte 6Reinigungsschritte mit (NH4)2SO4-Fällung, SOURCE 30QAnionenaustauschchromatographie, HydroxylapatitChromatographie, 2,5 ADP Sepharose-Chromatographie,Anionenaustausch an DEAE Sepharose und abschließen-denAnionenaustausch über MonoQ. Die resultierendeProteinfraktion wies eine ca. 200 fache Anreicherung an 1.2Dihydrovomilenin Reduktase auf. Auch hierbei wurde die nachSDS Gelelek-trophorese als 1.2 Dihydrovomilenin Reduktasebestimmte Proteinbande (bei ca. 48 kDa) sequen-ziert. Eskonnten vier Peptidfragmente erhalten werden, die ebenso wiedie sequenzierten Peptidstücke der 40 und 43 kDa Bande einehohe Homologie zu Oxidoreduktasen, im einzelnen zuCinnamoylalcohol- und Mannitol Dehydrogenasen, aufwiesen.Um die Identität der sequenzierten Proteinbanden zubestätigen, wurde über reverse genetics die jeweilscodierende cDNA eruiert. Dafür wurden - ausgehend von denPeptidstücken der Mikro-sequenzierung - degenerierte Primerentwickelt und über PCR Teilbereiche der cDNA amplifiziert.Diese konnten für eine radioaktive Durchmusterung einerRauvolfia cDNA Bank herangezogen werden. Alternativ botallein die Kenntnis der spezifischen Nukleotidabfolge dieMöglichkeit der Gewinnung von 5 und 3 Ende derVollängenklone durch RACE PCR.Nach Abschluß dieser Arbeiten konnten für die 40 und 48 kDaBande je ein Vollängenklon und für die 43 kDa Bande 2Vollängenklone (Isoformen) gefunden werden. SämtlicheVollängenklone besitzen einen offenen Leserahmen, der durchnicht zu translatierende Bereiche am 5 und 3 Endeeingefaßt wird. Um die entsprechenden Proteine produzierenzu können, mußten die dafür codierenden cDNA Bereiche dereinzelnen Klone in ein geeignetes Vektor Wirt-System(Expressionssystem) eingebracht werden.Nach erfolgreicher Umklonierung wurde die Expression durchIPTG Zugabe kontrolliert und Proteinrohextrakte aus denBakterienstämmen isoliert. Als Substrate wurden Vomilenin,das strukturisomere Alkaloid Perakin und aufgrund derHomologien zu Cinnamoylalcohol und Mannitol Dehydrogenasen Zimtaldehyd, Dihydrozimtaldehyd und D(-)Fructose getestet. In allen E. coli Stämmen konnte ein unspezifischesReduktionspotential nachgewiesen werden, ohne daß jedochVomilenin reduziert wurde. Die Testung der 1.2Dihydrovomilenin Reduktase Klone mußte wegen Substratmangelentfallen.Die weitere Charakterisierung der pflanzlichen Enzymeerbrachte eine enorm hohe Substratspezifität mit einer sichauf Rauvolfia beschränkenden taxonomischen Verbreitung.Die Molekulargewichtsbestimmung für die Vomilenin Reduktaseergab nach Größenausschluß-chromatographie an Superdex 75ein Gewicht von etwa 43 kDa. Das ebenfalls über Superdex 75ermittelte Molekulargewicht für die 1.2 DihydrovomileninReduktase lag bei ca. 49.8 kDa. Weiterhin wurde eine Metallionenabhängigkeit für dieVomilenin Reduktase aufgezeigt und die Cofaktorspezifitätsowie die pH und Temperatur Optima für beide Reduktasenbestimmt.
Resumo:
Ziel war die Entwicklung und Erprobung von Varianten des emotionalen Strooptests zur Analyse angstbezogener Aufmerksamkeitsprozesse bei Grundschulkindern. Dabei wurde überprüft, ob dieses kognitiv-experimentelle Verfahren zukünftig als objektives Testverfahren zur Diagnostik von Ängstlichkeit im Kindesalter geeignet ist. Ausgangspunkt waren zahlreiche Befunde für die Gruppe Erwachsener, wonach die Zuwendung auf bedrohliche Situationsmerkmalen für Ängstliche charakteristisch ist. Für das Kindesalter liegen hierzu nur wenige Studien mit zudem inkonsistenten Befundmuster vor. In insgesamt drei Studien wurde der emotionale Strooptest für das Grundschulalter adaptiert, indem Bilder bzw. altersentsprechendes Wortmaterial als Stimuli eingesetzt wurden. An den Studien nahmen nicht-klinische, nicht-ausgelesene Stichproben mit Kindern der zweiten bis vierten Grundschulklassen teil. Sowohl Ängstlichkeit als auch Zustandsangst der Kinder wurden jeweils über Selbst- und Fremdeinschätzungen (Eltern, Klassenlehrer, Versuchsleiter) erhoben. Die Ergebnisse sprechen für eine nur unzureichende Reliabilität emotionaler Interferenzeffekte. Auch ergaben sich (möglichenfalls infolge) keine substantiellen Hinweise auf differentielle angstbezogene Interferenzeffekte. Die Befunde sprechen vielmehr dafür, dass alle Kinder unabhängig von der Ängstlichkeit höhere Benennungszeiten für bedrohliche Stimuli im Vergleich zur Kontrollbedingung mit neutralen oder freundlichen Stimuli zeigten, wobei zugleich methodische Einflussfaktoren des Strooptests von Relevanz waren. Die Diskussion konzentriert sich auf entwicklungspsychologische Überlegungen sowie mögliche Bedingungen emotionaler Interferenzeffekte unter kritischer Berücksichtigung der Reliabilität emotionaler Stroopinterferenz.