697 resultados para Adaptives Verfahren
Resumo:
Ziel der vorliegenden Arbeit war es, Stoffwechseluntersuchungen an Experimentaltumoren von humanen Plattenepithelkarzinomen des Kopf-Hals-Bereiches mit bekannter Strahlenempfindlichkeit durchzuführen. Die Resultate sollten mit dem Genexpressionsniveau glykolyseassoziierter Transportproteine und Enzyme, der Proteinexpression von LDH-A, der Hypoxie und der Strahlenresistenz der Tumoren korreliert werden. Während die Tumorproben und die Daten zum biologischen Strahlenverhalten und zur Charakterisierung der Hypoxie aus Dresden stammen, wurden alle anderen Untersuchungen in Mainz durchgeführt. Ein wichtiges Merkmal der kooperativen Studie bestand darin, dass erstmals die Strahlenresistenz von Experimentaltumoren systematisch in einem klinischen Fraktionierungsschema untersucht wurde. Die lokale Bestimmung der Gewebskonzentrationen der Metabolite ATP, Glukose und Laktat erfolgte mit dem Verfahren der bildgebenden Biolumineszenz. Die Auswertung der Ergebnisse mit Unterstützung von Bildverarbeitungs-Software wurde weiterentwickelt und in wesentlichen Punkten verbessert. Zur Ermittlung des mRNA-Expressionsniveaus der Glykolyseenzyme PFK-L und LDH-A sowie des Glukosetransporters GLUT1 diente die real time RT-PCR-Methode. Ein Kernpunkt des methodischen Teils der vorliegenden Arbeit bildeten die Validierung und Etablierung dieses Verfahrens. Durch die Anwendung dieser Technik war es möglich, eine relative Quantifizierung des Expressionslevels durchzuführen. Die Western Blot-Analyse lieferte Aussagen über den Proteingehalt von LDH-A. Dabei kam ein neues Auswerteverfahren durch Anwendung fluoreszenzmarkierter Antikörper zum Einsatz. Die Ergebnisse zeigten erstmals einen direkten Zusammenhang zwischen dem Laktatgehalt von Tumoren und deren Strahlenresistenz. Es wurde im Vergleich zu früheren klinischen Untersuchungen eine Einstufung in Hoch- und Niedriglaktattumoren vorgenommen und eine signifikante Korrelation innerhalb der Hochlaktattumoren zwischen dem Laktatgehalt und der über Pimonidazol quantifizierten hypoxischen Fraktion festgestellt. Während die PCR Unterschiede in den drei untersuchten Genen auf transkriptioneller Ebene zwischen den sieben untersuchten Tumorlinien erkennen ließ, waren die Western Blot-Ergebnisse nahezu gleich. Da auch die Western Blot-Analysen keine Übereinstimmungen mit dem Laktatgehalt zeigten, kann auch der reine Proteingehalt keine Rolle als aktivitätsbestimmende Größe der Glykolyse spielen. Vielmehr scheinen Aktivierungs- und posttranslationale Prozesse oder auch eine Kombination mehrerer Faktoren eine Rolle zu spielen. Letztlich deuten die Befunde darauf hin, dass die glykolytische Aktivität der untersuchten Tumoren nicht über Transkription und Proteinexpression reguliert wird. Der Zusammenhang zwischen dem Laktatgehalt und der Strahlenresistenz der Tumoren kann von großer klinischer Bedeutung sein, da ein klinisch relevantes Fraktionierungsschema bei der Bestrahlung angewandt wurde. Unsere Ergebnisse bestätigen die Arbeitshypothese, dass ein hoher glykolytischer Flux mit einer hohen Umsatzrate an Metaboliten mit Radikalfängerfunktion, wie Pyruvat, einhergeht, die den Tumoren eine Radioresistenz verleihen. Der Laktatgehalt von Biopsien als Marker für die Strahlenresistenz könnte in Zukunft zu einer der Radiotherapie vorangehenden Patientenselektion herangezogen werden, um die Therapie- und insbesondere Dosisplanung in der Onkologie zu unterstützen.
Resumo:
The subject of this thesis is in the area of Applied Mathematics known as Inverse Problems. Inverse problems are those where a set of measured data is analysed in order to get as much information as possible on a model which is assumed to represent a system in the real world. We study two inverse problems in the fields of classical and quantum physics: QCD condensates from tau-decay data and the inverse conductivity problem. Despite a concentrated effort by physicists extending over many years, an understanding of QCD from first principles continues to be elusive. Fortunately, data continues to appear which provide a rather direct probe of the inner workings of the strong interactions. We use a functional method which allows us to extract within rather general assumptions phenomenological parameters of QCD (the condensates) from a comparison of the time-like experimental data with asymptotic space-like results from theory. The price to be paid for the generality of assumptions is relatively large errors in the values of the extracted parameters. Although we do not claim that our method is superior to other approaches, we hope that our results lend additional confidence to the numerical results obtained with the help of methods based on QCD sum rules. EIT is a technology developed to image the electrical conductivity distribution of a conductive medium. The technique works by performing simultaneous measurements of direct or alternating electric currents and voltages on the boundary of an object. These are the data used by an image reconstruction algorithm to determine the electrical conductivity distribution within the object. In this thesis, two approaches of EIT image reconstruction are proposed. The first is based on reformulating the inverse problem in terms of integral equations. This method uses only a single set of measurements for the reconstruction. The second approach is an algorithm based on linearisation which uses more then one set of measurements. A promising result is that one can qualitatively reconstruct the conductivity inside the cross-section of a human chest. Even though the human volunteer is neither two-dimensional nor circular, such reconstructions can be useful in medical applications: monitoring for lung problems such as accumulating fluid or a collapsed lung and noninvasive monitoring of heart function and blood flow.
Resumo:
Einer der Hauptschwerpunkte der Arbeit lag in der Entwicklung einer spezies-spezifischen und einer spezies-unspezifischen GC-ICP-Q-MSIVA von Schwefelspezies in Petroprodukten. Es wurden hierzu Indikatoren, ausgehend von elementarem 34S-angereichertem Schwefel, im Mikromaßstab synthetisiert. Für die spezies-spezifische GC-ICP-Q-MSIVA wurde die erstmalige Synthese von 34S-markiertem Thiophen, Dibenzothiophen und 4-Methyldibenzothiophen verwirklicht. Als Indikatorsynthese für die spezies-unspezifische GC-ICP-Q-MSIVA erfolgte die erstmalige Darstellung von 34S-angereichertem Dimethyldisulid. Mit Hilfe der synthetisierten Verbindungen wurden spezies-spezifische und spezies-unspezifische massenspektrometrische Isotopenverdünnungsanalysen von Schwefelspezies in Petroprodukten durchgeführt. Vor allen GC-ICP-Q-MSIVA-Analysen erfolgte eine umfangreiche Speziesidentifizierung durch Aufstockexperimente mit kommerziell erhältlichen Standards und mit einem mit der GC gekoppelten Elektronenstoß (EI)-MS. Beide ICP-Q-MS Methoden zeichnen sich durch sehr niedrige Nachweisgrenzen (7 ng S/g) aus, welche auch eine Anwendbarkeit auf tiefentschwefelte Kraftstoffe garantieren. Mit der spezies-unspezifischen GC-ICP-Q-MSIVA ist neben einer Speziesanalyse auch eine Gesamtschwefelanalyse durch Aufsummierung aller in der Probe vorhandenen Spezies möglich. Es wurde im Rahmen dieser Arbeit auch der Einfluss möglicher Empfindlichkeitsänderungen des ICP-Q-MS durch koeluierende Kohlenwasserstoffe überprüft, wobei diese erwartungsgemäß auf das Ergebnis der spezies-spezifischen und spezies-unspezifischen GC-ICP-Q-MSIVA keinerlei Einfluss haben. Der zweite Hauptschwerpunkt der Arbeit lag auf der Ausarbeitung routinefähiger, schneller und zuverlässiger Methoden zur Gesamtelementspurenanalytik von Schwefel und Schwermetallen in Erdölen und Petroprodukten. Für die Gesamtschwefelanalyse wurde eine MSIVA nach thermaler Verdampfung mit 34S-markierten Dibenzothiophen als Indikator entwickelt. Die neu entwickelte Methode erlaubt eine sehr schnelle Bestimmung des Gesamtschwefelgehalts, wobei die eigentliche Messung des Isotopenverhältnisses innerhalb von Sekunden nach der Injektion der Probe erfolgt. Weiterhin zeichnet sich die Methode durch Robustheit und eine niedrige Nachweisgrenze (40 ng S/g) aus. Für die Analyse von Schwermetallen wurden erstmals Möglichkeiten einer direkten MSIVA von Erdölproben ohne zeitraubenden, kontaminationsträchtigen Aufschluss bzw. die schwierige Erzeugung einer Mikroemulsion zwischen hydrophober Probe und wässrigem Indikator entwickelt. Um eine homogene Verteilung des Indikators in der hydrophoben Probe zu ermöglichen, musste ausgehend von den zur Verfügung stehenden wässrigen Indikatorlösungen, eine Überführung des Indikators in ein organisches Lösungsmittel erfolgen. Hierzu wurde der jeweilige Metallindikator unter Komplexierung aus wässrigen Metallindikatorlösungen extrahiert. Für die Analyse der mit diesen Indikatorlösungen in organischer Phase versetzten Proben wurden zwei alternative Methoden ausgearbeitet. Bei der mit der Laserablation (LA) kombinierten ICP-SF-MSIVA wird die isotopenverdünnte Probe aus einer eigens für diesen Zweck entwickelten Probenhalterung ablatiert und so dem ICP-SF-MS zugeführt wird. Bei zeitlich sich verändernden Intensitäten der gemessenen Isotope werden aber reproduzierbare und konstante Isotopenverhältnisse erhalten. Im Falle einer homogenen Verteilung der Metallspuren wurde eine hervorragende Übereinstimmung mit Vergleichsmethoden und einem Referenzmaterial festgestellt. Im Falle einer heterogenen partikulären Verteilung der Metallspuren, wie sie z.B. bei Eisenspuren in den Erdölen vorlag, ist die Anwendbarkeit der LA-ICP-SF-MSIVA aufgrund des kleinen Probenvolumens (20 µL) jedoch begrenzt. Als Alternative zur LA-ICP-SF-MSIVA wurde ein System unter Verwendung der Fließinjektion für die Zuführung der isotopenverdünnten Probe zum ICP-SF-MS ausgearbeitet. Die isotopenverdünnte Probe wird hierbei in einen Eluentenstrom von Toluol injiziert und mit Hilfe einer Total-Consumption-Zerstäuber/Sprühkammer-Einheit vollständig bei einer Flussrate von 10 µL/min in das Plasma eingebracht. Neben einer nochmaligen Verkürzung der Analysenzeit und Vereinfachung der Probenvorbereitung bietet diese Methode zusätzlich stark verbesserte Nachweisgrenzen (z.B. Ni 0,9 ng/g). Leider sind mit diesem Verfahren bis jetzt nur Ni und Mo zuverlässig bestimmbar. Das in dieser Arbeit ausgearbeitete Methodenpaket erlaubt erstmals eine breite Einführung der ICP-MSIVA als zuverlässige Methode in die Routineanalytik der Petroindustrie. Durch die bewiesene Zuverlässigkeit, den geringen Zeitaufwand und die Robustheit der Methoden steht ihrem routinemäßigen Einsatz, außer einer weitergehenderen Automatisierung einzelner Verfahrensteile, prinzipiell nichts entgegen.
Resumo:
Die DNA stellt aufgrund der genetischen Krankheitsursache nach wie vor ein überaus attraktives Target für das Design antitumoraktiver Zytostatika dar. Ein wesentlicher Schwerpunkt der heutigen Forschung besteht vor allem in der Entwicklung niedermolekularer, sequenzspezifischer DNA-Liganden zur gezielten Ausschaltung defekter Gene. Im Rahmen dieser Arbeit erfolgte daher in Anlehnung an die antitumoral wirksame Leitsubstanz Netropsin - ein AT-selektiver Minor Groove Binder mit Bispyrrolcarboxamid-Grundstruktur - erstmals der systematische Aufbau einer neuen Serie bioisosterer Hybridmoleküle, bestehend aus einem interkalierenden Strukturelement (Acridon, Naphthalimid, 5-Nitronaphthalimid, Anthrachinon, 11H-Pyrido[2,3-a]carbazol) und Thiophenpyrrol-, Imidazolpyrrol-, Thiazolpyrrol- bzw. Bisimidazolcarboxamid als rinnenbindende Oligoamid-Einheit (sog. Combilexine). Die chromophoren Systeme am N-Terminus wurden hierbei über aliphatische Linker variabler Kettenlänge mit der Carboxamid-Kette verknüpft. Als C-terminale Funktion kam sowohl die N,N-Dimethyl-1,3-diaminopropan- als auch die um ein C-Atom kürzere Dimethylaminoethylamin-Seitenkette zum Einsatz. Unter Verwendung modernster Reagenzien aus der Peptidkupplungschemie ist es gelungen, ein präparativ gut zugängliches, reproduzierbares Verfahren zur Synthese dieser bioisosteren Combilexine zu entwickeln. Anhand biophysikalischer/biochemischer, zellbiologischer und physikochemischer (1H-NMR-spektroskopischer und röntgenstrukturanalytischer) Methoden sowie Molecular Modelling Studien wurden erstmals bezüglich der DNA-Bindung, der Topoisomerase-Hemmung und der Antitumor-Zellzytotoxizität in einem breiten Rahmen vororientierende Struktur-Wirkungsbeziehungen an bioisosteren Liganden erstellt. Wenngleich zwischen den in vitro und in silico ermittelten Befunden keine konkreten Gesetzmäßigkeiten zu erkennen waren, so ließ die Summation der Ergebnisse dennoch darauf schließen, dass es sich bei den Naphthalimidpropion- und Acridonbuttersäure-Derivaten mit C-terminaler Propylendiamin-Funktion um die aussichtsreichsten Kandidaten in Bezug auf die DNA-Affinität bzw. Zytotoxizität handelte.
Resumo:
In dieser Arbeit wurde die elektromagnetische Pionproduktion unter der Annahme der Isospinsymmetrie der starken Wechselwirkung im Rahmen der manifest Lorentz-invarianten chiralen Störungstheorie in einer Einschleifenrechnung bis zur Ordnung vier untersucht. Dazu wurden auf der Grundlage des Mathematica-Pakets FeynCalc Algorithmen zur Berechnung der Pionproduktionsamplitude entwickelt. Bis einschließlich der Ordnung vier tragen insgesamt 105 Feynmandiagramme bei, die sich in 20 Baumdiagramme und 85 Schleifendiagramme unterteilen lassen. Von den 20 Baumdiagrammen wiederum sind 16 als Polterme und vier als Kontaktgraphen zu klassifizieren; bei den Schleifendiagrammen tragen 50 Diagramme ab der dritten Ordnung und 35 Diagramme ab der vierten Ordnung bei. In der Einphotonaustauschnäherung lässt sich die Pionproduktionsamplitude als ein Produkt des Polarisationsvektors des (virtuellen) Photons und des Übergangsstrommatrixelements parametrisieren, wobei letzteres alle Abhängigkeiten der starken Wechselwirkung beinhaltet und wo somit die chirale Störungstheorie ihren Eingang findet. Der Polarisationsvektor hingegen hängt von dem leptonischen Vertex und dem Photonpropagator ab und ist aus der QED bekannt. Weiterhin lässt sich das Übergangsstrommatrixelement in sechs eichinvariante Amplituden zerlegen, die sich im Rahmen der Isospinsymmetrie jeweils wiederum in drei Isospinamplituden zerlegen lassen. Linearkombinationen dieser Isospinamplituden erlauben letztlich die Beschreibung der physikalischen Amplituden. Die in dieser Rechnung auftretenden Einschleifenintegrale wurden numerisch mittels des Programms LoopTools berechnet. Im Fall tensorieller Integrale erfolgte zunächst eine Zerlegung gemäß der Methode von Passarino und Veltman. Da die somit erhaltenen Ergebnisse jedoch i.a. noch nicht das chirale Zählschema erfüllen, wurde die entsprechende Renormierung mittels der reformulierten Infrarotregularisierung vorgenommen. Zu diesem Zweck wurde ein Verfahren entwickelt, welches die Abzugsterme automatisiert bestimmt. Die schließlich erhaltenen Isospinamplituden wurden in das Programm MAID eingebaut. In diesem Programm wurden als Test (Ergebnisse bis Ordnung drei) die s-Wellenmultipole E_{0+} und L_{0+} in der Schwellenregion berechnet. Die Ergebnisse wurden sowohl mit Messdaten als auch mit den Resultaten des "klassischen" MAID verglichen, wobei sich i. a. gute Übereinstimmungen im Rahmen der Fehler ergaben.
Resumo:
In dieser Arbeit werden Quantum-Hydrodynamische (QHD) Modelle betrachtet, die ihren Einsatz besonders in der Modellierung von Halbleiterbauteilen finden. Das QHD Modell besteht aus den Erhaltungsgleichungen für die Teilchendichte, das Momentum und die Energiedichte, inklusive der Quanten-Korrekturen durch das Bohmsche Potential. Zu Beginn wird eine Übersicht über die bekannten Ergebnisse der QHD Modelle unter Vernachlässigung von Kollisionseffekten gegeben, die aus einem Schrödinger-System für den gemischten-Zustand oder aus der Wigner-Gleichung hergeleitet werden können. Nach der Reformulierung der eindimensionalen QHD Gleichungen mit linearem Potential als stationäre Schrödinger-Gleichung werden die semianalytischen Fassungen der QHD Gleichungen für die Gleichspannungs-Kurve betrachtet. Weiterhin werden die viskosen Stabilisierungen des QHD Modells berücksichtigt, sowie die von Gardner vorgeschlagene numerische Viskosität für das {sf upwind} Finite-Differenzen Schema berechnet. Im Weiteren wird das viskose QHD Modell aus der Wigner-Gleichung mit Fokker-Planck Kollisions-Operator hergeleitet. Dieses Modell enthält die physikalische Viskosität, die durch den Kollision-Operator eingeführt wird. Die Existenz der Lösungen (mit strikt positiver Teilchendichte) für das isotherme, stationäre, eindimensionale, viskose Modell für allgemeine Daten und nichthomogene Randbedingungen wird gezeigt. Die dafür notwendigen Abschätzungen hängen von der Viskosität ab und erlauben daher den Grenzübergang zum nicht-viskosen Fall nicht. Numerische Simulationen der Resonanz-Tunneldiode modelliert mit dem nichtisothermen, stationären, eindimensionalen, viskosen QHD Modell zeigen den Einfluss der Viskosität auf die Lösung. Unter Verwendung des von Degond und Ringhofer entwickelten Quanten-Entropie-Minimierungs-Verfahren werden die allgemeinen QHD-Gleichungen aus der Wigner-Boltzmann-Gleichung mit dem BGK-Kollisions-Operator hergeleitet. Die Herleitung basiert auf der vorsichtige Entwicklung des Quanten-Maxwellians in Potenzen der skalierten Plankschen Konstante. Das so erhaltene Modell enthält auch vertex-Terme und dispersive Terme für die Geschwindigkeit. Dadurch bleibt die Gleichspannungs-Kurve für die Resonanz-Tunneldiode unter Verwendung des allgemeinen QHD Modells in einer Dimension numerisch erhalten. Die Ergebnisse zeigen, dass der dispersive Geschwindigkeits-Term die Lösung des Systems stabilisiert.
Resumo:
ABSTRACT Corundum is one of the most famous gems materials. Different heat treatment methods for enhancement purposes are commonly applied and accepted in the gem market. With this reason, the identification of the natural, unheated corundum is intensively investigated. In this study, aluminium hydroxide minerals and zircon are focused to observe the crystallization and phase change of these minerals during heat treatment procedures. Aluminium hydroxide minerals can be transformed to alumina with the corundum structure by heating. The reaction history of aluminium hydroxide minerals containing corundum was investigated comparing it with diaspore, boehmite, gibbsite and bayerite by TG and DTA methods. These hydroxide minerals were entirely transformed to corundum after heating at 600°C. Zircon inclusions in corundums from Ilakaka, Madagascar, were investigated for the influence of different heat-treatment temperatures on the recovery of their crystalline structure and on possible reactions within and with the host crystals. The host corundum was heated at 500, 800, 1000, 1200, 1400, 1600 and 1800°C. The crystallinity, the trapped pressure, and the decomposition of the zircon inclusions within the host corundum have been investigated by Raman spectroscopy. Radiation-damaged zircon inclusions may be used as an indicator for unheated Ilakaka corundum crystals. They are fully recrystallized after heating at 1000°C influencing the lowering of the 3 Raman band shift, the decreasing of FWHM of the 3 Raman band and the decreasing of the trapped pressure between the inclusion and the host corundum. Under microscopic observation, surface alterations of the inclusions can be firstly seen from transparent into frosted-like appearance at 1400°C. Then, between 1600°C and 1800 °C, the inclusion becomes partly or even completely molten. The decomposition of the zircon inclusion to m-ZrO2 and SiO2-glass phases begins at the rim of the inclusion after heating from 1200°C to 1600°C which can be detected by the surface change, the increase of the 3 Raman band position and the trapped pressure. At 1800°C, the zircon inclusions entirely melt transforming to solid phases during cooling like m-ZrO2 and SiO2-glass accompanied by an increase of pressure between the transformed inclusion and its host.
Resumo:
Die chronisch obstruktive Lungenerkrankung (engl. chronic obstructive pulmonary disease, COPD) ist ein Überbegriff für Erkrankungen, die zu Husten, Auswurf und Dyspnoe (Atemnot) in Ruhe oder Belastung führen - zu diesen werden die chronische Bronchitis und das Lungenemphysem gezählt. Das Fortschreiten der COPD ist eng verknüpft mit der Zunahme des Volumens der Wände kleiner Luftwege (Bronchien). Die hochauflösende Computertomographie (CT) gilt bei der Untersuchung der Morphologie der Lunge als Goldstandard (beste und zuverlässigste Methode in der Diagnostik). Möchte man Bronchien, eine in Annäherung tubuläre Struktur, in CT-Bildern vermessen, so stellt die geringe Größe der Bronchien im Vergleich zum Auflösungsvermögen eines klinischen Computertomographen ein großes Problem dar. In dieser Arbeit wird gezeigt wie aus konventionellen Röntgenaufnahmen CT-Bilder berechnet werden, wo die mathematischen und physikalischen Fehlerquellen im Bildentstehungsprozess liegen und wie man ein CT-System mittels Interpretation als lineares verschiebungsinvariantes System (engl. linear shift invariant systems, LSI System) mathematisch greifbar macht. Basierend auf der linearen Systemtheorie werden Möglichkeiten zur Beschreibung des Auflösungsvermögens bildgebender Verfahren hergeleitet. Es wird gezeigt wie man den Tracheobronchialbaum aus einem CT-Datensatz stabil segmentiert und mittels eines topologieerhaltenden 3-dimensionalen Skelettierungsalgorithmus in eine Skelettdarstellung und anschließend in einen kreisfreien Graphen überführt. Basierend auf der linearen System Theorie wird eine neue, vielversprechende, integral-basierte Methodik (IBM) zum Vermessen kleiner Strukturen in CT-Bildern vorgestellt. Zum Validieren der IBM-Resultate wurden verschiedene Messungen an einem Phantom, bestehend aus 10 unterschiedlichen Silikon Schläuchen, durchgeführt. Mit Hilfe der Skelett- und Graphendarstellung ist ein Vermessen des kompletten segmentierten Tracheobronchialbaums im 3-dimensionalen Raum möglich. Für 8 zweifach gescannte Schweine konnte eine gute Reproduzierbarkeit der IBM-Resultate nachgewiesen werden. In einer weiteren, mit IBM durchgeführten Studie konnte gezeigt werden, dass die durchschnittliche prozentuale Bronchialwandstärke in CT-Datensätzen von 16 Rauchern signifikant höher ist, als in Datensätzen von 15 Nichtrauchern. IBM läßt sich möglicherweise auch für Wanddickenbestimmungen bei Problemstellungen aus anderen Arbeitsgebieten benutzen - kann zumindest als Ideengeber dienen. Ein Artikel mit der Beschreibung der entwickelten Methodik und der damit erzielten Studienergebnisse wurde zur Publikation im Journal IEEE Transactions on Medical Imaging angenommen.
Resumo:
Die Elementmassenspektrometrie wurde in den letzten Jahren sehr erfolgreich zur Aufklärung verschiedener Fragestellungen in der Bioanalytik eingesetzt. Hierbei spielen vor allem Kopplungstechniken von Trennmethoden wie der Flüssigchromatographie (LC) oder der Kapillarelektrophorese (CE) mit der induktiv gekoppelten Plasma-Massenspektrometrie (ICP-MS) als Multielementdetektor mit hervorragenden Quantifizierungseigenschaften eine entscheidende Rolle bei der Untersuchung von Biopolymeren und deren Wechselwirkung mit verschiedenen Metallen. So wurden beispielsweise verschiedene Methoden für die Trennung und Detektion von Metalloproteinen oder DNA-Metall-Addukten in unterschiedlichen Probenmaterialien entwickelt. Die traditionelle und leistungsstärkste Trennmethode für Biopolymere aller Art, die Gelelektrophorese, wurde jedoch bislang nicht in einem Online-Verfahren an die ICP-MS gekoppelt, um solche Fragestellungen zu bearbeiten. Verschiedene Versuche auf der Basis der Laserablation wurden in diese Richtung unternommen, wobei diese Techniken als sehr umständlich und zeitaufwändig anzusehen sind. In dieser Arbeit wird erstmals die technische Realisierung einer Online-Kopplung der Gelelektrophorese mit der ICP-MS beschrieben. Das System basiert auf einem Prinzip aus der präparativen Gelelektrophorese, in welcher eine kontinuierliche Elution der getrennten Komponenten aus dem Gel während der laufenden Elektrophorese durchgeführt wird. Die eluierten Komponenten werden mit dem Elutionspuffer direkt in das Zerstäubersystem des ICP-MS geführt. Die ersten Untersuchungen wurden am Beispiel der Fragemente von doppelsträngiger DNA (dsDNA) durchgeführt. Kommerziell erhältliche Standardlösungen wurden mit der Online-GE-ICP-MS mittels Detektion von 31P an einem hochauflösenden Massenspektrometer mit einer Massenauflösung von 4000 analysiert. Die Trennbedingungen (z.B. pH-Wert oder Ionenstärke der Pufferlösungen) wurden für die Trennung von dsDNA-Fragementen in Agarosegelen optimiert und auf verschiedene dsDNA-Fragmente angewandt. In einem nächsten Schritt wurden die Quantifizierungsmöglichkeiten für Biopolymere untersucht. Sehr kleine Mengen an dsDNA konnten mit einer Präzision von weniger als 3% quantifiziert werden. Hierfür kamen verschiedene Möglichkeiten der externen Kalibration zum Einsatz, wie der Kalibration mit einem Phosphat-Standard oder einem kommerziell erhältlichen quantitativen dsDNA-Standard. Um das Potenzial der entwickelten Methode für die Untersuchung von Biopolymer-Metall-Wechselwirkungen zu demonstrieren, wurden Oligonukleotide mit Cisplatin unter physiologischen Bedingungen inkubiert und die Reaktionsprodukte mit der Online-GE-ICP-MS mittels 31P- und 195Pt-Detektion untersucht. Verschiedene Cisplatin-Oligonukleotid-Addukte konnten auf diese Weise beobachtet werden, was zur Identifizierung die Anwendung der MALDI-TOF-MS als komplementärer Form der Massenspektrometrie notwendig machte. Abschließend wurde die Isotopenverdünnungsanalyse zum Zweck der Quantifizierung herangezogen.
Resumo:
The use of Magnetic Resonance Imaging (MRI) as a diagnostic tool is increasingly employing functional contrast agents to study or contrast entire mechanisms. Contrast agents in MRI can be classified in two categories. One type of contrast agents alters the NMR signal of the protons in its surrounding, e.g. lowers the T1 relaxation time. The other type enhances the Nuclear Magnetic Resonance (NMR) signal of specific nuclei. For hyperpolarized gases the NMR signal is improved up to several orders of magnitude. However, gases have a high diffusivity which strongly influences the NMR signal strength, hence the resolution and appearance of the images. The most interesting question in spatially resolved experiments is of course the achievable resolution and contrast by controlling the diffusivity of the gas. The influence of such diffusive processes scales with the diffusion coefficient, the strength of the magnetic field gradients and the timings used in the experiment. Diffusion may not only limit the MRI resolution, but also distort the line shape of MR images for samples, which contain boundaries or diffusion barriers within the sampled space. In addition, due to the large polarization in gaseous 3He and 129Xe, spin diffusion (different from particle diffusion) could play a role in MRI experiments. It is demonstrated that for low temperatures some corrections to the NMR measured diffusion coefficient have to be done, which depend on quantum exchange effects for indistinguishable particles. Physically, if these effects can not change the spin current, they can do it indirectly by modifying the velocity distribution of the different spin states separately, so that the subsequent collisions between atoms and therefore the diffusion coefficient can eventually be affected. A detailed study of the hyperpolarized gas diffusion coefficient is presented, demonstrating the absence of spin diffusion (different from particle diffusion) influence in MRI at clinical conditions. A novel procedure is proposed to control the diffusion coefficient of gases in MRI by admixture of inert buffer gases. The experimental measured diffusion agrees with theoretical simulations. Therefore, the molecular mass and concentration enter as additional parameters into the equations that describe structural contrast. This allows for setting a structural threshold up to which structures contribute to the image. For MRI of the lung this allows for images of very small structural elements (alveoli) only, or in the other extreme, all airways can be displayed with minimal signal loss due to diffusion.
Resumo:
In der hier vorliegenden Arbeit wurde am Beispiel der Kraut- und Knollenfäule an Kartoffeln Phytophthora infestans und des Kartoffelkäfers Leptinotarsa decemlineata untersucht, ob durch den Einsatz von Geographischen Informationssystemen (GIS) landwirtschaftliche Schader¬reger¬prognosen für jeden beliebigen Kartoffelschlag in Deutschland erstellt werden können. Um dieses Ziel zu erreichen, wurden die Eingangsparameter (Temperatur und relative Luftfeuchte) der Prognosemodelle für die beiden Schaderreger (SIMLEP1, SIMPHYT1, SIMPHYT3 and SIMBLIGHT1) so aufbereitet, dass Wetterdaten flächendeckend für Deutschland zur Verfügung standen. Bevor jedoch interpoliert werden konnte, wurde eine Regionalisierung von Deutschland in Interpolationszonen durchgeführt und somit Naturräume geschaffen, die einen Vergleich und eine Bewertung der in ihnen liegenden Wetterstationen zulassen. Hierzu wurden die Boden-Klima-Regionen von SCHULZKE und KAULE (2000) modifiziert, an das Wetterstationsnetz angepasst und mit 5 bis 10 km breiten Pufferzonen an der Grenze der Interpolationszonen versehen, um die Wetterstationen so häufig wie möglich verwenden zu können. Für die Interpolation der Wetterdaten wurde das Verfahren der multiplen Regression gewählt, weil dieses im Vergleich zu anderen Verfahren die geringsten Abweichungen zwischen interpolierten und gemessenen Daten aufwies und den technischen Anforderungen am besten entsprach. Für 99 % aller Werte konnten bei der Temperaturberechnung Abweichungen in einem Bereich zwischen -2,5 und 2,5 °C erzielt werden. Bei der Berechnung der relativen Luftfeuchte wurden Abweichungen zwischen -12 und 10 % relativer Luftfeuchte erreicht. Die Mittelwerte der Abweichungen lagen bei der Temperatur bei 0,1 °C und bei der relativen Luftfeuchte bei -1,8 %. Zur Überprüfung der Trefferquoten der Modelle beim Betrieb mit interpolierten Wetterdaten wurden Felderhebungsdaten aus den Jahren 2000 bis 2007 zum Erstauftreten der Kraut- und Knollenfäule sowie des Kartoffelkäfers verwendet. Dabei konnten mit interpolierten Wetterdaten die gleichen und auch höhere Trefferquoten erreicht werden, als mit der bisherigen Berechnungsmethode. Beispielsweise erzielte die Berechnung des Erstauftretens von P. infestans durch das Modell SIMBLIGHT1 mit interpolierten Wetterdaten im Schnitt drei Tage geringere Abweichungen im Vergleich zu den Berechnungen ohne GIS. Um die Auswirkungen interpretieren zu können, die durch Abweichungen der Temperatur und der relativen Luftfeuchte entstanden wurde zusätzlich eine Sensitivitätsanalyse zur Temperatur und relativen Luftfeuchte der verwendeten Prognosemodelle durchgeführt. Die Temperatur hatte bei allen Modellen nur einen geringen Einfluss auf das Prognoseergebnis. Veränderungen der relativen Luftfeuchte haben sich dagegen deutlich stärker ausgewirkt. So lag bei SIMBLIGHT1 die Abweichung durch eine stündliche Veränderung der relativen Luftfeuchte (± 6 %) bei maximal 27 Tagen, wogegen stündliche Veränderungen der Temperatur (± 2 °C) eine Abweichung von maximal 10 Tagen ausmachten. Die Ergebnisse dieser Arbeit zeigen, dass durch die Verwendung von GIS mindestens die gleichen und auch höhere Trefferquoten bei Schaderregerprognosen erzielt werden als mit der bisherigen Verwendung von Daten einer nahegelegenen Wetterstation. Die Ergebnisse stellen einen wesentlichen Fortschritt für die landwirtschaftlichen Schaderregerprognosen dar. Erstmals ist es möglich, bundesweite Prognosen für jeden beliebigen Kartoffelschlag zur Bekämpfung von Schädlingen in der Landwirtschaft bereit zu stellen.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Alkohol und Schläfrigkeit sind die wichtigsten fahrerbezogenen Faktoren bei der Entstehung von Autounfällen. Bislang gibt es relativ wenige konkrete Erkenntnisse über die schläfrigkeitsfördernde Wirkung von Alkohol. Mit der vorliegenden Arbeit sollte erstmals eine quantitative und objektive Analyse der (Tages-)Schläfrigkeit unter Alkoholeinfluss während der gesamten Alkoholumsetzungskurve erstellt werden. Mit dem pupillographischen Schläfrigkeitstest (PST) steht ein Verfahren zur Verfügung, mit dem es möglich ist, Schläfrigkeit unter Alkoholeinfluss quantitativ zu bestimmen. Diese Methode beruht auf der Vermessung der Pupille, deren Durchmesser der efferenten sympathischen Steuerung unterliegt. Bei zunehmender Schläfrigkeit lässt der sympathische Einfluss auf die Pupillenweite nach und es kommt zu typischen Oszillationen der Pupille. Diese Oszillationen, sogenannte „Fatigue Waves“, werden in einem ruhigen, abgedunkelten Raum mittels Infrarotkamera über 11 Minuten kontinuierlich aufgezeichnet und als Pupillen-Unruhe-Index (PUI) in mm / min ausgegeben. Für diesen Wert existieren Normwerte, welche eine Einteilung der PUI-Werte in „normal“, „erhöht“ und „pathologisch“ ermöglichen. Es wurde ein standardisiertes Kollektiv von 53 Probanden zwischen 20 und 60 Jahren untersucht. Dieses bestand aus 28 Männern und 25 Frauen. Die Probanden wurden wahlweise mit Bier oder Wein stufenweise unter Blutalkohohol-konzentrationen von annähernd 0,3, 0,5 und 0,8 ‰ gesetzt, die genaue BAK wurde jeweils durch Gaschromatographie und ADH-Methode bestimmt. Während dieser Anflutungsphase wurde bei jeder der drei Stufen die Schläfrigkeit bestimmt. Dies geschah zum einen mittels objektivem PST und zum anderen durch die subjektive Stanford Sleepiness Scale (SSS), eine siebenstufige Skala zur Einschätzung der eigenen Schläfrigkeit. In der Eliminationsphase der Alkoholumsetzungskurve wurde wiederum bei 0,5 und 0,3 ‰ sowohl die subjektive als auch die objektive Schläfrigkeit gemessen. Eine Kontrollgruppe von 11 Probanden aus dem genannten Kollektiv wurde zu einem späteren Zeitpunkt unter gleichen Bedingungen ohne Alkoholeinfluss untersucht. Im Ergebnis zeigte die Anflutungsphase zunächst ein signifikantes Absinken des PUI um 5,9 %, gleichbedeutend mit einer höheren Vigilanz. Im weiteren Verlauf war das Maximum der Schläfrigkeit in der Eliminationsphase bei einer verhältnismäßig geringen BAK von durchschnittlich 0,54 ‰ zu beobachten. Der PUI hatte sich im Vergleich zum Ausgangswert um durchschnittlich 17,4 % erhöht und 40,4 % der Probanden wiesen erhöhte oder pathologische Schläfrigkeitswerte auf. Dieser Anteil lag um hochsignifikante 110 % höher als bei der Ausgangsmessung. Insgesamt ließ sich keine Korrelation zwischen objektiver und subjektiver Schläfrigkeit feststellen, obwohl auch die subjektive Schläfrigkeit stieg. Das Maximum der subjektiven Schläfrigkeit fiel zusammen mit dem Maximum der Alkoholisierung von 0,8 ‰. Wirkung auf das Ausmaß der Schläfrigkeit hatten die Häufigkeit des Alkoholkonsums, der Body-Mass-Index (BMI) und das Geschlecht. Je häufiger die Probanden nach eigenen Angaben Alkohol tranken und je höher der jeweilige BMI war, desto geringer war der Einfluss des Alkohols auf die Schläfrigkeit. Mit der Eigenschaft „weibliches Geschlecht“ ging eine höhere objektive Schläfrigkeit einher, allerdings auch eine höhere subjektive Einschätzung der eigenen Schläfrigkeit. Ein Einfluss der Getränkeart ließ sich hingegen nicht nachweisen. Für die Abnahme der Vigilanz spielte es keine Rolle, ob dies durch Bier oder Wein verursacht worden war. Bedenklich erschien die Tatsache, dass zum einen die Probanden das Ausmaß der eigenen Schläfrigkeit sogar unter relativ geringer Alkoholisierung nicht adäquat einschätzen konnten, und dass zum anderen das Maximum der Schläfrigkeit – und damit auch des mutmaßlichen Unfallrisikos – in der Eliminationsphase lag. Ein Zeitpunkt, zu dem sicherlich die meisten Alkoholfahrten unternommen werden.
Resumo:
Eine neue auf einer Pyruvat abhängigen Biolumineszenzreaktion basierende Methode zur quantitativen Bestimmung und räumlichen Darstellung von Pyruvat in Gefrierschnitten von Gewebeproben wurde entwickelt. Dabei wurden biochemische Reaktionen so verknüpft, dass sichtbares Licht proportional zum eingesetzten Pyruvatgehalt entstand. Eine hoch signifikante positive Korrelation beider Parameter ermöglichte eine Kalibrierung mit definierten Pyruvatgehalten und damit die Quantifizierung in unbekannten Proben. Die Nachweisgrenze lag bei 0,04 pmol Pyruvat mit einer Auflösung von 0,02 µmol/g. Das Biolumineszenzverfahren wurde mit Hilfe anderer Methoden validiert, wobei eine Wiederfindung mit einer konzentrationsabhängigen Abweichung von ≤ 15 % erzielt wurde. Ein wesentlicher Vorteil der neuen Methode gegenüber bisherigen Verfahren zum Pyruvatnachweis liegt in der Messwerterfassung definierter histologischer Gewebsareale. Dies wird durch computergesteuerte Überlagerung von Metabolitverteilungen mit Schnittbildern aus Strukturfärbungen und interaktiver, „optischer Mikrodissektion“ der Gewebeschnitte möglich. Ein weiterer Nutzen der Methode ist deren optionale Kombination mit der Biolumineszenztechnik für andere Stoffwechselprodukte. So ermöglicht eine exakte Superposition zweier Metabolitbilder von unmittelbar aufeinander folgenden Gewebeschnitten eine korrelative Kolokalisationsanalyse beider Metabolite. Das Ergebnis lässt sich zum einen in Form von „Pixel-zu-Pixel“-Korrelationen dokumentieren, zum anderen kann für jeden Bildpunkt ein Laktat/Pyruvat-Verhältnis als Maß für den Redoxzustand des Gewebes berechnet und dargestellt werden. Hieraus ergeben sich z.B. räumliche L/P-Verteilungen (L/P-Karten). Ein solches „Redoximaging“ durch Kartierung des L/P-Quotienten ist bislang mit keinem anderen Verfahren möglich. Während die Entwicklung des Pyruvatnachweises eine Kernaufgabe der vorliegenden Arbeit darstellte, bestand ein weiterer wesentlicher Teil in der praktischen Anwendung der neuen Methode im Bereich der experimentellen Tumorforschung. So ergaben Messungen an acht verschiedenen Linien von humanen HNSCC-Xenotransplantaten (n = 70 Tumoren) einen mittleren Pyruvatgehalt von 1,24 ± 0,20 µmol/g. In sechs Humanbiopsien derselben Tumorentität wurde ein durchschnittlicher Pyruvatgehalt von 0,41 ± 0,09 µmol/g gemessen. Bei den Xenotransplantaten konnte eine signifikante positive Korrelation zwischen der Summe aus Laktat und Pyruvat bzw. dem L/P Verhältnis und der Strahlensensibilität gefunden werden, wobei das L/P-Verhältnis ebenso wie die Summe aus Laktat und Pyruvat maßgeblich von Laktat bestimmt wurden. Der Zusammenhang der Metabolite mit der Strahlensensibilität lässt sich durch deren antioxidative Eigenschaften erklären. Da der Redoxzustand der Zelle kritisch bezüglich der Effizienz von ROS induzierenden Therapieansätzen, wie z.B. Bestrahlung oder bestimmter Chemotherapeutika sein kann, könnte die Bestimmung des L/P Verhältnisses als prognostischer Faktor prädiktive Aussagen über die Sensibilität gegenüber solchen Behandlungen erlauben.
Resumo:
Tetraspan vesicle membrane proteins (TVPs) sind konservierte, ubiquitär vorkommende Membranproteine synaptischer Vesikel und zytoplasmatischer Transportvesikel. Bei Säugetieren lassen sie sich in die Physine, Gyrine und SCAMPs (secretory carrier-associated membrane proteins) unterteilen, die im Nematoden C. elegans jeweils nur durch ein einzelnes Polypeptid vertreten sind (Synaptophysin-1 [SPH-1], Synaptogyrin-1 [SNG-1] und SCAMP-1 [SCM-1]). Obwohl den TVPs eine Beteiligung bei der Regulation des Vesikelzyklus zugesprochen wurde, sind Synaptophysin-1-Knockout-Mäuse und vollständig TVP-defiziente Würmer gesund und weisen nur geringgradige Veränderungen auf. In dieser Arbeit sollten daher zum einen genomweite komparative Transkriptomanalysen durchgeführt werden, um mögliche Kompensationsmechanismen in der Maus und C. elegans zu finden, zum anderen sollten mit Hilfe pharmakologischer Stressassays und genetischer Verfahren Schwachstellen und Redundanzen identifiziert werden. Erstaunlicherweise konnten durch Affymetrix GeneChip-Analysen der RNA in der Retina von Synaptophysin-1-/--Mäusen keine differenziell exprimierten Gene gefunden werden. Bei der Untersuchung der C. elegans-TVP-Dreifachmutante wurden hingegen 17 Gene mit erhöhter und 3 mit erniedrigter Transkription identifiziert. Die Befunde für 12 hochregulierte Gene wurden durch quantitative Real-Time RT-PCR bestätigt. Das am stärksten hochregulierte Gen arf-1.1 kodiert für eine GTPase, die vermutlich an der Regulation der Vesikelbildung beteiligt ist. Von den ebenso identifizierten Genen cdr-2, cdr-4 und pgp-9 ist bekannt, dass sie in Stresssituationen, z. B. in Gegenwart von Cadmium, verstärkt transkribiert werden. ugt-62 und ugt-19 kodieren für Glucuronosyltransferasen. Für arf-1.1, cdr-2, ugt-62 sowie für das Gen T16G1.6, das für eine coiled-coil-Domäne kodiert, wurden im Folgenden fluoreszierende Promoterkonstrukte hergestellt, um Koexpressionsmuster mit TVPs zu bestimmen. Es stellte sich heraus, dass alle vier Promoterkonstrukte im Darm zusammen mit SPH-1 und SCM-1 im Darm transkribiert werden. Mit fluoreszierenden Translationschimären konnte weiterhin gezeigt werden, dass ARF-1.1 und CDR-2 mit den Darm-spezifischen TVPs im apikalen Bereich der Darmzellen kolokalisieren. Um mehr über die Funktion von TVPs im Vesikelzyklus zu erfahren, wurden pharmakologische und genetische Analysen von Würmern durchgeführt, in denen die Expression des Neuronen-spezifischen SNG-1 verändert ist. Deletion oder Überexpression führte zu einer Resistenz gegenüber dem Acetylcholinesterase-Inhibitor Aldicarb und zu erhöhter Empfindlichkeit gegenüber dem GABA-Rezeptor-Antagonisten Pentylentetrazol. Auf genetischer Ebene zeigte sich, dass sng-1 synthetisch mit den Genen für Synaptotagmin-1, Endophilin A sowie Synaptojanin wirkt. Die beobachteten Effekte weisen auf alternative Funktionen in der synaptischen Übertragung hin und unterstützen zugleich die Hypothese, dass SNG-1 im synaptischen Vesikelzyklus eine wichtige Funktion erfüllt, die möglicherweise einem noch unbekannten redundanten Kompartiment-spezifischen Signalweg der synaptischen Transmission zuzuordnen ist.