410 resultados para NUN
Resumo:
Plasmonic nanoparticles are great candidates for sensing applications with optical read-out. Plasmon sensing is based on the interaction of the nanoparticle with electromagnetic waves where the particle scatters light at its resonance wavelength. This wavelength depends on several intrinsic factors like material, shape and size of the nanoparticle as well as extrinsic factors like the refractive index of the surrounding medium. The latter allows the nanoparticle to be used as a sensor; changes in the proximate environment can be directly monitored by the wavelength of the emitted light. Due to their minuscule size and high sensitivity this allows individual nanoparticles to report on changes in particle coverage.rnrnTo use this single particle plasmon sensor for future sensing applications it has to meet the demand for detection of incidents on the single molecule level, such as single molecule sensing or even the detection of conformational changes of a single molecule. Therefore, time resolution and sensitivity have to be enhanced as today’s measurement methods for signal read-out are too slow and not sensitive enough to resolve these processes. This thesis presents a new experimental setup, the 'Plasmon Fluctuation Setup', that leads to tremendous improvements in time resolution and sensitivity. This is achieved by implementation of a stronger light source and a more sensitive detector. The new setup has a time resolution in the microsecond regime, an advancement of 4-6 orders of magnitude to previous setups. Its resonance wavelength stability of 0.03 nm, measured with an exposure time of 10 ms, is an improvement of a factor of 20 even though the exposure time is 3000 times shorter than in previous reports. Thus, previously unresolvable wavelength changes of the plasmon sensor induced by minor local environmental alteration can be monitored with extremely high temporal resolution.rnrnUsing the 'Plasmon Fluctuation Setup', I can resolve adsorption events of single unlabeled proteins on an individual nanorod. Additionally, I monitored the dynamic evolution of a single protein binding event on a millisecond time scale. This feasibility is of high interest as the role of certain domains in the protein can be probed by a study of modified analytes without the need for labels possibly introducing conformational or characteristic changes to the target. The technique also resolves equilibrium fluctuations in the coverage, opening a window into observing Brownian dynamics of unlabeled macromolecules. rnrnA further topic addressed in this thesis is the usability of the nanoruler, two nanospheres connected with a spacer molecule, as a stiffness sensor for the interparticle linker under strong illumination. Here, I discover a light induced collapse of the nanoruler. Furthermore, I exploit the sensing volume of a fixed nanorod to study unlabeled analytes diffusing around the nanorod at concentrations that are too high for fluorescence correlation spectroscopy but realistic for biological systems. Additionally, local pH sensing with nanoparticles is achieved.
Resumo:
Das aSPECT Spektrometer wurde entworfen, um das Spektrum der Protonen beimrnZerfall freier Neutronen mit hoher Präzision zu messen. Aus diesem Spektrum kann dann der Elektron-Antineutrino Winkelkorrelationskoeffizient "a" mit hoher Genauigkeit bestimmt werden. Das Ziel dieses Experiments ist es, diesen Koeffizienten mit einem absoluten relativen Fehler von weniger als 0.3% zu ermitteln, d.h. deutlich unter dem aktuellen Literaturwert von 5%.rnrnErste Messungen mit dem aSPECT Spektrometer wurden an der Forschungsneutronenquelle Heinz Maier-Leibnitz in München durchgeführt. Jedoch verhinderten zeitabhängige Instabilitäten des Meßhintergrunds eine neue Bestimmung von "a".rnrnDie vorliegende Arbeit basiert hingegen auf den letzten Messungen mit dem aSPECTrnSpektrometer am Institut Laue-Langevin (ILL) in Grenoble, Frankreich. Bei diesen Messungen konnten die Instabilitäten des Meßhintergrunds bereits deutlich reduziert werden. Weiterhin wurden verschiedene Veränderungen vorgenommen, um systematische Fehler zu minimieren und um einen zuverlässigeren Betrieb des Experiments sicherzustellen. Leider konnte aber wegen zu hohen Sättigungseffekten der Empfängerelektronik kein brauchbares Ergebnis gemessen werden. Trotzdem konnten diese und weitere systematische Fehler identifiziert und verringert, bzw. sogar teilweise eliminiert werden, wovon zukünftigernStrahlzeiten an aSPECT profitieren werden.rnrnDer wesentliche Teil der vorliegenden Arbeit befasst sich mit der Analyse und Verbesserung der systematischen Fehler, die durch das elektromagnetische Feld aSPECTs hervorgerufen werden. Hieraus ergaben sich vielerlei Verbesserungen, insbesondere konnten die systematischen Fehler durch das elektrische Feld verringert werden. Die durch das Magnetfeld verursachten Fehler konnten sogar soweit minimiert werden, dass nun eine Verbesserung des aktuellen Literaturwerts von "a" möglich ist. Darüber hinaus wurde in dieser Arbeit ein für den Versuch maßgeschneidertes NMR-Magnetometer entwickelt und soweit verbessert, dass nun Unsicherheiten bei der Charakterisierung des Magnetfeldes soweit reduziert wurden, dass sie für die Bestimmung von "a" mit einer Genauigkeit von mindestens 0.3% vernachlässigbar sind.
Resumo:
Quantum Chromodynamics (QCD) is the theory of strong interactions, one of the four fundamental forces in our Universe. It describes the interaction of gluons and quarks which build up hadrons like protons and neutrons. Most of the visible matter in our universe is made of protons and neutrons. Hence, we are interested in their fundamental properties like their masses, their distribution of charge and their shape. \\rnThe only known theoretical, non-perturbative and {\it ab initio} method to investigate hadron properties at low energies is lattice Quantum Chromodynamics (lattice QCD). However, up-to-date simulations (especially for baryonic quantities) do not achieve the accuracy of experiments. In fact, current simulations do not even reproduce the experimental values for the form factors. The question arises wether these deviations can be explained by systematic effects in lattice QCD simulations.rnrnThis thesis is about the computation of nucleon form factors and other hadronic quantities from lattice QCD. So called Wilson fermions are used and the u- and d-quarks are treated fully dynamically. The simulations were performed using gauge ensembles with a range of lattice spacings, volumes and pion masses.\\rnFirst of all, the lattice spacing was set to be able to make contact between the lattice results and their experimental complement and to be able to perform a continuum extrapolation. The light quark mass has been computed and found to be $m_{ud}^{\overline{\text{MS}}}(2\text{ GeV}) = 3.03(17)(38)\text{ MeV}$. This value is in good agreement with values from experiments and other lattice determinations.\\rnElectro-magnetic and axial form factors of the nucleon have been calculated. From these form factors the nucleon radii and the coupling constants were computed. The different ensembles enabled us to investigate systematically the dependence of these quantities on the volume, the lattice spacing and the pion mass.\newpage Finally we perform a continuum extrapolation and chiral extrapolations to the physical point.\\rnIn addition, we investigated so called excited state contributions to these observables. A technique was used, the summation method, which reduces these effects significantly and a much better agreement with experimental data was achieved. On the lattice, the Dirac radius and the axial charge are usually found to be much smaller than the experimental values. However, due to the carefully investigation of all the afore-mentioned systematic effects we get $\langle r_1^2\rangle_{u-d}=0.627(54)\text{ fm}^2$ and $g_A=1.218(92)$, which is in agreement with the experimental values within the errors.rnrnThe first three chapters introduce the theoretical background of form factors of the nucleon and lattice QCD in general. In chapter four the lattice spacing is determined. The computation of nucleon form factors is described in chapter five where systematic effects are investigated. All results are presented in chapter six. The thesis ends with a summary of the results and identifies options to complement and extend the calculations presented. rn
Resumo:
In dieser Arbeit wird eine Methode entwickelt, die Rossbywellenzüge automatisch identifiziert und und deren Eigenschaften quantifiziert. Mit dieser Methode wird der Wellenzug als eine Einheit in Raum und Zeit interpretiert. Einheit im Raum heißt, dass nicht die einzelnen Tröge und Rücken eines Wellenzugs betrachtet werden, sondern deren Einhüllende. Einheit in der Zeit bedeutet, dass der Wellenzug nicht nur zu einem Zeitpunkt betrachtet wird, sondern über seine gesamte Lebensdauer hinweg. Um den Wellenzug als räumliche und zeitliche Einheit zu erhalten, werden die Einhüllenden der Wellenzüge in Längengrad-Zeit Diagrammen, sogenannten Hovmöllerdiagrammen, betrachtet. Dort werden zusammenhängende Regionen als Objekte, die jeweils einen Wellenzug repräsentieren, identifiziert. Deren Eigenschaften werden dann automatisch berechnet. Diese Eigenschaften können nun direkt dem zugrunde liegenden Rossbywellenzug zugeordnet werden.rnDie neue Methode wird in zwei verschiedenen Szenarien angewendet: erstens zur Beurteilung der Vorhersagequalität eines einzelnen Rossbywellenzugs und zweitens für die klimatologische Betrachtung von Rossbywellenzügen im ERA-40 Reanalysedatensatz. Sie wurde weiterhin mit bisher verwendeten Methoden zur Identifikation und Quantifizierung von Rossbywellenzügen verglichen.rnDie Untersuchung der Vorhersagequalität ergab, dass in dem betrachteten Fall die Übereinstimmung der Vorhersage mit der Analyse des Wellenzugs gering war, sofern das Modell initialisiert wurde, bevor der Rossbywellenzug eingesetzt hatte. Im Gegensatz dazu nahm die Vorhersagequalität deutlich zu, wenn der Wellenzug bereits in den Vorhersagedaten enthalten war. Dies deutet darauf hin, dass es in dem vorliegenden Fall problematisch ist, mit dem Modell den Auslösemechanismus korrekt voherzusagen. Für die weitere Untersuchung der Vorhersagequalität wurde eine spezielle Art der Darstellung der Daten verwendet, mit deren Hilfe deutlich wurde, dass das verwendete Modell in der Lage ist, diesen Wellenzug ungefähr sechs Tage im Voraus vorherzusagen. Diese Zeitspanne ist deutlich kürzer als die Lebensdauer des Wellenzugs, die etwa 10 Tage beträgt.rnIm Rahmen der klimatologischen Studie ergab sich eine positive Korrelation zwischen der Lebensdauer eines Rossbywellenzugs und des Bereichs den dieser Wellenzug während seiner gesamten Existenz in zonaler Richtung überstreicht. Für Wellenzüge mit einer kurzen Lebensdauer ergab sich eine ebenfalls positive Korrelation zwischen der mittleren Amplitude und der Dauer des Wellenzugs. Für eine längere Lebensdauer geht diese Korrelation aber in eine Sättigung über und die mittlere Amplitude steigt nicht mehr weiter an. Als eine mögliche Erklärung für dieses Verhalten wird angeführt, dass eine gewisse Stärke der Amplitude benötigt wird um stromabwärtige Entwicklung zu erhalten aber zu große Amplituden im Allgemeinen zum Brechen der Welle führen. Das Brechen leitet den letzten Abschnitt im Lebenszyklus eines Rossbywellenzuges ein, welcher im Anschluss meist zerfällt. Ein weiteres Ergebnis der klimatologischen Untersuchung ist das Auffinden bevorzugter Regionen der Entstehung und des Abklingens von Rossbywellenzügen. Diese Regionen unterscheiden sich erheblich für Rossbywellenzüge unterschiedlicher minimaler Lebensdauer. Langlebige Rossbywellenzüge entstehen demnach hauptsächlich über Ostasien und dem Westpazifik und vergehen dann über Europa.rnSchließlich wurde die entwickelte Methode in einen systematischen Vergleich anderer Methoden zur Identifikation und Quantifizierung von Rossbywellenzügen eingereiht. Die betrachteten Methoden beinhalten verschiedene Trog-und-Rücken Hovmöllerdiagramme des Meridionalwindes, Methoden die Rossbywellenzüge als eine Einheit identifizieren und Methoden die den Beitrag verschiedener physikalischer Aspekte zu der Entwicklung von Rossbywellenenzügen quantifizieren. Der Vergleich macht deutlich, dass jede Methode ihre individuellen Stärken und Schwächen hat. Dies bedeutet insbesondere, dass die Eignung der Methode von dem Stadium des Lebenszyklus, in dem sich der Rossbywellenzug befindet und dem Fokus, den man bei der Betrachtung hat, abhängt. Ideal ist eine Kombination mehrerer Methoden, da dies ein vollständigeres Bild eines Rossbywellenzuges ergibt als einzelne Methoden es zu liefern vermögen. Obwohl alle Methoden für die Anwendungen, für die sie jeweils konzipiert wurden, geeignet sind, ergeben sich bei der Diagnose der Rossbywellenzüge beträchtliche Unterschiede. Letztendlich stellt sich heraus, dass sogar die Defintion eines Rossbywellenzugs bis zu einem gewissen Grad von der zu seiner Identifizierung verwendeten Methode abhängt.
Resumo:
Die kollineare Laserspektroskopie hat sich in den vergangenen drei Jahrzehnten zur Bestimmung der Kernladungsradien mittelschwerer und schwerer kurzlebiger Atomkerne in ausgezeichneter Weise bewährt. Auf die Isotope sehr leichter Elemente konnte sie allerdings erst kürzlich erweitert werden. Dieser Bereich der Nuklidkarte ist von besonderem Interesse, denn die ersten ab-initio Modelle der Kernphysik, die den Aufbau eines Atomkerns basierend auf individuellen Nukleonen und realistischenWechselwirkungspotentialen beschreiben, sind gegenwärtig nur für die leichtesten Elemente anwendbar. Außerdem existiertrnin dieser Region eine besonders exotische Form von Atomkernen, die sogenanntenrnHalokerne. Die Isotopenkette der Berylliumisotope zeichnet sich durch das Auftreten des Ein-Neutronen Halokerns 11Be und des Zwei- oder Vier-Neutronen-Halos 14Be aus. Dem Isotop 12Be kommt durch seine Position zwischen diesen beiden Exoten und den im Schalenmodell erwarteten magischen Schalenabschluss N = 8 eine besondere Bedeutung zu.rnIm Rahmen dieser Arbeit wurden mehrere frequenzstabilisierte Lasersysteme für die kollineare Laserspektroskopie aufgebaut. An TRIGA-SPEC stehen nun unter anderem ein frequenzverdoppeltes Diodenlasersystem mit Trapezverstärker und frequenzkammstabilisierter Titan-Saphirlaser mit Frequenzverdopplungsstufe für die Spektroskopie an refraktären Elementen oberhalb von Molybdän zur Verfügung, die für erste Testexperimente eingesetzt wurden. Außerdem wurde die effiziente Frequenzvervierfachung eines Titan-Saphirlasers demonstriert. An ISOLDE/CERN wurde ein frequenzkammstabilisierter und ein jodstabilisierter Farbstofflaser installiert und für die Laserspektroskopie an 9,10,11,12Be eingesetzt. Durch das verbesserte Lasersystem und den Einsatz eines verzögerten Koinzidenznachweises für Photonen und Ionen gelang es die Empfindlichkeitrnder Berylliumspektroskopie um mehr als zwei Größenordnungen zu steigern und damit die früheren Messungen an 7−11Be erstmals auf das Isotop 12Be auszuweiten. Außerdem wurde die Genauigkeit der absoluten Übergangsfrequenzen und der Isotopieverschiebungen der Isotope 9,10,11Be signifikant verbessert.rnDurch den Vergleich mit Ergebnissen des Fermionic Molecular Dynamics Modells kann der Trend der Ladungsradien der leichteren Isotope durch die ausgeprägte Clusterstruktur der Berylliumkerne erklärt werden. Für 12Be wird ersichtlich, dass der Grundzustand durch eine (sd)2 Konfiguration statt der vom Schalenmodell erwarteten p2 Konfiguration dominiert wird. Dies ist ein klares Indiz für das bereits zuvor beobachtete Verschwinden des N = 8 Schalenabschlusses bei 12Be.
Resumo:
Seit Jahren werden Diskussionen über Erfolgskontrolle in der kommunalen Wirtschaftsförderung geführt. Im Vordergrund steht dabei die Suche nach Indikatoren und Verfahren, die es den kommunalen Wirtschaftsförderungen ermöglichen sollen, Erfolge zu messen. rnDa die Wirtschaftsförderung zu den freiwilligen Leistungen einer Gemeinde zählt, erhöht sich der Druck der Rechtfertigung gegenüber der Öffentlichkeit oder der Politik, das gilt insbesondere in Zeiten knapper öffentlicher Haushalte. Firmenansiedlungen, eine positive wirtschaftliche Entwicklung oder eine geringe Arbeitslosenquote sind sowohl im öffentlichen Bewusstsein als auch in der Politik wesentliche Kriterien einer erfolgreichen Wirtschaftsförderung. Sich ständig ändernde Rahmenbedingungen im wirtschaftsstrukturellen Gefüge haben dazu geführt, dass diese klassischen Nachweise von Erfolg immer seltener als solche präsentiert werden können. Erfolge sollten dennoch gemessen werden, um Maßnahmen und Instrumente einer kommunalen Wirtschaftsförderung zu überprüfen und gegebenenfalls an die geänderten Bedingungen anzupassen. rnEs ist schon mehr als 30 Jahre her, als in den 1970er Jahren die Suche nach Methoden und Verfahren der Erfolgskontrolle in der öffentlichen Verwaltung begann. Erfolge von kommunaler Wirtschaftsförderung können nicht einfach und ausschließlich an den markantesten wirtschaftlichen Ziffern der Kommune gemessen werden, z. B. der Zahl der sozialversicherungspflichtigen Arbeitsplätze. Seit Jahren wird um einen Lösungsweg bei der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung gerungen, abschließend wurde jedoch noch kein vollends befriedigend praktikabler Weg gefunden. Zu hinterfragen ist vor dem Hintergrund, inwiefern die vier Elemente einer Erfolgskontrolle, nämlich die Zielerreichungs-, Vollzugs-, Bedingungs- und Wirkungskontrolle, tatsächlich und hinreichend zum Einsatz kommen können.rnDie vorliegenden empirischen Untersuchungen beleuchten nun das Thema aus Sicht der kommunalen Wirtschaftsförderer und liefern Ergebnisse, die zu einem veränderten Bewusstsein gegenüber der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung führen müssten. Unabhängig von der Organisationsform und der Größe einer kommunalen Wirtschaftsförderung lässt sich empirisch nachweisen, dass der Anspruch, den der Begriff der Erfolgskontrolle in seiner gängigen Beschreibung erhebt, nicht hinreichend von einer kommunalen Wirtschaftsförderung erfüllt werden kann. rnMit Hilfe des neu entwickelten Prozesses einer modifizierten Erfolgskontrolle wird in vorliegender Arbeit ein idealtypischer Ablauf für eine kommunale Wirtschaftsförderung dargestellt. Der neue Ansatz einer modifizierten Erfolgskontrolle ist eine konsequente Reduzierung der Anforderungen auf das Praktikable und führt dazu, dass Erfolge der kommunalen Wirtschaftsförderung dargestellt werden können, ohne dass das Verfahren mehr Fragen offen lässt, als es beantwortet. Durch die modifizierte Erfolgskontrolle können die spezifischen Erfolge einer kommunalen Wirtschaftsförderung dargestellt und dokumentiert werden. rnEine modifizierte Erfolgskontrolle kann zweierlei: Sie ist eine Hilfestellung für die politisch Verantwortlichen bei der Erkenntnis, dass eine Notwendigkeit nach konkreten und der Ist-Situation sowie den Randbedingungen angepassten Zielformulierungen besteht. Sie bietet aber auch eine Möglichkeit, dass die kommunalen Wirtschaftsförderungseinrichtungen dem in der öffentlichen Diskussion formulierten Anspruch nach Erfolgskontrolle mit einem hohen Grad an Praktikabilität gerecht werden können. rnBevor also viele kommunale Wirtschaftsförderungen durch die fragwürdige Forderung an eine Erfolgskontrolle aufgrund der zu hohen Anforderungen an Methodik, Zeit und Personal aufgeben, sollte ihnen die Konzentration auf das Praktikable wieder Anreiz sein, eine modifizierte Erfolgskontrolle nach dem neuen Prozessschema in Angriff zu nehmen. rnrn
Resumo:
Computer-Simulationen von Kolloidalen Fluiden in Beschränkten Geometrien Kolloidale Suspensionen, die einen Phasenübergang aufweisen, zeigen eine Vielfalt an interessanten Effekten, sobald sie auf eine bestimmte Geometrie beschränkt werden, wie zum Beispiel auf zylindrische Poren, sphärische Hohlräume oder auf einen Spalt mit ebenen Wänden. Der Einfluss dieser verschiedenen Geometrietypen sowohl auf das Phasenverhalten als auch auf die Dynamik von Kolloid-Polymer-Mischungen wird mit Hilfe von Computer-Simulationen unter Verwendung des Asakura-Oosawa- Modells, für welches auf Grund der “Depletion”-Kräfte ein Phasenübergang existiert, untersucht. Im Fall von zylindrischen Poren sieht man ein interessantes Phasenverhalten, welches vom eindimensionalen Charakter des Systems hervorgerufen wird. In einer kurzen Pore findet man im Bereich des Phasendiagramms, in dem das System typischerweise entmischt, entweder eine polymerreiche oder eine kolloidreiche Phase vor. Sobald aber die Länge der zylindrischen Pore die typische Korrelationslänge entlang der Zylinderachse überschreitet, bilden sich mehrere quasi-eindimensionale Bereiche der polymerreichen und der kolloidreichen Phase, welche von nun an koexistieren. Diese Untersuchungen helfen das Verhalten von Adsorptionshysteresekurven in entsprechenden Experimenten zu erklären. Wenn das Kolloid-Polymer-Modellsystem auf einen sphärischen Hohlraum eingeschränkt wird, verschiebt sich der Punkt des Phasenübergangs von der polymerreichen zur kolloidreichen Phase. Es wird gezeigt, dass diese Verschiebung direkt von den Benetzungseigenschaften des Systems abhängt, was die Beobachtung von zwei verschiedenen Morphologien bei Phasenkoexistenz ermöglicht – Schalenstrukturen und Strukturen des Janustyps. Im Rahmen der Untersuchung von heterogener Keimbildung von Kristallen innerhalb einer Flüssigkeit wird eine neue Simulationsmethode zur Berechnung von Freien Energien der Grenzfläche zwischen Kristall- bzw. Flüssigkeitsphase undWand präsentiert. Die Resultate für ein System von harten Kugeln und ein System einer Kolloid- Polymer-Mischung werden anschließend zur Bestimmung von Kontaktwinkeln von Kristallkeimen an Wänden verwendet. Die Dynamik der Phasenseparation eines quasi-zweidimensionalen Systems, welche sich nach einem Quench des Systems aus dem homogenen Zustand in den entmischten Zustand ausbildet, wird mit Hilfe von einer mesoskaligen Simulationsmethode (“Multi Particle Collision Dynamics”) untersucht, die sich für eine detaillierte Untersuchung des Einflusses der hydrodynamischen Wechselwirkung eignet. Die Exponenten universeller Potenzgesetze, die das Wachstum der mittleren Domänengröße beschreiben, welche für rein zwei- bzw. dreidimensionale Systeme bekannt sind, können für bestimmte Parameterbereiche nachgewiesen werden. Die unterschiedliche Dynamik senkrecht bzw. parallel zu den Wänden sowie der Einfluss der Randbedingungen für das Lösungsmittel werden untersucht. Es wird gezeigt, dass die daraus resultierende Abschirmung der hydrodynamischen Wechselwirkungsreichweite starke Auswirkungen auf das Wachstum der mittleren Domänengröße hat.
Resumo:
Atmosphärische Aerosolpartikel wirken in vielerlei Hinsicht auf die Menschen und die Umwelt ein. Eine genaue Charakterisierung der Partikel hilft deren Wirken zu verstehen und dessen Folgen einzuschätzen. Partikel können hinsichtlich ihrer Größe, ihrer Form und ihrer chemischen Zusammensetzung charakterisiert werden. Mit der Laserablationsmassenspektrometrie ist es möglich die Größe und die chemische Zusammensetzung einzelner Aerosolpartikel zu bestimmen. Im Rahmen dieser Arbeit wurde das SPLAT (Single Particle Laser Ablation Time-of-flight mass spectrometer) zur besseren Analyse insbesondere von atmosphärischen Aerosolpartikeln weiterentwickelt. Der Aerosoleinlass wurde dahingehend optimiert, einen möglichst weiten Partikelgrößenbereich (80 nm - 3 µm) in das SPLAT zu transferieren und zu einem feinen Strahl zu bündeln. Eine neue Beschreibung für die Beziehung der Partikelgröße zu ihrer Geschwindigkeit im Vakuum wurde gefunden. Die Justage des Einlasses wurde mithilfe von Schrittmotoren automatisiert. Die optische Detektion der Partikel wurde so verbessert, dass Partikel mit einer Größe < 100 nm erfasst werden können. Aufbauend auf der optischen Detektion und der automatischen Verkippung des Einlasses wurde eine neue Methode zur Charakterisierung des Partikelstrahls entwickelt. Die Steuerelektronik des SPLAT wurde verbessert, so dass die maximale Analysefrequenz nur durch den Ablationslaser begrenzt wird, der höchsten mit etwa 10 Hz ablatieren kann. Durch eine Optimierung des Vakuumsystems wurde der Ionenverlust im Massenspektrometer um den Faktor 4 verringert.rnrnNeben den hardwareseitigen Weiterentwicklungen des SPLAT bestand ein Großteil dieser Arbeit in der Konzipierung und Implementierung einer Softwarelösung zur Analyse der mit dem SPLAT gewonnenen Rohdaten. CRISP (Concise Retrieval of Information from Single Particles) ist ein auf IGOR PRO (Wavemetrics, USA) aufbauendes Softwarepaket, das die effiziente Auswertung der Einzelpartikel Rohdaten erlaubt. CRISP enthält einen neu entwickelten Algorithmus zur automatischen Massenkalibration jedes einzelnen Massenspektrums, inklusive der Unterdrückung von Rauschen und von Problemen mit Signalen die ein intensives Tailing aufweisen. CRISP stellt Methoden zur automatischen Klassifizierung der Partikel zur Verfügung. Implementiert sind k-means, fuzzy-c-means und eine Form der hierarchischen Einteilung auf Basis eines minimal aufspannenden Baumes. CRISP bietet die Möglichkeit die Daten vorzubehandeln, damit die automatische Einteilung der Partikel schneller abläuft und die Ergebnisse eine höhere Qualität aufweisen. Daneben kann CRISP auf einfache Art und Weise Partikel anhand vorgebener Kriterien sortieren. Die CRISP zugrundeliegende Daten- und Infrastruktur wurde in Hinblick auf Wartung und Erweiterbarkeit erstellt. rnrnIm Rahmen der Arbeit wurde das SPLAT in mehreren Kampagnen erfolgreich eingesetzt und die Fähigkeiten von CRISP konnten anhand der gewonnen Datensätze gezeigt werden.rnrnDas SPLAT ist nun in der Lage effizient im Feldeinsatz zur Charakterisierung des atmosphärischen Aerosols betrieben zu werden, während CRISP eine schnelle und gezielte Auswertung der Daten ermöglicht.
Resumo:
Der Haupt-Lichtsammenkomplex II (LHCII) höherer Pflanzen ist das häufigsternMembranprotein der Welt und in die chloroplastidäre Thylakoidmembran integriert. DerrnLHCII kann als Modellsystem genutzt werden, um die Funktionsweise vonrnMembranproteinen besser zu verstehen, da 96 % seiner Struktur kristallografisch aufgelöstrnist und er in rekombinanter Form in vitro rückgefaltet werden kann. Hierbei entsteht einrnvoll funktionaler Protein-Pigment.Komplex, der nahezu identisch mit der in vivo Varianternist.rnElektronenparamagnetischen Resonanz (EPR) Spektroskopie ist eine hoch sensitive undrnideal geeignete Methode, um die Strukturdynamik von Proteinen zu untersuchen. Hierzurnist eine ortsspezifische Markierung mit Spinsonden notwendig, die kovalent an Cysteinernbinden. Möglich wird dies, indem sorgfältig ausgewählte Aminosäuren gegen Cysteinerngetauscht werden, ohne dass die Funktionsweise des LHCII beeinträchtigt wird.rnIm Rahmen dieser Arbeit wurden die Stabilität des verwendeten Spinmarkers und diernProbenqualität verbessert, indem alle Schritte der Probenpräparation untersucht wurden.rnMithilfe dieser Erkenntnisse konnte sowohl die Gefahr einer Proteinaggregation als auchrnein Verlust des EPR Signals deutlich vermindert werden. In Kombination mit derrngleichzeitigen Etablierung des Q-Band EPR können nun deutlich geringer konzentrierternProben zuverlässig vermessen werden. Darüber hinaus wurde eine reproduzierbarernMethode entwickelt, um heterogene Trimere herzustellen. Diese bestehen aus einemrndoppelt markierten Monomer und zwei unmarkierten Monomeren und erlauben es, diernkristallografisch unvollständig aufgelöste N-terminale Domäne im monomeren undrntrimeren Assemblierungsgrad zu untersuchen. Die Ergebnisse konnten einerseits diernVermutung bestätigen, dass diese Domäne im Vergleich zum starren Proteinkern sehrrnflexibel ist und andererseits, dass sie in Monomeren noch mobiler ist als in Trimeren.rnZudem wurde die lumenale Schleifenregion bei unterschiedlichen pH Werten undrnvariierender Pigmentzusammensetzung untersucht, da dieser Bereich sehr kontroversrndiskutiert wird. Die Messergebnisse offenbarten, dass diese Region starre und flexiblerernSektionen aufweist. Während der pH Wert keinen Einfluss auf die Konformation hatte,rnzeigte sich, dass die Abwesenheit von Neoxanthin zu einer Änderung der Konformationrnführt. Weiterführende Analysen der strukturellen Dynamik des LHCII in einerrnLipidmembran konnten hingegen nicht durchgeführt werden, da dies eine gerichteternInsertion des rückgefalteten Proteins in Liposomen erfordert, was trotz intensiverrnVersuche nicht zum Erfolg führte.
Resumo:
Die Förderung der Zelladhäsion durch sogenannte biomimetische Oberflächen wird in der Medizin als vielversprechender Ansatz gesehen, um Komplikationen wie z. B. Fremdkörperreaktionen nach der Implantation entgegenzuwirken. Neben der Immobilisierung einzelner Biomoleküle wie z. B. dem RGD-Peptid, Proteinen und Wachstumsfaktoren auf verschiedenen Materialien, konzentriert man sich derzeit in der Forschung auf die Co-Immobilisierung zweier Moleküle gleichzeitig. Hierbei werden die funktionellen Gruppen z. B. von Kollagen unter Verwendung von nur einer Kopplungschemie verwendet, wodurch die Kopplungseffizienz der einzelnen Komponenten nur begrenzt kontrollierbar ist. Das Ziel der vorliegenden Arbeit war die Entwicklung eines Immobilisierungsverfahrens, welches die unabhängige Kopplung zweier Faktoren kontrolliert ermöglicht. Dabei sollten exemplarisch das adhäsionsfördernde RGD-Peptid (Arginin-Glycin-Asparaginsäure) zusammen mit dem Wachstumsfaktor VEGF (Vascular Endothelial Growth Factor) auf Titan gebunden werden. In weiteren Experimenten sollten dann die pro-adhäsiven Faktoren Fibronektin, Kollagen, Laminin und Osteopontin immobilisiert und untersucht werden. rnDie Aminofunktionalisierung von Titan durch plasma polymerisierte Allylaminschichten wurde als Grundlage für die Entwicklung des nasschemischen Co-immobilisierungsverfahren verwendet. Für eine unabhängige und getrennte Anbindung der verschiedenen Biomoleküle stand in diesem Zusammenhang die Entwicklung eines geeigneten Crosslinker Systems im Vordergrund. Die Oberflächencharakterisierung der entwickelten Oberflächen erfolgte mittels Infrarot Spektroskopie, Surface Plasmon Resonance Spektroskopie (SPR), Kontaktwinkelmessungen, Step Profiling und X-Ray Photoelectron Spektroskopie (XPS). Zur Analyse der Anbindungsprozesse in Echtzeit wurden SPR-Kinetik Messungen durchgeführt. Die biologische Funktionalität der modifizierten Oberflächen wurde in vitro an Endothelzellen (HUVECs) und Osteoblasten (HOBs) und in vivo in einem Tiermodell-System an der Tibia von Kaninchen untersucht.rnDie Ergebnisse zeigen, dass alle genannten Biomoleküle sowohl einzeln auf Titan kovalent gekoppelt als auch am Bespiel von RGD und VEGF in einem getrennten Zwei-Schritt-Verfahren co-immobilisiert werden können. Des Weiteren wurde die biologische Funktionalität der gebundenen Faktoren nachgewiesen. Im Falle der RGD modifizierten Oberflächen wurde nach 7 Tagen eine geförderte Zelladhäsion von HUVECs mit einer signifikant erhöhten Zellbesiedlungsdichte von 28,5 % (p<0,05) gezeigt, wohingegen auf reinem Titan Werte von nur 13 % beobachtet wurden. Sowohl VEGF als auch RGD/VEGF modifizierte Proben wiesen im Vergleich zu Titan schon nach 24 Stunden eine geförderte Zelladhäsion und eine signifikant erhöhte Zellbesiedlungsdichte auf. Bei einer Besiedlung von 7,4 % auf Titan, zeigten VEGF modifizierte Proben mit 32,3 % (p<0,001) eine deutlichere Wirkung auf HUVECs als RGD/VEGF modifizierte Proben mit 13,2 % (p<0,01). Die pro-adhäsiven Faktoren zeigten eine deutliche Stimulation der Zelladhäsion von HUVECs und HOBs im Vergleich zu reinem Titan. Die deutlich höchsten Besiedlungsdichten von HUVECs konnten auf Fibronektin mit 44,6 % (p<0,001) und Kollagen mit 39,9 % (p<0,001) nach 24 Stunden beobachtet werden. Laminin zeigte keine und Osteopontin nur eine sehr geringe Wirkung auf HUVECs. Bei Osteoblasten konnten signifikant erhöhte Besiedlungsdichten im Falle aller pro-adhäsiven Faktoren beobachtet werden, jedoch wurden die höchsten Werte nach 7 Tagen auf Kollagen mit 90,6 % (p<0,001) und Laminin mit 86,5 % (p<0,001) im Vergleich zu Titan mit 32,3 % beobachtet. Die Auswertung der Tierexperimente ergab, dass die VEGF modifizierten Osteosyntheseplatten, im Vergleich zu den reinen Titankontrollen, eine gesteigerte Knochenneubildung auslösten. Eine solche Wirkung konnte für RGD/VEGF modifizierte Implantate nicht beobachtet werden. rnInsgesamt konnte gezeigt werden, dass mittels plasmapolymerisierten Allylamin Schichten die genannten Biomoleküle sowohl einzeln gebunden als auch getrennt und kontrolliert co-immobilisiert werden können. Des Weiteren konnte eine biologische Funktionalität für alle Faktoren nach erfolgter Kopplung in vitro gezeigt werden. Wider Erwarten konnte jedoch kein zusätzlicher biologischer Effekt durch die Co-immobilisierung von RGD und VEGF im Vergleich zu den einzeln immobilisierten Faktoren gezeigt werden. Um zu einer klinischen Anwendung zu gelangen, ist es nun notwendig, das entwickelte Verfahren in Bezug auf die immobilisierten Mengen der verschiedenen Faktoren hin zu optimieren. rn
Resumo:
In der vorliegenden Arbeit werden Experimente beschrieben, die zu einem vertieften Verständnis fundamentaler Prozesse bei der elektrochemischen Herstellung von Dünnschichten, sog. Targets, für kernphysikalische und -chemische Studien führten. Targets wurden mittels 'Molecular Plating' (MP) hergestellt, indem eine Elektrodeposition aus organischem Medium in der Regel bei konstantem Strom in Zwei-Elektroden-Zellen. Die Resultate erlaubten, optimierte Herstellungs-bedingungen zu ermitteln, welche die Produktion deutlich verbesserter Targets erlaubten. MP bei konstantem Strom ist ein massentransportkontrollierter Prozess. Der angelegte Strom wird durch einen konstanten Fluss elektroaktiver Spezies zur Kathode – auf der die Schicht wächst – und Anode aufrechterhalten. Die Untersuchungen zeigten, dass das Zellenpotential des Elektrodepositionsystems immer durch den Ohm'schen Spannungsabfall auf Grund des Widerstandes der verwendeten Lösung dominiert wurde. Dies erlaubte die Herleitung einer Beziehung zwischen dem Zellenpotential und der Konzentration der elektroaktiven Spezies. Die Beziehung erlaubt die Erklärung des gemessenen zeitlichen Verlaufs des Zellenpotentials während der Abscheidung als Funktion der Elektrolytkonzentration. Dies dient als Basis, auf der nun ein umfassenderes Bild der Prozesse, die für die charakteristischen Minima im Potentialverlauf einer Abscheidung verantwortlich sind, gewonnen werden kann. Es konnte gezeigt werden, dass die Minima mit der fast vollständigen Entfernung (durch Abscheidung) der aus einem gelösten Salz erzeugten Nd-Ionen korrespondieren. Die abgeschiedene Spezies wurde als Nd3+ identifiziert, vermutlich als Carboxylat, Oxid oder Hydroxid, was auf Grund der hohen negative Werte des Standardredoxpotentials der Lanthanide verständlich erscheint. Von den vorliegenden elektroaktiven Spezies tragen die Nd3+ Ionen nur zu knapp 20% zum Gesamtstrom bei. Durch Elektrolyse tragen auch die Lösungsmittelkomponenten zu diese Strom bei. Die Gegenwart von elektrolysiertem Lösungsmittel wurde in Analysen der Dünnschichten bestätigt. Diese waren immer mit chemi- und physisorbierten Lösungsmittelmolekülen bedeckt. Die Analyse der Dünnschichten zeigte, dass die Oberflächen von einem furchenartiges Netz durchzogen waren, und dass diese während des Trocknen der Schichten nach dem MP entstanden. Ob die Schichten an Luft oder in inerter Atmosphäre trockneten, hatte keinen Einfluss. Es wurden Experimente mit mehreren Lösungsmitteln durchgeführt, die sich deutlich in ihren physikalischen Eigenschaften, v.a. dem Siedepunkt, unterschieden. Furchenfreie Dünnschichten konnten insbesondere bei MP in N,N-dimethylformamide (DMF) erzeugt werden. Die Verwendung von DMF in Kombination mit einer Abscheidung auf sehr glatten Substraten erlaubte die Produktion von sehr homogenen, glatten und defektfreien Schichten. Diese waren vermutlich geringeren inneren Spannungen während des Trocknens ausgesetzt, als Schichten auf raueren Substraten oder solche, die aus flüchtigeren Lösungsmitteln hergestellt wurden. Die Oberflächenrauigkeit des Substrats und das gewählte Lösungsmittel wurden so als Schlüsselfaktoren für die Produktion hochqualitativer Schichten identifiziert. Es konnte gezeigt werden, dass mit MP eine sehr effiziente Methode zur Herstellung homogener Schichten mit exzellenter Ausbeute ist. In weiteren Experimenten mit dem primordialen Alpha-Emitter 147Sm als Modellisotop wurde die Eignung solcher Schichten als Alpha-Quelle untersucht. Sowohl die Energieauflösung als auch der Anteil der Alpha-Teilchen, die den Detektor erreichten, waren von den Quelleneigenschaften abhängig. Die Effekte wurden verschiedenen Variablen der Dünnschicht zugeordnet, welche die Alpha-Spektren beeinflussten. Dominant war die Wahl des Lösungsmittels und die Rauigkeit des Substrats. Dies beeinflusste Schichtdicke und -morphologie sowie die Art des Schichtwachstums und veränderte die Detektionseffizienz in Alpha-Messungen bis zu 15%. Nur homogene, ebene Schichten, die aus DMF auf glatten Substraten abgeschieden wurden, eignen sich optimal als Alpha-Quelle. Die gewonnenen Ergebnisse erlauben die optimierte Herstellung nuklearer Targets durch MP. Künftige Anwendungen beinhalten insbesondere die Herstellung von Targets für neutroneninduzierte Spaltexperimente und untergrundarmeAlpha-Messungen sehr kleiner Aktivitäten.
Resumo:
This thesis deals with three different physical models, where each model involves a random component which is linked to a cubic lattice. First, a model is studied, which is used in numerical calculations of Quantum Chromodynamics.In these calculations random gauge-fields are distributed on the bonds of the lattice. The formulation of the model is fitted into the mathematical framework of ergodic operator families. We prove, that for small coupling constants, the ergodicity of the underlying probability measure is indeed ensured and that the integrated density of states of the Wilson-Dirac operator exists. The physical situations treated in the next two chapters are more similar to one another. In both cases the principle idea is to study a fermion system in a cubic crystal with impurities, that are modeled by a random potential located at the lattice sites. In the second model we apply the Hartree-Fock approximation to such a system. For the case of reduced Hartree-Fock theory at positive temperatures and a fixed chemical potential we consider the limit of an infinite system. In that case we show the existence and uniqueness of minimizers of the Hartree-Fock functional. In the third model we formulate the fermion system algebraically via C*-algebras. The question imposed here is to calculate the heat production of the system under the influence of an outer electromagnetic field. We show that the heat production corresponds exactly to what is empirically predicted by Joule's law in the regime of linear response.
Resumo:
Die Dissertationsschrift beschäftigt sich mit der Entwicklung und Anwendung einer alternativen Probenzuführungstechnik für flüssige Proben in der Massenspektrometrie. Obwohl bereits einige Anstrengungen zur Verbesserung unternommen wurden, weisen konventionelle pneumatische Zerstäuber- und Sprühkammersysteme, die in der Elementspurenanalytik mittels induktiv gekoppeltem Plasma (ICP) standardmäßig verwendet werden, eine geringe Gesamteffizienz auf. Pneumatisch erzeugtes Aerosol ist durch eine breite Tropfengrößenverteilung gekennzeichnet, was den Einsatz einer Sprühkammer bedingt, um die Aerosolcharakteristik an die Betriebsbedingungen des ICPs anzupassen.. Die Erzeugung von Tropfen mit einer sehr engen Tropfengrößenverteilung oder sogar monodispersen Tropfen könnte die Effizienz des Probeneintrags verbessern. Ein Ziel dieser Arbeit ist daher, Tropfen, die mittels des thermischen Tintenstrahldruckverfahrens erzeugt werden, zum Probeneintrag in der Elementmassenspektrometrie einzusetzen. Das thermische Tintenstrahldruckverfahren konnte in der analytischen Chemie im Bereich der Oberflächenanalytik mittels TXRF oder Laserablation bisher zur gezielten, reproduzierbaren Deposition von Tropfen auf Oberflächen eingesetzt werden. Um eine kontinuierliche Tropfenerzeugung zu ermöglichen, wurde ein elektronischer Mikrokontroller entwickelt, der eine Dosiereinheit unabhängig von der Hard- und Software des Druckers steuern kann. Dabei sind alle zur Tropfenerzeugung relevanten Parameter (Frequenz, Heizpulsenergie) unabhängig voneinander einstellbar. Die Dosiereinheit, der "drop-on-demand" Aerosolgenerator (DOD), wurde auf eine Aerosoltransportkammer montiert, welche die erzeugten Tropfen in die Ionisationsquelle befördert. Im Bereich der anorganischen Spurenanalytik konnten durch die Kombination des DOD mit einem automatischen Probengeber 53 Elemente untersucht und die erzielbare Empfindlichkeiten sowie exemplarisch für 15 Elemente die Nachweisgrenzen und die Untergrundäquivalentkonzentrationen ermittelt werden. Damit die Vorteile komfortabel genutzt werden können, wurde eine Kopplung des DOD-Systems mit der miniaturisierten Fließinjektionsanalyse (FIA) sowie miniaturisierten Trenntechniken wie der µHPLC entwickelt. Die Fließinjektionsmethode wurde mit einem zertifizierten Referenzmaterial validiert, wobei für Vanadium und Cadmium die zertifizierten Werte gut reproduziert werden konnten. Transiente Signale konnten bei der Kopplung des Dosiersystems in Verbindung mit der ICP-MS an eine µHPLC abgebildet werden. Die Modifikation der Dosiereinheit zum Ankoppeln an einen kontinuierlichen Probenfluss bedarf noch einer weiteren Reduzierung des verbleibenden Totvolumens. Dazu ist die Unabhängigkeit von den bisher verwendeten, kommerziell erhältlichen Druckerpatronen anzustreben, indem die Dosiereinheit selbst gefertigt wird. Die Vielseitigkeit des Dosiersystems wurde mit der Kopplung an eine kürzlich neu entwickelte Atmosphärendruck-Ionisationsmethode, die "flowing atmospheric-pressure afterglow" Desorptions/Ionisations Ionenquelle (FAPA), aufgezeigt. Ein direkter Eintrag von flüssigen Proben in diese Quelle war bislang nicht möglich, es konnte lediglich eine Desorption von eingetrockneten Rückständen oder direkt von der Flüssigkeitsoberfläche erfolgen. Die Präzision der Analyse ist dabei durch die variable Probenposition eingeschränkt. Mit dem Einsatz des DOD-Systems können flüssige Proben nun direkt in die FAPA eingetragen, was ebenfalls das Kalibrieren bei quantitativen Analysen organischer Verbindungen ermöglicht. Neben illegalen Drogen und deren Metaboliten konnten auch frei verkäufliche Medikamente und ein Sprengstoffanalogon in entsprechend präpariertem reinem Lösungsmittel nachgewiesen werden. Ebenso gelang dies in Urinproben, die mit Drogen und Drogenmetaboliten versetzt wurden. Dabei ist hervorzuheben, dass keinerlei Probenvorbereitung notwendig war und zur Ermittlung der NWG der einzelnen Spezies keine interne oder isotopenmarkierte Standards verwendet wurden. Dennoch sind die ermittelten NWG deutlich niedriger, als die mit der bisherigen Prozedur zur Analyse flüssiger Proben erreichbaren. Um im Vergleich zu der bisher verwendeten "pin-to-plate" Geometrie der FAPA die Lösungsmittelverdampfung zu beschleunigen, wurde eine alternative Elektrodenanordnung entwickelt, bei der die Probe länger in Kontakt mit der "afterglow"-Zone steht. Diese Glimmentladungsquelle ist ringförmig und erlaubt einen Probeneintrag mittels eines zentralen Gasflusses. Wegen der ringförmigen Entladung wird der Name "halo-FAPA" (h-FAPA) für diese Entladungsgeometrie verwendet. Eine grundlegende physikalische und spektroskopische Charakterisierung zeigte, dass es sich tatsächlich um eine FAPA Desorptions/Ionisationsquelle handelt.
Resumo:
Supramolekulare Komplexe werden durch nichtkovalente Bindungen stabilisiert. Legt man eine externe Kraft an einen solchen Komplex an, ist es möglich, diese Bindungen zu öffnen. Anhand der dafür benötigten Kraft läßt sich die Stabilität des Komplexes bestimmen. Im Rahmen dieser Arbeit wurden zwei supramolekulare Komplexe, die unterschiedliche Arten von nichtkovalenten Bindungen enthalten, mit Hilfe von Molekulardynamik (MD) Simulationen untersucht. In beiden Fällen wurden die relevanten Bindungsstrukturen und deren Stabilität ermittelt.rnZum einen wurden zwei synthetische Calix[4]aren-Catenan-Dimersysteme betrachtet, in denen die beiden Monomere über Wasserstoffbrückenbindungen aneinander gebunden sind. Die Besonderheit dieser Komplexe ist, dass die Monomere aufgrund von verschlauften Alkylketten (Catenan-Struktur) nicht vollständig voneinander getrennt werden können. In Abhängigkeit der Länge derrnAlkylketten findet man für die beiden Komplexe eine unterschiedliche Zahl von relevanten Bindungsstrukturen (Zustände). Für ein System mit relativ kurzen Alkylketten findet man zwei Zustände, eine kompakte Struktur, die auch im Gleichgewicht beobachtet wird und eine gestreckte Struktur, die nur unter dem Einfluss der externen Kraft stabil ist. Verlängert man die Alkylketten,rnbeobachtet man einen weiteren Zustand, in dem das Dimer vollständig gestreckt ist und die Monomere eine größere Separation aufweisen.rnBei dem zweiten System, das untersucht wurde, handelte es sich um einen Carbohydrat-Kation-Carbohydrat Komplex, der für die Selbstadhäsion von Meeresschwämmen eine wichtige Rolle spielt. Experimentell ist bekannt, dass sich dieser Komplex zwar mit Calciumionen, nicht aber mit Magnesiumionen bildet. Im Rahmen dieser Arbeit wurde gezeigt, dass die wesentlichen Unterschiede der beiden Kationarten in Bezug auf die Komplexbildung auf den kleineren Ionenradius des Magnesiumions zurückzuführen sind. Aufgrund des kleineren Radius bindet ein solvatisiertes Magnesiumion die Hydrathülle stärker und die Komplexbindung wird kinetisch gehemmt. Zum anderen bindet im Magnesiumkomplex nur eines der beiden Carbohydrate direkt an das Kation.rnDas andere Carbohydrat bindet nur indirekt über ein Wassermolekül an das Kation. Da diese indirekte Bindung gegenüber einer direkten Bindung schwächer ist, weist der Magensiumkomplex eine geringere Stabilität auf als ein vergleichbarer Calciumkomplex.rnDes Weiteren wurde untersucht, inwieweit die Ergebnisse von MD Simulationen vom verwendeten Modell (Kraftfeld) abhängen. Allgemein ist bekannt, dass die Ergebnisse von Gleichgewichtssimulationen kraftfeldabhängig sind. Im Rahmen diese Arbeit konnte gezeigt werden, dass sich für Zugsimulationen, in denen eine externe Kraft an das System angelegt wird, eine ähnliche Kraftfeldabhängigkeit ergibt. Da sich die Unterschiede der Ergebnisse auf Unterschiede in den Gleichgewichtssimulationen zurückführen lassen, kann man annehmen, dass die externe Kraft keine zusätzliche Einschränkung in Bezug auf die Zuverlässigkeit der Kraftfelder darstellt.rnAbgesehen von den MD Simulationen wurde eine in der Literatur beschriebene Methode zur Analyse von Zweizustandssystemen unter dem Einfluss einer konstanten externen Kraft erweitert. Ein Komplex läßt sich als Zweizustandssystem beschreiben, wenn dieser zwei relevante Bindungsstrukturen aufweist. Wird an solch einen Komplex eine konstante Kraft angelegt, lassen sich Übergänge zwischen den beiden Zuständen beobachten. Ist das System weit entfernt vom Gleichgewicht, kann es problematisch sein, einen der beiden Übergänge vollständig aufzulösen. In diesen Fällen wird nun vorgeschlagen, die beiden Übergänge zu einem sogenannten Kreisübergang zusammen zu fassen und diese zu zählen. Bestimmt man die Zahl der Übergänge pro Zeit in Abhängigkeit der angelegten Kraft, können die Übergangsraten bestimmt werden. Um die Methode zu validieren wurden kinetische Monte-Carlo Simulationen durchgeführt. Es zeigt sich, dass schon mit relativ kleinen Datensätzen gute Ergebnisse erzielt werden können.
Resumo:
Folic acid, also known as vitamin B9, is the oxidized form of 5,6,7,8-tetrahydrofolate, which serves as methyl- or methylene donor (C1-building blocks) during DNA synthesis. Under physiological conditions the required amount of 5,6,7,8-tetrahydrofolate for survival of the cell is accomplished through the reduced folate carrier (RFC). In contrast, the supply of 5,6,7,8-tetrahydrofolate is insufficient under pathophysiological conditions of tumors due to an increased proliferation rate. Consequently, many tumor cells exhibit an (over)expression of the folate receptor. This phenomenon has been applied to diagnostics (PET, SPECT, MR) to image FR-positive tumors and on the other hand to treat malignancies related to a FR (over)expression. Based on this concept, a new 18F-labeled folate for PET imaging has been developed and was evaluated in vivo using tumor-bearing mice. The incorporation of oligoethylene spacers into the molecular structure led to a significant enhancement of the pharmacokinetics in comparison to previously developed 18F-folates. The liver uptake could be reduced by one sixth by remaining a tumor uptake of 3%ID/g leading to better contrast ratios. Encouraged by these results, a clickable 18F-labeled serine-based prosthetic group has been synthesized, again with the idea to improve the metabolic and pharmacokinetic profile of hydrophilic radiotracers. Therefore, an alkyne-carrying azido-functionalized serine derivative for coupling to biomolecules was synthesized and a chlorine leaving group for 18F-labeling, which could be accomplished using a microwave-assisted synthesis, a [K⊂2.2.2]+/carbonate system in DMSO. Radiochemical yields of 77±6% could be achieved.rnThe promising results obtained from the FR-targeting concept in the diagnostic field have been transferred to the boron neutron capture therapy. Therefore, a folate derivative was coupled to different boron clusters and cell uptake studies were conducted. The synthesis of the folate-boron clusters was straightforward. At first, a linker molecule based on maleic acid was synthesized, which was coupled to the boron cluster via Michael Addition of a thiol and alkene and subsequently coupled to the targeting moiety using CuAAC. The new conjugates of folate and boron clusters led to a significant increase of boron concentration in the cell of about 5-times compared to currently used and approved boron pharmaceuticals. rnMoreover, azido-folate derivatives were coupled to macromolecular carrier systems (pHPMA), which showed an enhanced and specific accumulation at target sites (up to 2.5-times) during in vivo experiments. A specific blockade could be observed up to 30% indicating an efficient targeting effect. A new kind of nanoparticles consisting of a PDLLA core and p((HPMA)-b-LMA)) as surfactants were developed and successfully radiolabeled via 18F-click chemistry in good RCYs of 8±3%rnThe nanoparticles were obtained via the miniemulsion technique in combination with solvent evaporation. The 18F-labeled nanoparticles were applied to in vivo testing using a mouse model. PET imaging showed a “mixed” biodistribution of low molecular weight as well as high molecular weight systems, indicating a partial loss of the 18F-labeled surfactant.rnIn conclusion, the presented work successfully utilized the FR-targeting concept in both, the diagnostic field (PET imaging) and for therapeutic approaches (BNCT, drug delivery systems). As a result, the high potential of FR-targeting in oncological applications has been shown and was confirmed by small animal PET imaging.rn