732 resultados para Nun moth
Resumo:
Der Goldfisch besitzt, im Gegensatz zum Menschen, ein tetrachromatisches Farbensehsystem, das außerordentlich gut untersucht ist. Die Farben gleicher Helligkeit lassen sich hier in einem dreidimensionalen Tetraeder darstellen. Ziel der vorliegenden Arbeit war es herauszufinden, wie gut der Goldfisch Farben, die dem Menschen ungesättigt erscheinen und im Inneren des Farbtetraeders liegen, unterscheiden kann. Des Weiteren stellte sich die Frage, ob sowohl „Weiß“ (ohne UV) als auch Xenonweiß (mit UV) vom Fisch als „unbunt“ oder „neutral“ wahrgenommenen werden. Um all dies untersuchen zu können, musste ein komplexer Versuchsaufbau entwickelt werden, mit dem den Fischen monochromatische und mit Weiß gemischte Lichter gleicher Helligkeit, sowie Xenonweiß gezeigt werden konnte. Die Fische erlernten durch operante Konditionierung einen Dressurstimulus (monochromatisches Licht der Wellenlängen 660 nm, 599 nm, 540 nm, 498 nm oder 450 nm) von einem Vergleichsstimulus (Projektorweiß) zu unterscheiden. Im Folgenden wurde dem Vergleichstimulus in 10er-Schritten immer mehr der jeweiligen Dressurspektralfarbe beigemischt, bis die Goldfische keine sichere Wahl für den Dressurstimulus mehr treffen konnten. Die Unterscheidungsleistung der Goldfische wurde mit zunehmender Beimischung von Dressurspektralfarbe zum Projektorweiß immer geringer und es kristallisierte sich ein Bereich in der Grundfläche des Tetraeders heraus, in dem die Goldfische keine Unterscheidung mehr treffen konnten. Um diesen Bereich näher zu charakterisieren, bekamen die Goldfische Mischlichter, bei denen gerade keine Unterscheidung mehr zum Projektorweiß möglich war, in Transfertests gezeigt. Da die Goldfische diese Mischlichter nicht voneinander unterscheiden konnten, läßt sich schließen, dass es einen größeren Bereich gibt, der, ebenso wie Weiß (ohne UV) für den Goldfisch „neutral“ erscheint. Wenn nun Weiß (ohne UV) für den Goldfisch „neutral“ erscheint, sollte es dem Xenonweiß ähnlich sein. Die Versuche zeigten allerdings, dass die Goldfische die Farben Weiß (ohne UV) und Xenonweiß als verschieden wahrnehmen. Betrachtet man die Sättigung für die Spektralfarben, so zeigte sich, dass die Spektralfarbe 540 nm für den Goldfisch am gesättigsten, die Spektralfarbe 660 nm am ungesättigsten erscheint.
Resumo:
In dieser Arbeit werden wir ein Modell untersuchen, welches die Ausbreitung einer Infektion beschreibt. Bei diesem Modell werden zunächst Partikel gemäß eines Poissonschen Punktprozesses auf der reellen Achse verteilt. Bis zu einem gewissen Punkt auf der reellen Achse sind alle Partikel von einer Infektion befallen. Während sich nicht infizierte Partikel nicht bewegen, folgen die infizierten Partikel den Pfaden von voneinander unabhängigen Brownschen Bewegungen und verbreitet die Infektion dabei an den Orten, welche sie betreten. Wenn sie dabei auf ein nicht infiziertes Partikel treffen, ist dieses von diesem Moment an auch infiziert und beginnt ebenfalls, dem Pfad einer Brownschen Bewegung zu folgen und die Infektion auszubreiten. Auf diese Art verschiebt sich nun der am weitesten rechts liegende Ort R_t, an dem die Infektion bereits verbreitet wurde. Wir werden mit Hilfe des subadditiven Ergodensatzes zeigen, dass sich dieser Ort mit linearer Geschwindigkeit fortbewegt. Ferner werden wir eine obere und eine untere Schranke für die Ausbreitungsgeschwindkeit angeben. Danach werden wir zeigen, dass der Prozess Regenerationszeiten hat, nämlich solche zufällige Zeiten, zu denen er eine Art Neustart unter speziellen Startbedingungen durchführt. Wir werden diese für eine weitere Charakterisierung der Ausbreitungsgeschwingkeit nutzen. Ferner erhalten wir durch die Regenerationszeiten auch einen Zentralen Grenzwertsatz für R_t und können zeigen, dass die Verteilung der infizierten Partikel aus Sicht des am weitesten rechts liegenden infizierten Ortes gegen eine invariante Verteilung konvergiert.
Resumo:
rnNitric oxide (NO) is important for several chemical processes in the atmosphere. Together with nitrogen dioxide (NO2 ) it is better known as nitrogen oxide (NOx ). NOx is crucial for the production and destruction of ozone. In several reactions it catalyzes the oxidation of methane and volatile organic compounds (VOCs) and in this context it is involved in the cycling of the hydroxyl radical (OH). OH is a reactive radical, capable of oxidizing most organic species. Therefore, OH is also called the “detergent” of the atmosphere. Nitric oxide originates from several sources: fossil fuel combustion, biomass burning, lightning and soils. Fossil fuel combustion is the largest source. The others are, depending on the reviewed literature, generally comparable to each other. The individual sources show a different temporal and spatial pattern in their magnitude of emission. Fossil fuel combustion is important in densely populated places, where NO from other sources is less important. In contrast NO emissions from soils (hereafter SNOx) or biomass burning are the dominant source of NOx in remote regions.rnBy applying an atmospheric chemistry global climate model (AC-GCM) I demonstrate that SNOx is responsible for a significant part of NOx in the atmosphere. Furthermore, it increases the O3 and OH mixing ratio substantially, leading to a ∼10% increase in the oxidizing efficiency of the atmosphere. Interestingly, through reduced O3 and OH mixing ratios in simulations without SNOx, the lifetime of NOx increases in regions with other dominating sources of NOx
Resumo:
Die Entstehung der Atherosklerose ist ein komplexer Vorgang, der sich durch Ablagerung von Lipiden an der Gefäßwand sowie durch immunologische und inflammatorische Prozesse auszeichnet. Neben konventionellen Risikofaktoren wie Alter, Geschlecht, Rauchen, HDL-Cholesterin, Diabetes mellitus und einer positiven Familienanamnese werden zur Bestimmung des atherosklerotischen Risikos neue Biomarker der inflammatorischen Reaktion untersucht. Ziel dieser Arbeit war die Entwicklung einer Methode zur Diagnostik des Atheroskleroserisikos. Es wurde eine neuartige Chip-Technologie eingesetzt, um das Risiko für eine potentiell drohende atherosklerotische Erkrankung abzuschätzen. Dabei wurde ausgenutzt, dass molekulare Veränderungen in Genen bestimmte Krankheitsbilder auslösen können. rnEs wurde ein molekularbiologischer Test entwickelt, welcher die Untersuchung von genetischen Variationen aus genomischer DNA ermöglicht. Dafür fand die Entwicklung einer Multiplex-PCR statt, deren Produkt mit der Chip-Technologie untersucht werden kann. Dazu wurden auf einem Mikroarray Sonden immobilisiert, mit deren Hilfe genspezifische Mutationen nachgewiesen werden können. So wurden mehrere Gene mit einem geringen Aufwand gleichzeitig getestet. rnDie Auswahl der entsprechenden Marker erfolgte anhand einer Literaturrecherche von randomisierten und kontrollierten klinischen Studien. Der Mikroarray konnte für zwölf Variationen in den acht Genen Prostaglandinsynthase-1 (PTGS1), Endotheliale NO-Synthase (eNOS), Faktor V (F5), 5,10-Methylentetrahydrofolsäure-Reduktase (MTHFR), Cholesterinester-Transferprotein (CETP), Apolipoprotein E (ApoE), Prothrombin (F2) und Lipoproteinlipase (LPL) erfolgreich etabliert werden. Die Präzision des Biochips wurde anhand der Echtzeit-PCR und der Sequenzierung nachgewiesen. rnDer innovative Mikroarray ermöglicht eine einfache, schnelle und kosteneffektive Genotypisierung von wichtigen Allelen. Viele klinisch relevante Variationen für Atherosklerose können nun in nur einem Test überprüft werden. Zukünftige Studien müssen zeigen, ob die Methode eine Vorhersage über den Ausbruch der Erkrankung und eine gezielte Therapie ermöglicht. Dies wäre ein erster Schritt in Richtung präventive und personalisierter Medizin für Atherosklerose.rn
Resumo:
Im Rahmen dieser Arbeit wurden neuartige funktionale Nanographene synthetisiert und hinsichtlich ihrer strukturellen und elektronischen Eigenschaften charakterisiert. Basierend auf dem Strukturmotiv des Graphens konnten anellierte polyzyklische aromatische Kohlenwasserstoffe (PAKs) mit unterschiedlichen Seitenverhältnissen strukturdefiniert erhalten und gezielt in der Peripherie funktionalisiert werden. Basierend auf dem Synthesekonzept einer „Vorplanarisierung“ konnten Nanographen-Scheiben mit einem Durchmesser von bis zu 3 nm in hoher Reinheit erhalten werden. Durch die Entwicklung von Polyphenylen-Vorläufern mit einem gewinkelten Rückgrat konnten erstmals defektfreie und lösliche Nanographen-Streifen (GNRs) mit Breiten von 1,0 - 2,1 nm und Längen von über 40 nm synthetisiert werden.rnrnAm Hexa-peri-hexabenzocoronen (HBC) war es möglich, durch die Einführung kurzer linearer Alkylreste in der Peripherie den inter- und intrakolumnaren Abstand nach Selbstorganisation zu reduzieren. In Mischungen mit Perylentetracarboxydiimid (PDI) als Akzeptor konnte durch eine erhöhte Dichte und eine verbesserte Ladungsträgermobilität eine relative Steigerung der Effizienz von Donor-Akzeptor-Heteroübergangs-Solarzellen um 9 % erreicht werden. Eine kovalente Verknüpfung von HBC und PDI erlaubte hier die vollständige Kontrolle der supramolekularen Organisation, des Phasenverhaltens sowie des Abstandes zwischen Donor und Akzeptor.rnrnBasierend auf den im Rahmen dieser Arbeit entwickelten Synthesekonzepten, eröffnen sich nun zahlreiche Möglichkeiten zur Entwicklung weiterer Nanographene, die entsprechend der gewünschten Anwendung funktionalisiert werden können und ein besseres Verständnis der Eigenschaften graphenartiger Materialien erlauben werden.
Resumo:
Plasmonic nanoparticles are great candidates for sensing applications with optical read-out. Plasmon sensing is based on the interaction of the nanoparticle with electromagnetic waves where the particle scatters light at its resonance wavelength. This wavelength depends on several intrinsic factors like material, shape and size of the nanoparticle as well as extrinsic factors like the refractive index of the surrounding medium. The latter allows the nanoparticle to be used as a sensor; changes in the proximate environment can be directly monitored by the wavelength of the emitted light. Due to their minuscule size and high sensitivity this allows individual nanoparticles to report on changes in particle coverage.rnrnTo use this single particle plasmon sensor for future sensing applications it has to meet the demand for detection of incidents on the single molecule level, such as single molecule sensing or even the detection of conformational changes of a single molecule. Therefore, time resolution and sensitivity have to be enhanced as today’s measurement methods for signal read-out are too slow and not sensitive enough to resolve these processes. This thesis presents a new experimental setup, the 'Plasmon Fluctuation Setup', that leads to tremendous improvements in time resolution and sensitivity. This is achieved by implementation of a stronger light source and a more sensitive detector. The new setup has a time resolution in the microsecond regime, an advancement of 4-6 orders of magnitude to previous setups. Its resonance wavelength stability of 0.03 nm, measured with an exposure time of 10 ms, is an improvement of a factor of 20 even though the exposure time is 3000 times shorter than in previous reports. Thus, previously unresolvable wavelength changes of the plasmon sensor induced by minor local environmental alteration can be monitored with extremely high temporal resolution.rnrnUsing the 'Plasmon Fluctuation Setup', I can resolve adsorption events of single unlabeled proteins on an individual nanorod. Additionally, I monitored the dynamic evolution of a single protein binding event on a millisecond time scale. This feasibility is of high interest as the role of certain domains in the protein can be probed by a study of modified analytes without the need for labels possibly introducing conformational or characteristic changes to the target. The technique also resolves equilibrium fluctuations in the coverage, opening a window into observing Brownian dynamics of unlabeled macromolecules. rnrnA further topic addressed in this thesis is the usability of the nanoruler, two nanospheres connected with a spacer molecule, as a stiffness sensor for the interparticle linker under strong illumination. Here, I discover a light induced collapse of the nanoruler. Furthermore, I exploit the sensing volume of a fixed nanorod to study unlabeled analytes diffusing around the nanorod at concentrations that are too high for fluorescence correlation spectroscopy but realistic for biological systems. Additionally, local pH sensing with nanoparticles is achieved.
Resumo:
Das aSPECT Spektrometer wurde entworfen, um das Spektrum der Protonen beimrnZerfall freier Neutronen mit hoher Präzision zu messen. Aus diesem Spektrum kann dann der Elektron-Antineutrino Winkelkorrelationskoeffizient "a" mit hoher Genauigkeit bestimmt werden. Das Ziel dieses Experiments ist es, diesen Koeffizienten mit einem absoluten relativen Fehler von weniger als 0.3% zu ermitteln, d.h. deutlich unter dem aktuellen Literaturwert von 5%.rnrnErste Messungen mit dem aSPECT Spektrometer wurden an der Forschungsneutronenquelle Heinz Maier-Leibnitz in München durchgeführt. Jedoch verhinderten zeitabhängige Instabilitäten des Meßhintergrunds eine neue Bestimmung von "a".rnrnDie vorliegende Arbeit basiert hingegen auf den letzten Messungen mit dem aSPECTrnSpektrometer am Institut Laue-Langevin (ILL) in Grenoble, Frankreich. Bei diesen Messungen konnten die Instabilitäten des Meßhintergrunds bereits deutlich reduziert werden. Weiterhin wurden verschiedene Veränderungen vorgenommen, um systematische Fehler zu minimieren und um einen zuverlässigeren Betrieb des Experiments sicherzustellen. Leider konnte aber wegen zu hohen Sättigungseffekten der Empfängerelektronik kein brauchbares Ergebnis gemessen werden. Trotzdem konnten diese und weitere systematische Fehler identifiziert und verringert, bzw. sogar teilweise eliminiert werden, wovon zukünftigernStrahlzeiten an aSPECT profitieren werden.rnrnDer wesentliche Teil der vorliegenden Arbeit befasst sich mit der Analyse und Verbesserung der systematischen Fehler, die durch das elektromagnetische Feld aSPECTs hervorgerufen werden. Hieraus ergaben sich vielerlei Verbesserungen, insbesondere konnten die systematischen Fehler durch das elektrische Feld verringert werden. Die durch das Magnetfeld verursachten Fehler konnten sogar soweit minimiert werden, dass nun eine Verbesserung des aktuellen Literaturwerts von "a" möglich ist. Darüber hinaus wurde in dieser Arbeit ein für den Versuch maßgeschneidertes NMR-Magnetometer entwickelt und soweit verbessert, dass nun Unsicherheiten bei der Charakterisierung des Magnetfeldes soweit reduziert wurden, dass sie für die Bestimmung von "a" mit einer Genauigkeit von mindestens 0.3% vernachlässigbar sind.
Resumo:
Quantum Chromodynamics (QCD) is the theory of strong interactions, one of the four fundamental forces in our Universe. It describes the interaction of gluons and quarks which build up hadrons like protons and neutrons. Most of the visible matter in our universe is made of protons and neutrons. Hence, we are interested in their fundamental properties like their masses, their distribution of charge and their shape. \\rnThe only known theoretical, non-perturbative and {\it ab initio} method to investigate hadron properties at low energies is lattice Quantum Chromodynamics (lattice QCD). However, up-to-date simulations (especially for baryonic quantities) do not achieve the accuracy of experiments. In fact, current simulations do not even reproduce the experimental values for the form factors. The question arises wether these deviations can be explained by systematic effects in lattice QCD simulations.rnrnThis thesis is about the computation of nucleon form factors and other hadronic quantities from lattice QCD. So called Wilson fermions are used and the u- and d-quarks are treated fully dynamically. The simulations were performed using gauge ensembles with a range of lattice spacings, volumes and pion masses.\\rnFirst of all, the lattice spacing was set to be able to make contact between the lattice results and their experimental complement and to be able to perform a continuum extrapolation. The light quark mass has been computed and found to be $m_{ud}^{\overline{\text{MS}}}(2\text{ GeV}) = 3.03(17)(38)\text{ MeV}$. This value is in good agreement with values from experiments and other lattice determinations.\\rnElectro-magnetic and axial form factors of the nucleon have been calculated. From these form factors the nucleon radii and the coupling constants were computed. The different ensembles enabled us to investigate systematically the dependence of these quantities on the volume, the lattice spacing and the pion mass.\newpage Finally we perform a continuum extrapolation and chiral extrapolations to the physical point.\\rnIn addition, we investigated so called excited state contributions to these observables. A technique was used, the summation method, which reduces these effects significantly and a much better agreement with experimental data was achieved. On the lattice, the Dirac radius and the axial charge are usually found to be much smaller than the experimental values. However, due to the carefully investigation of all the afore-mentioned systematic effects we get $\langle r_1^2\rangle_{u-d}=0.627(54)\text{ fm}^2$ and $g_A=1.218(92)$, which is in agreement with the experimental values within the errors.rnrnThe first three chapters introduce the theoretical background of form factors of the nucleon and lattice QCD in general. In chapter four the lattice spacing is determined. The computation of nucleon form factors is described in chapter five where systematic effects are investigated. All results are presented in chapter six. The thesis ends with a summary of the results and identifies options to complement and extend the calculations presented. rn
Resumo:
In dieser Arbeit wird eine Methode entwickelt, die Rossbywellenzüge automatisch identifiziert und und deren Eigenschaften quantifiziert. Mit dieser Methode wird der Wellenzug als eine Einheit in Raum und Zeit interpretiert. Einheit im Raum heißt, dass nicht die einzelnen Tröge und Rücken eines Wellenzugs betrachtet werden, sondern deren Einhüllende. Einheit in der Zeit bedeutet, dass der Wellenzug nicht nur zu einem Zeitpunkt betrachtet wird, sondern über seine gesamte Lebensdauer hinweg. Um den Wellenzug als räumliche und zeitliche Einheit zu erhalten, werden die Einhüllenden der Wellenzüge in Längengrad-Zeit Diagrammen, sogenannten Hovmöllerdiagrammen, betrachtet. Dort werden zusammenhängende Regionen als Objekte, die jeweils einen Wellenzug repräsentieren, identifiziert. Deren Eigenschaften werden dann automatisch berechnet. Diese Eigenschaften können nun direkt dem zugrunde liegenden Rossbywellenzug zugeordnet werden.rnDie neue Methode wird in zwei verschiedenen Szenarien angewendet: erstens zur Beurteilung der Vorhersagequalität eines einzelnen Rossbywellenzugs und zweitens für die klimatologische Betrachtung von Rossbywellenzügen im ERA-40 Reanalysedatensatz. Sie wurde weiterhin mit bisher verwendeten Methoden zur Identifikation und Quantifizierung von Rossbywellenzügen verglichen.rnDie Untersuchung der Vorhersagequalität ergab, dass in dem betrachteten Fall die Übereinstimmung der Vorhersage mit der Analyse des Wellenzugs gering war, sofern das Modell initialisiert wurde, bevor der Rossbywellenzug eingesetzt hatte. Im Gegensatz dazu nahm die Vorhersagequalität deutlich zu, wenn der Wellenzug bereits in den Vorhersagedaten enthalten war. Dies deutet darauf hin, dass es in dem vorliegenden Fall problematisch ist, mit dem Modell den Auslösemechanismus korrekt voherzusagen. Für die weitere Untersuchung der Vorhersagequalität wurde eine spezielle Art der Darstellung der Daten verwendet, mit deren Hilfe deutlich wurde, dass das verwendete Modell in der Lage ist, diesen Wellenzug ungefähr sechs Tage im Voraus vorherzusagen. Diese Zeitspanne ist deutlich kürzer als die Lebensdauer des Wellenzugs, die etwa 10 Tage beträgt.rnIm Rahmen der klimatologischen Studie ergab sich eine positive Korrelation zwischen der Lebensdauer eines Rossbywellenzugs und des Bereichs den dieser Wellenzug während seiner gesamten Existenz in zonaler Richtung überstreicht. Für Wellenzüge mit einer kurzen Lebensdauer ergab sich eine ebenfalls positive Korrelation zwischen der mittleren Amplitude und der Dauer des Wellenzugs. Für eine längere Lebensdauer geht diese Korrelation aber in eine Sättigung über und die mittlere Amplitude steigt nicht mehr weiter an. Als eine mögliche Erklärung für dieses Verhalten wird angeführt, dass eine gewisse Stärke der Amplitude benötigt wird um stromabwärtige Entwicklung zu erhalten aber zu große Amplituden im Allgemeinen zum Brechen der Welle führen. Das Brechen leitet den letzten Abschnitt im Lebenszyklus eines Rossbywellenzuges ein, welcher im Anschluss meist zerfällt. Ein weiteres Ergebnis der klimatologischen Untersuchung ist das Auffinden bevorzugter Regionen der Entstehung und des Abklingens von Rossbywellenzügen. Diese Regionen unterscheiden sich erheblich für Rossbywellenzüge unterschiedlicher minimaler Lebensdauer. Langlebige Rossbywellenzüge entstehen demnach hauptsächlich über Ostasien und dem Westpazifik und vergehen dann über Europa.rnSchließlich wurde die entwickelte Methode in einen systematischen Vergleich anderer Methoden zur Identifikation und Quantifizierung von Rossbywellenzügen eingereiht. Die betrachteten Methoden beinhalten verschiedene Trog-und-Rücken Hovmöllerdiagramme des Meridionalwindes, Methoden die Rossbywellenzüge als eine Einheit identifizieren und Methoden die den Beitrag verschiedener physikalischer Aspekte zu der Entwicklung von Rossbywellenenzügen quantifizieren. Der Vergleich macht deutlich, dass jede Methode ihre individuellen Stärken und Schwächen hat. Dies bedeutet insbesondere, dass die Eignung der Methode von dem Stadium des Lebenszyklus, in dem sich der Rossbywellenzug befindet und dem Fokus, den man bei der Betrachtung hat, abhängt. Ideal ist eine Kombination mehrerer Methoden, da dies ein vollständigeres Bild eines Rossbywellenzuges ergibt als einzelne Methoden es zu liefern vermögen. Obwohl alle Methoden für die Anwendungen, für die sie jeweils konzipiert wurden, geeignet sind, ergeben sich bei der Diagnose der Rossbywellenzüge beträchtliche Unterschiede. Letztendlich stellt sich heraus, dass sogar die Defintion eines Rossbywellenzugs bis zu einem gewissen Grad von der zu seiner Identifizierung verwendeten Methode abhängt.
Resumo:
Die kollineare Laserspektroskopie hat sich in den vergangenen drei Jahrzehnten zur Bestimmung der Kernladungsradien mittelschwerer und schwerer kurzlebiger Atomkerne in ausgezeichneter Weise bewährt. Auf die Isotope sehr leichter Elemente konnte sie allerdings erst kürzlich erweitert werden. Dieser Bereich der Nuklidkarte ist von besonderem Interesse, denn die ersten ab-initio Modelle der Kernphysik, die den Aufbau eines Atomkerns basierend auf individuellen Nukleonen und realistischenWechselwirkungspotentialen beschreiben, sind gegenwärtig nur für die leichtesten Elemente anwendbar. Außerdem existiertrnin dieser Region eine besonders exotische Form von Atomkernen, die sogenanntenrnHalokerne. Die Isotopenkette der Berylliumisotope zeichnet sich durch das Auftreten des Ein-Neutronen Halokerns 11Be und des Zwei- oder Vier-Neutronen-Halos 14Be aus. Dem Isotop 12Be kommt durch seine Position zwischen diesen beiden Exoten und den im Schalenmodell erwarteten magischen Schalenabschluss N = 8 eine besondere Bedeutung zu.rnIm Rahmen dieser Arbeit wurden mehrere frequenzstabilisierte Lasersysteme für die kollineare Laserspektroskopie aufgebaut. An TRIGA-SPEC stehen nun unter anderem ein frequenzverdoppeltes Diodenlasersystem mit Trapezverstärker und frequenzkammstabilisierter Titan-Saphirlaser mit Frequenzverdopplungsstufe für die Spektroskopie an refraktären Elementen oberhalb von Molybdän zur Verfügung, die für erste Testexperimente eingesetzt wurden. Außerdem wurde die effiziente Frequenzvervierfachung eines Titan-Saphirlasers demonstriert. An ISOLDE/CERN wurde ein frequenzkammstabilisierter und ein jodstabilisierter Farbstofflaser installiert und für die Laserspektroskopie an 9,10,11,12Be eingesetzt. Durch das verbesserte Lasersystem und den Einsatz eines verzögerten Koinzidenznachweises für Photonen und Ionen gelang es die Empfindlichkeitrnder Berylliumspektroskopie um mehr als zwei Größenordnungen zu steigern und damit die früheren Messungen an 7−11Be erstmals auf das Isotop 12Be auszuweiten. Außerdem wurde die Genauigkeit der absoluten Übergangsfrequenzen und der Isotopieverschiebungen der Isotope 9,10,11Be signifikant verbessert.rnDurch den Vergleich mit Ergebnissen des Fermionic Molecular Dynamics Modells kann der Trend der Ladungsradien der leichteren Isotope durch die ausgeprägte Clusterstruktur der Berylliumkerne erklärt werden. Für 12Be wird ersichtlich, dass der Grundzustand durch eine (sd)2 Konfiguration statt der vom Schalenmodell erwarteten p2 Konfiguration dominiert wird. Dies ist ein klares Indiz für das bereits zuvor beobachtete Verschwinden des N = 8 Schalenabschlusses bei 12Be.
Resumo:
Seit Jahren werden Diskussionen über Erfolgskontrolle in der kommunalen Wirtschaftsförderung geführt. Im Vordergrund steht dabei die Suche nach Indikatoren und Verfahren, die es den kommunalen Wirtschaftsförderungen ermöglichen sollen, Erfolge zu messen. rnDa die Wirtschaftsförderung zu den freiwilligen Leistungen einer Gemeinde zählt, erhöht sich der Druck der Rechtfertigung gegenüber der Öffentlichkeit oder der Politik, das gilt insbesondere in Zeiten knapper öffentlicher Haushalte. Firmenansiedlungen, eine positive wirtschaftliche Entwicklung oder eine geringe Arbeitslosenquote sind sowohl im öffentlichen Bewusstsein als auch in der Politik wesentliche Kriterien einer erfolgreichen Wirtschaftsförderung. Sich ständig ändernde Rahmenbedingungen im wirtschaftsstrukturellen Gefüge haben dazu geführt, dass diese klassischen Nachweise von Erfolg immer seltener als solche präsentiert werden können. Erfolge sollten dennoch gemessen werden, um Maßnahmen und Instrumente einer kommunalen Wirtschaftsförderung zu überprüfen und gegebenenfalls an die geänderten Bedingungen anzupassen. rnEs ist schon mehr als 30 Jahre her, als in den 1970er Jahren die Suche nach Methoden und Verfahren der Erfolgskontrolle in der öffentlichen Verwaltung begann. Erfolge von kommunaler Wirtschaftsförderung können nicht einfach und ausschließlich an den markantesten wirtschaftlichen Ziffern der Kommune gemessen werden, z. B. der Zahl der sozialversicherungspflichtigen Arbeitsplätze. Seit Jahren wird um einen Lösungsweg bei der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung gerungen, abschließend wurde jedoch noch kein vollends befriedigend praktikabler Weg gefunden. Zu hinterfragen ist vor dem Hintergrund, inwiefern die vier Elemente einer Erfolgskontrolle, nämlich die Zielerreichungs-, Vollzugs-, Bedingungs- und Wirkungskontrolle, tatsächlich und hinreichend zum Einsatz kommen können.rnDie vorliegenden empirischen Untersuchungen beleuchten nun das Thema aus Sicht der kommunalen Wirtschaftsförderer und liefern Ergebnisse, die zu einem veränderten Bewusstsein gegenüber der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung führen müssten. Unabhängig von der Organisationsform und der Größe einer kommunalen Wirtschaftsförderung lässt sich empirisch nachweisen, dass der Anspruch, den der Begriff der Erfolgskontrolle in seiner gängigen Beschreibung erhebt, nicht hinreichend von einer kommunalen Wirtschaftsförderung erfüllt werden kann. rnMit Hilfe des neu entwickelten Prozesses einer modifizierten Erfolgskontrolle wird in vorliegender Arbeit ein idealtypischer Ablauf für eine kommunale Wirtschaftsförderung dargestellt. Der neue Ansatz einer modifizierten Erfolgskontrolle ist eine konsequente Reduzierung der Anforderungen auf das Praktikable und führt dazu, dass Erfolge der kommunalen Wirtschaftsförderung dargestellt werden können, ohne dass das Verfahren mehr Fragen offen lässt, als es beantwortet. Durch die modifizierte Erfolgskontrolle können die spezifischen Erfolge einer kommunalen Wirtschaftsförderung dargestellt und dokumentiert werden. rnEine modifizierte Erfolgskontrolle kann zweierlei: Sie ist eine Hilfestellung für die politisch Verantwortlichen bei der Erkenntnis, dass eine Notwendigkeit nach konkreten und der Ist-Situation sowie den Randbedingungen angepassten Zielformulierungen besteht. Sie bietet aber auch eine Möglichkeit, dass die kommunalen Wirtschaftsförderungseinrichtungen dem in der öffentlichen Diskussion formulierten Anspruch nach Erfolgskontrolle mit einem hohen Grad an Praktikabilität gerecht werden können. rnBevor also viele kommunale Wirtschaftsförderungen durch die fragwürdige Forderung an eine Erfolgskontrolle aufgrund der zu hohen Anforderungen an Methodik, Zeit und Personal aufgeben, sollte ihnen die Konzentration auf das Praktikable wieder Anreiz sein, eine modifizierte Erfolgskontrolle nach dem neuen Prozessschema in Angriff zu nehmen. rnrn
Resumo:
Computer-Simulationen von Kolloidalen Fluiden in Beschränkten Geometrien Kolloidale Suspensionen, die einen Phasenübergang aufweisen, zeigen eine Vielfalt an interessanten Effekten, sobald sie auf eine bestimmte Geometrie beschränkt werden, wie zum Beispiel auf zylindrische Poren, sphärische Hohlräume oder auf einen Spalt mit ebenen Wänden. Der Einfluss dieser verschiedenen Geometrietypen sowohl auf das Phasenverhalten als auch auf die Dynamik von Kolloid-Polymer-Mischungen wird mit Hilfe von Computer-Simulationen unter Verwendung des Asakura-Oosawa- Modells, für welches auf Grund der “Depletion”-Kräfte ein Phasenübergang existiert, untersucht. Im Fall von zylindrischen Poren sieht man ein interessantes Phasenverhalten, welches vom eindimensionalen Charakter des Systems hervorgerufen wird. In einer kurzen Pore findet man im Bereich des Phasendiagramms, in dem das System typischerweise entmischt, entweder eine polymerreiche oder eine kolloidreiche Phase vor. Sobald aber die Länge der zylindrischen Pore die typische Korrelationslänge entlang der Zylinderachse überschreitet, bilden sich mehrere quasi-eindimensionale Bereiche der polymerreichen und der kolloidreichen Phase, welche von nun an koexistieren. Diese Untersuchungen helfen das Verhalten von Adsorptionshysteresekurven in entsprechenden Experimenten zu erklären. Wenn das Kolloid-Polymer-Modellsystem auf einen sphärischen Hohlraum eingeschränkt wird, verschiebt sich der Punkt des Phasenübergangs von der polymerreichen zur kolloidreichen Phase. Es wird gezeigt, dass diese Verschiebung direkt von den Benetzungseigenschaften des Systems abhängt, was die Beobachtung von zwei verschiedenen Morphologien bei Phasenkoexistenz ermöglicht – Schalenstrukturen und Strukturen des Janustyps. Im Rahmen der Untersuchung von heterogener Keimbildung von Kristallen innerhalb einer Flüssigkeit wird eine neue Simulationsmethode zur Berechnung von Freien Energien der Grenzfläche zwischen Kristall- bzw. Flüssigkeitsphase undWand präsentiert. Die Resultate für ein System von harten Kugeln und ein System einer Kolloid- Polymer-Mischung werden anschließend zur Bestimmung von Kontaktwinkeln von Kristallkeimen an Wänden verwendet. Die Dynamik der Phasenseparation eines quasi-zweidimensionalen Systems, welche sich nach einem Quench des Systems aus dem homogenen Zustand in den entmischten Zustand ausbildet, wird mit Hilfe von einer mesoskaligen Simulationsmethode (“Multi Particle Collision Dynamics”) untersucht, die sich für eine detaillierte Untersuchung des Einflusses der hydrodynamischen Wechselwirkung eignet. Die Exponenten universeller Potenzgesetze, die das Wachstum der mittleren Domänengröße beschreiben, welche für rein zwei- bzw. dreidimensionale Systeme bekannt sind, können für bestimmte Parameterbereiche nachgewiesen werden. Die unterschiedliche Dynamik senkrecht bzw. parallel zu den Wänden sowie der Einfluss der Randbedingungen für das Lösungsmittel werden untersucht. Es wird gezeigt, dass die daraus resultierende Abschirmung der hydrodynamischen Wechselwirkungsreichweite starke Auswirkungen auf das Wachstum der mittleren Domänengröße hat.
Resumo:
Atmosphärische Aerosolpartikel wirken in vielerlei Hinsicht auf die Menschen und die Umwelt ein. Eine genaue Charakterisierung der Partikel hilft deren Wirken zu verstehen und dessen Folgen einzuschätzen. Partikel können hinsichtlich ihrer Größe, ihrer Form und ihrer chemischen Zusammensetzung charakterisiert werden. Mit der Laserablationsmassenspektrometrie ist es möglich die Größe und die chemische Zusammensetzung einzelner Aerosolpartikel zu bestimmen. Im Rahmen dieser Arbeit wurde das SPLAT (Single Particle Laser Ablation Time-of-flight mass spectrometer) zur besseren Analyse insbesondere von atmosphärischen Aerosolpartikeln weiterentwickelt. Der Aerosoleinlass wurde dahingehend optimiert, einen möglichst weiten Partikelgrößenbereich (80 nm - 3 µm) in das SPLAT zu transferieren und zu einem feinen Strahl zu bündeln. Eine neue Beschreibung für die Beziehung der Partikelgröße zu ihrer Geschwindigkeit im Vakuum wurde gefunden. Die Justage des Einlasses wurde mithilfe von Schrittmotoren automatisiert. Die optische Detektion der Partikel wurde so verbessert, dass Partikel mit einer Größe < 100 nm erfasst werden können. Aufbauend auf der optischen Detektion und der automatischen Verkippung des Einlasses wurde eine neue Methode zur Charakterisierung des Partikelstrahls entwickelt. Die Steuerelektronik des SPLAT wurde verbessert, so dass die maximale Analysefrequenz nur durch den Ablationslaser begrenzt wird, der höchsten mit etwa 10 Hz ablatieren kann. Durch eine Optimierung des Vakuumsystems wurde der Ionenverlust im Massenspektrometer um den Faktor 4 verringert.rnrnNeben den hardwareseitigen Weiterentwicklungen des SPLAT bestand ein Großteil dieser Arbeit in der Konzipierung und Implementierung einer Softwarelösung zur Analyse der mit dem SPLAT gewonnenen Rohdaten. CRISP (Concise Retrieval of Information from Single Particles) ist ein auf IGOR PRO (Wavemetrics, USA) aufbauendes Softwarepaket, das die effiziente Auswertung der Einzelpartikel Rohdaten erlaubt. CRISP enthält einen neu entwickelten Algorithmus zur automatischen Massenkalibration jedes einzelnen Massenspektrums, inklusive der Unterdrückung von Rauschen und von Problemen mit Signalen die ein intensives Tailing aufweisen. CRISP stellt Methoden zur automatischen Klassifizierung der Partikel zur Verfügung. Implementiert sind k-means, fuzzy-c-means und eine Form der hierarchischen Einteilung auf Basis eines minimal aufspannenden Baumes. CRISP bietet die Möglichkeit die Daten vorzubehandeln, damit die automatische Einteilung der Partikel schneller abläuft und die Ergebnisse eine höhere Qualität aufweisen. Daneben kann CRISP auf einfache Art und Weise Partikel anhand vorgebener Kriterien sortieren. Die CRISP zugrundeliegende Daten- und Infrastruktur wurde in Hinblick auf Wartung und Erweiterbarkeit erstellt. rnrnIm Rahmen der Arbeit wurde das SPLAT in mehreren Kampagnen erfolgreich eingesetzt und die Fähigkeiten von CRISP konnten anhand der gewonnen Datensätze gezeigt werden.rnrnDas SPLAT ist nun in der Lage effizient im Feldeinsatz zur Charakterisierung des atmosphärischen Aerosols betrieben zu werden, während CRISP eine schnelle und gezielte Auswertung der Daten ermöglicht.
Resumo:
Der Haupt-Lichtsammenkomplex II (LHCII) höherer Pflanzen ist das häufigsternMembranprotein der Welt und in die chloroplastidäre Thylakoidmembran integriert. DerrnLHCII kann als Modellsystem genutzt werden, um die Funktionsweise vonrnMembranproteinen besser zu verstehen, da 96 % seiner Struktur kristallografisch aufgelöstrnist und er in rekombinanter Form in vitro rückgefaltet werden kann. Hierbei entsteht einrnvoll funktionaler Protein-Pigment.Komplex, der nahezu identisch mit der in vivo Varianternist.rnElektronenparamagnetischen Resonanz (EPR) Spektroskopie ist eine hoch sensitive undrnideal geeignete Methode, um die Strukturdynamik von Proteinen zu untersuchen. Hierzurnist eine ortsspezifische Markierung mit Spinsonden notwendig, die kovalent an Cysteinernbinden. Möglich wird dies, indem sorgfältig ausgewählte Aminosäuren gegen Cysteinerngetauscht werden, ohne dass die Funktionsweise des LHCII beeinträchtigt wird.rnIm Rahmen dieser Arbeit wurden die Stabilität des verwendeten Spinmarkers und diernProbenqualität verbessert, indem alle Schritte der Probenpräparation untersucht wurden.rnMithilfe dieser Erkenntnisse konnte sowohl die Gefahr einer Proteinaggregation als auchrnein Verlust des EPR Signals deutlich vermindert werden. In Kombination mit derrngleichzeitigen Etablierung des Q-Band EPR können nun deutlich geringer konzentrierternProben zuverlässig vermessen werden. Darüber hinaus wurde eine reproduzierbarernMethode entwickelt, um heterogene Trimere herzustellen. Diese bestehen aus einemrndoppelt markierten Monomer und zwei unmarkierten Monomeren und erlauben es, diernkristallografisch unvollständig aufgelöste N-terminale Domäne im monomeren undrntrimeren Assemblierungsgrad zu untersuchen. Die Ergebnisse konnten einerseits diernVermutung bestätigen, dass diese Domäne im Vergleich zum starren Proteinkern sehrrnflexibel ist und andererseits, dass sie in Monomeren noch mobiler ist als in Trimeren.rnZudem wurde die lumenale Schleifenregion bei unterschiedlichen pH Werten undrnvariierender Pigmentzusammensetzung untersucht, da dieser Bereich sehr kontroversrndiskutiert wird. Die Messergebnisse offenbarten, dass diese Region starre und flexiblerernSektionen aufweist. Während der pH Wert keinen Einfluss auf die Konformation hatte,rnzeigte sich, dass die Abwesenheit von Neoxanthin zu einer Änderung der Konformationrnführt. Weiterführende Analysen der strukturellen Dynamik des LHCII in einerrnLipidmembran konnten hingegen nicht durchgeführt werden, da dies eine gerichteternInsertion des rückgefalteten Proteins in Liposomen erfordert, was trotz intensiverrnVersuche nicht zum Erfolg führte.
Resumo:
Die Förderung der Zelladhäsion durch sogenannte biomimetische Oberflächen wird in der Medizin als vielversprechender Ansatz gesehen, um Komplikationen wie z. B. Fremdkörperreaktionen nach der Implantation entgegenzuwirken. Neben der Immobilisierung einzelner Biomoleküle wie z. B. dem RGD-Peptid, Proteinen und Wachstumsfaktoren auf verschiedenen Materialien, konzentriert man sich derzeit in der Forschung auf die Co-Immobilisierung zweier Moleküle gleichzeitig. Hierbei werden die funktionellen Gruppen z. B. von Kollagen unter Verwendung von nur einer Kopplungschemie verwendet, wodurch die Kopplungseffizienz der einzelnen Komponenten nur begrenzt kontrollierbar ist. Das Ziel der vorliegenden Arbeit war die Entwicklung eines Immobilisierungsverfahrens, welches die unabhängige Kopplung zweier Faktoren kontrolliert ermöglicht. Dabei sollten exemplarisch das adhäsionsfördernde RGD-Peptid (Arginin-Glycin-Asparaginsäure) zusammen mit dem Wachstumsfaktor VEGF (Vascular Endothelial Growth Factor) auf Titan gebunden werden. In weiteren Experimenten sollten dann die pro-adhäsiven Faktoren Fibronektin, Kollagen, Laminin und Osteopontin immobilisiert und untersucht werden. rnDie Aminofunktionalisierung von Titan durch plasma polymerisierte Allylaminschichten wurde als Grundlage für die Entwicklung des nasschemischen Co-immobilisierungsverfahren verwendet. Für eine unabhängige und getrennte Anbindung der verschiedenen Biomoleküle stand in diesem Zusammenhang die Entwicklung eines geeigneten Crosslinker Systems im Vordergrund. Die Oberflächencharakterisierung der entwickelten Oberflächen erfolgte mittels Infrarot Spektroskopie, Surface Plasmon Resonance Spektroskopie (SPR), Kontaktwinkelmessungen, Step Profiling und X-Ray Photoelectron Spektroskopie (XPS). Zur Analyse der Anbindungsprozesse in Echtzeit wurden SPR-Kinetik Messungen durchgeführt. Die biologische Funktionalität der modifizierten Oberflächen wurde in vitro an Endothelzellen (HUVECs) und Osteoblasten (HOBs) und in vivo in einem Tiermodell-System an der Tibia von Kaninchen untersucht.rnDie Ergebnisse zeigen, dass alle genannten Biomoleküle sowohl einzeln auf Titan kovalent gekoppelt als auch am Bespiel von RGD und VEGF in einem getrennten Zwei-Schritt-Verfahren co-immobilisiert werden können. Des Weiteren wurde die biologische Funktionalität der gebundenen Faktoren nachgewiesen. Im Falle der RGD modifizierten Oberflächen wurde nach 7 Tagen eine geförderte Zelladhäsion von HUVECs mit einer signifikant erhöhten Zellbesiedlungsdichte von 28,5 % (p<0,05) gezeigt, wohingegen auf reinem Titan Werte von nur 13 % beobachtet wurden. Sowohl VEGF als auch RGD/VEGF modifizierte Proben wiesen im Vergleich zu Titan schon nach 24 Stunden eine geförderte Zelladhäsion und eine signifikant erhöhte Zellbesiedlungsdichte auf. Bei einer Besiedlung von 7,4 % auf Titan, zeigten VEGF modifizierte Proben mit 32,3 % (p<0,001) eine deutlichere Wirkung auf HUVECs als RGD/VEGF modifizierte Proben mit 13,2 % (p<0,01). Die pro-adhäsiven Faktoren zeigten eine deutliche Stimulation der Zelladhäsion von HUVECs und HOBs im Vergleich zu reinem Titan. Die deutlich höchsten Besiedlungsdichten von HUVECs konnten auf Fibronektin mit 44,6 % (p<0,001) und Kollagen mit 39,9 % (p<0,001) nach 24 Stunden beobachtet werden. Laminin zeigte keine und Osteopontin nur eine sehr geringe Wirkung auf HUVECs. Bei Osteoblasten konnten signifikant erhöhte Besiedlungsdichten im Falle aller pro-adhäsiven Faktoren beobachtet werden, jedoch wurden die höchsten Werte nach 7 Tagen auf Kollagen mit 90,6 % (p<0,001) und Laminin mit 86,5 % (p<0,001) im Vergleich zu Titan mit 32,3 % beobachtet. Die Auswertung der Tierexperimente ergab, dass die VEGF modifizierten Osteosyntheseplatten, im Vergleich zu den reinen Titankontrollen, eine gesteigerte Knochenneubildung auslösten. Eine solche Wirkung konnte für RGD/VEGF modifizierte Implantate nicht beobachtet werden. rnInsgesamt konnte gezeigt werden, dass mittels plasmapolymerisierten Allylamin Schichten die genannten Biomoleküle sowohl einzeln gebunden als auch getrennt und kontrolliert co-immobilisiert werden können. Des Weiteren konnte eine biologische Funktionalität für alle Faktoren nach erfolgter Kopplung in vitro gezeigt werden. Wider Erwarten konnte jedoch kein zusätzlicher biologischer Effekt durch die Co-immobilisierung von RGD und VEGF im Vergleich zu den einzeln immobilisierten Faktoren gezeigt werden. Um zu einer klinischen Anwendung zu gelangen, ist es nun notwendig, das entwickelte Verfahren in Bezug auf die immobilisierten Mengen der verschiedenen Faktoren hin zu optimieren. rn