957 resultados para Planar jet, hot-wire anemometry, calibration procedure, experiments for the characterization
Resumo:
In this work, metal nanoparticles produced by nanosphere lithography were studied in terms of their optical properties (in connection to their plasmon resonances), their potential application in sensing platforms - for thin layer sensing and bio-recognition events -, and for a particular case (the nanocrescents), for enhanced spectroscopy studies. The general preparation procedures introduced early in 2005 by Shumaker-Parry et al. to produce metallic nanocrescents were extended to give rise to more complex (isolated) structures, and also, by combining colloidal monolayer fabrication and plasma etching techniques, to arrays of them. The fabrication methods presented in this work were extended not only to new shapes or arrangements of particles, but included also a targeted surface tailoring of the substrates and the structures, using different thiol and silane compounds as linkers for further attachment of, i.e. polyelectrolyte layers, which allow for a controlled tailoring of their nanoenvironment. The optical properties of the nanocrescents were studied with conventional transmission spectroscopy; a simple multipole model was adapted to explain their behaviour qualitatively. In terms of applications, the results on thin film sensing using these particles show that the crescents present an interesting mode-dependent sensitivity and spatial extension. Parallel to this, the penetrations depths were modeled with two simplified schemes, obtaining good agreement with theory. The multiple modes of the particles with their characteristic decay lengths and sensitivities represent a major improvement for particle-sensing platforms compared to previous single resonance systems. The nanocrescents were also used to alter the emission properties of fluorophores placed close to them. In this work, green emitting dyes were placed at controlled distances from the structures and excited using a pulsed laser emitting in the near infrared. The fluorescence signal obtained in this manner should be connected to a two-photon processes triggered by these structures; obtaining first insight into plasmon-mediated enhancement phenomena. An even simpler and faster approach to produce plasmonic structures than that for the crescents was tested. Metallic nanodiscs and nanoellipses were produced by means of nanosphere lithography, extending a procedure reported in the literature to new shapes and optical properties. The optical properties of these particles were characterized by extinction spectroscopy and compared to results from the literature. Their major advantage is that they present a polarization-dependent response, like the nanocrescents, but are much simpler to fabricate, and the resonances can be tailored in the visible with relative ease. The sensing capabilities of the metallic nanodiscs were explored in the same manner as for the nanocrescents, meaning their response to thin layers and to bio-recognition events on their surface. The sensitivity of these nanostructures to thin films proved to be lower than that of the crescents, though in the same order of magnitude. Experimental information about the near field extension for the Au nanodiscs of different sizes was also extracted from these measurements. Further resonance-tailoring approaches based on electrochemical deposition of metals on the nanodiscs were explored, as a means of modifying plasmon resonances by changing surface properties of the nanoparticles. First results on these experiments would indicate that the deposition of Ag on Au on a submonolayer coverage level can lead to important blue-shifts in the resonances, which would open a simple way to tailor resonances by changing material properties in a local manner.
Resumo:
Sowohl in der Natur als auch in der Industrie existieren thermisch induzierte Strömungen. Von Interesse für diese Forschungsarbeit sind dabei die Konvektionen im Erdmantel sowie in den Glasschmelzwannen. Der dort stattfindende Materialtransport resultiert aus Unterschieden in der Dichte, der Temperatur und der chemischen Konzentration innerhalb des konvektierenden Materials. Um das Verständnis für die ablaufenden Prozesse zu verbessern, werden von zahlreichen Forschergruppen numerische Modellierungen durchgeführt. Die Verifikation der dafür verwendeten Algorithmen erfolgt meist über die Analyse von Laborexperimenten. Im Vordergrund dieser Forschungsarbeit steht die Entwicklung einer Methode zur Bestimmung der dreidimensionalen Temperaturverteilung für die Untersuchung von thermisch induzierten Strömungen in einem Versuchsbecken. Eine direkte Temperaturmessung im Inneren des Versuchsmaterials bzw. der Glasschmelze beeinflusst allerdings das Strömungsverhalten. Deshalb wird die geodynamisch störungsfrei arbeitende Impedanztomographie verwendet. Die Grundlage dieser Methode bildet der erweiterte Arrhenius-Zusammenhang zwischen Temperatur und spezifischer elektrischer Leitfähigkeit. Während der Laborexperimente wird ein zähflüssiges Polyethylenglykol-Wasser-Gemisch in einem Becken von unten her erhitzt. Die auf diese Weise generierten Strömungen stellen unter Berücksichtigung der Skalierung ein Analogon sowohl zu dem Erdmantel als auch zu den Schmelzwannen dar. Über mehrere Elektroden, die an den Beckenwänden installiert sind, erfolgen die geoelektrischen Messungen. Nach der sich anschließenden dreidimensionalen Inversion der elektrischen Widerstände liegt das Modell mit der Verteilung der spezifischen elektrischen Leitfähigkeit im Inneren des Versuchsbeckens vor. Diese wird mittels der erweiterten Arrhenius-Formel in eine Temperaturverteilung umgerechnet. Zum Nachweis der Eignung dieser Methode für die nichtinvasive Bestimmung der dreidimensionalen Temperaturverteilung wurden mittels mehrerer Thermoelemente an den Beckenwänden zusätzlich direkte Temperaturmessungen durchgeführt und die Werte miteinander verglichen. Im Wesentlichen sind die Innentemperaturen gut rekonstruierbar, wobei die erreichte Messgenauigkeit von der räumlichen und zeitlichen Auflösung der Gleichstromgeoelektrik abhängt.
Resumo:
Perfusion CT imaging of the liver has potential to improve evaluation of tumour angiogenesis. Quantitative parameters can be obtained applying mathematical models to Time Attenuation Curve (TAC). However, there are still some difficulties for an accurate quantification of perfusion parameters due, for example, to algorithms employed, to mathematical model, to patient’s weight and cardiac output and to the acquisition system. In this thesis, new parameters and alternative methodologies about liver perfusion CT are presented in order to investigate the cause of variability of this technique. Firstly analysis were made to assess the variability related to the mathematical model used to compute arterial Blood Flow (BFa) values. Results were obtained implementing algorithms based on “ maximum slope method” and “Dual input one compartment model” . Statistical analysis on simulated data demonstrated that the two methods are not interchangeable. Anyway slope method is always applicable in clinical context. Then variability related to TAC processing in the application of slope method is analyzed. Results compared with manual selection allow to identify the best automatic algorithm to compute BFa. The consistency of a Standardized Perfusion Index (SPV) was evaluated and a simplified calibration procedure was proposed. At the end the quantitative value of perfusion map was analyzed. ROI approach and map approach provide related values of BFa and this means that pixel by pixel algorithm give reliable quantitative results. Also in pixel by pixel approach slope method give better results. In conclusion the development of new automatic algorithms for a consistent computation of BFa and the analysis and definition of simplified technique to compute SPV parameter, represent an improvement in the field of liver perfusion CT analysis.
Resumo:
Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.
Resumo:
Atmospheric aerosol particles serving as cloud condensation nuclei (CCN) are key elements of the hydrological cycle and climate. Knowledge of the spatial and temporal distribution of CCN in the atmosphere is essential to understand and describe the effects of aerosols in meteorological models. In this study, CCN properties were measured in polluted and pristine air of different continental regions, and the results were parameterized for efficient prediction of CCN concentrations.The continuous-flow CCN counter used for size-resolved measurements of CCN efficiency spectra (activation curves) was calibrated with ammonium sulfate and sodium chloride aerosols for a wide range of water vapor supersaturations (S=0.068% to 1.27%). A comprehensive uncertainty analysis showed that the instrument calibration depends strongly on the applied particle generation techniques, Köhler model calculations, and water activity parameterizations (relative deviations in S up to 25%). Laboratory experiments and a comparison with other CCN instruments confirmed the high accuracy and precision of the calibration and measurement procedures developed and applied in this study.The mean CCN number concentrations (NCCN,S) observed in polluted mega-city air and biomass burning smoke (Beijing and Pearl River Delta, China) ranged from 1000 cm−3 at S=0.068% to 16 000 cm−3 at S=1.27%, which is about two orders of magnitude higher than in pristine air at remote continental sites (Swiss Alps, Amazonian rainforest). Effective average hygroscopicity parameters, κ, describing the influence of chemical composition on the CCN activity of aerosol particles were derived from the measurement data. They varied in the range of 0.3±0.2, were size-dependent, and could be parameterized as a function of organic and inorganic aerosol mass fraction. At low S (≤0.27%), substantial portions of externally mixed CCN-inactive particles with much lower hygroscopicity were observed in polluted air (fresh soot particles with κ≈0.01). Thus, the aerosol particle mixing state needs to be known for highly accurate predictions of NCCN,S. Nevertheless, the observed CCN number concentrations could be efficiently approximated using measured aerosol particle number size distributions and a simple κ-Köhler model with a single proxy for the effective average particle hygroscopicity. The relative deviations between observations and model predictions were on average less than 20% when a constant average value of κ=0.3 was used in conjunction with variable size distribution data. With a constant average size distribution, however, the deviations increased up to 100% and more. The measurement and model results demonstrate that the aerosol particle number and size are the major predictors for the variability of the CCN concentration in continental boundary layer air, followed by particle composition and hygroscopicity as relatively minor modulators. Depending on the required and applicable level of detail, the measurement results and parameterizations presented in this study can be directly implemented in detailed process models as well as in large-scale atmospheric and climate models for efficient description of the CCN activity of atmospheric aerosols.
Resumo:
Early-Type galaxies (ETGs) are embedded in hot (10^6-10^7 K), X-ray emitting gaseous haloes, produced mainly by stellar winds and heated by Type Ia supernovae explosions, by the thermalization of stellar motions and occasionally by the central super-massive black hole (SMBH). In particular, the thermalization of the stellar motions is due to the interaction between the stellar and the SNIa ejecta and the hot interstellar medium (ISM) already residing in the ETG. A number of different astrophysical phenomena determine the X-ray properties of the hot ISM, such as stellar population formation and evolution, galaxy structure and internal kinematics, Active Galactic Nuclei (AGN) presence, and environmental effects. With the aid of high-resolution hydrodynamical simulations performed on state-of-the-art galaxy models, in this Thesis we focus on the effects of galaxy shape, stellar kinematics and star formation on the evolution of the X-ray coronae of ETGs. Numerical simulations show that the relative importance of flattening and rotation are functions of the galaxy mass: at low galaxy masses, adding flattening and rotation induces a galactic wind, thus lowering the X-ray luminosity; at high galaxy masses the angular momentum conservation keeps the central regions of rotating galaxies at low density, whereas in non-rotating models a denser and brighter atmosphere is formed. The same dependence from the galaxy mass is present in the effects of star formation (SF): in light galaxies SF contributes to increase the spread in Lx, while at high galaxy masses the halo X-ray properties are marginally sensitive to SF effects. In every case, the star formation rate at the present epoch quite agrees with observations, and the massive, cold gaseous discs are partially or completely consumed by SF on a time-scale of few Gyr, excluding the presence of young stellar discs at the present epoch.
Resumo:
Zusammenfassungrn Der Faltungsprozess des Hauptlichtsammelkomplexes des Photosystems II aus höheren Pflanzen (light harvesting complex II, LHCII) wurde bereits mehrfach untersucht, die Experimente hierzu fanden stets im Ensemble statt. Anhand der bislang veröffentlichten Faltungskinetiken des LHCII aus höheren Pflanzen lassen sich aber keine eindeutigen Aussagen bezüglich der Diversität der Faltungswege treffen. Daher sollten im Rahmen dieser Arbeit Faltungskinetiken einzelner LHCII-Moleküle während der Komplexbildung aufgenommen werden, um weitergehende Informationen zum Faltungsmechanismus zu erhalten und zur Frage, ob hier mehrere unterschiedliche Wege eingeschlagen werden.rnHierfür war zunächst die Etablierung einer Oberflächenimmobilisierung mit Glas als Trägermaterial notwendig. Nachdem Versuche, diese Immobilisierung über einen His6-tag oder über einen heterobifunktionellen Linker zu bewerkstelligen, nicht zum Erfolg geführt haben, konnte eine Immobilisierung des Biotin-markierten Proteins an Oberflächen-gebundenes Avidin erreicht werden. Die Qualität dieser Immobilisierung wurde hierbei sowohl über Bindungsversuche mit fluoreszenzfarbstoffmarkiertem Protein als auch über eine direkte Kontrolle der Oberflächenbeschaffenheit mittels Rasterkraftmikroskopie überprüft. Die für die folgenden Versuche optimale Belegungsdichte wurde im konfokalen Fluoreszenzmikroskop ermittelt. Zudem wurde sichergestellt, dass die Proteine vereinzelt auf der Oberfläche immobilisiert vorliegen.rnAuf dieser Basis wurden LHCII-Komplexe, die zuvor in vitro rekonstituiert wurden, immobilisiert und Versuche zur kontrollierten Denaturierung unternommen, um Zerfalls-kinetiken im Verfahren der internen Totalreflexionsfluoreszenzmikroskopie (total internal reflection fluorescence, TIRF) aufnehmen zu können. Hierbei traten Schwierigkeiten bezüglich der Lebensdauer der Komplexe unter Laser-Belichtung auf, da sich die Löschung der Fluoreszenz durch Zerstrahlung der Pigmente einerseits oder Dissoziation der LHCII andererseits nicht unterscheiden ließen. Auch durch verschiedene Maßnahmen zur Erhöhung der Lebensdauer konnte diese nicht in dem Maße gesteigert werden, wie es experimentell notwendig gewesen wäre.rnFür das eigentliche Hauptziel dieser Arbeit – die Aufzeichnung von Einzelmolekül-Faltungskinetiken – war die Entwicklung einer Methode zur Rekonstitution oberflächen-immobilisierter LHCII-Apoproteine notwendig. Dieses Ziel wurde mithilfe einer Detergenzmisch-Rekonstitution erreicht. Der Erfolg der Rekonstitution konnte experimentell sowohl im Fluorimeter anhand des komplexinternen Energietransfers auf einen kovalent an das Protein gebundenen Infrarot-Fluorophor als auch im TIRF-Verfahren direkt beobachtet werden. Auch hier konnte nach ca. 80 Sekunden ein Ausbleichen der Komplexe während der Belichtung durch den Anregungs-Laser beobachtet werden.rnIn Versuchen zur Beobachtung des Komplexbildungsvorganges zeigte sich, dass die Rekonstitution offenbar durch die Belichtung massiv gestört wird. Ein weiteres Problem war eine sehr starke Hintergrundfluoreszenz, ausgelöst durch die zur Rekonstitution notwendige Pigmentlösung, die trotz der TIRF-Anregung von ausschließlich oberflächengebundenem Material die Fluoreszenz der Komplexe überlagerte. Somit konnte die Rekonstitution oberflächenimmobilisierter LHCII-Proteine zwar in Vorher-Nachher-Aufnahmen gezeigt werden, der Faltungsprozess an sich konnte dagegen im Rahmen dieser Arbeit nicht aufgezeichnet werden.
Resumo:
I present a new experimental method called Total Internal Reflection Fluorescence Cross-Correlation Spectroscopy (TIR-FCCS). It is a method that can probe hydrodynamic flows near solid surfaces, on length scales of tens of nanometres. Fluorescent tracers flowing with the liquid are excited by evanescent light, produced by epi-illumination through the periphery of a high NA oil-immersion objective. Due to the fast decay of the evanescent wave, fluorescence only occurs for tracers in the ~100 nm proximity of the surface, thus resulting in very high normal resolution. The time-resolved fluorescence intensity signals from two laterally shifted (in flow direction) observation volumes, created by two confocal pinholes are independently measured and recorded. The cross-correlation of these signals provides important information for the tracers’ motion and thus their flow velocity. Due to the high sensitivity of the method, fluorescent species with different size, down to single dye molecules can be used as tracers. The aim of my work was to build an experimental setup for TIR-FCCS and use it to experimentally measure the shear rate and slip length of water flowing on hydrophilic and hydrophobic surfaces. However, in order to extract these parameters from the measured correlation curves a quantitative data analysis is needed. This is not straightforward task due to the complexity of the problem, which makes the derivation of analytical expressions for the correlation functions needed to fit the experimental data, impossible. Therefore in order to process and interpret the experimental results I also describe a new numerical method of data analysis of the acquired auto- and cross-correlation curves – Brownian Dynamics techniques are used to produce simulated auto- and cross-correlation functions and to fit the corresponding experimental data. I show how to combine detailed and fairly realistic theoretical modelling of the phenomena with accurate measurements of the correlation functions, in order to establish a fully quantitative method to retrieve the flow properties from the experiments. An importance-sampling Monte Carlo procedure is employed in order to fit the experiments. This provides the optimum parameter values together with their statistical error bars. The approach is well suited for both modern desktop PC machines and massively parallel computers. The latter allows making the data analysis within short computing times. I applied this method to study flow of aqueous electrolyte solution near smooth hydrophilic and hydrophobic surfaces. Generally on hydrophilic surface slip is not expected, while on hydrophobic surface some slippage may exists. Our results show that on both hydrophilic and moderately hydrophobic (contact angle ~85°) surfaces the slip length is ~10-15nm or lower, and within the limitations of the experiments and the model, indistinguishable from zero.
Resumo:
Computer-Simulationen von Kolloidalen Fluiden in Beschränkten Geometrien Kolloidale Suspensionen, die einen Phasenübergang aufweisen, zeigen eine Vielfalt an interessanten Effekten, sobald sie auf eine bestimmte Geometrie beschränkt werden, wie zum Beispiel auf zylindrische Poren, sphärische Hohlräume oder auf einen Spalt mit ebenen Wänden. Der Einfluss dieser verschiedenen Geometrietypen sowohl auf das Phasenverhalten als auch auf die Dynamik von Kolloid-Polymer-Mischungen wird mit Hilfe von Computer-Simulationen unter Verwendung des Asakura-Oosawa- Modells, für welches auf Grund der “Depletion”-Kräfte ein Phasenübergang existiert, untersucht. Im Fall von zylindrischen Poren sieht man ein interessantes Phasenverhalten, welches vom eindimensionalen Charakter des Systems hervorgerufen wird. In einer kurzen Pore findet man im Bereich des Phasendiagramms, in dem das System typischerweise entmischt, entweder eine polymerreiche oder eine kolloidreiche Phase vor. Sobald aber die Länge der zylindrischen Pore die typische Korrelationslänge entlang der Zylinderachse überschreitet, bilden sich mehrere quasi-eindimensionale Bereiche der polymerreichen und der kolloidreichen Phase, welche von nun an koexistieren. Diese Untersuchungen helfen das Verhalten von Adsorptionshysteresekurven in entsprechenden Experimenten zu erklären. Wenn das Kolloid-Polymer-Modellsystem auf einen sphärischen Hohlraum eingeschränkt wird, verschiebt sich der Punkt des Phasenübergangs von der polymerreichen zur kolloidreichen Phase. Es wird gezeigt, dass diese Verschiebung direkt von den Benetzungseigenschaften des Systems abhängt, was die Beobachtung von zwei verschiedenen Morphologien bei Phasenkoexistenz ermöglicht – Schalenstrukturen und Strukturen des Janustyps. Im Rahmen der Untersuchung von heterogener Keimbildung von Kristallen innerhalb einer Flüssigkeit wird eine neue Simulationsmethode zur Berechnung von Freien Energien der Grenzfläche zwischen Kristall- bzw. Flüssigkeitsphase undWand präsentiert. Die Resultate für ein System von harten Kugeln und ein System einer Kolloid- Polymer-Mischung werden anschließend zur Bestimmung von Kontaktwinkeln von Kristallkeimen an Wänden verwendet. Die Dynamik der Phasenseparation eines quasi-zweidimensionalen Systems, welche sich nach einem Quench des Systems aus dem homogenen Zustand in den entmischten Zustand ausbildet, wird mit Hilfe von einer mesoskaligen Simulationsmethode (“Multi Particle Collision Dynamics”) untersucht, die sich für eine detaillierte Untersuchung des Einflusses der hydrodynamischen Wechselwirkung eignet. Die Exponenten universeller Potenzgesetze, die das Wachstum der mittleren Domänengröße beschreiben, welche für rein zwei- bzw. dreidimensionale Systeme bekannt sind, können für bestimmte Parameterbereiche nachgewiesen werden. Die unterschiedliche Dynamik senkrecht bzw. parallel zu den Wänden sowie der Einfluss der Randbedingungen für das Lösungsmittel werden untersucht. Es wird gezeigt, dass die daraus resultierende Abschirmung der hydrodynamischen Wechselwirkungsreichweite starke Auswirkungen auf das Wachstum der mittleren Domänengröße hat.
Resumo:
Das Interesse an nanopartikulären Wirkstoffsystemen steigt sowohl auf universitärer als auch auf industrieller Seite stetig an. Da diese Formulierungen meist intravenös verabreicht werden, kommt es folglich zu einem direkten Kontakt der Nanopartikel mit den Blutbestandteilen. Adsorption von Plasma Proteinen kann eine deutliche Veränderung der charakteristischen Eigenschaften des Systems induzieren, was dann Wirkungsweise sowie Toxizität stark beinflussen kann. Derzeit findet die Charakterisierung nanopartikulärer Wirkstoffsysteme vor der in vivo Applikation in Pufferlösungen mit physiologischem Salzgehalt statt, es ist jedoch kaum etwas bekannt über deren Wechselwirkungen mit komplexen Proteinmischungen wie sie im Blutserum oder –plasma vorliegen. rnMittels dynamischer Lichtstreuung (DLS) wurde eine einfache und reproduzierbare Methode entwickelt um die Aggregatbildung zwischen Nanopartikeln, Polymeren oder verschiedenen Wirkstoff-Konjugaten in humanem Blutserum zu untersuchen. Die Anwendbarkeit dieser Methode wurde durch Untersuchung verschiedener potentieller Nanotherapeutika (z.B. Polystyrol-Nanokapseln, Liposomen, amphiphile Blockcopolymere und Nanohydrogele) bezüglich ihrer Aggregation in humanem Blutserum mittels DLS gezeigt und teilweise mit aktuellen in vivo Experimenten verglichen. rnDarüber hinaus wurden größeneinheitliche Liposomen, basierend auf Disteraoylphosphatidylcholin, Cholesterol und einem Spermin-Tensid, hergestellt. Die Einkapselung von siRNA ist, je nach Präparationsmethode, mit Einkapselungseffizienzen von 40-75% möglich. Nach detaillierter Charakterisierung der Liposomen wurden diese ebenfalls bezüglich ihres Aggregationsverhaltens in humanem Blutserum untersucht. Unbeladene Liposomen aggregieren nicht mit Komponenten des Serums. Je nach Beladungsprotokoll können aggregierende sowie nicht aggregierende Liposomen-siRNA Komplexe hergestellt werden. rnWeiterhin wurden, zur Identifikation der Aggregation induzierenden Serumkomponenten, verschiedenen Serumsfraktionierungstechniken erfolgreich angewendet. Albumin, IgG, und Lipoproteine (VLDL, LDL) sowie verschiedene Proteinmischungen konnten isoliert und für weitere Aggregationsstudien mittels DLS verwendet werden. Für einige ausgesuchte Systeme konnten die Interaktionspartner identifiziert werden. rnDie Korrelation des Aggregationsverhaltens mit den strukturellen sowie funktionellen Eigenschaften der untersuchten Nanopartikel führt zu dem generellen Ergebnis, dass leicht negativ und leicht positiv bis neutrale Partikel eine geringe Tendenz zur Aggregation in Serum haben. Auch zwitterionische Substanzen zeigen eine hohe Serumstabilität. Hingegen aggregieren stark positiv und negativ geladene Partikel vermehrt.rn
Resumo:
Der light harvesting complex II (LHCII) ist ein pflanzliches Membranprotein, das in seiner trimeren Form über 40 Chlorophylle bindet. In der Pflanze kann er besonders effizient Licht sammeln und die Anregungsenergie anschließend fast verlustfrei über andere chlorophyll-bindende Proteine an die Reaktionszentren weiterleiten. Aufgrund dieser besonderen Eigenschaften war es ein Ziel dieser Arbeit, rekombinanten LHCII mit synthetischen Komponenten zu kombinieren, die zur Ladungstrennung befähigt sind. Zu diesem Zweck wurden unter anderem Halbleiternanokristalle (Quantum Dots, QDs) ausgewählt, die je nach Zusammensetzung sowohl als Energieakzeptoren als auch als Energiedonoren in Frage kamen. Durch Optimierung des Puffers gelang es, die Fluoreszenzquantenausbeute der QDs in wässriger Lösung zu erhöhen und zu stabilisieren, so dass die Grundvoraussetzungen für die spektroskopische Untersuchung verschiedener LHCII-QD-Hybridkomplexe erfüllt waren.rnUnter Verwendung bereits etablierter Affinitätssequenzen zur Bindung des LHCII an die QDs konnte gezeigt werden, dass die in dieser Arbeit verwendeten Typ-I QDs aus CdSe und ZnS sich kaum als Energie-Donoren für den LHCII eignen. Ein Hauptgrund lag im vergleichsweise kleinen Försterradius R0 von 4,1 nm. Im Gegensatz dazu wurde ein R0 von 6,4 nm für den LHCII als Donor und Typ-II QDs aus CdTe, CdSe und ZnS als Akzeptor errechnet, wodurch in diesem System eine höhere Effizienz des Energietransfers zu erwarten war. Fluoreszenzspektroskopische Untersuchungen von Hybridkomplexen aus LHCII und Typ-II QDs ergaben eine hohe Plausibilität für einen Fluoreszenz Resonanz Energietransfer (FRET) vom Lichtsammler auf die QDs. Weitere QD-Affinitätssequenzen für den LHCII wurden identifiziert und deren Bindekonstanten ermittelt. Versuche mit dem Elektronenakzeptor Methylviologen lieferten gute Hinweise auf eine LHCII-sensibilisierte Ladungstrennung der Typ-II QDs, auch wenn dies noch anhand alternativer Messmethoden wie z.B. durch transiente Absorptionsspektroskopie bestätigt werden muss. rnEin weiteres Ziel war die Verwendung von LHCII als Lichtsammler in dye-sensitized solar cells (DSSC). Geeignete dotierte TiO2-Platten wurden ermittelt, das Verfahren zur Belegung der Platten optimiert und daher mit wenig Aufwand eine hohe LHCII-Belegungsdichte erzielt. Erste Messungen von Aktionsspektren mit LHCII und einem zur Ladungstrennung fähigen Rylenfarbstoff zeigen eine, wenn auch geringe, LHCII sensibilisierte Ladungstrennung. rnDie Verwendung von Lanthanide-Binding-Tags (LBTs) ist ein potentielles Verfahren zur in vivo-Markierung von Proteinen mit Lanthanoiden wie Europium und Terbium. Diese Metalle besitzen eine überdurchschnittlich lange Lumineszenzlebensdauer, so dass sie leicht von anderen fluoreszierenden Molekülen unterschieden werden können. Im Rahmen der vorliegenden Arbeit gelang es, eine LBT in rekombinanten LHCII einzubauen und einen Lumineszenz Resonanz Energietransfer (LRET) vom Europium auf den LHCII nachzuweisen.rn
Resumo:
Die theoretische und experimentelle Untersuchung von wasserstoffähnlichen Systemen hat in den letzten hundert Jahren immer wieder sowohl die experimentelle als auch die theoretische Physik entscheidend vorangebracht. Formulierung und Test der Quantenelektrodynamik (QED) standen und stehen in engen Zusammenhang mit der Untersuchung wasserstoffähnlicher Systeme. Gegenwärtig sind besonders wasserstoffähnliche Systeme schwerer Ionen von Interesse, um die QED in den extrem starken Feldern in Kernnähe zu testen. Laserspektroskopische Messungen der Hyperfeinstrukturaufspaltung des Grundzustandes bieten eine hohe Genauigkeit, ihre Interpretation wird jedoch durch die Unsicherheit in der Größe der Kernstruktureffekte erschwert. Beseitigt werden können diese durch die Kombination der Aufspaltung in wasserstoff- und lithiumähnlichen Ionen des gleichen Nuklids. In den letzten zwei Jahrzehnten scheiterten mehrere dadurch motivierte Versuche, den HFS-Übergang in lithiumähnlichen 209Bi80+ zu finden. Im Rahmen dieser Arbeit wurde kollineare Laserspektroskopie bei etwa 70% der Lichtgeschwindigkeit an 209Bi82+ und 209Bi80+ -Ionen im Experimentier- Speicherring an der GSI in Darmstadt durchgeführt. Dabei wurde der Übergang im lithiumähnlichen Bismut erstmals beobachtet und dessen Übergangswellenlänge zu 1554,74(74) nm bestimmt. Ein eigens für dieses Experiment optimiertes Fluoreszenz-Nachweissystem stellte dabei die entscheidende Verbesserung gegenüber den gescheiterten Vorgängerexperimenten dar. Der Wellenlängenfehler ist dominiert von der Unsicherheit der Ionengeschwindigkeit, die für die Transformation in das Ruhesystem der Ionen entscheidend ist. Für deren Bestimmung wurden drei Ansätze verfolgt: Die Geschwindigkeit wurde aus der Elektronenkühlerspannung bestimmt, aus dem Produkt von Orbitlänge und Umlauffrequenz und aus dem relativistischen Dopplereffekt unter Annahme der Korrektheit des früher bestimmten Überganges in wasserstoffähnlichen Bismut. Die Spannungskalibration des Elektronenkühlers wurde im Rahmen dieser Arbeit erstmals kritisch evaluiert und bislang unterschätzte systematische Unsicherheiten aufgezeigt, die derzeit einen aussagekräftigen QED-Test verhindern. Umgekehrt konnte unter Verwendung der QED-Berechnungen eine Ionengeschwindigkeit berechnet werden, die ein genaueres und konsistenteres Resultat für die Übergangswellenlängen beider Ionenspezies liefert. Daraus ergibt sich eine Diskrepanz zu dem früher bestimmten Wert des Überganges in wasserstoffähnlichen Bismut, die es weiter zu untersuchen gilt.
Resumo:
Forest models are tools for explaining and predicting the dynamics of forest ecosystems. They simulate forest behavior by integrating information on the underlying processes in trees, soil and atmosphere. Bayesian calibration is the application of probability theory to parameter estimation. It is a method, applicable to all models, that quantifies output uncertainty and identifies key parameters and variables. This study aims at testing the Bayesian procedure for calibration to different types of forest models, to evaluate their performances and the uncertainties associated with them. In particular,we aimed at 1) applying a Bayesian framework to calibrate forest models and test their performances in different biomes and different environmental conditions, 2) identifying and solve structure-related issues in simple models, and 3) identifying the advantages of additional information made available when calibrating forest models with a Bayesian approach. We applied the Bayesian framework to calibrate the Prelued model on eight Italian eddy-covariance sites in Chapter 2. The ability of Prelued to reproduce the estimated Gross Primary Productivity (GPP) was tested over contrasting natural vegetation types that represented a wide range of climatic and environmental conditions. The issues related to Prelued's multiplicative structure were the main topic of Chapter 3: several different MCMC-based procedures were applied within a Bayesian framework to calibrate the model, and their performances were compared. A more complex model was applied in Chapter 4, focusing on the application of the physiology-based model HYDRALL to the forest ecosystem of Lavarone (IT) to evaluate the importance of additional information in the calibration procedure and their impact on model performances, model uncertainties, and parameter estimation. Overall, the Bayesian technique proved to be an excellent and versatile tool to successfully calibrate forest models of different structure and complexity, on different kind and number of variables and with a different number of parameters involved.
Resumo:
Polare Stratosphärenwolken (PSC), die unterhalb einer Temperatur von etwa -78 °C in polaren Regionen auftreten, üben einen starken Einfluss auf die stratosphärische Ozonschicht aus. Dieser Einfluss erfolgt größtenteils über heterogene chemische Reaktionen, die auf den Oberflächen von Wolkenpartikeln stattfinden. Chemische Reaktionen die dabei ablaufen sind eine Voraussetzung für den späteren Ozonabbau. Des Weiteren verändert die Sedimentation der Wolkenpartikel die chemische Zusammensetzung bzw. die vertikale Verteilung der Spurengase in der Stratosphäre. Für die Ozonchemie spielt dabei die Beseitigung von reaktivem Stickstoff durch Sedimentation Salpetersäure-haltiger Wolkenpartikeln (Denitrifizierung) eine wichtige Rolle. Durch gleichen Sedimentationsprozess von PSC Elementen wird der Stratosphäre des weiteren Wasserdampf entzogen (Dehydrierung). Beide Prozesse begünstigen einen länger andauernden stratosphärischen Ozonabbau im polaren Frühling.rnGerade im Hinblick auf die Denitrifikation durch Sedimentation größerer PSC-Partikel werden in dieser Arbeit neue Resultate von in-situ Messungen vorgestellt, die im Rahmen der RECONCILE-Kampagne im Winter des Jahres 2010 an Bord des Höhenforschungs-Flugzeugs M-55 Geophysica durchgeführt wurden. Dabei wurden in fünf Flügen Partikelgrößenverteilungen in einem Größenbereich zwischen 0,5 und 35 µm mittels auf der Lichtstreuung basierender Wolkenpartikel-Spektrometer gemessen. Da polare Stratosphärenwolken in Höhen zwischen 17 und 30 km auftreten, sind in-situ Messungen vergleichsweise selten, so dass noch einige offene Fragen bestehen bleiben. Gerade Partikel mit optischen Durchmessern von bis zu 35µm, die während der neuen Messungen detektiert wurden, müssen mit theoretischen Einschränkungen in Einklang gebracht werden. Die Größe der Partikel wird dabei durch die Verfügbarkeit der beteiligten Spurenstoffe (Wasserdampf und Salpetersäure), die Sedimentationsgeschwindigkeit, Zeit zum Anwachsen und von der Umgebungstemperatur begrenzt. Diese Faktoren werden in der vorliegenden Arbeit diskutiert. Aus dem gemessenen Partikelvolumen wird beispielsweise unter der Annahme der NAT-Zusammensetzung (Nitric Acid Trihydrate) die äquivalente Konzentration des HNO 3 der Gasphase berechnet. Im Ergebnis wird die verfügbare Konzentration von Salpetersäure der Stratosphäre überschritten. Anschließend werden Hypothesen diskutiert, wodurch das gemessene Partikelvolumen überschätzt worden sein könnte, was z.B. im Fall einer starken Asphärizität der Partikel möglich wäre. Weiterhin wurde eine Partikelmode unterhalb von 2-3µm im Durchmesser aufgrund des Temperaturverhaltens als STS (Supercooled Ternary Solution droplets) identifiziert.rnUm die Konzentration der Wolkenpartikel anhand der Messung möglichst genau berechnen zu können, muss das Messvolumen bzw. die effektive Messfläche der Instrumente bekannt sein. Zum Vermessen dieser Messfläche wurde ein Tröpfchengenerator aufgebaut und zum Kalibrieren von drei Instrumenten benutzt. Die Kalibration mittels des Tröpfchengenerators konzentrierte sich auf die Cloud Combination Probe (CCP). Neben der Messfläche und der Größenbestimmung der Partikel werden in der Arbeit unter Zuhilfenahme von Messungen in troposphärischen Wolken und an einer Wolkensimulationskammer auch weitere Fehlerquellen der Messung untersucht. Dazu wurde unter anderem die statistische Betrachtung von Intervallzeiten einzelner Messereignisse, die in neueren Sonden aufgezeichnet werden, herangezogen. Letzteres ermöglicht es, Messartefakte wie Rauschen, Koinzidenzfehler oder „Shattering“ zu identifizieren.rn
Resumo:
Although the Standard Model of particle physics (SM) provides an extremely successful description of the ordinary matter, one knows from astronomical observations that it accounts only for around 5% of the total energy density of the Universe, whereas around 30% are contributed by the dark matter. Motivated by anomalies in cosmic ray observations and by attempts to solve questions of the SM like the (g-2)_mu discrepancy, proposed U(1) extensions of the SM gauge group have raised attention in recent years. In the considered U(1) extensions a new, light messenger particle, the hidden photon, couples to the hidden sector as well as to the electromagnetic current of the SM by kinetic mixing. This allows for a search for this particle in laboratory experiments exploring the electromagnetic interaction. Various experimental programs have been started to search for hidden photons, such as in electron-scattering experiments, which are a versatile tool to explore various physics phenomena. One approach is the dedicated search in fixed-target experiments at modest energies as performed at MAMI or at JLAB. In these experiments the scattering of an electron beam off a hadronic target e+(A,Z)->e+(A,Z)+l^+l^- is investigated and a search for a very narrow resonance in the invariant mass distribution of the lepton pair is performed. This requires an accurate understanding of the theoretical basis of the underlying processes. For this purpose it is demonstrated in the first part of this work, in which way the hidden photon can be motivated from existing puzzles encountered at the precision frontier of the SM. The main part of this thesis deals with the analysis of the theoretical framework for electron scattering fixed-target experiments searching for hidden photons. As a first step, the cross section for the bremsstrahlung emission of hidden photons in such experiments is studied. Based on these results, the applicability of the Weizsäcker-Williams approximation to calculate the signal cross section of the process, which is widely used to design such experimental setups, is investigated. In a next step, the reaction e+(A,Z)->e+(A,Z)+l^+l^- is analyzed as signal and background process in order to describe existing data obtained by the A1 experiment at MAMI with the aim to give accurate predictions of exclusion limits for the hidden photon parameter space. Finally, the derived methods are used to find predictions for future experiments, e.g., at MESA or at JLAB, allowing for a comprehensive study of the discovery potential of the complementary experiments. In the last part, a feasibility study for probing the hidden photon model by rare kaon decays is performed. For this purpose, invisible as well as visible decays of the hidden photon are considered within different classes of models. This allows one to find bounds for the parameter space from existing data and to estimate the reach of future experiments.