93 resultados para real von Neumann measurement


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Aerosol particles are important actors in the Earth’s atmosphere and climate system. They scatter and absorb sunlight, serve as nuclei for water droplets and ice crystals in clouds and precipitation, and are a subject of concern for public health. Atmospheric aerosols originate from both natural and anthropogenic sources, and emissions resulting from human activities have the potential to influence the hydrological cycle and climate. An assessment of the extent and impacts of this human force requires a sound understanding of the natural aerosol background. This dissertation addresses the composition, properties, and atmospheric cycling of biogenic aerosol particles, which represent a major fraction of the natural aerosol burden. The main focal points are: (i) Studies of the autofluo-rescence of primary biological aerosol particles (PBAP) and its application in ambient measure-ments, and (ii) X-ray microscopic and spectroscopic investigations of biogenic secondary organic aerosols (SOA) from the Amazonian rainforest.rnAutofluorescence of biological material has received increasing attention in atmospheric science because it allows real-time monitoring of PBAP in ambient air, however it is associated with high uncertainty. This work aims at reducing the uncertainty through a comprehensive characterization of the autofluorescence properties of relevant biological materials. Fluorescence spectroscopy and microscopy were applied to analyze the fluorescence signatures of pure biological fluorophores, potential non-biological interferences, and various types of reference PBAP. Characteristic features and fingerprint patterns were found and provide support for the operation, interpretation, and further development of PBAP autofluorescence measurements. Online fluorescence detection and offline fluorescence microscopy were jointly applied in a comprehensive bioaerosol field measurement campaign that provided unprecedented insights into PBAP-linked biosphere-atmosphere interactions in a North-American semi-arid forest environment. Rain showers were found to trigger massive bursts of PBAP, including high concentrations of biological ice nucleators that may promote further precipitation and can be regarded as part of a bioprecipitation feedback cycle in the climate system. rnIn the pristine tropical rainforest air of the Amazon, most cloud and fog droplets form on bio-genic SOA particles, but the composition, morphology, mixing state and origin of these particles is hardly known. X-ray microscopy and spectroscopy (STXM-NEXAFS) revealed distinctly different types of secondary organic matter (carboxyl- vs. hydroxy-rich) with internal structures that indicate a strong influence of phase segregation, cloud and fog processing on SOA formation, and aging. In addition, nanometer-sized potassium-rich particles emitted by microorganisms and vegetation were found to act as seeds for the condensation of SOA. Thus, the influence of forest biota on the atmospheric abundance of cloud condensation nuclei appears to be more direct than previously assumed. Overall, the results of this dissertation suggest that biogenic aerosols, clouds and precipitation are indeed tightly coupled through a bioprecipitation cycle, and that advanced microscopic and spectroscopic techniques can provide detailed insights into these mechanisms.rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this thesis the measurement of the effective weak mixing angle wma in proton-proton collisions is described. The results are extracted from the forward-backward asymmetry (AFB) in electron-positron final states at the ATLAS experiment at the LHC. The AFB is defined upon the distribution of the polar angle between the incoming quark and outgoing lepton. The signal process used in this study is the reaction pp to zgamma + X to ee + X taking a total integrated luminosity of 4.8\,fb^(-1) of data into account. The data was recorded at a proton-proton center-of-mass energy of sqrt(s)=7TeV. The weak mixing angle is a central parameter of the electroweak theory of the Standard Model (SM) and relates the neutral current interactions of electromagnetism and weak force. The higher order corrections on wma are related to other SM parameters like the mass of the Higgs boson.rnrnBecause of the symmetric initial state constellation of colliding protons, there is no favoured forward or backward direction in the experimental setup. The reference axis used in the definition of the polar angle is therefore chosen with respect to the longitudinal boost of the electron-positron final state. This leads to events with low absolute rapidity have a higher chance of being assigned to the opposite direction of the reference axis. This effect called dilution is reduced when events at higher rapidities are used. It can be studied including electrons and positrons in the forward regions of the ATLAS calorimeters. Electrons and positrons are further referred to as electrons. To include the electrons from the forward region, the energy calibration for the forward calorimeters had to be redone. This calibration is performed by inter-calibrating the forward electron energy scale using pairs of a central and a forward electron and the previously derived central electron energy calibration. The uncertainty is shown to be dominated by the systematic variations.rnrnThe extraction of wma is performed using chi^2 tests, comparing the measured distribution of AFB in data to a set of template distributions with varied values of wma. The templates are built in a forward folding technique using modified generator level samples and the official fully simulated signal sample with full detector simulation and particle reconstruction and identification. The analysis is performed in two different channels: pairs of central electrons or one central and one forward electron. The results of the two channels are in good agreement and are the first measurements of wma at the Z resonance using electron final states at proton-proton collisions at sqrt(s)=7TeV. The precision of the measurement is already systematically limited mostly by the uncertainties resulting from the knowledge of the parton distribution functions (PDF) and the systematic uncertainties of the energy calibration.rnrnThe extracted results of wma are combined and yield a value of wma_comb = 0.2288 +- 0.0004 (stat.) +- 0.0009 (syst.) = 0.2288 +- 0.0010 (tot.). The measurements are compared to the results of previous measurements at the Z boson resonance. The deviation with respect to the combined result provided by the LEP and SLC experiments is up to 2.7 standard deviations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Polare Stratosphärenwolken (PSC), die unterhalb einer Temperatur von etwa -78 °C in polaren Regionen auftreten, üben einen starken Einfluss auf die stratosphärische Ozonschicht aus. Dieser Einfluss erfolgt größtenteils über heterogene chemische Reaktionen, die auf den Oberflächen von Wolkenpartikeln stattfinden. Chemische Reaktionen die dabei ablaufen sind eine Voraussetzung für den späteren Ozonabbau. Des Weiteren verändert die Sedimentation der Wolkenpartikel die chemische Zusammensetzung bzw. die vertikale Verteilung der Spurengase in der Stratosphäre. Für die Ozonchemie spielt dabei die Beseitigung von reaktivem Stickstoff durch Sedimentation Salpetersäure-haltiger Wolkenpartikeln (Denitrifizierung) eine wichtige Rolle. Durch gleichen Sedimentationsprozess von PSC Elementen wird der Stratosphäre des weiteren Wasserdampf entzogen (Dehydrierung). Beide Prozesse begünstigen einen länger andauernden stratosphärischen Ozonabbau im polaren Frühling.rnGerade im Hinblick auf die Denitrifikation durch Sedimentation größerer PSC-Partikel werden in dieser Arbeit neue Resultate von in-situ Messungen vorgestellt, die im Rahmen der RECONCILE-Kampagne im Winter des Jahres 2010 an Bord des Höhenforschungs-Flugzeugs M-55 Geophysica durchgeführt wurden. Dabei wurden in fünf Flügen Partikelgrößenverteilungen in einem Größenbereich zwischen 0,5 und 35 µm mittels auf der Lichtstreuung basierender Wolkenpartikel-Spektrometer gemessen. Da polare Stratosphärenwolken in Höhen zwischen 17 und 30 km auftreten, sind in-situ Messungen vergleichsweise selten, so dass noch einige offene Fragen bestehen bleiben. Gerade Partikel mit optischen Durchmessern von bis zu 35µm, die während der neuen Messungen detektiert wurden, müssen mit theoretischen Einschränkungen in Einklang gebracht werden. Die Größe der Partikel wird dabei durch die Verfügbarkeit der beteiligten Spurenstoffe (Wasserdampf und Salpetersäure), die Sedimentationsgeschwindigkeit, Zeit zum Anwachsen und von der Umgebungstemperatur begrenzt. Diese Faktoren werden in der vorliegenden Arbeit diskutiert. Aus dem gemessenen Partikelvolumen wird beispielsweise unter der Annahme der NAT-Zusammensetzung (Nitric Acid Trihydrate) die äquivalente Konzentration des HNO 3 der Gasphase berechnet. Im Ergebnis wird die verfügbare Konzentration von Salpetersäure der Stratosphäre überschritten. Anschließend werden Hypothesen diskutiert, wodurch das gemessene Partikelvolumen überschätzt worden sein könnte, was z.B. im Fall einer starken Asphärizität der Partikel möglich wäre. Weiterhin wurde eine Partikelmode unterhalb von 2-3µm im Durchmesser aufgrund des Temperaturverhaltens als STS (Supercooled Ternary Solution droplets) identifiziert.rnUm die Konzentration der Wolkenpartikel anhand der Messung möglichst genau berechnen zu können, muss das Messvolumen bzw. die effektive Messfläche der Instrumente bekannt sein. Zum Vermessen dieser Messfläche wurde ein Tröpfchengenerator aufgebaut und zum Kalibrieren von drei Instrumenten benutzt. Die Kalibration mittels des Tröpfchengenerators konzentrierte sich auf die Cloud Combination Probe (CCP). Neben der Messfläche und der Größenbestimmung der Partikel werden in der Arbeit unter Zuhilfenahme von Messungen in troposphärischen Wolken und an einer Wolkensimulationskammer auch weitere Fehlerquellen der Messung untersucht. Dazu wurde unter anderem die statistische Betrachtung von Intervallzeiten einzelner Messereignisse, die in neueren Sonden aufgezeichnet werden, herangezogen. Letzteres ermöglicht es, Messartefakte wie Rauschen, Koinzidenzfehler oder „Shattering“ zu identifizieren.rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die Materialverfolgung gewinnt in der Metallindustrie immer mehr an Bedeutung:rnEs ist notwendig, dass ein Metallband im Fertigungsprozess ein festgelegtes Programm durchläuft - erst dann ist die Qualität des Endprodukts garantiert. Die bisherige Praxis besteht darin, jedem Metallband eine Nummer zuzuordnen, mit der dieses Band beschriftet wird. Bei einer tagelangen Lagerung der Bänder zwischen zwei Produktionsschritten erweist sich diese Methode als fehleranfällig: Die Beschriftungen können z.B. verloren gehen, verwechselt, falsch ausgelesen oder unleserlich werden. 2007 meldete die iba AG das Patent zur Identifikation der Metallbänder anhand ihres Dickenprofils an (Anhaus [3]) - damit kann die Identität des Metallbandes zweifelsfrei nachgewiesen werden, eine zuverlässige Materialverfolgung wurde möglich.Es stellte sich jedoch heraus, dass die messfehlerbehafteten Dickenprofile, die als lange Zeitreihen aufgefasst werden können, mit Hilfe von bisherigen Verfahren (z.B. L2-Abstandsminimierung oder Dynamic Time Warping) nicht erfolgreich verglichen werden können.Diese Arbeit stellt einen effizienten feature-basierten Algorithmus zum Vergleichrnzweier Zeitreihen vor. Er ist sowohl robust gegenüber Rauschen und Messausfällen als auch invariant gegenüber solchen Koordinatentransformationen der Zeitreihen wie Skalierung und Translation. Des Weiteren sind auch Vergleiche mit Teilzeitreihen möglich. Unser Framework zeichnet sich sowohl durch seine hohe Genauigkeit als auch durch seine hohe Geschwindigkeit aus: Mehr als 99.5% der Anfragen an unsere aus realen Profilen bestehende Testdatenbank werden richtig beantwortet. Mit mehreren hundert Zeitreihen-Vergleichen pro Sekunde ist es etwa um den Faktor 10 schneller als die auf dem Gebiet der Zeitreihenanalyse etablierten Verfahren, die jedoch nicht im Stande sind, mehr als 90% der Anfragen korrekt zu verarbeiten. Der Algorithmus hat sich als industrietauglich erwiesen. Die iba AG setzt ihn in einem weltweit einzigartigen dickenprofilbasierten Überwachungssystemrnzur Materialverfolgung ein, das in ersten Stahl- und Aluminiumwalzwerkenrnbereits erfolgreich zum Einsatz kommt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die akute myeloische Leukämie (AML) ist eine heterogene Erkrankung der hämatopoetischen Vorläuferzelle, die durch unkontrollierte Vermehrung und ein reduziertes Differenzierungsverhalten gekennzeichnet ist. Aufgrund von Therapieresistenzen und häufig vorkommenden Rückfällen ist die AML mit einer schlechten Langzeitprognose verbunden. Neue Studienergebnisse zeigen, dass leukämische Zellen einer hierarchischen Ordnung unterliegen, an deren Spitze die leukämische Stammzelle (LSC) steht, welche den Tumor speist und ähnliche Charakteristika besitzt wie die hämatopoetische Stammzelle. Die LSC nutzt den Kontakt zu Zellen der hämatopoetischen Nische des Knochenmarks, um die erste Therapie zu überdauern und Resistenzen zu erwerben. Neue Therapieansätze versuchen diese Interaktion zwischen leukämischen Zellen und supportiv wirkenden Stromazellen anzugreifen. rnrnIn dieser Arbeit sollte die Bedeutung des CXC-Motiv Chemokinrezeptors Typ 4 (CXCR4) und des Connective Tissue Growth Factors (CTGF) innerhalb der AML-Stroma-Interaktion untersucht werden. CXCR4, der in vivo dafür sorgt, dass AML-Zellen in der Nische gehalten und geschützt werden, wurde durch den neuwertigen humanen CXCR4-spezifischen Antikörper BMS-936564/MDX-1338 in AML-Zelllinien und Patientenzellen in Zellkulturversuchen blockiert. Dies induzierte Apoptose sowie Differenzierung und führte in Kokulturversuchen zu einer Aufhebung des Stroma-vermittelten Schutzes gegenüber der Chemotherapie. Für diese Effekte musste teilweise ein sekundärer Antikörper verwendet werden, der die CXCR4-Moleküle miteinander kreuzvernetzt.rnDie Auswertung eines quantitativen Real time PCR (qPCR)-Arrays ergab, dass CTGF in der AML-Zelllinie Molm-14 nach Kontakt zu Stromazellen hochreguliert wird. Diese Hochregulation konnte in insgesamt drei AML-Zelllinien sowie in drei Patientenproben in qPCR- und Western Blot-Versuchen bestätigt werden. Weitere Untersuchungen zeigten, dass diese Hochregulation (i) unabhängig von der Stromazelllinie ist, (ii) den direkten Kontakt zum Stroma benötigt und (iii) auch unter hypoxischen Bedingungen, wie sie innerhalb des Knochenmarks vorherrschen, stattfindet. Der durch Zell-Zell- oder Zell-Matrix-Kontakt gesteuerte Hippo-Signalweg konnte aus folgenden Gründen als möglicher upstream-Regulationsmechanismus identifiziert werden: (i) Dessen zentraler Transkriptions-Kofaktor TAZ wurde in kokultivierten Molm-14-Zellen stabilisiert, (ii) der shRNA-gesteuerte Knockdown von TAZ führte zu einer reduzierten CTGF-Hochregulation, (iii) CTGF wurde in Abhängigkeit von der Zelldichte reguliert, (iv) Cysteine-rich angiogenic inducer 61 (Cyr61), ein weiteres Zielgen von TAZ, wurde in kokultivierten AML-Zellen ebenfalls verstärkt exprimiert. Der Knockdown von CTGF führte in vitro zu einer partiellen Aufhebung der Stroma-vermittelten Resistenz und die Blockierung von CTGF durch den Antikörper FG-3019 wirkte im AML-Mausmodell lebensverlängernd. rn rnDie Rolle von CTGF in der AML ist bisher nicht untersucht. Die vorliegenden Ergebnisse zeigen, dass CTGF ein interessantes Therapieziel in der AML darstellt. Es bedarf weiterer Untersuchungen, um die Bedeutung von CTGF in der Tumor-Stroma-Interaktion näher zu charakterisieren und nachgeschaltete Signalwege zu identifizieren.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Im ersten Teil der Arbeit wurde die Abstandsabhängigkeit des elektronischen Kopplungsverhaltens für eine homologe Reihe von Perylendiimid-Dimeren (PDI-(Ph)x-PDI, x=0-3) mithilfe der Einzelmolekülspektroskopie bei tiefen Temperaturen untersucht. Während für große Abstände überwiegend „schwache“ Kopplung dominierte, wurde für den kleinsten Abstand „starke“ Kopplung gefunden. Im Gegensatz dazu zeigte das p-Phenylen-verbrückte Dimer (x=1) in Abhängigkeit vom untersuchten Molekül ein für beide Grenzfälle typisches Verhalten. Hier entscheidet die Größe der Kopplungsstärke im Vergleich zum statischen Energieunterschied, welcher Kopplungsmechanismus vorliegt. Die homologe Reihe ermöglichte zusätzlich die quantitative Untersuchung der Abstandsabhängigkeit der elektronischen Kopplungsstärke im Grenzfall „schwacher“ Kopplung. Sie konnte direkt aus der zugrunde liegenden Energietransferdynamik ermittelt werden. Der Vergleich mit quantenchemisch berechneten Werten lieferte eine gute Übereinstimmung. Die Abweichung betrug lediglich 20%.rnIm zweiten Teil der Arbeit wurde die thermische Besetzung der Schwingungszustände einzelner Terrylen-Moleküle untersucht. Im elektronischen Grundzustand konnte sie mithilfe von anti-Stokes-Fluoreszenz infolge von „Hot Band“ Absorption nachgewiesen werden. Darüber hinaus wurde Fluoreszenz aus höheren Schwingungszuständen des elektronisch angeregten Zustandes gefunden, die auf „Hot Band“ Emission infolge von thermischer Besetzung zurückgeführt werden konnte. Durch die Kombination von Emissions- und Anregungsspektroskopie konnte die Temperaturabhängigkeit beider Prozesse im Temperaturbereich von 209-311 K untersucht werden. Sie folgt der Boltzmann-Statistik, was eine Temperaturmessung mit einzelnen Molekülen ermöglicht. rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Im Bereich sicherheitsrelevanter eingebetteter Systeme stellt sich der Designprozess von Anwendungen als sehr komplex dar. Entsprechend einer gegebenen Hardwarearchitektur lassen sich Steuergeräte aufrüsten, um alle bestehenden Prozesse und Signale pünktlich auszuführen. Die zeitlichen Anforderungen sind strikt und müssen in jeder periodischen Wiederkehr der Prozesse erfüllt sein, da die Sicherstellung der parallelen Ausführung von größter Bedeutung ist. Existierende Ansätze können schnell Designalternativen berechnen, aber sie gewährleisten nicht, dass die Kosten für die nötigen Hardwareänderungen minimal sind. Wir stellen einen Ansatz vor, der kostenminimale Lösungen für das Problem berechnet, die alle zeitlichen Bedingungen erfüllen. Unser Algorithmus verwendet Lineare Programmierung mit Spaltengenerierung, eingebettet in eine Baumstruktur, um untere und obere Schranken während des Optimierungsprozesses bereitzustellen. Die komplexen Randbedingungen zur Gewährleistung der periodischen Ausführung verlagern sich durch eine Zerlegung des Hauptproblems in unabhängige Unterprobleme, die als ganzzahlige lineare Programme formuliert sind. Sowohl die Analysen zur Prozessausführung als auch die Methoden zur Signalübertragung werden untersucht und linearisierte Darstellungen angegeben. Des Weiteren präsentieren wir eine neue Formulierung für die Ausführung mit fixierten Prioritäten, die zusätzlich Prozessantwortzeiten im schlimmsten anzunehmenden Fall berechnet, welche für Szenarien nötig sind, in denen zeitliche Bedingungen an Teilmengen von Prozessen und Signalen gegeben sind. Wir weisen die Anwendbarkeit unserer Methoden durch die Analyse von Instanzen nach, welche Prozessstrukturen aus realen Anwendungen enthalten. Unsere Ergebnisse zeigen, dass untere Schranken schnell berechnet werden können, um die Optimalität von heuristischen Lösungen zu beweisen. Wenn wir optimale Lösungen mit Antwortzeiten liefern, stellt sich unsere neue Formulierung in der Laufzeitanalyse vorteilhaft gegenüber anderen Ansätzen dar. Die besten Resultate werden mit einem hybriden Ansatz erzielt, der heuristische Startlösungen, eine Vorverarbeitung und eine heuristische mit einer kurzen nachfolgenden exakten Berechnungsphase verbindet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wurde ein biologisches Verfahren zur Reduzierung des Methanschlupfes in Gasaufbereitungsanlagen entwickelt. Der Methanschlupf entsteht, wenn das in Biogasanlagen produzierte Biogas auf normierte Erdgasqualität aufgereinigt wird, welches notwendig ist, um es in das bestehende Erdgasnetz einleiten zu können. Bei dieser Aufreinigung wird aus dem Biogas auch ein Teil des Methans mit ausgewaschen und gelangt mit dem Abgas der Gasaufbereitungsanlage in die Umwelt. Bisher wird dieses methanhaltige Abgas verbrannt, da eine Freisetzung des starken Treibhausgases Methan durch das Erneuerbare-Energien-Gesetz untersagt ist. Dies reduziert die ökologische Bilanz und setzt die Wirtschaftlichkeit der gesamten Biogasanlage herab. rnUm das Methan mit Hilfe eines biologischen Verfahrens zu entfernen, wurden zunächst methanoxidierende Bakterien (MOB) aus verschiedenen Habitaten isoliert, darunter auch erstmalig aus Termiten. Der Nachweis erfolgte durch (quantitative) Polymerase-Kettenreaktion und Fluoreszenz-in-situ-Hybridisierung anhand spezifischer Primer bzw. Sonden für das Gen der partikulären Methanmonoxygenase, ein MOB kennzeichnendes Enzym. Ihr Titer wurde durch qPCR auf 10^2 - 10^3 MOB pro Termitendarm durch qPCR bestimmt. Mit Hilfe einer 16S rDNA Sequenzierung, der (n)SAPD-PCR, der Bestimmung der zellulären Fettsäurezusammensetzung sowie MALDI-TOF-MS-Analysen konnten die Termitenisolate der Gattung Methylocystis zugeordnet werden. Die fehlende Artzuweisung spricht jedoch für die Isolierung einer neuen Art. rnFür den Einsatz der Isolate in Gasaufbereitungsanlagen wurde in Zusammenarbeit mit dem Prüf- und Forschungsinstitut in Pirmasens ein Reaktor im Technikumsmaßstab entwickelt und konstruiert. Der Reaktor wurde mit synthetischen Aufwuchskörper befüllt, diese mit einem neu gewonnenen potenten Termitenisolat besiedelt und der methanhaltige Abgasstrom der Gasaufbereitungsanlage darüber geleitet. Es wurde eine Reduktion des Methans um 68 % innerhalb von 30 Stunden erzielt. Medienoptimierungen wiesen das Potential auf, diesen Verbrauch um das bis zu 4-fache weiter zu steigern. Da durch die Oxidation des Methans im Abgasstrom der Gasaufbereitungsanlage Zellmasse und Polyhydroxybuttersäure (PHB) aufgebaut wurde, können diese als Substrat zurück in die Biogasanlagen geleitet werden und die Wirtschaftlichkeit weiter verbessern. Die Wirksamkeit des in diesem Projekt entwickelten Verfahrens wurde somit eindeutig demonstriert.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die vorliegende Arbeit befasst sich mit der Entwicklung eines nichtviralen, effizienten Transfektionsmittels mit einer Kern-Schale-Struktur in der Größenordnung bis 100 nm. Dafür werden magnetische, negativ geladene Eisenoxid-Nanopartikel mittels Thermolyse mit einem Durchmesser von 17 nm synthetisiert und in Wasser überführt. Diese Nanopartikel bilden den Kern des Erbgut-Trägers und werden mittels Layer-by-Layer –Verfahren (LbL) mit geladenen Polymeren, den bioabbaubaren Makromolekülen Poly-L-Lysin und Heparin, beschichtet. Dafür wird zunächst eine geeignete Apparatur aufgebaut. Diese wird zur Herstellung von Kern-Schale-Strukturen mit fünf Polyelektrolytschichten verwendet und liefert Partikel mit einem hydrodynamischen Durchmesser von 58 nm, die bei Abwesenheit von niedermolekularem Salz aggregatfrei sind. Das System wird gegen Salz stabilisiert, indem die letzte Poly-L-Lysin-Schicht mit Polyethylenglycol modifiziert wird. Die so entstandenen Multischalenpartikel zeigen weder im PBS-Puffer noch in humanem Serum Aggregation. Mittels winkelabhängiger dynamischer Lichtstreuung wird die Aggregatbildung kontrolliert, während ζ-Potential-Messungen die Kontrolle der Oberflächenladung erlauben.rnDa siRNA auf Grund ihres negativ geladenen Phosphat-Rückgrats ebenfalls ein Polyelektrolyt ist, wird sie aggregatfrei auf die positiv geladenen PLL-Nanopartikel aufgetragen. Die eingesetzte siRNA ist farbstoffmarkiert, um eine Detektion in vitro zu ermöglichen. Jedoch sind die entstandenen Komplexe mittels Fluoreszenzkorrelations-spektroskopie (FCS) nicht nachweisbar. Auch die Fluoreszenzmarkierung der PEGylierten Außenschale mittels kupferfreier Click-Chemie ist in der FCS nicht sichtbar, sodass eine Fluoreszenzauslöschung der Farbstoffe in den Multischalenpartikeln vermutet wird.rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atmosphärische Aerosole haben einen starken Einfluss auf das Klima, der bisher nur grundlegend verstanden ist und weiterer Forschung bedarf. Das atmosphärische Verhalten der Aerosolpartikel hängt maßgeblich von ihrer Größe und chemischen Zusammensetzung ab. Durch Reflexion, Absorption und Streuung des Sonnenlichtes verändern sie den Strahlungshaushalt der Erde direkt und durch ihre Einflussnahme auf die Wolkenbildung indirekt. Besonders gealterte, stark oxidierte organische Aerosole mit großem Sauerstoff-zu-Kohlenstoff-Verhältnis wirken als effektive Wolkenkondensationskeime. Neben primären Aerosolpartikeln, die direkt partikelförmig in die Atmosphäre gelangen, spielen sekundäre Aerosolpartikel eine große Rolle, die aus Vorläufergasen in der Atmosphäre entstehen. Aktuelle Forschungsergebnisse legen nahe, dass kurzkettige aliphatische Amine bei Nukleationsprozessen beteiligt sind und somit die Partikelneubildung vielerorts mitsteuern. Um die Rolle von Aminen in der Atmosphäre besser erforschen und industrielle Emissionen kontrollieren zu können, bedarf es einer zuverlässigen Methode zur Echtzeitquantifizierung gasförmiger Amine mit hoher Zeitauflösung und niedriger Nachweisgrenze.rnDas hochauflösende Flugzeit-Aerosolmassenspektrometer (HR-ToF-AMS) bietet die Möglichkeit, atmosphärische Partikel in Echtzeit zu analysieren. Dabei werden Größe, Menge und grundlegende chemische Zusammensetzung erfasst. Anorganische Aerosolbestandteile können eindeutig zugeordnet werden. Es ist jedoch kaum möglich, einzelne organische Verbindungen in den komplizierten Massenspektren atmosphärischer Aerosole zu identifizieren und quantifizieren.rnIn dieser Arbeit wird atmosphärisches Aerosol untersucht, das im Westen Zyperns während der CYPHEX-Kampagne mit einem HR-ToF-AMS gemessen wurde. An diesem Standort ist vor allem stark gealtertes Aerosol vorzufinden, das aus Zentral- und Westeuropa stammt. Lokale Einflüsse spielen fast keine Rolle. Es wurde eine durchschnittliche Massenkonzentration von 10,98 μg/m3 gefunden, zusammengesetzt aus 57 % Sulfat, 30 % organischen Bestandteilen, 12 % Ammonium, < 1 % Nitrat und < 1 % Chlorid, bezogen auf das Gewicht. Der Median des vakuum-aerodynamischen Durchmessers betrug 446,25 nm. Es wurde sehr acides Aerosol gefunden, dessen anorganische Bestandteile weitgehend der Zusammensetzung von Ammoniumhydrogensulfat entsprachen. Tag-Nacht-Schwankungen in der Zusammensetzung wurden beobachtet. Die Sulfatkonzentration und die Acidität zeigten tagsüber Maxima und nachts Minima. Konzentrationsschwankungen an Nitrat und Chlorid zeigten einen weniger ausgeprägten Rhythmus, Maxima fallen aber immer mit Minima der Sulfatkonzentration, Aerosolacidität und Umgebungstemperatur zusammen. Organische Aerosolbestandteile entsprachen stark gealtertem, schwerflüchtigem oxidiertem organischem Aerosol. Es wurde eine interne Mischung der Partikel beobachtet, die ebenfalls meist bei alten Aerosolen auftritt.rnUm mit dem HR-ToF-AMS auch einzelne organische Verbindungen identifizieren und quantifizieren zu können, wurde eine Methode entwickelt, mit der man Amine der Gasphase selektiv in künstlich erzeugte Phosphorsäurepartikel aufnimmt und so für die HR-ToF-AMS-Messung zugänglich macht. Dadurch kombiniert man die Vorteile der Online-Messung des HR-ToF-AMS mit den Vorteilen klassischer Offline-Probenahmen. So können in Echtzeit sehr einfache Massenspektren gemessen werden, in denen störende Komponenten abgetrennt sind, während die Analyten eindeutig identifiziert werden können. Systeme dieser Art wurden GTRAP-AMS (Gaseous compound TRapping in Artificially-generated Particles – Aerosol Mass Spectrometry) genannt. Kalibrierungen für (Mono)Methylamin, Dimethylamin, Trimethylamin, Diethylamin und Triethylamin ergaben Nachweisgrenzen im ppt-Bereich bei einer Zeitauflösung von 3 min. Kammerexperimente zur Aminemission von Pflanzen zeigten eine gute Übereinstimmung des neu entwickelten Systems mit einer Gasdiffusionsabscheider-Offline-Probenahme und anschließender ionenchromatographischer Analyse. Beide Methoden zeigten Reaktionen der Pflanzen auf eine Veränderung der Lichtverhältnisse, während erhöhte Ozonkonzentrationen die Aminemission nicht veränderten. Die GTRAP-AMS-Methode eignet sich bereits für die Messung von Umgebungsluftkonzentrationen an einigen Orten, für die meisten Orte reicht die Nachweisgrenze allerdings noch nicht aus. Die Technik könnte bereits zur Echtzeitkontrolle industrieller Abgasemissionen eingesetzt werden.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die obere Troposphäre / untere Stratosphäre (UTLS: Upper Troposphere / Lower Stratosphere)ist die Übergangsgregion zwischen den dynamisch, chemisch und mikrophysikalisch sehr verschiedenen untersten Atmosphärenschichten, der Troposphäre und der Stratosphäre. Strahlungsaktive Spurengase, wie zum Beispiel Wasserdampf (H2O), Ozon (O3) oder Kohlenstoffdioxid (CO2), und Wolken in der UTLS beeinflussen das Strahlungsbudget der Atmosphäre und das globale Klima. Mögliche Veränderungen in den Verteilungen und Konzentrationen dieser Spurengase modifizieren den Strahlungsantrieb der Atmosphäre und können zum beobachteten Klimawandel beitragen. Ziel dieser Arbeit ist es, Austausch- und Mischungsprozesse innerhalb der UTLS besser zu verstehen und damit Veränderungen der Spurengaszusammensetzung dieser Region genauer prognostizieren zu können. Grundlage hierfür bilden flugzeuggetragene in-situ Spurengasmessungen in der UTLS, welche während der Flugzeugmesskampagnen TACTS / ESMVal 2012 und AIRTOSS - ICE 2013 durchgeführt wurden. Hierbei wurde bei den Messungen von AIRTOSS - ICE 2013 das im Rahmen dieser Arbeit aufgebaute UMAQS (University of Mainz Airborne QCLbased Spectrometer) - Instrument zur Messung der troposphärischen Spurengase Distickstoffmonoxid (N2O) und Kohlenstoffmonoxid (CO) eingesetzt. Dieses erreicht bei einer zeitlichen Auflösung von 1 s eine Messunsicherheit von 0,39 ppbv und 1,39 ppbv der N2O bzw. CO-Mischungsverhältnisse. Die hohe Zeitauflösung und Messgenauigkeit der N2O- und CO- Daten erlaubt die Untersuchung von kleinskaligen Austauschprozessen zwischen Troposphäre und Stratosphäre im Bereich der Tropopause auf räumlichen Skalen kleiner 200 m. Anhand der N2O-Daten von AIRTOSS - ICE 2013 können in-situ detektierte Zirruspartikel in eisübersättigter Luft oberhalb der N2O-basierten chemischen Tropopause nachgewiesen werden. Mit Hilfe der N2O-CO-Korrelation sowie der Analyse von ECMWF-Modelldaten und der Berechnung von Rückwärtstrajektorien kann deren Existenz auf das irreversible Vermischen von troposphärischen und stratosphärischen Luftmassen zurückgeführt werden. Mit den in-situ Messungen von N2O, CO und CH4 (Methan) von TACTS und ESMVal 2012 werden die großräumigen Spurengasverteilungen bis zu einer potentiellen Temperatur von Theta = 410 K in der extratropischen Stratosphäre untersucht. Hierbei kann eine Verjüngung der Luftmassen in der extratropischen Stratosphäre mit Delta Theta > 30 K (relativ zur dynamischen Tropopause) über den Zeitraum der Messkampagne (28.08.2012 - 27.09.2012) nachgewiesen werden. Die Korrelation von N2O mit O3 zeigt, dass diese Verjüngung aufgrund des verstärkten Eintrages von Luftmassen aus der tropischen unteren Stratosphäre verursacht wird. Diese werden über den flachen Zweig der Brewer-Dobson-Zirkulation auf Zeitskalen von wenigen Wochen in die extratropische Stratosphäre transportiert. Anhandrnder Analyse der CO-O3-Korrelation eines Messfluges vom 30.08.2012 wird das irreversible Einmischen von Luftmassen aus der tropischen Stratosphäre in die Extratropen auf Isentropen mit Theta > 380 K identifiziert. Rückwärtstrajektorien zeigen, dass der Ursprung der eingemischten tropischen Luftmassen im Bereich der sommerlichen Antizyklone des asiatischen Monsuns liegt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Das Ziel dieser Arbeit lag darin mannosylierte Polymersysteme hauptsächlich auf der Basis von N-(Hydroxy)propylmethacrylat zu synthetisieren, um gezielt Zellen des Immunsystems zu adressieren. Dazu wurden zunächst verschiedene Reaktivesterpolymere auf der Basis von Pentafluorophenylmethacrylat (PFPMA) unter Verwendung der RAFT-Polymerisation mit enger Molekulargewichtsverteilung und unterschiedlichen Anteilen an LMA (Laurylmethacrylat) hergestellt.rnUm eine genaue Aussage über den Aufbau eines statistischen PFPMA-LMA Copolymers treffen zu können, wurde die Copolymerisation von PFPMA und LMA mittels Echtzeit 1H-NMR Kinetikmessungen untersucht. Dies ermöglichte es, die Copolymerisationsparameter zu berechnen und genaue Aussagen über den Aufbau eines statistischen PFPMA-LMA Copolymers zu treffen. Die so erhaltenen Reaktivesterpolymere wurden dann in einer polymeranalogen Reaktion unter Erhalt des Polymerisationsgrades in die gewünschten HPMA-Polymere umgewandelt. Um die quantitative Umsetzung ohne auftretende Nebenreaktionen zu untersuchen, wurden verschiedene Reaktionsbedingungen gewählt und unterschiedliche Analysemethoden verwendet. Damit konnte gezeigt werden, dass es möglich ist, über den Reaktivesteransatz qualitativ hochwertige amphiphile Polymersysteme herzustellen, die auf anderen Wegen schwer zu synthetisieren und charakterisieren sind. Ein weiterer Vorteil dieser Syntheseroute ist, dass gleichzeitig sowohl Marker für die Visualisierung der Polymere in vitro und in vivo, als auch Targetliganden für die Adressierung bestimmter Zellen eingeführt werden können. Dafür wurde hauptsächlich Mannose als einfache Zuckerstruktur angebunden, da bekannt ist, dass mannosylierte Polymersysteme von Zellen des Imunsystems aufgenommen werden. Zusätzlich konnten die mannosylierten Polymere mit hydrophobem Wirkstoff beladen werden, wobei die Stabilität von beladenen Mizellen anhand der Einlagerung eines hydrophoben radioaktiven Komplexes genauer untersucht werden konnte.rnAnschließende in vitro Experimente der mannosylierten Polymermizellen an dendritischen Zellen zeigten wie erwartet eine mannosespezifische und verstärkte Aufnahme. Für eine mögliche Untersuchung dieser Systeme in vivo mittels PET konnte gezeigt werden, dass es möglich ist HPMA Polymere radioaktiv zu markieren, wobei auch erste Markierungsversuche mit einem langlebigen Radionuklid für Langzeitbiodistributionsstudien durchgeführt werden konnte.rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Measurements of the self coupling between bosons are important to test the electroweak sector of the Standard Model (SM). The production of pairs of Z bosons through the s-channel is forbidden in the SM. The presence of physics, beyond the SM, could lead to a deviation of the expected production cross section of pairs of Z bosons due to the so called anomalous Triple Gauge Couplings (aTGC). Proton-proton data collisions at the Large Hadron Collider (LHC) recorded by the ATLAS detector at a center of mass energy of 8 TeV were analyzed corresponding to an integrated luminosity of 20.3 fb-1. Pairs of Z bosons decaying into two electron-positron pairs are searched for in the data sample. The effect of the inclusion of detector regions corresponding to high values of the pseudorapidity was studied to enlarge the phase space available for the measurement of the ZZ production. The number of ZZ candidates was determined and the ZZ production cross section was measured to be: rn7.3±1.0(Stat.)±0.4(Sys.)±0.2(lumi.)pb, which is consistent with the SM expectation value of 7.2±0.3pb. Limits on the aTGCs were derived using the observed yield, which are twice as stringent as previous limits obtained by ATLAS at a center of mass energy of 7 TeV.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die rasante Entwicklung der Computerindustrie durch die stetige Verkleinerung der Transistoren führt immer schneller zum Erreichen der Grenze der Si-Technologie, ab der die Tunnelprozesse in den Transistoren ihre weitere Verkleinerung und Erhöhung ihrer Dichte in den Prozessoren nicht mehr zulassen. Die Zukunft der Computertechnologie liegt in der Verarbeitung der Quanteninformation. Für die Entwicklung von Quantencomputern ist die Detektion und gezielte Manipulation einzelner Spins in Festkörpern von größter Bedeutung. Die Standardmethoden der Spindetektion, wie ESR, erlauben jedoch nur die Detektion von Spinensembles. Die Idee, die das Auslesen von einzelnen Spins ermöglich sollte, besteht darin, die Manipulation getrennt von der Detektion auszuführen.rn Bei dem NV−-Zentrum handelt es sich um eine spezielle Gitterfehlstelle im Diamant, die sich als einen atomaren, optisch auslesbaren Magnetfeldsensor benutzen lässt. Durch die Messung seiner Fluoreszenz sollte es möglich sein die Manipulation anderer, optisch nicht detektierbaren, “Dunkelspins“ in unmittelbarer Nähe des NV-Zentrums mittels der Spin-Spin-Kopplung zu detektieren. Das vorgeschlagene Modell des Quantencomputers basiert auf dem in SWCNT eingeschlossenen N@C60.Die Peapods, wie die Einheiten aus den in Kohlenstoffnanoröhre gepackten Fullerenen mit eingefangenem Stickstoff genannt werden, sollen die Grundlage für die Recheneinheiten eines wahren skalierbaren Quantencomputers bilden. Die in ihnen mit dem Stickstoff-Elektronenspin durchgeführten Rechnungen sollen mit den oberflächennahen NV-Zentren (von Diamantplatten), über denen sie positioniert sein sollen, optisch ausgelesen werden.rnrnDie vorliegende Arbeit hatte das primäre Ziel, die Kopplung der oberflächennahen NV-Einzelzentren an die optisch nicht detektierbaren Spins der Radikal-Moleküle auf der Diamantoberfläche mittels der ODMR-Kopplungsexperimente optisch zu detektieren und damit entscheidende Schritte auf dem Wege der Realisierung eines Quantenregisters zu tun.rn Es wurde ein sich im Entwicklungsstadium befindende ODMR-Setup wieder aufgebaut und seine bisherige Funktionsweise wurde an kommerziellen NV-Zentrum-reichen Nanodiamanten verifiziert. Im nächsten Schritt wurde die Effektivität und Weise der Messung an die Detektion und Manipulation der oberflächennah (< 7 nm Tiefe) implantieren NV-Einzelzenten in Diamantplatten angepasst.Ein sehr großer Teil der Arbeit, der hier nur bedingt beschrieben werden kann, bestand aus derrnAnpassung der existierenden Steuersoftware an die Problematik der praktischen Messung. Anschließend wurde die korrekte Funktion aller implementierten Pulssequenzen und anderer Software-Verbesserungen durch die Messung an oberflächennah implantierten NV-Einzelzentren verifiziert. Auch wurde der Messplatz um die zur Messung der Doppelresonanz notwendigen Komponenten wie einen steuerbaren Elektromagneten und RF-Signalquelle erweitert. Unter der Berücksichtigung der thermischen Stabilität von N@C60 wurde für zukünftige Experimente auch ein optischer Kryostat geplant, gebaut, in das Setup integriert und charakterisiert.rn Die Spin-Spin-Kopplungsexperimente wurden mit dem sauerstoffstabilen Galvinoxyl-Radikalals einem Modell-System für Kopplung durchgeführt. Dabei wurde über die Kopplung mit einem NVZentrum das RF-Spektrum des gekoppelten Radikal-Spins beobachtet. Auch konnte von dem gekoppelten Spin eine Rabi-Nutation aufgenommen werden.rn Es wurden auch weitere Aspekte der Peapod Messung und Oberflächenimplantation betrachtet.Es wurde untersucht, ob sich die NV-Detektion durch die SWCNTs, Peapods oder Fullerene stören lässt. Es zeigte sich, dass die Komponenten des geplanten Quantencomputers, bis auf die C60-Cluster, für eine ODMR-Messanordnung nicht detektierbar sind und die NV-Messung nicht stören werden. Es wurde auch betrachtet, welche Arten von kommerziellen Diamantplatten für die Oberflächenimplantation geeignet sind, für die Kopplungsmessungen geeignete Dichte der implantierten NV-Zentren abgeschätzt und eine Implantation mit abgeschätzter Dichte betrachtet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.