648 resultados para experimentelle Atomphysik, Speicherung einzelner Teilchen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The experiments at the Large Hadron Collider at the European Centre for Particle Physics, CERN, rely on efficient and reliable trigger systems for singling out interesting events. This thesis documents two online timing monitoring tools for the central trigger of the ATLAS experiment as well as the adaption of the central trigger simulation as part of the upgrade for the second LHC run. Moreover, a search for candidates for so-called Dark Matter, for which there is ample cosmological evidence, is presented. This search for generic weakly interacting massive particles (WIMPs) is based on the roughly 20/fb of proton-proton collisions at a centre-of-mass-energy of sqrt{s}=8 TeV recorded with the ATLAS detector in 2012. The considered signature are events with a highly energetic jet and large missing transverse energy. No significant deviation from the theory prediction is observed. Exclusion limits are derived on parameters of different signal models and compared to the results of other experiments. Finally, the results of a simulation study on the potential of the analysis at sqrt{s}=14 TeV are presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die rasante Entwicklung der Computerindustrie durch die stetige Verkleinerung der Transistoren führt immer schneller zum Erreichen der Grenze der Si-Technologie, ab der die Tunnelprozesse in den Transistoren ihre weitere Verkleinerung und Erhöhung ihrer Dichte in den Prozessoren nicht mehr zulassen. Die Zukunft der Computertechnologie liegt in der Verarbeitung der Quanteninformation. Für die Entwicklung von Quantencomputern ist die Detektion und gezielte Manipulation einzelner Spins in Festkörpern von größter Bedeutung. Die Standardmethoden der Spindetektion, wie ESR, erlauben jedoch nur die Detektion von Spinensembles. Die Idee, die das Auslesen von einzelnen Spins ermöglich sollte, besteht darin, die Manipulation getrennt von der Detektion auszuführen.rn Bei dem NV−-Zentrum handelt es sich um eine spezielle Gitterfehlstelle im Diamant, die sich als einen atomaren, optisch auslesbaren Magnetfeldsensor benutzen lässt. Durch die Messung seiner Fluoreszenz sollte es möglich sein die Manipulation anderer, optisch nicht detektierbaren, “Dunkelspins“ in unmittelbarer Nähe des NV-Zentrums mittels der Spin-Spin-Kopplung zu detektieren. Das vorgeschlagene Modell des Quantencomputers basiert auf dem in SWCNT eingeschlossenen N@C60.Die Peapods, wie die Einheiten aus den in Kohlenstoffnanoröhre gepackten Fullerenen mit eingefangenem Stickstoff genannt werden, sollen die Grundlage für die Recheneinheiten eines wahren skalierbaren Quantencomputers bilden. Die in ihnen mit dem Stickstoff-Elektronenspin durchgeführten Rechnungen sollen mit den oberflächennahen NV-Zentren (von Diamantplatten), über denen sie positioniert sein sollen, optisch ausgelesen werden.rnrnDie vorliegende Arbeit hatte das primäre Ziel, die Kopplung der oberflächennahen NV-Einzelzentren an die optisch nicht detektierbaren Spins der Radikal-Moleküle auf der Diamantoberfläche mittels der ODMR-Kopplungsexperimente optisch zu detektieren und damit entscheidende Schritte auf dem Wege der Realisierung eines Quantenregisters zu tun.rn Es wurde ein sich im Entwicklungsstadium befindende ODMR-Setup wieder aufgebaut und seine bisherige Funktionsweise wurde an kommerziellen NV-Zentrum-reichen Nanodiamanten verifiziert. Im nächsten Schritt wurde die Effektivität und Weise der Messung an die Detektion und Manipulation der oberflächennah (< 7 nm Tiefe) implantieren NV-Einzelzenten in Diamantplatten angepasst.Ein sehr großer Teil der Arbeit, der hier nur bedingt beschrieben werden kann, bestand aus derrnAnpassung der existierenden Steuersoftware an die Problematik der praktischen Messung. Anschließend wurde die korrekte Funktion aller implementierten Pulssequenzen und anderer Software-Verbesserungen durch die Messung an oberflächennah implantierten NV-Einzelzentren verifiziert. Auch wurde der Messplatz um die zur Messung der Doppelresonanz notwendigen Komponenten wie einen steuerbaren Elektromagneten und RF-Signalquelle erweitert. Unter der Berücksichtigung der thermischen Stabilität von N@C60 wurde für zukünftige Experimente auch ein optischer Kryostat geplant, gebaut, in das Setup integriert und charakterisiert.rn Die Spin-Spin-Kopplungsexperimente wurden mit dem sauerstoffstabilen Galvinoxyl-Radikalals einem Modell-System für Kopplung durchgeführt. Dabei wurde über die Kopplung mit einem NVZentrum das RF-Spektrum des gekoppelten Radikal-Spins beobachtet. Auch konnte von dem gekoppelten Spin eine Rabi-Nutation aufgenommen werden.rn Es wurden auch weitere Aspekte der Peapod Messung und Oberflächenimplantation betrachtet.Es wurde untersucht, ob sich die NV-Detektion durch die SWCNTs, Peapods oder Fullerene stören lässt. Es zeigte sich, dass die Komponenten des geplanten Quantencomputers, bis auf die C60-Cluster, für eine ODMR-Messanordnung nicht detektierbar sind und die NV-Messung nicht stören werden. Es wurde auch betrachtet, welche Arten von kommerziellen Diamantplatten für die Oberflächenimplantation geeignet sind, für die Kopplungsmessungen geeignete Dichte der implantierten NV-Zentren abgeschätzt und eine Implantation mit abgeschätzter Dichte betrachtet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung der Dissertation, Carolin Edinger, April 2015. Im Rahmen der Dissertation ist eine effiziente und zuverlässige Methode zur elektrochemischen Desoxygenierung von aromatischen Carbonsäureamiden entwickelt worden (Schema 1).[1] Unter galvanostatischen Bedingungen eignet sich das optimierte Elektrolytsystem bestehend aus 2%iger methanolischer H2SO4 und geringen Mengen an Additiv 1 in Kombination mit einer Bleikathode hervorragend in dem gewählten geteilten Zellaufbau. Schema 1: Elektrochemische Desoxygenierung aromatischer Carbonsäureamide. Untersuchungen an verschiedensten Amidsubstraten haben gezeigt, dass ein breites Spektrum an Aminen mit dieser Methode zugänglich ist und durch umfangreiche Studien konnten optimale Elektrolyseparameter gefunden werden. Außerdem wurde die Hochskalierung der Ansatzgröße an einem Testsubstrat mit hohen Aminausbeuten von bis zu 73% gewährleistet. Ein besonderes Merkmal der entwickelten Synthese ist neben milden Bedingungen und hoher Selektivität die Verwendung von Ammoniumsalzadditiven. Der positive Effekt dieser Additive auf die Desoxygenierungsreaktion ist vielfältig: Die Wasserstoffentwicklung als unerwünschte Nebenreaktion wird zu negativeren Potentialen verschoben und die Bleikathode wird durch Zurückdrängung der PbSO4-Bildung effektiv vor Korrosion geschützt. Dies konnte durch experimentelle Werte wie die Erhöhung der Produkt- und Stromausbeute durch Additivzusatz während der Elektrolyse hinreichend bestätigt werden. Aber auch zyklovoltammetrische Untersuchungen und Lichtmikroskopaufnahmen der Elektrodenoberfläche bekräftigen eindeutig diese Aussagen.[2,3] Die entwickelte elektrochemische Methode konnte zusätzlich erfolgreich auf Verbindungen übertragen werden, die mit Carbonsäureamiden verwandt sind. So gelang es, aromatische und aliphatische Sulfoxide in sehr guten Ausbeuten selektiv zu den entsprechenden Sulfiden umzusetzen. Zusätzlich konnten bereits bei weiteren, durch klassische Methoden schwer reduzierbare Stoffklassen erste Erfolge erzielt werden. So gelang es, den Grundstein zur Reduktion von Estern und Triphenylphosphinoxid zu legen und erste, vielversprechende Ergebnisse zu erlangen. Da Elektronen als Reduktionsmittel eingesetzt werden und lediglich Wasser als Nebenprodukt gebildet wird, zeichnet sich die entwickelte Desoxygenierungsmethode vor allem durch milde Bedingungen und hohe Selektivität aus. Da weder Reagenzien noch Katalysatoren verwendet werden müssen, werden Abfälle vermieden. Dadurch ist die gefundene Reduktionsmethode nicht nur kostengünstig, sondern erweist sich auch in der Reaktionsführung als vorteilhaft. Literatur: [1] C. Edinger, S. R. Waldvogel, Eur. J. Org. Chem. 2014, 2014, 5144–5148. [2] C. Edinger, V. Grimaudo, P. Broekmann, S. R. Waldvogel, ChemElectroChem 2014, 1, 1018–1022. [3] C. Edinger, S. R. Waldvogel, PCT Int. Appl. 2013, WO 2013030316A2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Future experiments in nuclear and particle physics are moving towards the high luminosity regime in order to access rare processes. In this framework, particle detectors require high rate capability together with excellent timing resolution for precise event reconstruction. In order to achieve this, the development of dedicated FrontEnd Electronics (FEE) for detectors has become increasingly challenging and expensive. Thus, a current trend in R&D is towards flexible FEE that can be easily adapted to a great variety of detectors, without impairing the required high performance. This thesis reports on a novel FEE for two different detector types: imaging Cherenkov counters and plastic scintillator arrays. The former requires high sensitivity and precision for detection of single photon signals, while the latter is characterized by slower and larger signals typical of scintillation processes. The FEE design was developed using high-bandwidth preamplifiers and fast discriminators which provide Time-over-Threshold (ToT). The use of discriminators allowed for low power consumption, minimal dead-times and self-triggering capabilities, all fundamental aspects for high rate applications. The output signals of the FEE are readout by a high precision TDC system based on FPGA. The performed full characterization of the analogue signals under realistic conditions proved that the ToT information can be used in a novel way for charge measurements or walk corrections, thus improving the obtainable timing resolution. Detailed laboratory investigations proved the feasibility of the ToT method. The full readout chain was investigated in test experiments at the Mainz Microtron: high counting rates per channel of several MHz were achieved, and a timing resolution of better than 100 ps after walk correction based on ToT was obtained. Ongoing applications to fast Time-of-Flight counters and future developments of FEE have been also recently investigated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die nahe verwandten T-box Transkriptionsfaktoren TBX2 und TBX3 werden in zahlreichen humanen Krebsarten überexprimiert, insbesondere in Brustkrebs und Melanomen. Die Überexpression von TBX2 und TBX3 hat verschiedene zelluläre Effekte, darunter die Unterdrückung der Seneszenz, die Förderung der Epithelialen-Mesenchymalen Transition sowie invasive Zellmotilität. Im Gegensatz dazu führt ein Funktionsverlust von TBX3 und der meisten anderen humanen T-box-Gene zu haploinsuffizienten Entwicklungsdefekten. Durch Sequenzierung des Exoms von Brustkrebsproben identifizierten Stephens et al. fünf verschiedene Mutationen in TBX3, welche allesamt die DNA-bindende T-box-Domäne betrafen. Die In-Frame-Deletion N212delN wurde zweimal gefunden. Aus der Anhäufung der Mutationen innerhalb der T-box-Domäne wurde geschlossen, dass TBX3 bei Brustkrebs ein Treibergen ist. Da Mutationen innerhalb der T-box-Domäne im Allgemeinen zu einem Funktionsverlust führen, aber die onkogene Aktivität von TBX3 meist auf eine Überexpression zurückzuführen ist, wurden die potentiellen Treibermutationen hinsichtlich einer verminderten oder gesteigerten TBX3-Funktion geprüft. Getestet wurden zwei In-Frame Deletionen, eine Missense- sowie eine Frameshift-Mutante bezüglich der DNA-Bindung in vitro und der Zielgen-Repression in Zellkultur. Zusätzlich wurde eine in silico Analyse der im The Cancer Genome Atlas (TCGA) gelisteten somatischen TBX-Brustkrebsmutationen durchgeführt. Sowohl die experimentelle als auch die in silico Analyse zeigten, dass die untersuchten Mutationen vorwiegend zum Verlust der TBX3-Funktion führen. Um den Mechanismus der Genrepression durch TBX3 besser zu verstehen, wurden weitere TBX3-Mutanten bezüglich ihrer Wirkung auf die p21-Promotoraktivität (p21-Luc-Reporter und endogene p21-Expression) analysiert. Wildtypische p21-Luc-Repression zeigten die zwei Mutationen S674A (Phosphorylierung) und D275K (SUMOylierung), welche posttranslationale Modifikationen verhindern, sowie die Interaktion mit dem Tumorsuppressor Rb1 unterbindende M302A/V304A-Mutation. Erstaunlicherweise war die endogene p21-Repression dieser Mutanten stärker als die des wildtypischen TBX3-Proteins. Alle drei Mutationen führten zu einer Stabilisierung des TBX3-Proteins. Die ursprünglich in Patienten mit Ulna-Mamma Syndrom identifizierte, DNA-bindungsdefekte Y149S-Mutante konnte weder p21-Luc noch endogenes p21 reprimieren. Mutationen in potentiellen Interaktionsdomänen für die Bindung der Co-Repressoren Groucho und C-terminalem Bindeprotein zeigten sowohl auf p21-Luc als auch auf endogenes p21-Gen wildtypische Repressoraktivität, so dass diese Co-Repressoren in COS-7-Zellen wahrscheinlich nicht an der Repression dieses Gens beteiligt sind. Da TBX2 und TBX3 interessante Ziele zur direkten Krebsbekämpfung darstellen, sollte ein zelluläres Reportersystem zur Identifikation TBX2-inhibierender, pharmakologisch aktiver Substanzen etabliert werden. Dazu sollte eine stabile Zelllinie mit vom p21-Promotor reguliertem d2EGFP-Reporter und Doxyzyklin-induzierbarem TBX2-Protein erzeugt werden, da ektopische Expression von TBX2 genetische Instabilität und Toxizität induzieren kann. In dieser Zelllinie sollte die TBX2-Expression zur Reduktion der d2EGFP-Fluoreszenz führen. Zur Erzeugung der Zelllinie wurden die folgenden drei Konstrukte Schritt-für-Schritt stabil in das Genom der Zielzelllinie COS-7 integriert: pEF1alpha-Tet3G, pTRE3G-TBX2 und p21-d2EGFP. Während die Herstellung der doppelt stabilen COS-7-Zelllinie gelang, scheiterte die Herstellung der dreifach stabilen Zelllinie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The world's rising demand of energy turns the development of sustainable and more efficient technologies for energy production and storage into an inevitable task. Thermoelectric generators, composed of pairs of n-type and p-type semiconducting materials, di¬rectly transform waste heat into useful electricity. The efficiency of a thermoelectric mate¬rial depends on its electronic and lattice properties, summarized in its figure of merit ZT. Desirable are high electrical conductivity and Seebeck coefficients, and low thermal con¬ductivity. Half-Heusler materials are very promising candidates for thermoelectric applications in the medium¬ temperature range such as in industrial and automotive waste heat recovery. The advantage of Heusler compounds are excellent electronic properties and high thermal and mechanical stability, as well as their low toxicity and elemental abundance. Thus, the main obstacle to further enhance their thermoelectric performance is their relatively high thermal conductivity.rn rnIn this work, the thermoelectric properties of the p-type material (Ti/Zr/Hf)CoSb1-xSnx were optimized in a multistep process. The concept of an intrinsic phase separation has recently become a focus of research in the compatible n-type (Ti/Zr/Hf)NiSn system to achieve low thermal conductivities and boost the TE performance. This concept is successfully transferred to the TiCoSb system. The phase separation approach can form a significant alternative to the previous nanostructuring approach via ball milling and hot pressing, saving pro¬cessing time, energy consumption and increasing the thermoelectric efficiency. A fundamental concept to tune the performance of thermoelectric materials is charge carrier concentration optimization. The optimum carrier concentration is reached with a substitution level for Sn of x = 0.15, enhancing the ZT about 40% compared to previous state-of-the-art samples with x = 0.2. The TE performance can be enhanced further by a fine-tuning of the Ti-to-Hf ratio. A correlation of the microstructure and the thermoelectric properties is observed and a record figure of merit ZT = 1.2 at 710°C was reached with the composition Ti0.25Hf0.75CoSb0.85Sn0.15.rnTowards application, the long term stability of the material under actual conditions of operation are an important issue. The impact of such a heat treatment on the structural and thermoelectric properties is investigated. Particularly, the best and most reliable performance is achieved in Ti0.5Hf0.5CoSb0.85Sn0.15, which reached a maximum ZT of 1.1 at 700°C. The intrinsic phase separation and resulting microstructure is stable even after 500 heating and cooling cycles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The quark model successfully describes all ground state bary-ons as members of $SU(N)$ flavour multiplets. For excited baryon states the situation is totally different. There are much less states found in the experiment than predicted in most theoretical calculations. This fact has been known for a long time as the 'missing resonance problem'. In addition, many states found in experiments are only poorly measured up to now. Therefore, further experimental efforts are needed to clarify the situation.rnrnAt mbox{COMPASS}, reactions of a $190uskgigaeVperclight$ hadron beam impinging on a liquid hydrogen target are investigated.rnThe hadron beam contains different species of particles ($pi$, $K$, $p$). To distinguish these particles, two Cherenkov detectors are used. In this thesis, a new method for the identification of particles from the detector information is developed. This method is based on statistical approaches and allows a better kaon identification efficiency with a similar purity compared to the method, which was used before.rnrnThe reaction $pprightarrow ppX$ with $X=(pi^0,~eta,~omega,~phi)$ is used to study different production mechanisms. A previous analysis of $omega$ and $phi$ mesons is extended to pseudoscalar mesons. As the resonance contributions in $peta$ are smaller than in $ppi^0$ a different behaviour of these two final states is expected as a function of kinematic variables. The investigation of these differences allows to study different production mechanisms and to estimate the size of the resonant contribution in the different channels.rnrnIn addition, the channel $pprightarrow ppX$ allows to study baryon resonances in the $pX$ system.rnIn the mbox{COMPASS} energy regime, the reaction is dominated by Pomeron exchange. As a Pomeron carries vacuum quantum numbers, no isospin is transferred between the target proton and the beam proton. Therefore, the $pX$ final state has isospin $textstylefrac{1}{2}$ and all baryon resonances in this channel are $N^ast$ baryons. This offers the opportunity to do spectroscopy without taking $Delta$ resonances into account. rnrnTo disentangle the contributions of different resonances a partial wave analysis (PWA) is used. Different resonances have different spin and parity $J^parity$, which results in different angular distributions of the decay particles. These angular distributions can be calculated from models and then be fitted to the data. From the fit the contributions of the single resonances as well as resonance parameters -- namely the mass and the width -- can be extracted. In this thesis, two different approaches for a partial wave analysis of the reaction $pprightarrow pppi^0$ are developed and tested.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Stratosphärische Partikel sind typischerweise mit dem bloßen Auge nicht wahrnehmbar. Dennoch haben sie einen signifikanten Einfluss auf die Strahlungsbilanz der Erde und die heteorogene Chemie in der Stratosphäre. Kontinuierliche, vertikal aufgelöste, globale Datensätze sind daher essenziell für das Verständnis physikalischer und chemischer Prozesse in diesem Teil der Atmosphäre. Beginnend mit den Messungen des zweiten Stratospheric Aerosol Measurement (SAM II) Instruments im Jahre 1978 existiert eine kontinuierliche Zeitreihe für stratosphärische Aerosol-Extinktionsprofile, welche von Messinstrumenten wie dem zweiten Stratospheric Aerosol and Gas Experiment (SAGE II), dem SCIAMACHY, dem OSIRIS und dem OMPS bis heute fortgeführt wird. rnrnIn dieser Arbeit wird ein neu entwickelter Algorithmus vorgestellt, der das sogenannte ,,Zwiebel-Schäl Prinzip'' verwendet, um Extinktionsprofile zwischen 12 und 33 km zu berechnen. Dafür wird der Algorithmus auf Radianzprofile einzelner Wellenlängen angewandt, die von SCIAMACHY in der Limb-Geometrie gemessen wurden. SCIAMACHY's einzigartige Methode abwechselnder Limb- und Nadir-Messungen bietet den Vorteil, hochaufgelöste vertikale und horizontale Messungen mit zeitlicher und räumlicher Koinzidenz durchführen zu können. Die dadurch erlangten Zusatzinformationen können verwendet werden, um die Effekte von horizontalen Gradienten entlang der Sichtlinie des Messinstruments zu korrigieren, welche vor allem kurz nach Vulkanausbrüchen und für polare Stratosphärenwolken beobachtet werden. Wenn diese Gradienten für die Berechnung von Extinktionsprofilen nicht beachtet werden, so kann dies dazu führen, dass sowohl die optischen Dicke als auch die Höhe von Vulkanfahnen oder polarer Stratosphärenwolken unterschätzt werden. In dieser Arbeit wird ein Verfahren vorgestellt, welches mit Hilfe von dreidimensionalen Strahlungstransportsimulationen und horizontal aufgelösten Datensätzen die berechneten Extinktionsprofile korrigiert.rnrnVergleichsstudien mit den Ergebnissen von Satelliten- (SAGE II) und Ballonmessungen zeigen, dass Extinktionsprofile von stratosphärischen Partikeln mit Hilfe des neu entwickelten Algorithmus berechnet werden können und gut mit bestehenden Datensätzen übereinstimmen. Untersuchungen des Nabro Vulkanausbruchs 2011 und des Auftretens von polaren Stratosphärenwolken in der südlichen Hemisphäre zeigen, dass das Korrekturverfahren für horizontale Gradienten die berechneten Extinktionsprofile deutlich verbessert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the fundamental interactions in the Standard Model of particle physicsrnis the strong force, which can be formulated as a non-abelian gauge theoryrncalled Quantum Chromodynamics (QCD). rnIn the low-energy regime, where the QCD coupling becomes strong and quarksrnand gluons are confined to hadrons, a perturbativernexpansion in the coupling constant is not possible.rnHowever, the introduction of a four-dimensional Euclidean space-timernlattice allows for an textit{ab initio} treatment of QCD and provides arnpowerful tool to study the low-energy dynamics of hadrons.rnSome hadronic matrix elements of interest receive contributionsrnfrom diagrams including quark-disconnected loops, i.e. disconnected quarkrnlines from one lattice point back to the same point. The calculation of suchrnquark loops is computationally very demanding, because it requires knowledge ofrnthe all-to-all propagator. In this thesis we use stochastic sources and arnhopping parameter expansion to estimate such propagators.rnWe apply this technique to study two problems which relay crucially on therncalculation of quark-disconnected diagrams, namely the scalar form factor ofrnthe pion and the hadronic vacuum polarization contribution to the anomalousrnmagnet moment of the muon.rnThe scalar form factor of the pion describes the coupling of a charged pion torna scalar particle. We calculate the connected and the disconnected contributionrnto the scalar form factor for three different momentum transfers. The scalarrnradius of the pion is extracted from the momentum dependence of the form factor.rnThe use ofrnseveral different pion masses and lattice spacings allows for an extrapolationrnto the physical point. The chiral extrapolation is done using chiralrnperturbation theory ($chi$PT). We find that our pion mass dependence of thernscalar radius is consistent with $chi$PT at next-to-leading order.rnAdditionally, we are able to extract the low energy constant $ell_4$ from thernextrapolation, and ourrnresult is in agreement with results from other lattice determinations.rnFurthermore, our result for the scalar pion radius at the physical point isrnconsistent with a value that was extracted from $pipi$-scattering data. rnThe hadronic vacuum polarization (HVP) is the leading-order hadronicrncontribution to the anomalous magnetic moment $a_mu$ of the muon. The HVP canrnbe estimated from the correlation of two vector currents in the time-momentumrnrepresentation. We explicitly calculate the corresponding disconnectedrncontribution to the vector correlator. We find that the disconnectedrncontribution is consistent with zero within its statistical errors. This resultrncan be converted into an upper limit for the maximum contribution of therndisconnected diagram to $a_mu$ by using the expected time-dependence of therncorrelator and comparing it to the corresponding connected contribution. Wernfind the disconnected contribution to be smaller than $approx5%$ of thernconnected one. This value can be used as an estimate for a systematic errorrnthat arises from neglecting the disconnected contribution.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Archäologie werden elektrische Widerstandsmessungen routinemäßig zur Prospektion von Fundstellen eingesetzt. Die Methode ist kostengünstig, leicht anwendbar und liefert in den meisten Fällen zuverlässige und leicht zu interpretierende Ergebnisse. Dennoch kann die Methode die archäologischen Strukturen in manchen Fällen nur teilweise oder gar nicht abbilden, wenn die bodenphysikalischen und bodenchemischen Eigenschaften des Bodens und der archäologischen Strukturen dies nicht zulassen. Der spezifische elektrische Widerstand wird durch Parameter wie Wassergehalt, Bodenstruktur, Bodenskelett, Bodentextur, Salinität und Bodentemperatur beeinflusst. Manche dieser Parameter, wie z.B. der Wassergehalt und die Bodentemperatur, unterliegen einer saisonalen Veränderung. Die vorliegende Arbeit untersucht den spezifischen elektrischen Widerstand von archäologischen Steinstrukturen und evaluiert die Möglichkeit, auf Grundlage von Geländemessungen und Laboranalysen archäologische Strukturen und Böden als numerische Modelle darzustellen. Dazu wurde eine Kombination von verschiedenen bodenkundlichen, geoarchäologischen und geophysikalischen Methoden verwendet. Um archäologische Strukturen und Bodenprofile als numerische Widerstandsmodelle darstellen zu können, werden Informationen zur Geometrie der Strukturen und ihren elektrischen Widerstandswerten benötigt. Dabei ist die Qualität der Hintergrundinformationen entscheidend für die Genauigkeit des Widerstandsmodells. Die Geometrie der Widerstandsmodelle basiert auf den Ergebnissen von Rammkernsondierungen und archäologische Ausgrabungen. Die an der Ausbildung des elektrischen Widerstands beteiligten Parameter wurden durch die Analyse von Bodenproben gemessen und ermöglichen durch Pedotransfer-Funktion, wie die Rhoades-Formel, die Abschätzung des spezifischen elektrischen Widerstandes des Feinbodens. Um den Einfluss des Bodenskeletts auf den spezifischen elektrischen Widerstand von Bodenprofilen und archäologischen Strukturen zu berechnen, kamen die Perkolationstheorie und die Effective Medium Theory zum Einsatz. Die Genauigkeit und eventuelle Limitierungen der Methoden wurden im Labor durch experimentelle Widerstandsmessungen an ungestörten Bodenproben und synthetischen Materialien überprüft. Die saisonale Veränderung des Wassergehalts im Boden wurde durch numerische Modelle mit der Software HYDRUS simuliert. Die hydraulischen Modelle wurden auf Grundlage der ermittelten bodenkundlichen und archäologischen Stratigraphie erstellt und verwenden die Daten von lokalen Wetterstationen als Eingangsparameter. Durch die Kombination der HYDRUS-Ergebnisse mit den Pedotransfer-Funktionen konnte der Einfluss dieser saisonalen Veränderung auf die Prospektionsergebnisse von elektrischen Widerstandsmethoden berechnet werden. Die Ergebnisse der Modellierungsprozesse wurden mit den Geländemessungen verglichen. Die beste Übereinstimmung zwischen Modellergebnissen und den Prospektionsergebnissen konnte für die Fallstudie bei Katzenbach festgestellt werden. Bei dieser wurden die Modelle auf Grundlage von archäologischen Grabungsergebnissen und detaillierten bodenkundlichen Analysen erstellt. Weitere Fallstudien zeigen, dass elektrische Widerstandsmodelle eingesetzt werden können, um den Einfluss von ungünstigen Prospektionsbedingungen auf die Ergebnisse der elektrischen Widerstandsmessungen abzuschätzen. Diese Informationen unterstützen die Planung und Anwendung der Methoden im Gelände und ermöglichen eine effektivere Interpretation der Prospektionsergebnisse. Die präsentierten Modellierungsansätze benötigen eine weitere Verifizierung durch den Vergleich der Modellierungsergebnisse mit detailliertem geophysikalischem Gelände-Monitoring von archäologischen Fundstellen. Zusätzlich könnten elektrische Widerstandsmessungen an künstlichen Mauerstrukturen unter kontrollierten Bedingungen zur Überprüfung der Modellierungsprozesse genutzt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crystal nucleus in a finite volume may exhibit phase coexistence with a surrounding fluid. The thermodynamic properties of the coexisting fluid (pressure and chemical potential) are enhanced relative to their coexistence values. This enhancement is uniquely related to the surface excess free energy. rnA model for weakly attractive soft colloidal particles is investigated, the so called Asakura-Oosawa model. In simulations, this model allows for the calculation of the pressure in the liquid using the virial formula directly. The phase coexistence pressure in the thermodynamic limit is obtained from the interface velocity method. We introduce a method by which the chemical potential in dense liquids can be measured. There is neither a need to locate the interface nor to compute the anisotropic interfacial tension to obtain nucleation barriers. Therefore, our analysis is appropriate for nuclei of arbitrary shape. Monte Carlo simulations over a wide range of nucleus volumes yield to nucleation barriers independent from the total system volume. The interfacial tension is determined via the ensemble-switch method, hence a detailed test of classical nucleation theory is possible. The anisotropy of the interfacial tension and the resulting non-spherical shape has only a minor effect on the barrier for the Asakura-Oosawa model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit seiner Entdeckung im Jahre 1978 wurden für hyperpolarisiertes (HP) 129Xe zahlreiche Anwendungen gefunden. Aufgrund seiner hohen Verstärkung von NMR-Signalen wird es dabei typischerweise für Tracer- und Oberflächenstudien verwendet. Im gasförmigen Zustand ist es ein interessantes, klinisches Kontrastmittel, welches für dynamische Lungen MRT genutzt oder auch in Blut oder lipophilen Flüssigkeiten gelöst werden kann. Weiterhin findet HP-Xe auch in der Grundlagenphysik in He-Xe Co-Magnetometern Verwendung, mit welchen z. B. das elektrische Dipolmoment von Xe bestimmt werden soll, oder es dient zur Überprüfung auf Lorentz-Invarianzen. Alle diese Anwendungen profitieren von einem hohen Polarisationsgrad (PXe), um hohe Signalstärken und lange Lagerzeiten zu erreichen. rnIn dieser Arbeit wurden zwei mobile Xe-Polarisatoren konstruiert: einer für Experimente in der Grundlagenphysik mit einer Produktionsrate von 400 mbar·l/h mit PXe ≈ 5%. Der zweite Xe-Polarisator wurde für medizinische Anwendungen entwickelt und soll 1 bar l/h mit PXe > 20% erzeugen. Der letztere wurde noch nicht getestet. Die Arbeitsbedingungen des Xe-Polarisators für Grundlagenphysik (Strömung des Gasgemischs, Temperatur, Druck und Konzentration von Xe) wurden variiert, um einen höchstmöglichen Polarisationsgrad zu erzielen. Die maximale Polarisation von 5,6 % wurde bei Verwendung eine Gasmischung von 1% Xe bei einem Durchfluss von 200 ml/min, einer Temperatur von 150°C und einem Gesamtdruck von 4 bar erreicht. rnWeiterhin muss HP-Xe auch effizient gelagert werden, um Polarisationsverluste zu minimieren. Das ist besonders für solche Anwendungen notwendig, welche an einem entfernten Standort durchgeführt werden sollen oder auch wenn lange Spinkohärenzeiten gefordert sind, z.B. bei He-Xe Co-Magnetometern. rnHierbei bestand bisher die größte Schwierigkeit darin, die Reproduzierbarkeit der gemessenen Lagerzeiten sicherzustellen. In dieser Arbeit konnte die Spin-Gitter-Relaxationszeit (T1) von HP-129Xe in unbeschichteten, Rb-freien, sphärischen Zellen aus Aluminiumsilikatglas (GE-180) signifikant verbessert werden. Die T1–Zeit wurde in einem selbstgebauten Niederfeld-NMR-System (2 mT) sowohl für reines HP-Xe als auch für HP-Xe in Mischungen mit N2, SF6 und CO2 bestimmt. Bei diesen Experimenten wurde die maximale Relaxationszeit für reines Xe (85% 129 Xe) bei (4,6 ± 0,1) h festgestellt. Dabei lagen die typischen Wand-Relaxationszeiten bei ca. 18 h für Glaszellen mit einem Durchmesser von 10 cm. Des Weiteren wurde herausgefunden, dass CO2 eine unerwartet hohe Effizienz bei der Verkürzung der Lebensdauer der Xe-Xe Moleküle zeigte und somit zu einer deutlichen Verlängerung der gesamten T1-Zeit genutzt werden kann. rnIm Verlauf vieler Experimente wurde durch wiederholte Messungen mit der gleichen Zelle, ein "Alterungsprozess“ bei der Wandrelaxation identifiziert und untersucht. Dieser Effekt könnte leicht rückgängig gemacht werden, indem die anfängliche Reinigungsprozedur wiederholt wurde. Auf diese Weise kann eine konstante Wandrelaxation sichergestellt werden, durch die sehr reproduzierbare T1-Messungen möglich werden. rnSchließlich wurde die maximale Relaxationszeit für HP-Xe mit natürlicher Häufigkeit in Mischungen mit SF6 bestimmt. Überraschenderweise war dieser Wert um ca. 75% niedriger als der Wert für Xenon, das zu 85% mit 129Xe angereichert war. Dieser Effekt wurde durch drei unabhängige Experimente bestätigt, da er nicht von der bestehenden Theorie der Xe-Relaxation ableitbar ist. rnDie Polarisation von HP-Xe, PXe, wird normalerweise durch den Vergleich der NMR-Signale des HP-Xe mit einer thermischen polarisierten Probe (z. B. 1H2O oder Xe) bestimmt. Dabei beinhaltet der Vergleich unterschiedlicher Messungen an verschiedenen Proben (unterschiedlicher Druck, Signalintensität und Messverfahren) viele experimentelle Unsicherheiten, welche sich oft nicht leicht bestimmen lassen. Eine einfache, genaue und kostengünstige Methode zur Bestimmung von PXe durch eine direkte Messung der makroskopischen Magnetisierung in einem statischen Magnetfeld vermeidet alle diese Unsicherheiten. Dieses Verfahren kann Polarisationen von > 2 % mit einer Genauigkeit von maximal 10% fast ohne Polarisationsverlust bestimmen. Zusätzlich kann diese Methode ohne weitere Änderungen auch für Bestimmungen des Polarisationsgrades anderer HP-Gase verwendet werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Mikrophysik in Wolken bestimmt deren Strahlungseigenschaften und beeinflusst somit auch den Strahlungshaushalt des Planeten Erde. Aus diesem Grund werden im Rahmen der vorliegenden Arbeit die mikrophysikalischen Charakteristika von Cirrus-Wolken sowie von arktischen Grenzschicht-Wolken behandelt. Die Untersuchung dieser Wolken wurde mithilfe verschiedener Instrumente verwirklicht, welche Partikel in einem Durchmesserbereich von 250nm bis zu 6.4mm vermessen und an Forschungsflugzeugen montiert werden. Ein Instrumentenvergleich bestätigt, dass innerhalb der Bereiche in denen sich die Messungen dieser Instrumente überlappen, die auftretenden Diskrepanzen als sehr gering einzustufen sind. Das vorrangig verwendete Instrument trägt die Bezeichnung CCP (Cloud Combination Probe) und ist eine Kombination aus einem Instrument, das Wolkenpartikel anhand von vorwärts-gerichtetem Streulicht detektiert und einem weiteren, das zweidimensionale Schattenbilder einzelner Wolkenpartikel aufzeichnet. Die Untersuchung von Cirrus-Wolken erfolgt mittels Daten der AIRTOSS-ICE (AIRcraft TOwed Sensor Shuttle - Inhomogeneous Cirrus Experiment) Kampagne, welche im Jahr 2013 über der deutschen Nord- und Ostsee stattfand. Parameter wie Partikeldurchmesser, Partikelanzahlkonzentration, Partikelform, Eiswassergehalt, Wolkenhöhe und Wolkendicke der detektierten Cirrus-Wolken werden bestimmt und im Kontext des aktuellen Wissenstandes diskutiert. Des Weiteren wird eine beprobte Cirrus-Wolke im Detail analysiert, welche den typischen Entwicklungsprozess und die vertikale Struktur dieser Wolkengattung widerspiegelt. Arktische Grenzschicht-Wolken werden anhand von Daten untersucht, die während der VERDI (VERtical Distribution of Ice in Arctic Clouds) Kampagne im Jahr 2012 über der kanadischen Beaufortsee aufgezeichnet wurden. Diese Messkampagne fand im Frühling statt, um die Entwicklung von Eis-Wolken über Mischphasen-Wolken bis hin zu Flüssigwasser-Wolken zu beobachten. Unter bestimmten atmosphärischen Bedingungen tritt innerhalb von Mischphasen-Wolken der sogenannte Wegener-Bergeron-Findeisen Prozess auf, bei dem Flüssigwassertropfen zugunsten von Eispartikeln verdampfen. Es wird bestätigt, dass dieser Prozess anhand von mikrophysikalischen Messungen, insbesondere den daraus resultierenden Größenverteilungen, nachweisbar ist. Darüber hinaus wird eine arktische Flüssigwasser-Wolke im Detail untersucht, welche im Inneren das Auftreten von monomodalen Tröpfchen-Größenverteilungen zeigt. Mit zunehmender Höhe wachsen die Tropfen an und die Maxima der Größenverteilungen verschieben sich hin zu größeren Durchmessern. Dahingegen findet im oberen Übergangsbereich dieser Flüssigwasser-Wolke, zwischen Wolke und freier Atmosphäre, ein Wechsel von monomodalen zu bimodalen Tröpfchen-Größenverteilungen statt. Diese weisen eine Mode 1 mit einem Tropfendurchmesser von 20μm und eine Mode 2 mit einem Tropfendurchmesser von 10μm auf. Das dieses Phänomen eventuell typisch für arktische Flüssigwasser-Wolken ist, zeigen an dem Datensatz durchgeführte Analysen. Mögliche Entstehungsprozesse der zweiten Mode können durch Kondensation von Wasserdampf auf eingetragenen Aerosolpartikeln, die aus einer Luftschicht oberhalb der Wolke stammen oder durch Wirbel, welche trockene Luftmassen in die Wolke induzieren und Verdampfungsprozesse von Wolkentröpfchen hervorrufen, erklärt werden. Unter Verwendung einer direkten numerischen Simulation wird gezeigt, dass die Einmischung von trockenen Luftmassen in den Übergangsbereich der Wolke am wahrscheinlichsten die Ausbildung von Mode 2 verursacht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschreibt die Entwicklung, Konstruktion und Untersuchung eines Magnetometers zur exakten und präzisen Messung schwacher Magnetfelder. Diese Art von Magnetometer eignet sich zur Anwendung in physikalischen hochpräzisions Experimenten wie zum Beispiel der Suche nach dem elektrischen Dipolmomentrndes Neutrons. Die Messmethode beruht auf der gleichzeitigen Detektion der freien Spin Präzession Kern-Spin polarisierten 3He Gases durch mehrere optisch gepumpte Cäsium Magnetometer. Es wird gezeigt, dass Cäsium Magnetometer eine zuverlässige und vielseitige Methode zur Messung der 3He Larmor Frequenz und eine komfortable Alternative zur Benutzung von SQUIDs für diesen Zweck darstellen. Ein Prototyp dieses Magnetometers wurde gebaut und seine Funktion in der magnetisch abgeschirmten Messkabine der Physikalisch Technischen Bundesanstalt untersucht. Die Sensitivität des Magnetometers in Abhängigkeitrnvon der Messdauer wurde experimentell untersucht. Es wird gezeigt, dass für kurze Messperioden (< 500s) Cramér-Rao limitierte Messungen möglich sind während die Sensitivität bei längeren Messungen durch die Stabilität des angelegten Magnetfeldes limitiert ist. Messungen eines 1 muT Magnetfeldes mit einer relative Genauigkeit von besser als 5x10^(-8) in 100s werden präsentiert. Es wird gezeigt, dass die Messgenauigkeit des Magnetometers durch die Zahl der zur Detektion der 3He Spin Präzession eingesetzten Cäsium Magnetometer skaliert werden kann. Prinzipiell ist dadurch eine Anpassung der Messgenauigkeit an jegliche experimentellen Bedürfnisse möglich. Es wird eine gradiometrische Messmethode vorgestellt, die es erlaubt den Einfluss periodischerrnmagnetischer Störungen auf dieMessung zu unterdrücken. Der Zusammenhang zwischen der Sensitivität des kombinierten Magnetometers und den Betriebsparametern der Cäsium Magnetometer die zur Spin Detektion verwendet werden wird theoretisch untersucht und anwendungsspezifische Vor- und Nachteile verschiedener Betriebsartenwerden diskutiert. Diese Zusammenhänge werden in einer Formel zusammengefasst die es erlaubt, die erwartete Sensitivität des Magnetometers zu berechnen. Diese Vorhersagen befinden sich in perfekter Übereinstimmung mit den experimentellen Daten. Die intrinsische Sensitivität des Magnetometer Prototyps wird auf Basis dieser Formel theoretisch bestimmt. Ausserdem wird die erwartete Sensitivität für die Anwendung im Rahmen des Experiments der nächsten Generation zur Bestimmung des elektrischenrnDipolmoments des Neutrons am Paul Scherrer Institut abgeschätzt. Des weiteren wird eine bequeme experimentelle Methode zur Messung des Polarisationsgrades und des Rabi Flip-Winkels der 3He Kernspin Polarisation vorgestellt. Letztere Messung ist sehr wichtig für die Anwendung in hochpräzisions Experimenten.