38 resultados para Dunkle Materie
Resumo:
Trotz zahlreicher Hinweise auf die Existenz von Dunkler Materie, konnten entsprechende Teilchen bisher nicht nachgewiesen werden. Eine große Anzahl an Experimenten wird durchgeführt, um die Eigenschaften möglicher Kandidatenteilchen zu untersuchen. Eine Strategie ist die Suche nach einem Neutrinosignal aus den Annihilationen von schwach wechselwirkenden massiven Teilchen (WIMPs) in Regionen mit hoher Dichte von Dunkler Materie. Mögliche Zielobjekte dieser Suchen sind die Erde, die Sonne, das Zentrum und der Halo der Milchstraße sowie entfernte Objekte, die einen hohen Anteil Dunkler Materie aufweisen.In der vorliegenden Arbeit wird die erste Suche nach einem Neutrinosignal von Zwerggalaxien, größeren Galaxien und Galaxienhaufen beschrieben. Da kein Signal nachgewiesen wurde, konnten obere Grenzen auf den Annihilationsquerschnitt von WIMPs gesetzt werden. Die stärksten Grenzen wurden aus der Beobachtung des Virgo-Haufens unter der Annahme einer großen Signalverstärkung durch Unterstrukturen in der Dichteverteilung abgeleitet. Für WIMP-Massen oberhalb von einigen TeV ist das Ergebnis vergleichbar mit Grenzen, die aus der Suche mit Gammateleskopen abgeleitet wurden. Für den direkten Annihilationskanal in zwei Neutrinos konnte der Wirkungsquerschnitt stärker eingeschränkt werden, als in bisherigen Analysen.
Resumo:
Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.
Resumo:
The experiments at the Large Hadron Collider at the European Centre for Particle Physics, CERN, rely on efficient and reliable trigger systems for singling out interesting events. This thesis documents two online timing monitoring tools for the central trigger of the ATLAS experiment as well as the adaption of the central trigger simulation as part of the upgrade for the second LHC run. Moreover, a search for candidates for so-called Dark Matter, for which there is ample cosmological evidence, is presented. This search for generic weakly interacting massive particles (WIMPs) is based on the roughly 20/fb of proton-proton collisions at a centre-of-mass-energy of sqrt{s}=8 TeV recorded with the ATLAS detector in 2012. The considered signature are events with a highly energetic jet and large missing transverse energy. No significant deviation from the theory prediction is observed. Exclusion limits are derived on parameters of different signal models and compared to the results of other experiments. Finally, the results of a simulation study on the potential of the analysis at sqrt{s}=14 TeV are presented.
Resumo:
Primitive kohlige Chondrite sind Meteorite, die seit ihrer Entstehung im frühen Sonnensystem kaum verändert wurden und dadurch einen Einblick in Prozesse geben, die zur Bildung und Veränderung der ersten festen Materie führten. Solche Prozesse können anhand von Bruchstücken dieser Meteorite detailliert im Labor studiert werden, sodass Rückschlüsse auf die Entwicklung unseres Sonnensystems im frühen Stadium getroffen werden können. Ca-, Al-reiche Einschlüsse (CAIs) aus chondritischen Meteoriten sind die ersten Festkörper des Sonnensystems und enthalten viele refraktäre Metallnuggets (RMNs), welche hauptsächlich aus den Elementen Os, Ir, Ru, Mo und Pt bestehen. Nach weit verbreiteter Ansicht sind diese Nuggets wahrscheinlich im Gleichgewicht mit dem solaren Nebel kondensiert, bereits früher oder gleichzeitig mit Oxiden und Silikaten. Die exakten Mechanismen, die zu ihren heute beobachteten Eigenschaften führten, sind allerdings unklar. Um frühere Arbeiten fortzuführen, wurde eine hohe Anzahl RMNs in vier unterschiedlichen Typen von Meteoriten detailliert studiert, darunter solche aus dem nahezu unveränderten Acfer 094, Allende (CV3ox), Leoville (CV3red) und Murchison (CM2). Die RMNs wurden in-situ, assoziiert mit ihren Wirtsmineralen und auch in Säurerückständen gefunden, deren Präparationsprozedur in dieser Arbeit speziell für RMNs durch eine zusätzliche Dichtetrennung verbessert wurde.rnDie Ergebnisse decken eine Reihe von Ungereimtheiten zwischen den beobachteten RMN-Eigenschaften und einer Kondensationsherkunft auf, sowohl für Kondensation in solarer Umgebung, als auch für Kondensation aus Material von Supernovae oder roten Riesen, für die die Kondensationssequenzen refraktärer Metalle speziell für diesen Vergleich berechnet wurden. Stattdessen wurden in dieser Arbeit neue Einblicke in die RMN-Entstehung und die Entwicklung der ersten Festkörper (CAIs) durch eine Kombination aus experimentellen, isotopischen, strukturellen und petrologischen Studien an RMNs gewonnen. Viele der beobachteten Eigenschaften sind mit Ausfällung der RMN aus einer CAI-Schmelze vereinbar. Ein solches Szenario wird durch entsprechende Untersuchungen an synthetisch hergestellten, mit refraktären Metallen im Gleichgewicht stehenden CAI-Schmelzen bestätigt. Es folgt aus den Ergebnissen, dass die Mehrzahl der RMNs isotopisch solar ist und alle untersuchten RMNs innerhalb von CAIs bei rascher Abkühlung (um bis zu 1000 °C/40 sek.) einer CAI-Schmelze gebildet wurden. rn
Resumo:
Thema der vorliegenden Untersuchung ist die erkenntnistheoretische Funktion des Ästhetischen für das philosophische System Arthur Schopenhauers. Der epistemologischen Kohärenz des Gesamtsystems wird dabei größere Bedeutung zugemessen als den in der Sache begründeten Diskrepanzen und systemimmanenten Brüchen.Als zentrale Problematik ergibt sich die des Überganges zwischen zwei Erkenntnisarten, die beschrieben werden können als schematische Welterkenntnis in Ursache-Wirkungs-verhältnissen einerseits und grundloses' Wissen um die Bedeutung der Welt andererseits. Im Fortgang der Untersuchung rückt die Möglichkeit des Zusammenwirkens der Erkenntnis-vermögen selbst im Bewusstsein und damit die Frage nach dessen Struktur in den Mittelpunkt. Das führt letztlich zu philosophischen Grundfragen: Kann ein Übergang vom Stoff ins Bewusstsein gedacht werden? Wie geschieht er? Schopenhauers Konzeption der Idee und der ästhetischen Kontemplation können Antworten geben: Sie dokumentieren die Durchlässigkeit der Erkenntnisvermögen als Spezifikum des menschlichen Intellekts', und erweisen sich so die Hauptthese der Arbeit als Wesenserkenntnis im Erleben von Wollen und Erkennen als ungeschiedenem Ganzen.Diese Interpretation von Schopenhauers Ideenlehre will die erkenntnistheoretische Relevanz des philosophischen Entwurfs eines menschlichen Selbst- und Weltverständnisses als Wille und Vorstellung aufzeigen, das ein wesensadäquates ist, weil es vom lebeendigen Gegenstand' ausgeht: An ihm allein ist das in Erscheinung getretene/tretende Wesen fassbar, an empfindungslosen anorganischen wie auch an erkenntnisfähigen organischen Körpern, die dennoch mehr sind als bloße Materie. Im Immateriellen sind sie identisch, und davon gibt es ein Bewusstsein: die Idee des Menschen.
Resumo:
Kolloidale Suspensionen aus identischen kugelförmigen, geladenen Partikeln in wässrigen Medien stellen ein ideales Modellsystem zur Untersuchung des Gleichgewichtsverhaltens, aber auch des Nicht-Gleichgewichtsverhaltens Weicher Materie dar. So bilden derartige Systeme bei hinreichend starker und langreichweitiger elektrostatischer Repulsion fluid und kristallin geordnete Strukturen aus, die wegen der weitreichenden Analogie zu atomar kondensierter Materie als kolloidale Fluide und Kristalle bezeichnet werden. Von großem Vorteil ist dabei die Möglichkeit zur kontrollierten Einstellung der Wechselwirkung und die gute optische Zugänglichkeit für Mikroskopie und Lichtstreuung sowie die Weichheit der Materialien, aufgrund derer sich auch Zustände fernab des mechanischen Gleichgewichts gezielt präparieren lassen. Themenstellung der vorliegenden Arbeit ist die Untersuchung des Phasenverhaltens und der Fließmechanismen kolloidaler Kristalle in einer Rohrströmung. Im ersten Teil der Arbeit wird gezeigt, dass beim Fluss durch eine zylindrische Röhre Mehrphasenkoexistenz auftritt, wobei ein polykristalliner Kern von einer isotropen Scherschmelze umgeben ist. Zusätzlich treten an der Grenze zwischen diesen Phasen und an der Rohrwand Phasen hexagonal geordneter übereinander hinweggleitender Lagen auf. Der Vergleich zwischen auf der Basis der Navier-Stokes-Gleichung theoretisch berechneten und gemessenen Geschwindigkeitsprofilen zeigt, dass jede dieser Phasen für sich Newtonsches Fließverhalten aufweist. Die Gesamtviskosität ist hingegen durch die mit dem Durchsatz veränderliche Phasenzusammensetzung Nicht-Newtonsch. Damit gelang es, die erstmalig von Würth beschriebene Scherverdünnung auf eine Veränderung der Phasenzusammensetzung zurückzuführen. Im zweiten Teil der Arbeit wurde erstmals das Fließverhalten der Lagenphasen mittels Lichtstreuung und Korrelationsanalyse untersucht. Dafür wurde ein im Prinzip einfacher, aber leistungsstarker Aufbau realisiert, der es erlaubt, die zeitliche Veränderung der Bragg-Reflexe der Lagenphase in radialer und azimutaler Richtung zu verfolgen und mittels Fourieranalyse zu analysieren. In Abhängigkeit vom Durchsatz geht die zunächst rastend gleitende Lagenphase in eine frei gleitende Lagenphase über, wobei charakteristische Veränderungen der Spektren sowie der Korrelationsfunktionen auftreten, die detailliert diskutiert werden. Der Übergang im Gleitmechanismus ist mit einem Verlust der Autokorrelation der Rotationskomponente der periodischen Intra-Lagenverzerrung verbunden, während die Kompressionskomponente erhalten bleibt. Bei hohen Durchflüssen lassen die Reflexbewegungen auf das Auftreten einer Eigenschwingung der frei gleitenden Lagen schließen. Diese Schwingung lässt sich als Rotationsbewegung, gekoppelt mit einer transversalen Auslenkung in Vortexrichtung, beschreiben. Die Ergebnisse erlauben eine detaillierte Diskussion von verschiedenen Modellvorstellungen anderer Autoren.
Resumo:
Wir betrachten die eindimensionale Heisenberg-Spinkette aus einem neuen und aktuelleren Blickwinkel. Experimentelle Techniken der Herstellung und selbstverständlich auch experimentelle Meßmethoden erlauben nicht nur die Herstellung von Nanopartikeln und Nanodrähten, sondern gestatten es auch, Domänenwände in diesen Strukturen auszumessen. Die meisten heute verwendeten Theorien und Simulationsmethoden haben ihre Grundlage im mikromagnetischen Kontinuumsmodell, daß schon über Jahrzehnte hinweg erforscht und erprobt ist. Wir stellen uns jedoch die Frage, ob die innere diskrete Struktur der Substrate und die quantenmechanischen Effekte bei der Genauigkeit heutiger Messungen in Betracht gezogen werden müssen. Dazu wählen wir einen anderen Ansatz. Wir werden zunächst den wohlbekannten klassischen Fall erweitern, indem wir die diskrete Struktur der Materie in unseren Berechnungen berücksichtigen. Man findet in diesem Formalismus einen strukturellen Phasenübergang zwischen einer Ising-artigen und einer ausgedehnten Wand. Das führt zu bestimmten Korrekturen im Vergleich zum Kontinuumsfall. Der Hauptteil dieser Arbeit wird sich dann mit dem quantenmechanischen Fall beschäftigen. Wir rotieren das System zunächst mit einer Reihe lokaler Transformationen derart, daß alle Spins in die z-Richtung ausgerichtet sind. Im Rahmen einer 1/S-Entwicklung läßt sich der erhaltene neue Hamilton-Operator diagonalisieren. Setzt man hier die klassische Lösung ein, so erhält man Anregungsmoden in diesem Grenzfall. Unsere Resultate erweitern und bestätigen frühere Berechnungen. Mit Hilfe der Numerik wird schließlich der Erwartungswert der Energie minimiert und somit die Form der Domänenwand im quantenmechanischen Fall berechnet. Hieraus ergeben sich auch bestimmte Korrekturen zum kritischen Verhalten des Systems. Diese Ergebnisse sind vollkommen neu.
Resumo:
The present thesis is concerned with the study of a quantum physical system composed of a small particle system (such as a spin chain) and several quantized massless boson fields (as photon gasses or phonon fields) at positive temperature. The setup serves as a simplified model for matter in interaction with thermal "radiation" from different sources. Hereby, questions concerning the dynamical and thermodynamic properties of particle-boson configurations far from thermal equilibrium are in the center of interest. We study a specific situation where the particle system is brought in contact with the boson systems (occasionally referred to as heat reservoirs) where the reservoirs are prepared close to thermal equilibrium states, each at a different temperature. We analyze the interacting time evolution of such an initial configuration and we show thermal relaxation of the system into a stationary state, i.e., we prove the existence of a time invariant state which is the unique limit state of the considered initial configurations evolving in time. As long as the reservoirs have been prepared at different temperatures, this stationary state features thermodynamic characteristics as stationary energy fluxes and a positive entropy production rate which distinguishes it from being a thermal equilibrium at any temperature. Therefore, we refer to it as non-equilibrium stationary state or simply NESS. The physical setup is phrased mathematically in the language of C*-algebras. The thesis gives an extended review of the application of operator algebraic theories to quantum statistical mechanics and introduces in detail the mathematical objects to describe matter in interaction with radiation. The C*-theory is adapted to the concrete setup. The algebraic description of the system is lifted into a Hilbert space framework. The appropriate Hilbert space representation is given by a bosonic Fock space over a suitable L2-space. The first part of the present work is concluded by the derivation of a spectral theory which connects the dynamical and thermodynamic features with spectral properties of a suitable generator, say K, of the time evolution in this Hilbert space setting. That way, the question about thermal relaxation becomes a spectral problem. The operator K is of Pauli-Fierz type. The spectral analysis of the generator K follows. This task is the core part of the work and it employs various kinds of functional analytic techniques. The operator K results from a perturbation of an operator L0 which describes the non-interacting particle-boson system. All spectral considerations are done in a perturbative regime, i.e., we assume that the strength of the coupling is sufficiently small. The extraction of dynamical features of the system from properties of K requires, in particular, the knowledge about the spectrum of K in the nearest vicinity of eigenvalues of the unperturbed operator L0. Since convergent Neumann series expansions only qualify to study the perturbed spectrum in the neighborhood of the unperturbed one on a scale of order of the coupling strength we need to apply a more refined tool, the Feshbach map. This technique allows the analysis of the spectrum on a smaller scale by transferring the analysis to a spectral subspace. The need of spectral information on arbitrary scales requires an iteration of the Feshbach map. This procedure leads to an operator-theoretic renormalization group. The reader is introduced to the Feshbach technique and the renormalization procedure based on it is discussed in full detail. Further, it is explained how the spectral information is extracted from the renormalization group flow. The present dissertation is an extension of two kinds of a recent research contribution by Jakšić and Pillet to a similar physical setup. Firstly, we consider the more delicate situation of bosonic heat reservoirs instead of fermionic ones, and secondly, the system can be studied uniformly for small reservoir temperatures. The adaption of the Feshbach map-based renormalization procedure by Bach, Chen, Fröhlich, and Sigal to concrete spectral problems in quantum statistical mechanics is a further novelty of this work.
Resumo:
Sterne mit einer Anfangsmasse zwischen etwa 8 und 25 Sonnenmassen enden ihre Existenz mit einer gewaltigen Explosion, einer Typ II Supernova. Die hierbei entstehende Hoch-Entropie-Blase ist ein Bereich am Rande des sich bildenden Neutronensterns und gilt als möglicher Ort für den r-Prozess. Wegen der hohen Temperatur T innerhalb der Blase ist die Materie dort vollkommen photodesintegriert. Das Verhältnis von Neutronen zu Protonen wird durch die Elektronenhäufigkeit Ye beschrieben. Die thermodynamische Entwicklung des Systems wird durch die Entropie S gegeben. Da die Expansion der Blase schnell vonstatten geht, kann sie als adiabatisch betrachtet werden. Die Entropie S ist dann proportional zu T^3/rho, wobei rho die Dichte darstellt. Die explizite Zeitentwicklung von T und rho sowie die Prozessdauer hängen von Vexp, der Expansionsgeschwindigkeit der Blase, ab. Der erste Teil dieser Dissertation beschäftigt sich mit dem Prozess der Reaktionen mit geladenen Teilchen, dem alpha-Prozess. Dieser Prozess endet bei Temperaturen von etwa 3 mal 10^9 K, dem sogenannten "alpha-reichen" Freezeout, wobei überwiegend alpha-Teilchen, freie Neutronen sowie ein kleiner Anteil von mittelschweren "Saat"-Kernen im Massenbereich um A=100 gebildet werden. Das Verhältnis von freien Neutronen zu Saatkernen Yn/Yseed ist entscheidend für den möglichen Ablauf eines r-Prozesses. Der zweite Teil dieser Arbeit beschäftigt sich mit dem eigentlichen r-Prozess, der bei Neutronenanzahldichten von bis zu 10^27 Neutronen pro cm^3 stattfindet, und innerhalb von maximal 400 ms sehr neutronenreiche "Progenitor"-Isotope von Elementen bis zum Thorium und Uran bildet. Bei dem sich anschliessendem Ausfrieren der Neutroneneinfangreaktionen bei 10^9 K und 10^20 Neutronen pro cm^3 erfolgt dann der beta-Rückzerfall der ursprünglichen r-Prozesskerne zum Tal der Stabilität. Diese Nicht-Gleichgewichts-Phase wird in der vorliegenden Arbeit in einer Parameterstudie eingehend untersucht. Abschliessend werden astrophysikalische Bedingungen definiert, unter denen die gesamte Verteilung der solaren r-Prozess-Isotopenhäufigkeiten reproduziert werden können.
Resumo:
Being basic ingredients of numerous daily-life products with significant industrial importance as well as basic building blocks for biomaterials, charged hydrogels continue to pose a series of unanswered challenges for scientists even after decades of practical applications and intensive research efforts. Despite a rather simple internal structure it is mainly the unique combination of short- and long-range forces which render scientific investigations of their characteristic properties to be quite difficult. Hence early on computer simulations were used to link analytical theory and empirical experiments, bridging the gap between the simplifying assumptions of the models and the complexity of real world measurements. Due to the immense numerical effort, even for high performance supercomputers, system sizes and time scales were rather restricted until recently, whereas it only now has become possible to also simulate a network of charged macromolecules. This is the topic of the presented thesis which investigates one of the fundamental and at the same time highly fascinating phenomenon of polymer research: The swelling behaviour of polyelectrolyte networks. For this an extensible simulation package for the research on soft matter systems, ESPResSo for short, was created which puts a particular emphasis on mesoscopic bead-spring-models of complex systems. Highly efficient algorithms and a consistent parallelization reduced the necessary computation time for solving equations of motion even in case of long-ranged electrostatics and large number of particles, allowing to tackle even expensive calculations and applications. Nevertheless, the program has a modular and simple structure, enabling a continuous process of adding new potentials, interactions, degrees of freedom, ensembles, and integrators, while staying easily accessible for newcomers due to a Tcl-script steering level controlling the C-implemented simulation core. Numerous analysis routines provide means to investigate system properties and observables on-the-fly. Even though analytical theories agreed on the modeling of networks in the past years, our numerical MD-simulations show that even in case of simple model systems fundamental theoretical assumptions no longer apply except for a small parameter regime, prohibiting correct predictions of observables. Applying a "microscopic" analysis of the isolated contributions of individual system components, one of the particular strengths of computer simulations, it was then possible to describe the behaviour of charged polymer networks at swelling equilibrium in good solvent and close to the Theta-point by introducing appropriate model modifications. This became possible by enhancing known simple scaling arguments with components deemed crucial in our detailed study, through which a generalized model could be constructed. Herewith an agreement of the final system volume of swollen polyelectrolyte gels with results of computer simulations could be shown successfully over the entire investigated range of parameters, for different network sizes, charge fractions, and interaction strengths. In addition, the "cell under tension" was presented as a self-regulating approach for predicting the amount of swelling based on the used system parameters only. Without the need for measured observables as input, minimizing the free energy alone already allows to determine the the equilibrium behaviour. In poor solvent the shape of the network chains changes considerably, as now their hydrophobicity counteracts the repulsion of like-wise charged monomers and pursues collapsing the polyelectrolytes. Depending on the chosen parameters a fragile balance emerges, giving rise to fascinating geometrical structures such as the so-called pear-necklaces. This behaviour, known from single chain polyelectrolytes under similar environmental conditions and also theoretically predicted, could be detected for the first time for networks as well. An analysis of the total structure factors confirmed first evidences for the existence of such structures found in experimental results.
Resumo:
Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.
Resumo:
Die Wechselwirkung zwischen Proteinen und anorganischen Oberflächen fasziniert sowohl aus angewandter als auch theoretischer Sicht. Sie ist ein wichtiger Aspekt in vielen Anwendungen, unter anderem in chirugischen Implantaten oder Biosensoren. Sie ist außerdem ein Beispiel für theoretische Fragestellungen betreffend die Grenzfläche zwischen harter und weicher Materie. Fest steht, dass Kenntnis der beteiligten Mechanismen erforderlich ist um die Wechselwirkung zwischen Proteinen und Oberflächen zu verstehen, vorherzusagen und zu optimieren. Aktuelle Fortschritte im experimentellen Forschungsbereich ermöglichen die Untersuchung der direkten Peptid-Metall-Bindung. Dadurch ist die Erforschung der theoretischen Grundlagen weiter ins Blickfeld aktueller Forschung gerückt. Eine Möglichkeit die Wechselwirkung zwischen Proteinen und anorganischen Oberflächen zu erforschen ist durch Computersimulationen. Obwohl Simulationen von Metalloberflächen oder Proteinen als Einzelsysteme schon länger verbreitet sind, bringt die Simulation einer Kombination beider Systeme neue Schwierigkeiten mit sich. Diese zu überwinden erfordert ein Mehrskalen-Verfahren: Während Proteine als biologische Systeme ausreichend mit klassischer Molekulardynamik beschrieben werden können, bedarf die Beschreibung delokalisierter Elektronen metallischer Systeme eine quantenmechanische Formulierung. Die wichtigste Voraussetzung eines Mehrskalen-Verfahrens ist eine Übereinstimmung der Simulationen auf den verschiedenen Skalen. In dieser Arbeit wird dies durch die Verknüpfung von Simulationen alternierender Skalen erreicht. Diese Arbeit beginnt mit der Untersuchung der Thermodynamik der Benzol-Hydratation mittels klassischer Molekulardynamik. Dann wird die Wechselwirkung zwischen Wasser und den [111]-Metalloberflächen von Gold und Nickel mittels eines Multiskalen-Verfahrens modelliert. In einem weiteren Schritt wird die Adsorbtion des Benzols an Metalloberflächen in wässriger Umgebung studiert. Abschließend wird die Modellierung erweitert und auch die Aminosäuren Alanin und Phenylalanin einbezogen. Dies eröffnet die Möglichkeit realistische Protein- Metall-Systeme in Computersimulationen zu betrachten und auf theoretischer Basis die Wechselwirkung zwischen Peptiden und Oberflächen für jede Art Peptide und Oberfläche vorauszusagen.
Resumo:
Im Rahmen dieser Arbeit wurden zwei verschiedene Systeme untersucht, deren verbindende Gemeinsamkeit in den verwendeten ortsauflösenden, spektroskopischen Messmethoden der Oberflächenanalytik, wie z.B. abbildendes XPS, Röntgennahkanten-Photoemissionsmikroskopie (XANES-PEEM) und Augerspektroskopie (AES) liegt. Im ersten Teil der Arbeit wurden Diamant-Nukleationsdomänen auf Ir/SrTiO3 untersucht und mit vorherrschenden Modellen aus der Literatur verglichen. Die Nukleationsdomänen, wie sie im Mikrowellen-induzierten CVD Prozess unter Verwendung der BEN Prozedur (bias-enhanced nucleation) entstehen, bilden die „Startschicht“ für ein heteroepitaktisches Wachstum einer hoch orientierten Diamantschicht. Sie entwickeln sich aber unter Bedingungen, unter denen 3D-Diamant abgetragen und weggeätzt wird. Mittels XANES-PEEM Messungen konnte erstmals die lokale Bindungsumgebung des Kohlenstoffs in den Nukleationsdomänen ortsaufgelöst aufgezeigt werden und aus AES Messungen ließ sich die Schichtdicke der Nukleationsdomänen abschätzen. Es zeigte sich, dass die Nukleationsdomänen Bereiche mit etwa 1 nm Dicke darstellen, in denen der Übergang von eine sp2-koordinierte amorphen Kohlenstoff- zu einer Diamantschicht mit hohem sp3 Anteil abläuft. Zur Erklärung des Nukleationsprozesses wurde auf das „Clustermodell“ von Lifshitz et al. zurückgegriffen, welches um einen wesentlichen Aspekt erweitert wurde. Die Stabilität der Nukleationsdomänen gegen die Ätzwirkung des Nukleationsprozesses auf Volumendiamant wird durch eine starke Wechselwirkung zwischen dem Diamant und dem Iridiumsubstrat erklärt, wobei die Dicke von etwa 1 nm als Maß für die Ausdehnung dieses Wechselwirkungsbereichs angesehen wird. Der zweite Teil der Arbeit beschäftigt sich mit der Charakterisierung präsolarer SiC-Körner und darin eingeschlossener Spurenelemente. Neben den Hauptelementen Si und C wurden auch Spinelle wie Chromit (FeCr2O4), Korund (Al2O3) und auch verschiedene Spurenelemente (z. B. Al, Ba und Y) nachgewiesen. Ferner wurden XPS-Linien bei Energien nachgewiesen, welche sich den Seltenen Erden Erbium, Thulium und Dysprosium zuordnen lassen. Aufgrund von Abweichungen zur Literatur bzgl. der ausgeprägten Intensität der XPS-Linien, wurde als alternative Erklärungsmöglichkeit für verschiedene Signale der Nachweis von stark schwefelhaltigen Körnern (z.B. so genannte „Fremdlinge“) mit Aufladungen von mehreren Volt diskutiert. Es zeigt sich, dass abbildendes XPS und XANES-PEEM Methoden zur leistungsfähigen chemischen Charakterisierung von SiC-Körnern und anderer solarer und präsolarer Materie im Größenbereich bis herab zu 100 – 200 nm Durchmesser (z.B. als Grundlage für eine spätere massenspektrometrische Isotopenanalyse)darstellen.
Resumo:
The aim of this work is to explore, within the framework of the presumably asymptotically safe Quantum Einstein Gravity, quantum corrections to black hole spacetimes, in particular in the case of rotating black holes. We have analysed this problem by exploiting the scale dependent Newton s constant implied by the renormalization group equation for the effective average action, and introducing an appropriate "cutoff identification" which relates the renormalization scale to the geometry of the spacetime manifold. We used these two ingredients in order to "renormalization group improve" the classical Kerr metric that describes the spacetime generated by a rotating black hole. We have focused our investigation on four basic subjects of black hole physics. The main results related to these topics can be summarized as follows. Concerning the critical surfaces, i.e. horizons and static limit surfaces, the improvement leads to a smooth deformation of the classical critical surfaces. Their number remains unchanged. In relation to the Penrose process for energy extraction from black holes, we have found that there exists a non-trivial correlation between regions of negative energy states in the phase space of rotating test particles and configurations of critical surfaces of the black hole. As for the vacuum energy-momentum tensor and the energy conditions we have shown that no model with "normal" matter, in the sense of matter fulfilling the usual energy conditions, can simulate the quantum fluctuations described by the improved Kerr spacetime that we have derived. Finally, in the context of black hole thermodynamics, we have performed calculations of the mass and angular momentum of the improved Kerr black hole, applying the standard Komar integrals. The results reflect the antiscreening character of the quantum fluctuations of the gravitational field. Furthermore we calculated approximations to the entropy and the temperature of the improved Kerr black hole to leading order in the angular momentum. More generally we have proven that the temperature can no longer be proportional to the surface gravity if an entropy-like state function is to exist.
Resumo:
The lattice Boltzmann method is a popular approach for simulating hydrodynamic interactions in soft matter and complex fluids. The solvent is represented on a discrete lattice whose nodes are populated by particle distributions that propagate on the discrete links between the nodes and undergo local collisions. On large length and time scales, the microdynamics leads to a hydrodynamic flow field that satisfies the Navier-Stokes equation. In this thesis, several extensions to the lattice Boltzmann method are developed. In complex fluids, for example suspensions, Brownian motion of the solutes is of paramount importance. However, it can not be simulated with the original lattice Boltzmann method because the dynamics is completely deterministic. It is possible, though, to introduce thermal fluctuations in order to reproduce the equations of fluctuating hydrodynamics. In this work, a generalized lattice gas model is used to systematically derive the fluctuating lattice Boltzmann equation from statistical mechanics principles. The stochastic part of the dynamics is interpreted as a Monte Carlo process, which is then required to satisfy the condition of detailed balance. This leads to an expression for the thermal fluctuations which implies that it is essential to thermalize all degrees of freedom of the system, including the kinetic modes. The new formalism guarantees that the fluctuating lattice Boltzmann equation is simultaneously consistent with both fluctuating hydrodynamics and statistical mechanics. This establishes a foundation for future extensions, such as the treatment of multi-phase and thermal flows. An important range of applications for the lattice Boltzmann method is formed by microfluidics. Fostered by the "lab-on-a-chip" paradigm, there is an increasing need for computer simulations which are able to complement the achievements of theory and experiment. Microfluidic systems are characterized by a large surface-to-volume ratio and, therefore, boundary conditions are of special relevance. On the microscale, the standard no-slip boundary condition used in hydrodynamics has to be replaced by a slip boundary condition. In this work, a boundary condition for lattice Boltzmann is constructed that allows the slip length to be tuned by a single model parameter. Furthermore, a conceptually new approach for constructing boundary conditions is explored, where the reduced symmetry at the boundary is explicitly incorporated into the lattice model. The lattice Boltzmann method is systematically extended to the reduced symmetry model. In the case of a Poiseuille flow in a plane channel, it is shown that a special choice of the collision operator is required to reproduce the correct flow profile. This systematic approach sheds light on the consequences of the reduced symmetry at the boundary and leads to a deeper understanding of boundary conditions in the lattice Boltzmann method. This can help to develop improved boundary conditions that lead to more accurate simulation results.