14 resultados para Elementary particle

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

60.00% 60.00%

Publicador:

Resumo:

In den letzten fünf Jahren hat sich mit dem Begriff desspektralen Tripels eine Möglichkeit zur Beschreibungdes an Spinoren gekoppelten Gravitationsfeldes auf(euklidischen) nichtkommutativen Räumen etabliert. Die Dynamik dieses Gravitationsfeldes ist dabei durch diesogenannte spektrale Wirkung, dieSpur einer geeigneten Funktion des Dirac-Operators,bestimmt. Erstaunlicherweise kann man die vollständige Lagrange-Dichtedes (an das Gravitationsfeld gekoppelten) Standardmodellsder Elementarteilchenphysik, also insbesondere auch denmassegebenden Higgs-Sektor, als spektrale Wirkungeines entsprechenden spektralen Tripels ableiten. Diesesspektrale Tripel ist als Produkt des spektralenTripels der (kommutativen) Raumzeit mit einem speziellendiskreten spektralen Tripel gegeben. In der Arbeitwerden solche diskreten spektralen Tripel, die bis vorKurzem neben dem nichtkommutativen Torus die einzigen,bekannten nichtkommutativen Beispiele waren, klassifiziert. Damit kannnun auch untersucht werden, inwiefern sich dasStandardmodell durch diese Eigenschaft gegenüber anderenYang-Mills-Higgs-Theorien auszeichnet. Es zeigt sichallerdings, dasses - trotz mancher Einschränkung - eine sehr große Zahl vonModellen gibt, die mit Hilfe von spektralen Tripelnabgeleitet werden können. Es wäre aber auch denkbar, dass sich das spektrale Tripeldes Standardmodells durch zusätzliche Strukturen,zum Beispiel durch eine darauf ``isometrisch'' wirkendeHopf-Algebra, auszeichnet. In der Arbeit werden, um dieseFrage untersuchen zu können, sogenannte H-symmetrischespektrale Tripel, welche solche Hopf-Isometrien aufweisen,definiert.Dabei ergibt sich auch eine Möglichkeit, neue(H-symmetrische) spektrale Tripel mit Hilfe ihrerzusätzlichen Symmetrienzu konstruieren. Dieser Algorithmus wird an den Beispielender kommutativen Sphäre, deren Spin-Geometrie hier zumersten Mal vollständig in der globalen, algebraischen Sprache der NichtkommutativenGeometrie beschrieben wird, sowie dem nichtkommutativenTorus illustriert.Als Anwendung werden einige neue Beipiele konstruiert. Eswird gezeigt, dass sich für Yang-Mills Higgs-Theorien, diemit Hilfe von H-symmetrischen spektralen Tripeln abgeleitetwerden, aus den zusätzlichen Isometrien Einschränkungen andiefermionischen Massenmatrizen ergeben. Im letzten Abschnitt der Arbeit wird kurz auf dieQuantisierung der spektralen Wirkung für diskrete spektraleTripel eingegangen.Außerdem wird mit dem Begriff des spektralen Quadrupels einKonzept für die nichtkommutative Verallgemeinerungvon lorentzschen Spin-Mannigfaltigkeiten vorgestellt.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Das Standardmodell der Elementarteilchenphysik istexperimentell hervorragend bestätigt, hat auf theoretischerSeite jedoch unbefriedigende Aspekte: Zum einen wird derHiggssektor der Theorie von Hand eingefügt, und zum anderenunterscheiden sich die Beschreibung des beobachtetenTeilchenspektrums und der Gravitationfundamental. Diese beiden Nachteile verschwinden, wenn mandas Standardmodell in der Sprache der NichtkommutativenGeometrie formuliert. Ziel hierbei ist es, die Raumzeit der physikalischen Theoriedurch algebraische Daten zu erfassen. Beispielsweise stecktdie volle Information über eine RiemannscheSpinmannigfaltigkeit M in dem Datensatz (A,H,D), den manspektrales Tripel nennt. A ist hierbei die kommutativeAlgebra der differenzierbaren Funktionen auf M, H ist derHilbertraum der quadratintegrablen Spinoren über M und D istder Diracoperator. Mit Hilfe eines solchen Tripels (zu einer nichtkommutativenAlgebra) lassen sich nun sowohl Gravitation als auch dasStandardmodell mit mathematisch ein und demselben Mittelerfassen. In der vorliegenden Arbeit werden nulldimensionale spektraleTripel (die diskreten Raumzeiten entsprechen) zunächstklassifiziert und in Beispielen wird eine Quantisierungsolcher Objekte durchgeführt. Ein Problem der spektralenTripel stellt ihre Beschränkung auf echt RiemannscheMetriken dar. Zu diesem Problem werden Lösungsansätzepräsentiert. Im abschließenden Kapitel der Arbeit wird dersogenannte 'Feynman-Beweis der Maxwellgleichungen' aufnichtkommutative Konfigurationsräume verallgemeinert.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Eine wichtige Komponente des Standardmodells der Teilchenphysik bildet der Higgs-Mechanismus, der benötigt wird um den vom Standardmodell beschriebenen Teilchen Masse zu verleihen. Dieser Mechanismus beinhaltet jedoch ein weiteres schweres Elementarteilchen das bislang noch nich beobachtet werden konnte. Die Suche nach diesem Teilchen ist eines Hauptziele der derzeitigen Forschung an Teilchenbeschleunigern. Diese Arbeit untersucht die vom D0-Detektor am Tevatron des Fermi National Accelerator Laboratory (FNAL) aufgezeichneten Daten von ppbar-Kollisionen bei einer Schwerpunktsenergie von sqrt{s}=1.96 TeV, um im Kanal WH -> enu bb nach einem leichten Higgs-Boson zu suchen. Darüber hinaus wird der Produktionswirkungsquerschnitt der Wbb-Produktion ermittelt. Für die Analyse stand eine integrierte Luminosität von L=255pb^{-1} zur Verfügung. Zur Selektion dieser Prozesse, werden Ereignisse ausgewählt, die Elektronen und fehlenden Transversalimpuls enthalten, sowie mindestens zwei Jets, die sich als b-Jets identifizieren lassen. Um eine effiziente Selektion zu erhalten, wurden Schnitte auf verschiedene Kenngrößen entwickelt, getestet und optimiert. Aus den selektierten Ereignissen wird der Wbb-Wirkungsquerschnitt ermittelt, der für Ereignisse angegeben wird, in denen die b-Quarks p_T>8 GeV und |eta|<3 erfüllen. Der unter Berücksichtigung des Verzweigungsverhältnisses BR(W->enu)=0.108 errechnete Wert ist sigma(Wbb)=21.8 pb (+15.5; -20.0 pb(sys+stat)). Wegen der geringen Signifikanz der Messung von etwa 1.2sigma wurden die Ereigniszahlen auch zur Berechnung einer oberen Grenze auf den Wirkungsquerschnitt verwendet, die sich bei einem Konfidenzniveau von 95% zu sigma^95(Wbb)=60.9pb ergibt. Ebenso wurden Grenzen auf den WH-Produktionswirkungsquerschnitt ermittelt. Dafür wurde die statistische Methode von Feldman und Cousins angewandt, nachdem sie nach den Vorschlägen von Conrad et al. erweitert worden war, um systematische Unsicherheiten zu berücksichtigen. Für ein Standardmodell Higgs-Boson der Masse 115 GeV kann eine obere Grenze auf den Produktionswirkungsquerschnitt von sigma^{95} (WH)=12.2pb angegeben werden. Für höhere Massen bis 135 GeV werden ähnliche Grenzen ermittelt.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Während das Standardmodell der Elementarteilchenphysik eine konsistente, renormierbare Quantenfeldtheorie dreier der vier bekannten Wechselwirkungen darstellt, bleibt die Quantisierung der Gravitation ein bislang ungelöstes Problem. In den letzten Jahren haben sich jedoch Hinweise ergeben, nach denen metrische Gravitation asymptotisch sicher ist. Das bedeutet, daß sich auch für diese Wechselwirkung eine Quantenfeldtheorie konstruieren läßt. Diese ist dann in einem verallgemeinerten Sinne renormierbar, der nicht mehr explizit Bezug auf die Störungstheorie nimmt. Zudem sagt dieser Zugang, der auf der Wilsonschen Renormierungsgruppe beruht, die korrekte mikroskopische Wirkung der Theorie voraus. Klassisch ist metrische Gravitation auf dem Niveau der Vakuumfeldgleichungen äquivalent zur Einstein-Cartan-Theorie, die das Vielbein und den Spinzusammenhang als fundamentale Variablen verwendet. Diese Theorie besitzt allerdings mehr Freiheitsgrade, eine größere Eichgruppe, und die zugrundeliegende Wirkung ist von erster Ordnung. Alle diese Eigenschaften erschweren eine zur metrischen Gravitation analoge Behandlung.rnrnIm Rahmen dieser Arbeit wird eine dreidimensionale Trunkierung von der Art einer verallgemeinerten Hilbert-Palatini-Wirkung untersucht, die neben dem Laufen der Newton-Konstante und der kosmologischen Konstante auch die Renormierung des Immirzi-Parameters erfaßt. Trotz der angedeuteten Schwierigkeiten war es möglich, das Spektrum des freien Hilbert-Palatini-Propagators analytisch zu berechnen. Auf dessen Grundlage wird eine Flußgleichung vom Propertime-Typ konstruiert. Zudem werden geeignete Eichbedingungen gewählt und detailliert analysiert. Dabei macht die Struktur der Eichgruppe eine Kovariantisierung der Eichtransformationen erforderlich. Der resultierende Fluß wird für verschiedene Regularisierungsschemata und Eichparameter untersucht. Dies liefert auch im Einstein-Cartan-Zugang berzeugende Hinweise auf asymptotische Sicherheit und damit auf die mögliche Existenz einer mathematisch konsistenten und prädiktiven fundamentalen Quantentheorie der Gravitation. Insbesondere findet man ein Paar nicht-Gaußscher Fixpunkte, das Anti-Screening aufweist. An diesen sind die Newton-Konstante und die kosmologische Konstante jeweils relevante Kopplungen, wohingegen der Immirzi-Parameter an einem Fixpunkt irrelevant und an dem anderen relevant ist. Zudem ist die Beta-Funktion des Immirzi-Parameters von bemerkenswert einfacher Form. Die Resultate sind robust gegenüber Variationen des Regularisierungsschemas. Allerdings sollten zukünftige Untersuchungen die bestehenden Eichabhängigkeiten reduzieren.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this thesis, we study the phenomenology of selected observables in the context of the Randall-Sundrum scenario of a compactified warpedrnextra dimension. Gauge and matter fields are assumed to live in the whole five-dimensional space-time, while the Higgs sector is rnlocalized on the infrared boundary. An effective four-dimensional description is obtained via Kaluza-Klein decomposition of the five dimensionalrnquantum fields. The symmetry breaking effects due to the Higgs sector are treated exactly, and the decomposition of the theory is performedrnin a covariant way. We develop a formalism, which allows for a straight-forward generalization to scenarios with an extended gauge group comparedrnto the Standard Model of elementary particle physics. As an application, we study the so-called custodial Randall-Sundrum model and compare the resultsrnto that of the original formulation. rnWe present predictions for electroweak precision observables, the Higgs production cross section at the LHC, the forward-backward asymmetryrnin top-antitop production at the Tevatron, as well as the width difference, the CP-violating phase, and the semileptonic CP asymmetry in B_s decays.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The Standard Model of elementary particle physics was developed to describe the fundamental particles which constitute matter and the interactions between them. The Large Hadron Collider (LHC) at CERN in Geneva was built to solve some of the remaining open questions in the Standard Model and to explore physics beyond it, by colliding two proton beams at world-record centre-of-mass energies. The ATLAS experiment is designed to reconstruct particles and their decay products originating from these collisions. The precise reconstruction of particle trajectories plays an important role in the identification of particle jets which originate from bottom quarks (b-tagging). This thesis describes the step-wise commissioning of the ATLAS track reconstruction and b-tagging software and one of the first measurements of the b-jet production cross section in pp collisions at sqrt(s)=7 TeV with the ATLAS detector. The performance of the track reconstruction software was studied in great detail, first using data from cosmic ray showers and then collisions at sqrt(s)=900 GeV and 7 TeV. The good understanding of the track reconstruction software allowed a very early deployment of the b-tagging algorithms. First studies of these algorithms and the measurement of the b-tagging efficiency in the data are presented. They agree well with predictions from Monte Carlo simulations. The b-jet production cross section was measured with the 2010 dataset recorded by the ATLAS detector, employing muons in jets to estimate the fraction of b-jets. The measurement is in good agreement with the Standard Model predictions.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The future goal of modern physics is the discovery of physics beyond the Standard Model. One of the most significant hints for New Physics can be seen in the anomalous magnetic moment of the muon - one of the most precise measured variables in modern physics and the main motivation of this work. This variable is associated with the coupling of the muon, an elementary particle, to an external electromagnetic field and is defined as a = (g - 2)/2, whereas g is the gyromagnetic factor of the muon. The muon anomaly has been measured with a relative accuracy of 0.5·10-6. However, a difference between the direct measurement and the Standard Model prediction of 3.6 standard deviations can be observed. This could be a hint for the existence of New Physics. Unfortunately, it is, yet, not significant enough to claim an observation and, thus, more precise measurements and calculations have to be performed.rnThe muon anomaly has three contributions, whereas the ones from quantum electrodynamics and weak interaction can be determined from perturbative calculations. This cannot be done in case of the hadronic contributions at low energies. The leading order contribution - the hadronic vacuum polarization - can be computed via a dispersion integral, which needs as input hadronic cross section measurements from electron-positron annihilations. Hence, it is essential for a precise prediction of the muon anomaly to measure these hadronic cross sections, σ(e+e-→hadrons), with high accuracy. With a contribution of more than 70%, the final state containing two charged pions is the most important one in this context.rnIn this thesis, a new measurement of the σ(e+e-→π+π-) cross section and the pion form factor is performed with an accuracy of 0.9% in the dominant ρ(770) resonance region between 600 and rn900 MeV at the BESIII experiment. The two-pion contribution to the leading-order (LO) hadronic vacuum polarization contribution to (g - 2) from the BESIII result, obtained in this work, is computed to be a(ππ,LO,600-900 MeV) = (368.2±2.5stat±3.3sys)·10-10. With the result presented in this thesis, we make an important contribution on the way to solve the (g - 2) puzzle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present thesis is concerned with the study of a quantum physical system composed of a small particle system (such as a spin chain) and several quantized massless boson fields (as photon gasses or phonon fields) at positive temperature. The setup serves as a simplified model for matter in interaction with thermal "radiation" from different sources. Hereby, questions concerning the dynamical and thermodynamic properties of particle-boson configurations far from thermal equilibrium are in the center of interest. We study a specific situation where the particle system is brought in contact with the boson systems (occasionally referred to as heat reservoirs) where the reservoirs are prepared close to thermal equilibrium states, each at a different temperature. We analyze the interacting time evolution of such an initial configuration and we show thermal relaxation of the system into a stationary state, i.e., we prove the existence of a time invariant state which is the unique limit state of the considered initial configurations evolving in time. As long as the reservoirs have been prepared at different temperatures, this stationary state features thermodynamic characteristics as stationary energy fluxes and a positive entropy production rate which distinguishes it from being a thermal equilibrium at any temperature. Therefore, we refer to it as non-equilibrium stationary state or simply NESS. The physical setup is phrased mathematically in the language of C*-algebras. The thesis gives an extended review of the application of operator algebraic theories to quantum statistical mechanics and introduces in detail the mathematical objects to describe matter in interaction with radiation. The C*-theory is adapted to the concrete setup. The algebraic description of the system is lifted into a Hilbert space framework. The appropriate Hilbert space representation is given by a bosonic Fock space over a suitable L2-space. The first part of the present work is concluded by the derivation of a spectral theory which connects the dynamical and thermodynamic features with spectral properties of a suitable generator, say K, of the time evolution in this Hilbert space setting. That way, the question about thermal relaxation becomes a spectral problem. The operator K is of Pauli-Fierz type. The spectral analysis of the generator K follows. This task is the core part of the work and it employs various kinds of functional analytic techniques. The operator K results from a perturbation of an operator L0 which describes the non-interacting particle-boson system. All spectral considerations are done in a perturbative regime, i.e., we assume that the strength of the coupling is sufficiently small. The extraction of dynamical features of the system from properties of K requires, in particular, the knowledge about the spectrum of K in the nearest vicinity of eigenvalues of the unperturbed operator L0. Since convergent Neumann series expansions only qualify to study the perturbed spectrum in the neighborhood of the unperturbed one on a scale of order of the coupling strength we need to apply a more refined tool, the Feshbach map. This technique allows the analysis of the spectrum on a smaller scale by transferring the analysis to a spectral subspace. The need of spectral information on arbitrary scales requires an iteration of the Feshbach map. This procedure leads to an operator-theoretic renormalization group. The reader is introduced to the Feshbach technique and the renormalization procedure based on it is discussed in full detail. Further, it is explained how the spectral information is extracted from the renormalization group flow. The present dissertation is an extension of two kinds of a recent research contribution by Jakšić and Pillet to a similar physical setup. Firstly, we consider the more delicate situation of bosonic heat reservoirs instead of fermionic ones, and secondly, the system can be studied uniformly for small reservoir temperatures. The adaption of the Feshbach map-based renormalization procedure by Bach, Chen, Fröhlich, and Sigal to concrete spectral problems in quantum statistical mechanics is a further novelty of this work.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this thesis, the influence of composition changes on the glass transition behavior of binary liquids in two and three spatial dimensions (2D/3D) is studied in the framework of mode-coupling theory (MCT).The well-established MCT equations are generalized to isotropic and homogeneous multicomponent liquids in arbitrary spatial dimensions. Furthermore, a new method is introduced which allows a fast and precise determination of special properties of glass transition lines. The new equations are then applied to the following model systems: binary mixtures of hard disks/spheres in 2D/3D, binary mixtures of dipolar point particles in 2D, and binary mixtures of dipolar hard disks in 2D. Some general features of the glass transition lines are also discussed. The direct comparison of the binary hard disk/sphere models in 2D/3D shows similar qualitative behavior. Particularly, for binary mixtures of hard disks in 2D the same four so-called mixing effects are identified as have been found before by Götze and Voigtmann for binary hard spheres in 3D [Phys. Rev. E 67, 021502 (2003)]. For instance, depending on the size disparity, adding a second component to a one-component liquid may lead to a stabilization of either the liquid or the glassy state. The MCT results for the 2D system are on a qualitative level in agreement with available computer simulation data. Furthermore, the glass transition diagram found for binary hard disks in 2D strongly resembles the corresponding random close packing diagram. Concerning dipolar systems, it is demonstrated that the experimental system of König et al. [Eur. Phys. J. E 18, 287 (2005)] is well described by binary point dipoles in 2D through a comparison between the experimental partial structure factors and those from computer simulations. For such mixtures of point particles it is demonstrated that MCT predicts always a plasticization effect, i.e. a stabilization of the liquid state due to mixing, in contrast to binary hard disks in 2D or binary hard spheres in 3D. It is demonstrated that the predicted plasticization effect is in qualitative agreement with experimental results. Finally, a glass transition diagram for binary mixtures of dipolar hard disks in 2D is calculated. These results demonstrate that at higher packing fractions there is a competition between the mixing effects occurring for binary hard disks in 2D and those for binary point dipoles in 2D.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Herstellung von Polymer-Solarzellen aus wässriger Phase stellt eine attraktive Alternative zu der konventionellen lösemittelbasierten Formulierung dar. Die Vorteile der aus wässriger Lösung hergestellten Solarzellen liegen besonders in dem umweltschonenden Herstellungsprozess und in der Möglichkeit, druckbare optoelektronische Bauteile zu generieren. Die Prozessierbarkeit von hydrophoben Halbleitern im wässrigen Milieu wird durch die Dispergierung der Materialien, in Form von Nanopartikeln, erreicht. Der Transfer der Halbleiter in eine Dispersion erfolgt über die Lösemittelverdampfungsmethode. Die Idee der Verwendung von partikelbasierte Solarzellen wurde bereits umgesetzt, allerdings blieben eine genaue Charakterisierung der Partikel sowie ein umfassendes Verständnis des gesamten Fabrikationsvorgangs aus. Deshalb besteht das Ziel dieser Arbeit darin, einen detaillierten Einblick in den Herstellungsprozess von partikelbasierten Solarzellen zu erlangen, mögliche Schwächen aufzudecken, diese zu beseitigen, um so zukünftige Anwendungen zu verbessern. Zur Herstellung von Solarzellen aus wässrigen Dispersionen wurde Poly(3-hexylthiophen-2,5-diyl)/[6,6]-Phenyl-C61-Buttersäure-Methylester (P3HT/PCBM) als Donor/Akzeptor-System verwendet. Die Kernpunkte der Untersuchungen richteten sich zum einen die auf Partikelmorphologie und zum anderen auf die Generierung einer geeigneten Partikelschicht. Beide Parameter haben Auswirkungen auf die Solarzelleneffizienz. Die Morphologie wurde sowohl spektroskopisch über Photolumineszenz-Messungen, als auch visuell mittels Elektronenmikroskopie ermittelt. Auf diese Weise konnte die Partikelmorphologie vollständig aufgeklärt werden, wobei Parallelen zu der Struktur von lösemittelbasierten Solarzellen gefunden wurden. Zudem wurde eine Abhängigkeit der Morphologie von der Präparationstemperatur beobachtet, was eine einfache Steuerung der Partikelstruktur ermöglicht. Im Zuge der Partikelschichtausbildung wurden direkte sowie grenzflächenvermittelnde Beschichtungsmethoden herangezogen. Von diesen Techniken hatte sich aber nur die Rotationsbeschichtung als brauchbare Methode erwiesen, Partikel aus der Dispersion in einen homogenen Film zu überführen. Des Weiteren stand die Aufarbeitung der Partikelschicht durch Ethanol-Waschung und thermische Behandlung im Fokus dieser Arbeit. Beide Maßnahmen wirkten sich positiv auf die Effizienz der Solarzellen aus und trugen entscheidend zu einer Verbesserung der Zellen bei. Insgesamt liefern die gewonnen Erkenntnisse einen detaillierten Überblick über die Herausforderungen, welche bei dem Einsatz von wasserbasierten Dispersionen auftreten. Die Anforderungen partikelbasierter Solarzellen konnten offengelegt werden, dadurch gelang die Herstellung einer Solarzelle mit einer Effizienz von 0.53%. Dieses Ergebnis stellt jedoch noch nicht das Optimum dar und lässt noch Möglichkeiten für Verbesserungen offen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We consider stochastic individual-based models for social behaviour of groups of animals. In these models the trajectory of each animal is given by a stochastic differential equation with interaction. The social interaction is contained in the drift term of the SDE. We consider a global aggregation force and a short-range repulsion force. The repulsion range and strength gets rescaled with the number of animals N. We show that for N tending to infinity stochastic fluctuations disappear and a smoothed version of the empirical process converges uniformly towards the solution of a nonlinear, nonlocal partial differential equation of advection-reaction-diffusion type. The rescaling of the repulsion in the individual-based model implies that the corresponding term in the limit equation is local while the aggregation term is non-local. Moreover, we discuss the effect of a predator on the system and derive an analogous convergence result. The predator acts as an repulsive force. Different laws of motion for the predator are considered.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Quantenchromodynamik ist die zugrundeliegende Theorie der starken Wechselwirkung und kann in zwei Bereiche aufgeteilt werden. Harte Streuprozesse, wie zum Beispiel die Zwei-Jet-Produktion bei hohen invarianten Massen, können störungstheoretisch behandelt und berechnet werden. Bei Streuprozessen mit niedrigen Impulsüberträgen hingegen ist die Störungstheorie nicht mehr anwendbar und phänemenologische Modelle werden für Vorhersagen benutzt. Das ATLAS Experiment am Large Hadron Collider am CERN ermöglicht es, QCD Prozesse bei hohen sowie niedrigen Impulsüberträgen zu untersuchen. In dieser Arbeit werden zwei Analysen vorgestellt, die jeweils ihren Schwerpunkt auf einen der beiden Regime der QCD legen:rnDie Messung von Ereignisformvariablen bei inelastischen Proton--Proton Ereignissen bei einer Schwerpunktsenergie von $sqrt{s} = unit{7}{TeV}$ misst den transversalen Energiefluss in hadronischen Ereignissen. rnDie Messung des zweifachdifferentiellen Zwei-Jet-Wirkungsquerschnittes als Funktion der invarianten Masse sowie der Rapiditätsdifferenz der beiden Jets mit den höchsten Transversalimpulsen kann genutzt werden um Theorievorhersagen zu überprüfen. Proton--Proton Kollisionen bei $sqrt{s} = unit{8}{TeV}$, welche während der Datennahme im Jahr 2012 aufgezeichnet wurden, entsprechend einer integrierten Luminosität von $unit{20.3}{fb^{-1}}$, wurden analysiert.rn

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Future experiments in nuclear and particle physics are moving towards the high luminosity regime in order to access rare processes. In this framework, particle detectors require high rate capability together with excellent timing resolution for precise event reconstruction. In order to achieve this, the development of dedicated FrontEnd Electronics (FEE) for detectors has become increasingly challenging and expensive. Thus, a current trend in R&D is towards flexible FEE that can be easily adapted to a great variety of detectors, without impairing the required high performance. This thesis reports on a novel FEE for two different detector types: imaging Cherenkov counters and plastic scintillator arrays. The former requires high sensitivity and precision for detection of single photon signals, while the latter is characterized by slower and larger signals typical of scintillation processes. The FEE design was developed using high-bandwidth preamplifiers and fast discriminators which provide Time-over-Threshold (ToT). The use of discriminators allowed for low power consumption, minimal dead-times and self-triggering capabilities, all fundamental aspects for high rate applications. The output signals of the FEE are readout by a high precision TDC system based on FPGA. The performed full characterization of the analogue signals under realistic conditions proved that the ToT information can be used in a novel way for charge measurements or walk corrections, thus improving the obtainable timing resolution. Detailed laboratory investigations proved the feasibility of the ToT method. The full readout chain was investigated in test experiments at the Mainz Microtron: high counting rates per channel of several MHz were achieved, and a timing resolution of better than 100 ps after walk correction based on ToT was obtained. Ongoing applications to fast Time-of-Flight counters and future developments of FEE have been also recently investigated.