957 resultados para Standard Model


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Die Entstehung eines Marktpreises für einen Vermögenswert kann als Superposition der einzelnen Aktionen der Marktteilnehmer aufgefasst werden, die damit kumulativ Angebot und Nachfrage erzeugen. Dies ist in der statistischen Physik mit der Entstehung makroskopischer Eigenschaften vergleichbar, die von mikroskopischen Wechselwirkungen zwischen den beteiligten Systemkomponenten hervorgerufen werden. Die Verteilung der Preisänderungen an Finanzmärkten unterscheidet sich deutlich von einer Gaußverteilung. Dies führt zu empirischen Besonderheiten des Preisprozesses, zu denen neben dem Skalierungsverhalten nicht-triviale Korrelationsfunktionen und zeitlich gehäufte Volatilität zählen. In der vorliegenden Arbeit liegt der Fokus auf der Analyse von Finanzmarktzeitreihen und den darin enthaltenen Korrelationen. Es wird ein neues Verfahren zur Quantifizierung von Muster-basierten komplexen Korrelationen einer Zeitreihe entwickelt. Mit dieser Methodik werden signifikante Anzeichen dafür gefunden, dass sich typische Verhaltensmuster von Finanzmarktteilnehmern auf kurzen Zeitskalen manifestieren, dass also die Reaktion auf einen gegebenen Preisverlauf nicht rein zufällig ist, sondern vielmehr ähnliche Preisverläufe auch ähnliche Reaktionen hervorrufen. Ausgehend von der Untersuchung der komplexen Korrelationen in Finanzmarktzeitreihen wird die Frage behandelt, welche Eigenschaften sich beim Wechsel von einem positiven Trend zu einem negativen Trend verändern. Eine empirische Quantifizierung mittels Reskalierung liefert das Resultat, dass unabhängig von der betrachteten Zeitskala neue Preisextrema mit einem Anstieg des Transaktionsvolumens und einer Reduktion der Zeitintervalle zwischen Transaktionen einhergehen. Diese Abhängigkeiten weisen Charakteristika auf, die man auch in anderen komplexen Systemen in der Natur und speziell in physikalischen Systemen vorfindet. Über 9 Größenordnungen in der Zeit sind diese Eigenschaften auch unabhängig vom analysierten Markt - Trends, die nur für Sekunden bestehen, zeigen die gleiche Charakteristik wie Trends auf Zeitskalen von Monaten. Dies eröffnet die Möglichkeit, mehr über Finanzmarktblasen und deren Zusammenbrüche zu lernen, da Trends auf kleinen Zeitskalen viel häufiger auftreten. Zusätzlich wird eine Monte Carlo-basierte Simulation des Finanzmarktes analysiert und erweitert, um die empirischen Eigenschaften zu reproduzieren und Einblicke in deren Ursachen zu erhalten, die zum einen in der Finanzmarktmikrostruktur und andererseits in der Risikoaversion der Handelsteilnehmer zu suchen sind. Für die rechenzeitintensiven Verfahren kann mittels Parallelisierung auf einer Graphikkartenarchitektur eine deutliche Rechenzeitreduktion erreicht werden. Um das weite Spektrum an Einsatzbereichen von Graphikkarten zu aufzuzeigen, wird auch ein Standardmodell der statistischen Physik - das Ising-Modell - auf die Graphikkarte mit signifikanten Laufzeitvorteilen portiert. Teilresultate der Arbeit sind publiziert in [PGPS07, PPS08, Pre11, PVPS09b, PVPS09a, PS09, PS10a, SBF+10, BVP10, Pre10, PS10b, PSS10, SBF+11, PB10].

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this thesis, my work in the Compact Muon Solenoid (CMS) experiment on the search for the neutral Minimal Supersymmetric Standard Model (MSSM) Higgs decaying into two muons is presented. The search is performed on the full data collected during the years 2011 and 2012 by CMS in proton-proton collisions at CERN Large Hadron Collider (LHC). The MSSM is explored within the most conservative benchmark scenario, m_h^{max}, and within its modified versions, m_h^{mod +} and m_h^{mod -}. The search is sensitive to MSSM Higgs boson production in association with a b\bar{b} quark pair and to the gluon-gluon fusion process. In the m_h^{max} scenario, the results exclude values of tanB larger than 15 in the m_A range 115-200 GeV, and values of tanB greater than 30 in the m_A range up to 300 GeV. There are no significant differences in the results obtained within the three different scenarios considered. Comparisons with other neutral MSSM Higgs searches are shown.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In case of violation of CPT- and Lorentz Symmetry, the minimal Standard Model Extension (SME) of Kostelecky and coworkers predicts sidereal modulations of atomic transition frequencies as the Earth rotates relative to a Lorentz-violating background field. One method to search for these modulations is the so-called clock-comparison experiment, where the frequencies of co-located clocks are compared as they rotate with respect to the fixed stars. In this work an experiment is presented where polarized 3He and 129Xe gas samples in a glass cell serve as clocks, whose nuclear spin precession frequencies are detected with the help of highly sensitive SQUID sensors inside a magnetically shielded room. The unique feature of this experiment is the fact that the spins are precessing freely, with transverse relaxation times of up to 4.4 h for 129Xe and 14.1 h for 3He. To be sensitive to Lorentz-violating effects, the influence of external magnetic fields is canceled via the weighted difference of the 3He and 129Xe frequencies or phases. The Lorentz-violating SME parameters for the neutron are determined out of a fit on the phase difference data of 7 spin precession measurements of 12 to 16 hours length. The result of the fit gives an upper limit for the equatorial component of the neutron parameter b_n of 3.7×10^(−32) GeV at the 95% confidence level. This value is not limited by the signal-to-noise ratio, but by the strong correlations between the fit parameters. To reduce the correlations and therewith improve the sensitivity of future experiments, it will be necessary to change the time structure of the weighted phase difference, which can be realized by increasing the 129Xe relaxation time.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Während das Standardmodell der Elementarteilchenphysik eine konsistente, renormierbare Quantenfeldtheorie dreier der vier bekannten Wechselwirkungen darstellt, bleibt die Quantisierung der Gravitation ein bislang ungelöstes Problem. In den letzten Jahren haben sich jedoch Hinweise ergeben, nach denen metrische Gravitation asymptotisch sicher ist. Das bedeutet, daß sich auch für diese Wechselwirkung eine Quantenfeldtheorie konstruieren läßt. Diese ist dann in einem verallgemeinerten Sinne renormierbar, der nicht mehr explizit Bezug auf die Störungstheorie nimmt. Zudem sagt dieser Zugang, der auf der Wilsonschen Renormierungsgruppe beruht, die korrekte mikroskopische Wirkung der Theorie voraus. Klassisch ist metrische Gravitation auf dem Niveau der Vakuumfeldgleichungen äquivalent zur Einstein-Cartan-Theorie, die das Vielbein und den Spinzusammenhang als fundamentale Variablen verwendet. Diese Theorie besitzt allerdings mehr Freiheitsgrade, eine größere Eichgruppe, und die zugrundeliegende Wirkung ist von erster Ordnung. Alle diese Eigenschaften erschweren eine zur metrischen Gravitation analoge Behandlung.rnrnIm Rahmen dieser Arbeit wird eine dreidimensionale Trunkierung von der Art einer verallgemeinerten Hilbert-Palatini-Wirkung untersucht, die neben dem Laufen der Newton-Konstante und der kosmologischen Konstante auch die Renormierung des Immirzi-Parameters erfaßt. Trotz der angedeuteten Schwierigkeiten war es möglich, das Spektrum des freien Hilbert-Palatini-Propagators analytisch zu berechnen. Auf dessen Grundlage wird eine Flußgleichung vom Propertime-Typ konstruiert. Zudem werden geeignete Eichbedingungen gewählt und detailliert analysiert. Dabei macht die Struktur der Eichgruppe eine Kovariantisierung der Eichtransformationen erforderlich. Der resultierende Fluß wird für verschiedene Regularisierungsschemata und Eichparameter untersucht. Dies liefert auch im Einstein-Cartan-Zugang berzeugende Hinweise auf asymptotische Sicherheit und damit auf die mögliche Existenz einer mathematisch konsistenten und prädiktiven fundamentalen Quantentheorie der Gravitation. Insbesondere findet man ein Paar nicht-Gaußscher Fixpunkte, das Anti-Screening aufweist. An diesen sind die Newton-Konstante und die kosmologische Konstante jeweils relevante Kopplungen, wohingegen der Immirzi-Parameter an einem Fixpunkt irrelevant und an dem anderen relevant ist. Zudem ist die Beta-Funktion des Immirzi-Parameters von bemerkenswert einfacher Form. Die Resultate sind robust gegenüber Variationen des Regularisierungsschemas. Allerdings sollten zukünftige Untersuchungen die bestehenden Eichabhängigkeiten reduzieren.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this thesis, a systematic analysis of the bar B to X_sgamma photon spectrum in the endpoint region is presented. The endpoint region refers to a kinematic configuration of the final state, in which the photon has a large energy m_b-2E_gamma = O(Lambda_QCD), while the jet has a large energy but small invariant mass. Using methods of soft-collinear effective theory and heavy-quark effective theory, it is shown that the spectrum can be factorized into hard, jet, and soft functions, each encoding the dynamics at a certain scale. The relevant scales in the endpoint region are the heavy-quark mass m_b, the hadronic energy scale Lambda_QCD and an intermediate scale sqrt{Lambda_QCD m_b} associated with the invariant mass of the jet. It is found that the factorization formula contains two different types of contributions, distinguishable by the space-time structure of the underlying diagrams. On the one hand, there are the direct photon contributions which correspond to diagrams with the photon emitted directly from the weak vertex. The resolved photon contributions on the other hand arise at O(1/m_b) whenever the photon couples to light partons. In this work, these contributions will be explicitly defined in terms of convolutions of jet functions with subleading shape functions. While the direct photon contributions can be expressed in terms of a local operator product expansion, when the photon spectrum is integrated over a range larger than the endpoint region, the resolved photon contributions always remain non-local. Thus, they are responsible for a non-perturbative uncertainty on the partonic predictions. In this thesis, the effect of these uncertainties is estimated in two different phenomenological contexts. First, the hadronic uncertainties in the bar B to X_sgamma branching fraction, defined with a cut E_gamma > 1.6 GeV are discussed. It is found, that the resolved photon contributions give rise to an irreducible theory uncertainty of approximately 5 %. As a second application of the formalism, the influence of the long-distance effects on the direct CP asymmetry will be considered. It will be shown that these effects are dominant in the Standard Model and that a range of -0.6 < A_CP^SM < 2.8 % is possible for the asymmetry, if resolved photon contributions are taken into account.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The aSPECT spectrometer has been constructed to measure, with high precision, the integral proton spectrum of the free neutron decay. From this spectrum the neutrino electron angular correlation coefficient a can be inferred. The coefficient a is involved in several Standard Model tests, like the unitarity test of the Cabibbo-Kobayashi-Maskawa quark mixing matrix. aSPECT has been designed to determine the coefficient a with an accuracy better than 3×10−4, that is, one order of magnitude better than the best current accuracy. First measurements with neutron beam with the aSPECT spectrometer were performed in the Forschungsneutronenquelle Heinz Maier-Leibnitz, in Munich. A study of the data taken in this period is presented in this thesis, demonstrating the proof of principle of the spectrometer. However, the observation of situation and time-dependent background instabilities impedes the report of a new value of the coefficient a. A thorough data analysis is carried out to identify sources of these background instabilities in order to improve the aSPECT experiment for future beam times. The investigation indicates that trapped particles are most likely the reason for the background problems. Furthermore, it has been observed that measurements containing less trapped particles provide a-values closer to the currently Particle Data Group value. Based on this findings, different measures are proposed to eliminate potential traps in the spectrometer. Indeed, with the proposed modifications realized for the following beam-times, the observed background instabilities were greatly reduced.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this thesis, we study the phenomenology of selected observables in the context of the Randall-Sundrum scenario of a compactified warpedrnextra dimension. Gauge and matter fields are assumed to live in the whole five-dimensional space-time, while the Higgs sector is rnlocalized on the infrared boundary. An effective four-dimensional description is obtained via Kaluza-Klein decomposition of the five dimensionalrnquantum fields. The symmetry breaking effects due to the Higgs sector are treated exactly, and the decomposition of the theory is performedrnin a covariant way. We develop a formalism, which allows for a straight-forward generalization to scenarios with an extended gauge group comparedrnto the Standard Model of elementary particle physics. As an application, we study the so-called custodial Randall-Sundrum model and compare the resultsrnto that of the original formulation. rnWe present predictions for electroweak precision observables, the Higgs production cross section at the LHC, the forward-backward asymmetryrnin top-antitop production at the Tevatron, as well as the width difference, the CP-violating phase, and the semileptonic CP asymmetry in B_s decays.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The Standard Model of elementary particle physics was developed to describe the fundamental particles which constitute matter and the interactions between them. The Large Hadron Collider (LHC) at CERN in Geneva was built to solve some of the remaining open questions in the Standard Model and to explore physics beyond it, by colliding two proton beams at world-record centre-of-mass energies. The ATLAS experiment is designed to reconstruct particles and their decay products originating from these collisions. The precise reconstruction of particle trajectories plays an important role in the identification of particle jets which originate from bottom quarks (b-tagging). This thesis describes the step-wise commissioning of the ATLAS track reconstruction and b-tagging software and one of the first measurements of the b-jet production cross section in pp collisions at sqrt(s)=7 TeV with the ATLAS detector. The performance of the track reconstruction software was studied in great detail, first using data from cosmic ray showers and then collisions at sqrt(s)=900 GeV and 7 TeV. The good understanding of the track reconstruction software allowed a very early deployment of the b-tagging algorithms. First studies of these algorithms and the measurement of the b-tagging efficiency in the data are presented. They agree well with predictions from Monte Carlo simulations. The b-jet production cross section was measured with the 2010 dataset recorded by the ATLAS detector, employing muons in jets to estimate the fraction of b-jets. The measurement is in good agreement with the Standard Model predictions.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This thesis presents an analysis for the search of Supersymmetry with the ATLAS detector at the LHC. The final state with one lepton, several coloured particles and large missing transverse energy was chosen. Particular emphasis was placed on the optimization of the requirements for lepton identification. This optimization showed to be particularly useful when combining with multi-lepton selections. The systematic error associated with the higher order QCD diagrams in Monte Carlo production is given particular focus. Methods to verify and correct the energy measurement of hadronic showers are developed. Methods for the identification and removal of mismeasurements caused by the detector are found in the single muon and four jet environment are applied. A new detector simulation system is shown to provide good prospects for future fast Monte Carlo production. The analysis was performed for $35pb^{-1}$ and no significant deviation from the Standard Model is seen. Exclusion limits subchannel for minimal Supergravity. Previous limits set by Tevatron and LEP are extended.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

One of the most precisely measured quantities in particle physics is the magnetic moment of the muon, which describes its coupling to an external magnetic field. It is expressed in form of the anomalous magnetic moment of the muon a_mu=(g_mu-2)/2 and has been determined experimentally with a precision of 0.5 parts per million. The current direct measurement and the theoretical prediction of the standard model differ by more than 3.5 standard deviations. Concerning theory, the contribution of the QED and weak interaction to a_mu can be calculated with very high precision in a perturbative approach.rnAt low energies, however, perturbation theory cannot be used to determine the hadronic contribution a^had_mu. On the other hand, a^had_mu may be derived via a dispersion relation from the sum of measured cross sections of exclusive hadronic reactions. Decreasing the experimental uncertainty on these hadronic cross sections is of utmost importance for an improved standard model prediction of a_mu.rnrnIn addition to traditional energy scan experiments, the method of Initial State Radiation (ISR) is used to measure hadronic cross sections. This approach allows experiments at colliders running at a fixed centre-of-mass energy to access smaller effective energies by studying events which contain a high-energetic photon emitted from the initial electron or positron. Using the technique of ISR, the energy range from threshold up to 4.5GeV can be accessed at Babar.rnrnThe cross section e+e- -> pi+pi- contributes with approximately 70% to the hadronic part of the anomalous magnetic moment of the muon a_mu^had. This important channel has been measured with a precision of better than 1%. Therefore, the leading contribution to the uncertainty of a_mu^had at present stems from the invariant mass region between 1GeV and 2GeV. In this energy range, the channels e+e- -> pi+pi-pi+pi- and e+e- -> pi+pi-pi0pi0 dominate the inclusive hadronic cross section. The measurement of the process e+e- -> pi+pi-pi+pi- will be presented in this thesis. This channel has been previously measured by Babar based on 25% of the total dataset. The new analysis includes a more detailed study of the background contamination from other ISR and non-radiative background reactions. In addition, sophisticated studies of the track reconstruction as well as the photon efficiency difference between the data and the simulation of the Babar detector are performed. With these auxiliary studies, a reduction of the systematic uncertainty from 5.0% to 2.4% in the peak region was achieved.rnrnThe pi+pi-pi+pi- final state has a rich internal structure. Hints are seen for the intermediate states rho(770)^0 f_2(1270), rho(770)^0 f_0(980), as well as a_1(1260)pi. In addition, the branching ratios BR(jpsi -> pi+pi-pi+pi-) and BR(psitwos -> jpsi pi+pi-) are extracted.rn

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Precision measurements of observables in neutron beta decay address important open questions of particle physics and cosmology. In this thesis, a measurement of the proton recoil spectrum with the spectrometer aSPECT is described. From this spectrum the antineutrino-electron angular correlation coefficient a can be derived. In our first beam time at the FRM II in Munich, background instabilities prevented us from presenting a new value for a. In the latest beam time at the ILL in Grenoble, the background has been reduced sufficiently. As a result of the data analysis, we identified and fixed a problem in the detector electronics which caused a significant systematic error. The aim of the latest beam time was a new value for a with an error well below the present literature value of 4%. A statistical accuracy of about 1.4% was reached, but we could only set upper limits on the correction of the problem in the detector electronics, too high to determine a meaningful result. This thesis focused on the investigation of different systematic effects. With the knowledge of the systematics gained in this thesis, we are able to improve aSPECT to perform a 1% measurement of a in a further beam time.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The LHCb experiment has been designed to perform precision measurements in the flavour physics sector at the Large Hadron Collider (LHC) located at CERN. After the recent observation of CP violation in the decay of the Bs0 meson to a charged pion-kaon pair at LHCb, it is interesting to see whether the same quark-level transition in Λ0b baryon decays gives rise to large CP-violating effects. Such decay processes involve both tree and penguin Feynman diagrams and could be sensitive probes for physics beyond the Standard Model. The measurement of the CP-violating observable defined as ∆ACP = ACP(Λ0b → pK−)−ACP(Λ0b →pπ−),where ACP(Λ0b →pK−) and ACP(Λ0b →pπ−) are the direct CP asymmetries in Λ0b → pK− and Λ0b → pπ− decays, is presented for the first time using LHCb data. The procedure followed to optimize the event selection, to calibrate particle identification, to parametrise the various components of the invariant mass spectra, and to compute corrections due to the production asymmetry of the initial state and the detection asymmetries of the final states, is discussed in detail. Using the full 2011 and 2012 data sets of pp collisions collected with the LHCb detector, corresponding to an integrated luminosity of about 3 fb−1, the value ∆ACP = (0.8 ± 2.1 ± 0.2)% is obtained. The first uncertainty is statistical and the second corresponds to one of the dominant systematic effects. As the result is compatible with zero, no evidence of CP violation is found. This is the most precise measurement of CP violation in the decays of baryons containing the b quark to date. Once the analysis will be completed with an exhaustive study of systematic uncertainties, the results will be published by the LHCb Collaboration.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Die Invarianz physikalischer Gesetze unter Lorentztransformationen ist eines der fundamentalen Postulate der modernen Physik und alle Theorien der grundlegenden Wechselwirkungen sind in kovarianter Form formuliert. Obwohl die Spezielle Relativitätstheorie (SRT) in einer Vielzahl von Experimenten mit hoher Genauigkeit überprüft und bestätigt wurde, sind aufgrund der weitreichenden Bedeutung dieses Postulats weitere verbesserte Tests von grundsätzlichem Interesse. Darüber hinaus weisen moderne Ansätze zur Vereinheitlichung der Gravitation mit den anderen Wechselwirkungen auf eine mögliche Verletzung der Lorentzinvarianz hin. In diesem Zusammenhang spielen Ives-Stilwell Experimente zum Test der Zeitdilatation in der SRT eine bedeutende Rolle. Dabei wird die hochauflösende Laserspektroskopie eingesetzt, um die Gültigkeit der relativistischen Dopplerformel – und damit des Zeitdilatationsfaktors γ – an relativistischen Teilchenstrahlen zu untersuchen. Im Rahmen dieser Arbeit wurde ein Ives-Stilwell Experiment an 7Li+-Ionen, die bei einer Geschwindigkeit von 34 % der Lichtgeschwindigkeit im Experimentierspeicherring (ESR) des GSI Helmholtzzentrums für Schwerionenforschung gespeichert waren, durchgeführt. Unter Verwendung des 1s2s3S1→ 1s2p3P2-Übergangs wurde sowohl Λ-Spektroskopie als auch Sättigungsspektroskopie betrieben. Durch die computergestützte Analyse des Fluoreszenznachweises und unter Verwendung optimierter Kantenfilter für den Nachweis konnte das Signal zu Rauschverhältnis entscheidend verbessert und unter Einsatz eines zusätzlichen Pumplasers erstmals ein Sättigungssignal beobachtet werden. Die Frequenzstabilität der beiden verwendeten Lasersysteme wurde mit Hilfe eines Frequenzkamms spezifiziert, um eine möglichst hohe Genauigkeit zu erreichen. Die aus den Strahlzeiten gewonnen Daten wurden im Rahmen der Robertson-Mansouri-Sexl-Testtheorie (RMS) und der Standard Model Extension (SME) interpretiert und entsprechende Obergrenzen für die relevanten Testparameter der jeweiligen Theorie bestimmt. Die Obergrenze für den Testparameter α der RMS-Theorie konnte gegenüber den früheren Messungen bei 6,4 % der Lichtgeschwindigkeit am Testspeicherring (TSR) des Max-Planck-Instituts für Kernphysik in Heidelberg um einen Faktor 4 verbessert werden.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This thesis consists of three self-contained papers. In the first paper I analyze the labor supply behavior of Bologna Pizza Delivery Vendors. Recent influential papers analyze labor supply behavior of taxi drivers (Camerer et al., 1997; and Crawford and Meng, 2011) and suggest that reference-dependence preferences have an important influence on drivers’ labor-supply decisions. Unlike previous papers, I am able to identify an exogenous and transitory change in labor demand. Using high frequency data on orders and rainfall as an exogenous demand shifter, I invariably find that reference-dependent preferences play no role in their labor’ supply decisions and the behavior of pizza vendors is perfectly consistent with the predictions of the standard model of labor’ supply. In the second paper, I investigate how the voting behavior of Members of Parliament is influenced by the Members seating nearby. By exploiting the random seating arrangements in the Icelandic Parliament, I show that being seated next to Members of a different party increases the probability of not being aligned with one’s own party. Using the exact spatial orientation of the peers, I provide evidence that supports the hypothesis that interaction is the main channel that explain these results. In the third paper, I provide an estimate of the trade flows that there would have been between the UK and Europe if the UK had joined the Euro. As an alternative approach to the standard log-linear gravity equation I employ the synthetic control method. I show that the aggregate trade flows between Britain and Europe would have been 13% higher if the UK had adopted the Euro.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In hadronischen Kollisionen entstehen bei einem Großteil der Ereignisse mit einem hohen Impulsübertrag Paare aus hochenergetischen Jets. Deren Produktion und Eigenschaften können mit hoher Genauigkeit durch die Störungstheorie in der Quantenchromodynamik (QCD) vorhergesagt werden. Die Produktion von \textit{bottom}-Quarks in solchen Kollisionen kann als Maßstab genutzt werden, um die Vorhersagen der QCD zu testen, da diese Quarks die Dynamik des Produktionsprozesses bei Skalen wieder spiegelt, in der eine Störungsrechnung ohne Einschränkungen möglich ist. Auf Grund der hohen Masse von Teilchen, die ein \textit{bottom}-Quark enthalten, erhält der gemessene, hadronische Zustand den größten Teil der Information von dem Produktionsprozess der Quarks. Weil sie eine große Produktionsrate besitzen, spielen sie und ihre Zerfallsprodukte eine wichtige Rolle als Untergrund in vielen Analysen, insbesondere in Suchen nach neuer Physik. In ihrer herausragenden Stellung in der dritten Quark-Generation könnten sich vermehrt Zeichen im Vergleich zu den leichteren Quarks für neue Phänomene zeigen. Daher ist die Untersuchung des Verhältnisses zwischen der Produktion von Jets, die solche \textit{bottom}-Quarks enthalten, auch bekannt als $b$-Jets, und aller nachgewiesener Jets ein wichtiger Indikator für neue massive Objekte. In dieser Arbeit werden die Produktionsrate und die Korrelationen von Paaren aus $b$-Jets bestimmt und nach ersten Hinweisen eines neuen massiven Teilchens, das bisher nicht im Standard-Modell enthalten ist, in dem invarianten Massenspektrum der $b$-Jets gesucht. Am Large Hadron Collider (LHC) kollidieren zwei Protonenstrahlen bei einer Schwerpunktsenergie von $\sqrt s = 7$ TeV, und es werden viele solcher Paare aus $b$-Jets produziert. Diese Analyse benutzt die aufgezeichneten Kollisionen des ATLAS-Detektors. Die integrierte Luminosität der verwendbaren Daten beläuft sich auf 34~pb$^{-1}$. $b$-Jets werden mit Hilfe ihrer langen Lebensdauer und den rekonstruierten, geladenen Zerfallsprodukten identifiziert. Für diese Analyse müssen insbesondere die Unterschiede im Verhalten von Jets, die aus leichten Objekten wie Gluonen und leichten Quarks hervorgehen, zu diesen $b$-Jets beachtet werden. Die Energieskala dieser $b$-Jets wird untersucht und die zusätzlichen Unsicherheit in der Energiemessung der Jets bestimmt. Effekte bei der Jet-Rekonstruktion im Detektor, die einzigartig für $b$-Jets sind, werden studiert, um letztlich diese Messung unabhängig vom Detektor und auf Niveau der Hadronen auswerten zu können. Hiernach wird die Messung zu Vorhersagen auf nächst-zu-führender Ordnung verglichen. Dabei stellt sich heraus, dass die Vorhersagen in Übereinstimmung zu den aufgenommenen Daten sind. Daraus lässt sich schließen, dass der zugrunde liegende Produktionsmechanismus auch in diesem neu erschlossenen Energiebereich am LHC gültig ist. Jedoch werden auch erste Hinweise auf Mängel in der Beschreibung der Eigenschaften dieser Ereignisse gefunden. Weiterhin können keine Anhaltspunkte für eine neue Resonanz, die in Paare aus $b$-Jets zerfällt, in dem invarianten Massenspektrum bis etwa 1.7~TeV gefunden werden. Für das Auftreten einer solchen Resonanz mit einer Gauß-förmigen Massenverteilung werden modell-unabhängige Grenzen berechnet.