1000 resultados para CERN LHC
Resumo:
In the near future, the LHC experiments will continue to be upgraded as the LHC luminosity will increase from the design 1034 to 7.5 × 1034, with the HL-LHC project, to reach 3000 × f b−1 of accumulated statistics. After the end of a period of data collection, CERN will face a long shutdown to improve overall performance by upgrading the experiments and implementing more advanced technologies and infrastructures. In particular, ATLAS will upgrade parts of the detector, the trigger, and the data acquisition system. It will also implement new strategies and algorithms for processing and transferring the data to the final storage. This PhD thesis presents a study of a new pattern recognition algorithm to be used in the trigger system, which is a software designed to provide the information necessary to select physical events from background data. The idea is to use the well-known Hough Transform mathematical formula as an algorithm for detecting particle trajectories. The effectiveness of the algorithm has already been validated in the past, independently of particle physics applications, to detect generic shapes in images. Here, a software emulation tool is proposed for the hardware implementation of the Hough Transform, to reconstruct the tracks in the ATLAS Trigger and Data Acquisition system. Until now, it has never been implemented on electronics in particle physics experiments, and as a hardware implementation it would provide overall latency benefits. A comparison between the simulated data and the physical system was performed on a Xilinx UltraScale+ FPGA device.
Resumo:
In this thesis, a search for same-sign top quark pairs produced according to the Standard Model Effective Field Theory (SMEFT) is presented. The analysis is carried out within the ATLAS Collaboration using collision data at a center-of-mass energy of $\sqrt{s} = 13$ TeV, collected by the ATLAS detector during the Run 2 of the Large Hadron Collider, corresponding to an integrated luminosity of $140$ fb$^{-1}$. Three SMEFT operators are considered in the analysis, namely $\mathcal{O}_{RR}$, $\mathcal{O}_{LR}^{(1)}$, and $\mathcal{O}_{LR}^{(8)}$. The signal associated to same-sign top pairs is searched in the dilepton channel, with the top quarks decaying via $t \longrightarrow W^+ b \longrightarrow \ell^+ \nu b$, leading to a final state signature composed of a pair of high-transverse momentum same-sign leptons and $b$-jets. Deep Neural Networks are employed in the analysis to enhance sensitivity to the different SMEFT operators and to perform signal-background discrimination. This is the first result of the ATLAS Collaboration concerning the search for same-sign top quark pairs production in proton-proton collision data at $\sqrt{s} = 13$ TeV, in the framework of the SMEFT.
Resumo:
This thesis presents a search for a sterile right-handed neutrino $N$ produced in $D_s$ meson decays, using proton-proton collisions collected by the CMS experiment at the LHC. The data set used for the analysis, the B-Parking data set, corresponds to an integrated luminosity of $41.7\,\textrm{fb}^{-1}$ and was collected during the 2018 data-taking period. The analysis is targeting the $D_s^+\rightarrow N(\rightarrow\mu^{\pm}\pi^{\mp})\mu^{+}$ decays, where the final state muons can have the same electric charge allowing for a lepton flavor violating decay. To separate signal from background, a cut-based analysis is optimized using requirements on the sterile neutrino vertex displacement, muon and pion impact parameter, and impact parameter significance. The expected limit on the active-sterile neutrino mixing matrix parameter $|V_{\mu}|^2$ is extracted by performing a fit of the $\mu\pi$ invariant mass spectrum for two sterile neutrino mass hypotheses, 1.0 and 1.5 GeV. The analysis is currently blinded, following the internal CMS review process. The expected limit ranges between approximately $10^{-4}$ for a 1.0 GeV neutrino to $7\times10^{-5}$ for a 1.5 GeV neutrino. This is competitive with the best existing results from collider experiments over the same mass range.
Resumo:
The enhanced production of strange hadrons in heavy-ion collisions relative to that in minimum-bias pp collisions is historically considered one of the first signatures of the formation of a deconfined quark-gluon plasma. At the LHC, the ALICE experiment observed that the ratio of strange to non-strange hadron yields increases with the charged-particle multiplicity at midrapidity, starting from pp collisions and evolving smoothly across interaction systems and energies, ultimately reaching Pb-Pb collisions. The understanding of the origin of this effect in small systems remains an open question. This thesis presents a comprehensive study of the production of $K^{0}_{S}$, $\Lambda$ ($\bar{\Lambda}$) and $\Xi^{-}$ ($\bar{\Xi}^{+}$) strange hadrons in pp collisions at $\sqrt{s}$ = 13 TeV collected in LHC Run 2 with ALICE. A novel approach is exploited, introducing, for the first time, the concept of effective energy in the study of strangeness production in hadronic collisions at the LHC. In this work, the ALICE Zero Degree Calorimeters are used to measure the energy carried by forward emitted baryons in pp collisions, which reduces the effective energy available for particle production with respect to the nominal centre-of-mass energy. The results presented in this thesis provide new insights into the interplay, for strangeness production, between the initial stages of the collision and the produced final hadronic state. Finally, the first Run 3 results on the production of $\Omega^{\pm}$ ($\bar{\Omega}^{+}$) multi-strange baryons are presented, measured in pp collisions at $\sqrt{s}$ = 13.6 TeV and 900 GeV, the highest and lowest collision energies reached so far at the LHC. This thesis also presents the development and validation of the ALICE Time-Of-Flight (TOF) data quality monitoring system for LHC Run 3. This work was fundamental to assess the performance of the TOF detector during the commissioning phase, in the Long Shutdown 2, and during the data taking period.
Resumo:
Il quark-gluon plasma (QGP) è uno stato della materia previsto dalla cromodinamica quantistica. L’esperimento ALICE a LHC ha tra i suoi obbiettivi principali lo studio della materia fortemente interagente e le proprietà del QGP attraverso collisioni di ioni pesanti ultra-relativistici. Per un’esaustiva comprensione di tali proprietà, le stesse misure effettuate su sistemi collidenti più piccoli (collisioni protone-protone e protone-ione) sono necessarie come riferimento. Le recenti analisi dei dati raccolti ad ALICE hanno mostrato che la nostra comprensione dei meccanismi di adronizzazione di quark pesanti non è completa, perchè i dati ottenuti in collisioni pp e p-Pb non sono riproducibili utilizzando modelli basati sui risultati ottenuti con collisioni e+e− ed ep. Per questo motivo, nuovi modelli teorici e fenomenologici, in grado di riprodurre le misure sperimentali, sono stati proposti. Gli errori associati a queste nuove misure sperimentali al momento non permettono di verificare in maniera chiara la veridicità dei diversi modelli proposti. Nei prossimi anni sarà quindi fondamentale aumentare la precisione di tali misure sperimentali; d’altra parte, stimare il numero delle diverse specie di particelle prodotte in una collisione può essere estremamente complicato. In questa tesi, il numero di barioni Lc prodotti in un campione di dati è stato ottenuto utilizzando delle tecniche di machine learning, in grado di apprendere pattern e imparare a distinguere candidate di segnale da quelle di fondo. Si sono inoltre confrontate tre diverse implementazioni di un algoritmo di Boosted Decision Trees (BDT) e si è utilizzata quella più performante per ricostruire il barione Lc in collisioni pp raccolte dall’esperimento ALICE.
Resumo:
The scientific success of the LHC experiments at CERN highly depends on the availability of computing resources which efficiently store, process, and analyse the amount of data collected every year. This is ensured by the Worldwide LHC Computing Grid infrastructure that connect computing centres distributed all over the world with high performance network. LHC has an ambitious experimental program for the coming years, which includes large investments and improvements both for the hardware of the detectors and for the software and computing systems, in order to deal with the huge increase in the event rate expected from the High Luminosity LHC (HL-LHC) phase and consequently with the huge amount of data that will be produced. Since few years the role of Artificial Intelligence has become relevant in the High Energy Physics (HEP) world. Machine Learning (ML) and Deep Learning algorithms have been successfully used in many areas of HEP, like online and offline reconstruction programs, detector simulation, object reconstruction, identification, Monte Carlo generation, and surely they will be crucial in the HL-LHC phase. This thesis aims at contributing to a CMS R&D project, regarding a ML "as a Service" solution for HEP needs (MLaaS4HEP). It consists in a data-service able to perform an entire ML pipeline (in terms of reading data, processing data, training ML models, serving predictions) in a completely model-agnostic fashion, directly using ROOT files of arbitrary size from local or distributed data sources. This framework has been updated adding new features in the data preprocessing phase, allowing more flexibility to the user. Since the MLaaS4HEP framework is experiment agnostic, the ATLAS Higgs Boson ML challenge has been chosen as physics use case, with the aim to test MLaaS4HEP and the contribution done with this work.
Resumo:
Il rilevatore Probe for LUminosity MEasurement (PLUME) è un luminometro per l’esperimento LHCb al CERN. Fornirà misurazioni istantanee della luminosità per LHCb durante la Run 3 a LHC. L’obiettivo di questa tesi è di valutare, con dati simulati, le prestazioni attese di PLUME, come l’occupanza dei PMT che compongono il rivelatore, e riportare l’analisi dei primi dati ottenuti da PLUME durante uno scan di Van der Meer. In particolare, sono state ottenuti tre misure del valore della sezione d’urto, necessarie per tarare il rivelatore, ovvero σ1Da = (1.14 ± 0.11) mb, σ1Db = (1.13 ± 0.10) mb, σ2D = (1.20 ± 0.02) mb, dove i pedici 1D e 2D corrispondono a uno scan di Van der Meer unidimensionale e bidimensionale. Tutti i risultati sono in accordo tra loro.
Resumo:
Il Worldwide LHC Computing Grid (WLCG) è una collaborazione internazionale costituita da decine di centri di calcolo distribuiti globalmente, la cui missione consiste nell'elaborazione delle grandi quantità di dati prodotti dai maggiori esperimenti di Fisica delle Alte Energie, in particolare quelli al CERN di Ginevra. Uno di questi centri di calcolo è ospitato presso il CNAF dell'Istituto Nazionale di Fisica Nucleare a Bologna, che contribuisce anche allo sviluppo di middleware per la gestione dell'infrastruttura. Molti componenti di tale middleware, che hanno funzionalità e scopi diversi, richiedono un servizio di autorizzazione versatile e compatibile con i meccanismi di autenticazione attualmente in uso, basati su token OAuth 2.0 e su certificati VOMS Proxy. In questa tesi si analizzerà l'architettura e l'implementazione di un proof-of-concept di un sistema di autorizzazione che soddisfi queste necessità, enfatizzando l'integrazione delle tecniche di autenticazione citate. Per dimostrare la sua versatilità, verrà illustrato il processo di interfacciamento con un componente middleware attualmente in sviluppo al CNAF. Il risultato finale ottenuto è un sistema che rispetta i vincoli richiesti e si integra facilmente con servizi eterogenei.
Resumo:
Il quark top è una delle particelle fondamentali del Modello Standard, ed è osservato a LHC nelle collisioni a più elevata energia. In particolare, la coppia top-antitop (tt̄) è prodotta tramite interazione forte da eventi gluone-gluone (gg) oppure collisioni di quark e antiquark (qq̄). I diversi meccanismi di produzione portano ad avere coppie con proprietà diverse: un esempio è lo stato di spin di tt̄, che vicino alla soglia di produzione è maggiormente correlato nel caso di un evento gg. Uno studio che voglia misurare l’entità di tali correlazioni risulta quindi essere significativamente facilitato da un metodo di discriminazione delle coppie risultanti sulla base del loro canale di produzione. Il lavoro qui presentato ha quindi lo scopo di ottenere uno strumento per effettuare tale differenziazione, attraverso l’uso di tecniche di analisi multivariata. Tali metodi sono spesso applicati per separare un segnale da un fondo che ostacola l’analisi, in questo caso rispettivamente gli eventi gg e qq̄. Si dice che si ha a che fare con un problema di classificazione. Si è quindi studiata la prestazione di diversi algoritmi di analisi, prendendo in esame le distribuzioni di numerose variabili associate al processo di produzione di coppie tt̄. Si è poi selezionato il migliore in base all’efficienza di riconoscimento degli eventi di segnale e alla reiezione degli eventi di fondo. Per questo elaborato l’algoritmo più performante è il Boosted Decision Trees, che permette di ottenere da un campione con purezza iniziale 0.81 una purezza finale di 0.92, al costo di un’efficienza ridotta a 0.74.
Resumo:
Il Modello Standard è attualmente la teoria che meglio spiega il comportamento della fisica subnucleare, includendo la definizione delle particelle e di tre delle quattro forze fondamentali presenti in natura; risulta però una teoria incompleta sulle cui integrazioni i fisici stanno lavorando in diverse direzioni: uno degli approcci più promettenti nella ricerca di nuova fisica risulta essere quello delle teorie di campo efficaci. Il vertice di interazione del processo di produzione di coppie di quark top dello stesso segno a partire da protoni è fortemente soppresso nel Modello Standard e deve quindi essere interpretato con le teorie di campo efficaci. Il presente elaborato si concentra su questo nuovo approccio per la ricerca di quark top same-sign e si focalizza sull’utilizzo di una rete neurale per discriminare il segnale dal fondo. L’obiettivo è capire se le prestazioni di quest’ultima cambino quando le vengono fornite in ingresso variabili di diversi livelli di ricostruzione. Utilizzando una rete neurale ottimizzata per la discriminazione del segnale dal fondo, le si sono presentati tre set di variabili per l’allenamento: uno di alto livello, il secondo strettamente di basso livello, il terzo copia del secondo con aggiunta delle due variabili principali di b-tagging. Si è dimostrato che la performance della rete in termini di classificazione segnale-fondo rimane pressoché inalterata: la curva ROC presenta aree sottostanti le curve pressoché identiche. Si è notato inoltre che nel caso del set di variabili di basso livello, la rete neurale classifica come input più importanti gli angoli azimutali dei leptoni nonostante questi abbiano distribuzioni identiche tra segnale e fondo: ciò avviene in quanto la rete neurale è in grado di sfruttare le correlazioni tra le variabili come caratteristica discriminante. Questo studio preliminare pone le basi per l’ottimizzazione di un approccio multivariato nella ricerca di eventi con due top dello stesso segno prodotti a LHC.
Resumo:
Dynamical Chern-Simons gravity is an extension of general relativity in which the gravitational field is coupled to a scalar field through a parity-violating Chern-Simons term. In this framework, we study perturbations of spherically symmetric black hole spacetimes, assuming that the background scalar field vanishes. Our results suggest that these spacetimes are stable, and small perturbations die away as a ringdown. However, in contrast to standard general relativity, the gravitational waveforms are also driven by the scalar field. Thus, the gravitational oscillation modes of black holes carry imprints of the coupling to the scalar field. This is a smoking gun for Chern-Simons theory and could be tested with gravitational-wave detectors, such as LIGO or LISA. For negative values of the coupling constant, ghosts are known to arise, and we explicitly verify their appearance numerically. Our results are validated using both time evolution and frequency domain methods.
Resumo:
The relativistic heavy ion program developed at RHIC and now at LHC motivated a deeper study of the properties of the quark-gluon plasma (QGP) and, in particular, the study of perturbations in this kind of plasma. We are interested on the time evolution of perturbations in the baryon and energy densities. If a localized pulse in baryon density could propagate throughout the QGP for long distances preserving its shape and without loosing localization, this could have interesting consequences for relativistic heavy ion physics and for astrophysics. A mathematical way to prove that this can happen is to derive (under certain conditions) from the hydrodynamical equations of the QGP a Korteveg-de Vries (KdV) equation. The solution of this equation describes the propagation of a KdV soliton. The derivation of the KdV equation depends crucially on the equation of state (EOS) of the QGP. The use of the simple MIT bag model EOS does not lead to KdV solitons. Recently we have developed an EOS for the QGP which includes both perturbative and nonperturbative corrections to the MIT one and is still simple enough to allow for analytical manipulations. With this EOS we were able to derive a KdV equation for the cold QGP.
Resumo:
Heavy quark production has been very well studied over the last years both theoretically and experimentally. Theory has been used to study heavy quark production in ep collisions at HERA, in pp collisions at Tevatron and RHIC, in pA and dA collisions at RHIC, and in AA collisions at CERN-SPS and RHIC. However, to the best of our knowledge, heavy quark production in eA has received almost no attention. With the possible construction of a high energy electron-ion collider, updated estimates of heavy quark production are needed. We address the subject from the perspective of saturation physics and compute the heavy quark production cross section with the dipole model. We isolate shadowing and nonlinear effects, showing their impact on the charm structure function and on the transverse momentum spectrum.
Resumo:
Using a sample of 68.3x10(6) K(L)->pi(0)pi(0)pi(0) decays collected in 1996-1999 by the KTeV (E832) experiment at Fermilab, we present a detailed study of the K(L)->pi(0)pi(0)pi(0) Dalitz plot density. We report the first observation of interference from K(L)->pi(+)pi(-)pi(0) decays in which pi(+)pi(-) rescatters to pi(0)pi(0) in a final-state interaction. This rescattering effect is described by the Cabibbo-Isidori model, and it depends on the difference in pion scattering lengths between the isospin I=0 and I=2 states, a(0)-a(2). Using the Cabibbo-Isidori model, and fixing (a(0)-a(2))m(pi)(+)=0.268 +/- 0.017 as measured by the CERN-NA48 collaboration, we present the first measurement of the K(L)->pi(0)pi(0)pi(0) quadratic slope parameter that accounts for the rescattering effect: h(000)=(+0.59 +/- 0.20(stat)+/- 0.48(syst)+/- 1.06(ext))x10(-3), where the uncertainties are from data statistics, KTeV systematic errors, and external systematic errors. Fitting for both h(000) and a(0)-a(2), we find h(000)=(-2.09 +/- 0.62(stat)+/- 0.72(syst)+/- 0.28(ext))x10(-3), and m(pi)(+)(a(0)-a(2))=0.215 +/- 0.014(stat)+/- 0.025(syst)+/- 0.006(ext); our value for a(0)-a(2) is consistent with that from NA48.
Resumo:
PHENIX has measured the e(+)e(-) pair continuum in root s(NN) = 200 GeV Au+Au and p+p collisions over a wide range of mass and transverse momenta. The e(+)e(-) yield is compared to the expectations from hadronic sources, based on PHENIX measurements. In the intermediate-mass region, between the masses of the phi and the J/psi meson, the yield is consistent with expectations from correlated c (c) over bar production, although other mechanisms are not ruled out. In the low-mass region, below the phi, the p+p inclusive mass spectrum is well described by known contributions from light meson decays. In contrast, the Au+Au minimum bias inclusive mass spectrum in this region shows an enhancement by a factor of 4.7 +/- 0.4(stat) +/- 1.5(syst) +/- 0.9(model). At low mass (m(ee) < 0.3 GeV/c(2)) and high p(T) (1 < p(T) < 5 GeV/c) an enhanced e(+)e(-) pair yield is observed that is consistent with production of virtual direct photons. This excess is used to infer the yield of real direct photons. In central Au+Au collisions, the excess of the direct photon yield over the p+p is exponential in p(T), with inverse slope T = 221 +/- 19(stat) +/- 19(syst) MeV. Hydrodynamical models with initial temperatures ranging from T(init) similar or equal to 300-600 MeV at times of 0.6-0.15 fm/c after the collision are in qualitative agreement with the direct photon data in Au+Au. For low p(T) < 1 GeV/c the low-mass region shows a further significant enhancement that increases with centrality and has an inverse slope of T similar or equal to 100 MeV. Theoretical models underpredict the low-mass, low-p(T) enhancement.