13 resultados para Collider

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Qualificazione dei fotomoltiplicatori che saranno installati nel sottorivelatore LUCID dell'esperimento ATLAS a LHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si propone di investigare l'origine di effetti non gaussiani nella distribuzione del segnale del rivelatore Time of Flight (TOF) dell'esperimento A Large Ion Collider Experiment (ALICE). Con la presa dati iniziata nel 2009 si è infatti osservata un'asimmetria nel segnale la cui origine è ancora oggetto di studio. L'analisi svolta mostra come essa sia dovuta a motivi strumentali piuttosto che fenomenologici e permette quindi di correggere in parte questa anomalia migliorando la risoluzione del rivelatore. ALICE è uno dei quattro esperimenti allestiti lungo l'anello del LHC e ha come obiettivo principale verificare l'esistenza di prove sperimentali che confermino l'esistenza di un nuovo stadio della materia, il cosiddetto Quark Gluon Plasma (QGP). Secondo la Cromodinamica Quantistica (QCD), la teoria che descrive l'interazione forte, caratteristica fondamentale di quark e gluoni è il loro confinamento all'interno di adroni. Studi recenti nell'ambito della QCD non-perturbativa hanno tuttavia dimostrato che in condizioni estreme di densità di materia adronica e temperatura sarebbe possibile un'inversione di tendenza nell'andamento della costante di accoppiamento forte. Le condizioni necessarie alla formazione del QGP sono ben riproducibili nelle collisioni ad energie ultrarelativistiche tra ioni pesanti, come quelle che sono state prodotte a LHC negli ultimi due anni, fra ioni di piombo con energie del centro di massa pari a 2.76 TeV per coppia di nucleoni. L'esperimento ALICE si propone di studiarne i prodotti e poiché la molteplicità di particelle che si generano nell'urto e considerevole, e necessario un sistema di rivelazione che permetta l'identificazione di particelle cariche su un grande angolo solido e in un ampio intervallo di impulsi. Il TOF, utilizzando un particolare rivelatore a gas detto Multigap Resistive Plate Chamber (MRPC), svolge brillantemente questo compito permettendo di raggiungere una risoluzione temporale inferiore ai 100 ps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The LHCb experiment has been designed to perform precision measurements in the flavour physics sector at the Large Hadron Collider (LHC) located at CERN. After the recent observation of CP violation in the decay of the Bs0 meson to a charged pion-kaon pair at LHCb, it is interesting to see whether the same quark-level transition in Λ0b baryon decays gives rise to large CP-violating effects. Such decay processes involve both tree and penguin Feynman diagrams and could be sensitive probes for physics beyond the Standard Model. The measurement of the CP-violating observable defined as ∆ACP = ACP(Λ0b → pK−)−ACP(Λ0b →pπ−),where ACP(Λ0b →pK−) and ACP(Λ0b →pπ−) are the direct CP asymmetries in Λ0b → pK− and Λ0b → pπ− decays, is presented for the first time using LHCb data. The procedure followed to optimize the event selection, to calibrate particle identification, to parametrise the various components of the invariant mass spectra, and to compute corrections due to the production asymmetry of the initial state and the detection asymmetries of the final states, is discussed in detail. Using the full 2011 and 2012 data sets of pp collisions collected with the LHCb detector, corresponding to an integrated luminosity of about 3 fb−1, the value ∆ACP = (0.8 ± 2.1 ± 0.2)% is obtained. The first uncertainty is statistical and the second corresponds to one of the dominant systematic effects. As the result is compatible with zero, no evidence of CP violation is found. This is the most precise measurement of CP violation in the decays of baryons containing the b quark to date. Once the analysis will be completed with an exhaustive study of systematic uncertainties, the results will be published by the LHCb Collaboration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Top quark studies play an important role in the physics program of the Large Hadron Collider (LHC). The energy and luminosity reached allow the acquisition of a large amount of data especially in kinematic regions never studied before. In this thesis is presented the measurement of the ttbar production differential cross section on data collected by ATLAS in 2012 in proton proton collisions at \sqrt{s} = 8 TeV, corresponding to an integrated luminosity of 20.3 fb^{−1}. The measurement is performed for ttbar events in the semileptonic channel where the hadronically decaying top quark has a transverse momentum above 300 GeV. The hadronic top quark decay is reconstructed as a single large radius jet and identified using jet substructure properties. The final differential cross section result has been compared with several theoretical distributions obtaining a discrepancy of about the 25% between data and predictions, depending on the MC generator. Furthermore the kinematic distributions of the ttbar production process are very sensitive to the choice of the parton distribution function (PDF) set used in the simulations and could provide constraints on gluons PDF. In particular in this thesis is performed a systematic study on the PDF of the protons, varying several PDF sets and checking which one better describes the experimental distributions. The boosted techniques applied in this measurement will be fundamental in the next data taking at \sqrt{s}=13 TeV when will be produced a large amount of heavy particles with high momentum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Large Hadron Collider, located at the CERN laboratories in Geneva, is the largest particle accelerator in the world. One of the main research fields at LHC is the study of the Higgs boson, the latest particle discovered at the ATLAS and CMS experiments. Due to the small production cross section for the Higgs boson, only a substantial statistics can offer the chance to study this particle properties. In order to perform these searches it is desirable to avoid the contamination of the signal signature by the number and variety of the background processes produced in pp collisions at LHC. Much account assumes the study of multivariate methods which, compared to the standard cut-based analysis, can enhance the signal selection of a Higgs boson produced in association with a top quark pair through a dileptonic final state (ttH channel). The statistics collected up to 2012 is not sufficient to supply a significant number of ttH events; however, the methods applied in this thesis will provide a powerful tool for the increasing statistics that will be collected during the next LHC data taking.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei cardini nel programma di ricerca attuale del Large Hadron Collider (LHC) al CERN è l’approfondimento della conoscenza relativa al bosone di Higgs e agli accoppiamenti di questa particella, di recente scoperta, con le altre del Modello Standard. Il prossimo Run di LHC sarà caratterizzato da collisioni di fasci di protoni con un'energia di 6.5 TeV ciascuno e renderà possibile l’acquisizione di grandi campioni di dati nei quali si prevede un aumento della statistica per tipologie di eventi che fino a questo momento è stato problematico studiare. Tra questi la produzione per Higgs-strahlung del bosone di Higgs associato al bosone vettore Z, che, essendo caratterizzata da una bassa sezione d’urto, è sempre stata considerata un processo molto difficile da investigare. Questa tesi fornisce uno studio preliminare della fattibilità di recuperare in modo efficiente questo canale, con l’obiettivo di individuare alcuni tagli che permettano di ripulire il grande fondo adronico prodotto nelle collisioni protone-protone a LHC. La presente analisi è stata effettuata su campioni di dati ottenuti tramite una generazione Monte Carlo e una simulazione parametrica del rivelatore ATLAS. Sebbene la statistica dei campioni MC sia ancora limitata e la simulazione della risposta del detector non sia dettagliata, le tecniche e i tagli utilizzati in questo lavoro di tesi potranno dare utili indicazioni per futuri studi più dettagliati e per l'investigazione di questo processo una volta che i dati del prossimo Run di LHC a √s=13 TeV saranno disponibili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dall'inizio del 2013 il Large Hadron Collider (LHC) non produce dati (fase di shut down) per effettuare operazioni di consolidamento e manutenzione. Nella primavera del 2015 ritornerà in funzione con energia e luminosità maggiori. La fase di shut down è sfruttata anche per migliorare le prestazioni dei vari rivelatori che operano in LHC, così che possano acquisire dati in modo efficiente alla riaccensione. Per quanto riguarda il monitor di luminosità LUCID, che fa parte dell'esperimento ATLAS, sono stati sostituiti i rivelatori principali (i fotomoltiplicatori) e l'elettronica. Numerosi considerazioni rispetto alla durata dei nuovi sensori nell'ambiente di LHC tra il 2015 e il 2018, nonché sulla misura della luminosità durante il run II, hanno portato alla conclusione che i nuovi PMT dovranno operare ad un guadagno di math 10^5. E' stato dunque necessario, una volta identificati ed acquistati i nuovi sensori, qualificarne il funzionamento individuale e determinare la tensione di lavoro corrispondente al guadagno desiderato. La prima parte di tali misure, effettuate interamente a Bologna, riguarda la misura della corrente di buio e l'andamento della dipendenza del guadagno dei PMT dalla tensione applicata. La seconda parte riguarda invece lo studio di diversi metodi per le misure del guadagno assoluto, e la loro applicabilità durante la fase di funzionamento di LHC. Durante la presa dati, infatti, sarà essenziale essere in grado di monitorare continuamente il guadagno di ciascun sensore al fine di mantenerlo costante. Le misure di guadagno assoluto presentate in questa tesi sono state effettuate in parte a Bologna, sfruttando il metodo del singolo fotoelettrone, e in parte presso il CERN, utilizzando una sorgente radioattiva, il Bismuto 207.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The performances of the H → ZZ* → 4l analysis are studied in the context of the High Luminosity upgrade of the LHC collider, with the CMS detector. The high luminosity (up to L = 5 × 10^34 cm−2s−1) of the accelerator poses very challenging experimental con- ditions. In particular, the number of overlapping events per bunch crossing will increase to 140. To cope with this difficult environment, the CMS detector will be upgraded in two stages: Phase-I and Phase-II. The tools used in the analysis are the CMS Full Simulation and the fast parametrized Delphes simulation. A validation of Delphes with respect to the Full Simulation is performed, using reference Phase-I detector samples. Delphes is then used to simulate the Phase-II detector response. The Phase-II configuration is compared with the Phase-I detector and the same Phase-I detector affected by aging processes, both modeled with the Full Simulation framework. Conclusions on these three scenarios are derived: the degradation in performances observed with the “aged” scenario shows that a major upgrade of the detector is mandatory. The specific upgrade configuration studied allows to keep the same performances as in Phase-I and, in the case of the four-muons channel, even to exceed them.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nei prossimi anni sia il Large Hadron Collider al CERN che i relativi esperimenti saranno oggetto di programmi di upgrade. Per i rivelatori una delle motivazioni dell’upgrade è l’invecchiamento che inevitabilmente ne peggiorerebbe le prestazioni in mancanza di interventi. Si sono studiati gli effetti dell’invecchiamentO del rivelatore di muoni a grande angolo di CMS sulla ricostruzione di eventi H→ 4μ: un canale centrale nel programma futuro di fisica delle alte energie e la cui identificazione è affidata essenzialmente al rivelatore di muoni. Benchè la ridondanza, insita nel progetto del rivelatore, riduca l’impatto dell’inefficienza locale sui risultati finali, si è osservato dalla simulazione che, mentre il 30% di hit persi si traduce nella perdita dell’8% di eventi H→4μ, il 30% di camere non funzionanti causa un perdita di eventi che può arrivare al 27%. Poichè la disattivazione di un’intera camera può essere l’effetto del danneggiamento dell’elettronica di lettura, la quale è attualmente situata nella caverna sperimentale ed esposta quindi alle radiazioni, questi risultati potrebbero indicare la necessità di prevedere nel programma di upgrade la sostituzione dell’elettronica con nuovi dispositivi da collocarsi fuori della caverna, al riparo dalle radiazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo progetto di tesi è lo sviluppo di un sistema distribuito di acquisizione e visualizzazione interattiva di dati. Tale sistema è utilizzato al CERN (Organizzazione Europea per la Ricerca Nucleare) al fine di raccogliere i dati relativi al funzionamento dell'LHC (Large Hadron Collider, infrastruttura ove avvengono la maggior parte degli esperimenti condotti al CERN) e renderli disponibili al pubblico in tempo reale tramite una dashboard web user-friendly. L'infrastruttura sviluppata è basata su di un prototipo progettato ed implementato al CERN nel 2013. Questo prototipo è nato perché, dato che negli ultimi anni il CERN è diventato sempre più popolare presso il grande pubblico, si è sentita la necessità di rendere disponibili in tempo reale, ad un numero sempre maggiore di utenti esterni allo staff tecnico-scientifico, i dati relativi agli esperimenti effettuati e all'andamento dell'LHC. Le problematiche da affrontare per realizzare ciò riguardano sia i produttori dei dati, ovvero i dispositivi dell'LHC, sia i consumatori degli stessi, ovvero i client che vogliono accedere ai dati. Da un lato, i dispositivi di cui vogliamo esporre i dati sono sistemi critici che non devono essere sovraccaricati di richieste, che risiedono in una rete protetta ad accesso limitato ed utilizzano protocolli di comunicazione e formati dati eterogenei. Dall'altro lato, è necessario che l'accesso ai dati da parte degli utenti possa avvenire tramite un'interfaccia web (o dashboard web) ricca, interattiva, ma contemporaneamente semplice e leggera, fruibile anche da dispositivi mobili. Il sistema da noi sviluppato apporta miglioramenti significativi rispetto alle soluzioni precedentemente proposte per affrontare i problemi suddetti. In particolare presenta un'interfaccia utente costituita da diversi widget configurabili, riuitilizzabili che permettono di esportare i dati sia presentati graficamente sia in formato "machine readable". Un'alta novità introdotta è l'architettura dell'infrastruttura da noi sviluppata. Essa, dato che è basata su Hazelcast, è un'infrastruttura distribuita modulare e scalabile orizzontalmente. È infatti possibile inserire o rimuovere agenti per interfacciarsi con i dispositivi dell'LHC e web server per interfacciarsi con gli utenti in modo del tutto trasparente al sistema. Oltre a queste nuove funzionalità e possbilità, il nostro sistema, come si può leggere nella trattazione, fornisce molteplici spunti per interessanti sviluppi futuri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La misura della sezione d'urto di processi fisici prodotti negli urti fra protoni ad LHC è uno dei settori più importanti della ricerca in corso, sia per verificare le predizioni del Modello Standard, che per la ricerca di nuova fisica. La precisione necessaria per distinguere fenomeni standard e non, richiede un ottimo controllo delle incertezze sistematiche. Fra le sorgenti di errore sistematico, di particolare importanza sono quelle sulla misura della luminosità, che rappresenta il fattore di normalizzazione necessario per la misura di qualsiasi sezione d'urto. Ogni esperimento che si proponga misure di questo genere è quindi dotato di monitor di luminosità dedicati. In questa tesi sono presentate le tecniche di misura della luminosità ad ATLAS utilizzando i rivelatori dedicati e le problematiche incontrate nel corso della presa dati del 2012, sia per quanto riguarda la loro procedura di calibrazione assoluta, che per la loro stabilità in funzione del tempo e linearità di risposta, e vengono fornite le incertezze sistematiche dipendenti dal loro confronto. Per meglio comprendere tali risultati, si è studiato il canale di produzione del bosone Z nelle interazioni protone-protone, all'energia nel centro di massa s = √8 TeV mediante il suo decadimento in due muoni, utilizzando i dati acquisiti nel corso del 2012 Nel primo capitolo vengono definiti i concetti di luminosità istantanea ed integrata, sia dalla prospettiva del collider che le fornisce, che dal punto di vista delle analisi di fisica, quale quella svolta in questa tesi. Nel secondo capitolo viene descritto l'insieme dei rivelatori utilizzati da ATLAS per la misura della luminosità e i risultati ottenuti mediante il loro confronto in termini di incertezze sistematiche. Nel terzo capitolo viene infine presentata la misura della sezione d'urto di produzione del bosone Z e l'utilizzo di tale misura per il controllo della stabilità nel tempo e della linearità della misura sperimentale della luminosità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.