806 resultados para CERN-ISR


Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the CERN LHC program underway, there has been an acceleration of data growth in the High Energy Physics (HEP) field and the usage of Machine Learning (ML) in HEP will be critical during the HL-LHC program when the data that will be produced will reach the exascale. ML techniques have been successfully used in many areas of HEP nevertheless, the development of a ML project and its implementation for production use is a highly time-consuming task and requires specific skills. Complicating this scenario is the fact that HEP data is stored in ROOT data format, which is mostly unknown outside of the HEP community. The work presented in this thesis is focused on the development of a ML as a Service (MLaaS) solution for HEP, aiming to provide a cloud service that allows HEP users to run ML pipelines via HTTP calls. These pipelines are executed by using the MLaaS4HEP framework, which allows reading data, processing data, and training ML models directly using ROOT files of arbitrary size from local or distributed data sources. Such a solution provides HEP users non-expert in ML with a tool that allows them to apply ML techniques in their analyses in a streamlined manner. Over the years the MLaaS4HEP framework has been developed, validated, and tested and new features have been added. A first MLaaS solution has been developed by automatizing the deployment of a platform equipped with the MLaaS4HEP framework. Then, a service with APIs has been developed, so that a user after being authenticated and authorized can submit MLaaS4HEP workflows producing trained ML models ready for the inference phase. A working prototype of this service is currently running on a virtual machine of INFN-Cloud and is compliant to be added to the INFN Cloud portfolio of services.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Understanding the complex dynamics of beam-halo formation and evolution in circular particle accelerators is crucial for the design of current and future rings, particularly those utilizing superconducting magnets such as the CERN Large Hadron Collider (LHC), its luminosity upgrade HL-LHC, and the proposed Future Circular Hadron Collider (FCC-hh). A recent diffusive framework, which describes the evolution of the beam distribution by means of a Fokker-Planck equation, with diffusion coefficient derived from the Nekhoroshev theorem, has been proposed to describe the long-term behaviour of beam dynamics and particle losses. In this thesis, we discuss the theoretical foundations of this framework, and propose the implementation of an original measurement protocol based on collimator scans in view of measuring the Nekhoroshev-like diffusive coefficient by means of beam loss data. The available LHC collimator scan data, unfortunately collected without the proposed measurement protocol, have been successfully analysed using the proposed framework. This approach is also applied to datasets from detailed measurements of the impact on the beam losses of so-called long-range beam-beam compensators also at the LHC. Furthermore, dynamic indicators have been studied as a tool for exploring the phase-space properties of realistic accelerator lattices in single-particle tracking simulations. By first examining the classification performance of known and new indicators in detecting the chaotic character of initial conditions for a modulated Hénon map and then applying this knowledge to study the properties of realistic accelerator lattices, we tried to identify a connection between the presence of chaotic regions in the phase space and Nekhoroshev-like diffusive behaviour, providing new tools to the accelerator physics community.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the near future, the LHC experiments will continue to be upgraded as the LHC luminosity will increase from the design 1034 to 7.5 × 1034, with the HL-LHC project, to reach 3000 × f b−1 of accumulated statistics. After the end of a period of data collection, CERN will face a long shutdown to improve overall performance by upgrading the experiments and implementing more advanced technologies and infrastructures. In particular, ATLAS will upgrade parts of the detector, the trigger, and the data acquisition system. It will also implement new strategies and algorithms for processing and transferring the data to the final storage. This PhD thesis presents a study of a new pattern recognition algorithm to be used in the trigger system, which is a software designed to provide the information necessary to select physical events from background data. The idea is to use the well-known Hough Transform mathematical formula as an algorithm for detecting particle trajectories. The effectiveness of the algorithm has already been validated in the past, independently of particle physics applications, to detect generic shapes in images. Here, a software emulation tool is proposed for the hardware implementation of the Hough Transform, to reconstruct the tracks in the ATLAS Trigger and Data Acquisition system. Until now, it has never been implemented on electronics in particle physics experiments, and as a hardware implementation it would provide overall latency benefits. A comparison between the simulated data and the physical system was performed on a Xilinx UltraScale+ FPGA device.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The scientific success of the LHC experiments at CERN highly depends on the availability of computing resources which efficiently store, process, and analyse the amount of data collected every year. This is ensured by the Worldwide LHC Computing Grid infrastructure that connect computing centres distributed all over the world with high performance network. LHC has an ambitious experimental program for the coming years, which includes large investments and improvements both for the hardware of the detectors and for the software and computing systems, in order to deal with the huge increase in the event rate expected from the High Luminosity LHC (HL-LHC) phase and consequently with the huge amount of data that will be produced. Since few years the role of Artificial Intelligence has become relevant in the High Energy Physics (HEP) world. Machine Learning (ML) and Deep Learning algorithms have been successfully used in many areas of HEP, like online and offline reconstruction programs, detector simulation, object reconstruction, identification, Monte Carlo generation, and surely they will be crucial in the HL-LHC phase. This thesis aims at contributing to a CMS R&D project, regarding a ML "as a Service" solution for HEP needs (MLaaS4HEP). It consists in a data-service able to perform an entire ML pipeline (in terms of reading data, processing data, training ML models, serving predictions) in a completely model-agnostic fashion, directly using ROOT files of arbitrary size from local or distributed data sources. This framework has been updated adding new features in the data preprocessing phase, allowing more flexibility to the user. Since the MLaaS4HEP framework is experiment agnostic, the ATLAS Higgs Boson ML challenge has been chosen as physics use case, with the aim to test MLaaS4HEP and the contribution done with this work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the upcoming years, various upgrades and improvements are planned for the CERN Large Hadron Collider (LHC) and represent the mandate of the High-Luminosity project. The upgrade will allow for a total stored beam energy of about 700 MJ, which will need, among others, an extremely efficient collimation system. This will be achieved with the addition of a hollow electron lens (HEL) system to help control the beam-halo depletion and mitigate the effects of fast beam losses. In this master thesis, we present a diffusion model of the HEL for HL-LHC. In particular, we explore several scenarios to use such a device, focusing on the halo depletion efficiency given by different noise regimes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguente tesi studia il processo γγ → WW osservato per la prima volta dall’esperimento ATLAS nel 2017 facendo collidere due fasci di protoni con un’energia totale di 13 GeV. Grazie all’analisi dell’evento (in un dominio da 0 a 500 GeV in momento trasverso) è possibile misurare il valore (o trovare l’intervallo di confidenza) di determinati coefficienti associati alla lagrangiana in EFT. Si pensa infatti che questo evento, reso possibile anche dalla lagrangiana del Modello Standard, possa avvenire sfruttando teorie oltre il Modello Standard sull’accoppiamento quartico tra bosoni vettori, identificati da operatori di dimensione otto. Lo scopo ultimo dell’analisi è quello di trovare l’intervallo di confidenza all’interno del quale ci si aspetta di trovare questi coefficienti (associati agli operatori di dimensione otto), con livello di confidenza del 95%. Tali misurazioni sono estremamente importanti per la fisica teorica in quanto permettono di verificare la veridicità dei modelli teorici e accertarsi che questi ultimi siano compatibili con i dati. Lo scopo di questa tesi é antecedente alla misurazione e consiste, grazie alle simulazioni, nell’applicare dei processi di selezione e restringere il dominio delle distribuzioni dei dati (in momento trasverso), così da ottimizzare le misurazioni. E' stato trovato infatti che se si restringe il dominio del momento trasverso si riesce a misurare un più ampio e accurato range di valori per i coefficienti di EFT. Nello specifico questa tesi si é occupata di studiare alcuni di questi coefficienti (M), trovando la miglior regione per l’analisi ([180,500] GeV) e, per ogni coefficiente, il limite inferiore con un C.L. del 95%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il rilevatore Probe for LUminosity MEasurement (PLUME) è un luminometro per l’esperimento LHCb al CERN. Fornirà misurazioni istantanee della luminosità per LHCb durante la Run 3 a LHC. L’obiettivo di questa tesi è di valutare, con dati simulati, le prestazioni attese di PLUME, come l’occupanza dei PMT che compongono il rivelatore, e riportare l’analisi dei primi dati ottenuti da PLUME durante uno scan di Van der Meer. In particolare, sono state ottenuti tre misure del valore della sezione d’urto, necessarie per tarare il rivelatore, ovvero σ1Da = (1.14 ± 0.11) mb, σ1Db = (1.13 ± 0.10) mb, σ2D = (1.20 ± 0.02) mb, dove i pedici 1D e 2D corrispondono a uno scan di Van der Meer unidimensionale e bidimensionale. Tutti i risultati sono in accordo tra loro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Worldwide LHC Computing Grid (WLCG) è una collaborazione internazionale costituita da decine di centri di calcolo distribuiti globalmente, la cui missione consiste nell'elaborazione delle grandi quantità di dati prodotti dai maggiori esperimenti di Fisica delle Alte Energie, in particolare quelli al CERN di Ginevra. Uno di questi centri di calcolo è ospitato presso il CNAF dell'Istituto Nazionale di Fisica Nucleare a Bologna, che contribuisce anche allo sviluppo di middleware per la gestione dell'infrastruttura. Molti componenti di tale middleware, che hanno funzionalità e scopi diversi, richiedono un servizio di autorizzazione versatile e compatibile con i meccanismi di autenticazione attualmente in uso, basati su token OAuth 2.0 e su certificati VOMS Proxy. In questa tesi si analizzerà l'architettura e l'implementazione di un proof-of-concept di un sistema di autorizzazione che soddisfi queste necessità, enfatizzando l'integrazione delle tecniche di autenticazione citate. Per dimostrare la sua versatilità, verrà illustrato il processo di interfacciamento con un componente middleware attualmente in sviluppo al CNAF. Il risultato finale ottenuto è un sistema che rispetta i vincoli richiesti e si integra facilmente con servizi eterogenei.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel corso degli ultimi decenni sono stati eseguiti diversi esperimenti volti alla misura della lunghezza di scattering neutrone-neutrone, ma alcuni risultati si sono rivelati discordanti e ad oggi essa è ancora nota con insufficiente precisione, a causa della complessità del problema sia dal punto di vista teorico che sperimentale. Una migliore conoscenza di questa grandezza può fornire importanti informazioni sulla natura dei nucleoni e sulle loro interazioni. È stato quindi proposto un esperimento volto alla misura della lunghezza di scattering neutrone-neutrone al CERN di Ginevra, presso la facility n_TOF, sfruttando gli aggiornamenti apportati alle aree sperimentali e alla sorgente di neutroni negli ultimi anni. L'esperimento prevede di utilizzare la reazione di breakup del deuterio tramite l'impiego di un target attivo, composto da un bersaglio di stilbene deuterato (stilbene-d12) che funge anche da materiale scintillatore. Per verificare la fattibilità dell'esperimento sono stati eseguiti dei test preliminari presso la facility del National Center for Scientific Research (NCSR) Demokritos, irradiando il target attivo con neutroni e raggi γ a diverse energie e utilizzando due tipi diversi di sensori fotomoltiplicatori al silicio (SiPM) nel sistema di rivelazione. In questa tesi sono stati analizzati dei segnali provenienti da questi test, valutando la possibilità di eseguire discriminazione n/γ sfruttando la tecnica della Pulse Shape Discrimination (PSD).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'adroterapia è una delle tecniche utilizzate ad oggi per trattare i tumori ed è basata sull'utilizzo di fasci di particelle cariche, come protoni e ioni carbonio, accelerati sulla zona da trattare. A differenza dei fotoni, utilizzati in radioterapia, le particelle cariche permettono un rilascio di energia più mirato, danneggiando il DNA delle cellule tumorali fino ad impedirne la duplicazione, senza intaccare i tessuti sani circostanti. Per sfruttare al meglio questa tecnica è necessario conoscere a fondo i processi di frammentazione nucleare che possono avere luogo durante il trattamento, sui quali si hanno ancora insufficienti dati sperimentali, in particolare a proposito della frammentazione del bersaglio. L'esperimento FOOT (FragmentatiOn Of Target) nasce proprio per poter misurare le sezioni d'urto differenziali dei processi di frammentazione nucleare alle tipiche energie dell'adroterapia, dai 60 MeV/u ai 400 MeV/u. Allo stato attuale l'esperimento è dotato di un apparato per la rivelazione di frammenti carichi pesanti e uno per quelli leggeri, mentre non ha un sistema di rivelazione per le particelle neutre. Si sta quindi valutando la possibilità di aggiungere rivelatori di neutroni, per esempio gli scintillatori liquidi BC-501A, i quali permettono di discriminare fotoni da neutroni grazie alla diversa forma del segnale prodotto (Pulse Shape Discrimination). Per studiare le prestazioni di questi rivelatori, essi si stanno attualmente testando alla facility n_TOF del CERN con diverse sorgenti di particelle. In questo lavoro di tesi mi sono occupata di analizzare i segnali raccolti da due BC-501A con una sorgente AmBe di raggi γ e neutroni, con schermo in piombo, e con una sorgente 88Y di soli raggi γ, evidenziando le buone capacità di questi rivelatori di identificare correttamente neutroni e fotoni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro presentato in questa tesi analizza il comportamento elettrico di prototipi di sensori Low-Gain Avalanche Detector (LGAD) ultrasottili. L'analisi consiste in una verifica sperimentale delle caratteristiche attese di questi sensori, che sono stati selezionati come possibili candidati per la realizzazione del sistema di Time-Of-Flight (TOF) nell'esperimento ALICE 3. Concepito come evoluzione dell'esperimento ALICE attualmente in funzione al CERN, ALICE 3 rappresenta l'archetipo di una nuova generazione di esperimenti nella fisica delle collisioni di ioni pesanti, ed è previsto iniziare la propria attività di presa dati per LHC Run 5 nel 2032. Sono stati presi in considerazione 22 campioni di LGAD, di cui 11 provenienti dal wafer di produzione 5 (spessore 25 um) e gli altri 11 dal wafer 6 (spessore 35 um). In entrambi i casi, di questi 11 sensori, 6 sono campioni in configurazione LGAD-PIN e 5 sono matrici. Tutti e 22 i campioni sono stati sottoposti a misure di corrente in funzione del voltaggio, mentre solo quelli appartenenti al wafer 5 anche a misure di capacità. L'obiettivo è quello di misurare la caratteristica IV e CV per ognuno dei campioni e da queste estrarre, rispettivamente, tensione di breakdown e profilo di doping.