38 resultados para metadati, CMS, Drupal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nowadays, data handling and data analysis in High Energy Physics requires a vast amount of computational power and storage. In particular, the world-wide LHC Com- puting Grid (LCG), an infrastructure and pool of services developed and deployed by a ample community of physicists and computer scientists, has demonstrated to be a game changer in the efficiency of data analyses during Run-I at the LHC, playing a crucial role in the Higgs boson discovery. Recently, the Cloud computing paradigm is emerging and reaching a considerable adoption level by many different scientific organizations and not only. Cloud allows to access and utilize not-owned large computing resources shared among many scientific communities. Considering the challenging requirements of LHC physics in Run-II and beyond, the LHC computing community is interested in exploring Clouds and see whether they can provide a complementary approach - or even a valid alternative - to the existing technological solutions based on Grid. In the LHC community, several experiments have been adopting Cloud approaches, and in particular the experience of the CMS experiment is of relevance to this thesis. The LHC Run-II has just started, and Cloud-based solutions are already in production for CMS. However, other approaches of Cloud usage are being thought of and are at the prototype level, as the work done in this thesis. This effort is of paramount importance to be able to equip CMS with the capability to elastically and flexibly access and utilize the computing resources needed to face the challenges of Run-III and Run-IV. The main purpose of this thesis is to present forefront Cloud approaches that allow the CMS experiment to extend to on-demand resources dynamically allocated as needed. Moreover, a direct access to Cloud resources is presented as suitable use case to face up with the CMS experiment needs. Chapter 1 presents an overview of High Energy Physics at the LHC and of the CMS experience in Run-I, as well as preparation for Run-II. Chapter 2 describes the current CMS Computing Model, and Chapter 3 provides Cloud approaches pursued and used within the CMS Collaboration. Chapter 4 and Chapter 5 discuss the original and forefront work done in this thesis to develop and test working prototypes of elastic extensions of CMS computing resources on Clouds, and HEP Computing “as a Service”. The impact of such work on a benchmark CMS physics use-cases is also demonstrated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In CMS è stato lanciato un progetto di Data Analytics e, all’interno di esso, un’attività specifica pilota che mira a sfruttare tecniche di Machine Learning per predire la popolarità dei dataset di CMS. Si tratta di un’osservabile molto delicata, la cui eventuale predizione premetterebbe a CMS di costruire modelli di data placement più intelligenti, ampie ottimizzazioni nell’uso dello storage a tutti i livelli Tiers, e formerebbe la base per l’introduzione di un solito sistema di data management dinamico e adattivo. Questa tesi descrive il lavoro fatto sfruttando un nuovo prototipo pilota chiamato DCAFPilot, interamente scritto in python, per affrontare questa sfida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi sono le descritte le fasi progettuali e costruttive del Beam Halo Monitor (BHM), un rivelatore installato sull'esperimento CMS, durante il primo lungo periodo di shutdown di LHC, che ha avuto luogo tra il 2013 ed il 2015. BHM è un rivelatore ad emissione di luce Cherenkov ed ha lo scopo di monitorare le particelle di alone prodotte dai fasci di LHC, che arrivano fino alla caverna sperimentale di CMS, ad ogni bunch crossing (25 ns). E' composto da 40 moduli, installati alle due estremità di CMS, attorno alla linea di fascio, ad una distanza di 1.8 m da questa. Ciascun modulo è costituito da un cristallo di quarzo, utilizzato come radiatore ed un fotomoltiplicatore. Sono descritte in maniera particolare le prove eseguite sui moduli che lo compongono: la caratterizzazione dei fotomoltiplicatori ed i test di direzionalità della risposta. Queste costituiscono la parte di lavoro che ho svolto personalmente. Inoltre sono descritte le fasi di installazione del rivelatore nella caverna sperimentale, a cui ho preso parte ed alcuni test preliminari per la verifica del funzionamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We present here a characterization of the Monte Carlo samples used at CMS in the current LHC run (Run 2, sqrt(s)=13 TeV) and we compare them to the ones used in the previous run (Run 1, sqrt(s)=8 TeV). We then use these samples to reconstruct the top quark mass from the all-hadronic decay products and we compare the efficiencies of the standard reconstruction method when applied to the two different samples. We finally find a way to improve the efficiency for 13 TeV samples by using jets reconstructed with a different algorithm, the Cambridge-Aachen algorithm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Modello Standard descrive la fenomenologia delle interazioni fondamentali con estrema precisione; tuttavia è incompleto e deve esistere nuova fisica oltre tale modello. Al momento non si è in grado di prevedere come e a che scala di energia tale fisica si manifesti. Un’eventuale risonanza nello stato finale μ + μ − a masse elevate costituirebbe un segnale di nuova fisica. Un fenomeno di questo tipo viene catalogato come produzione della particella Z' , la quale non rappresenterebbe necessariamente un nuovo bosone vettore sequenziale alla Z_0 . Questa tesi si colloca nell’ambito della ricerca della Z' nei processi di interazione protone-protone a LHC in termini di una generica risonanza che decade in coppie di muoni di carica opposta. I limiti attualmente fissati stabiliscono che non vi siano segnali di nuove risonanze per il Modello Sequenziale (SSM) al di sotto dei 2960 GeV. In questo lavoro di tesi si effettua un’analisi per un’eventuale Z ', fino a 5 TeV di massa. A Maggio 2015, LHC ha raggiunto un’energia nel centro di massa di 13 TeV aumentando di un fattore 10 o più il potere di scoperta per oggetti con massa superiore a 1 TeV. In questo scenario, favorevole all’osservazione di fenomeni rari, si inserisce la mia ricerca.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

PhEDEx, the CMS transfer management system, during the first LHC Run has moved about 150 PB and currently it is moving about 2.5 PB of data per week over the Worldwide LHC Computing Grid (WLGC). It was designed to complete each transfer required by users at the expense of the waiting time necessary for its completion. For this reason, after several years of operations, data regarding transfer latencies has been collected and stored into log files containing useful analyzable informations. Then, starting from the analysis of several typical CMS transfer workflows, a categorization of such latencies has been made with a focus on the different factors that contribute to the transfer completion time. The analysis presented in this thesis will provide the necessary information for equipping PhEDEx in the future with a set of new tools in order to proactively identify and fix any latency issues. PhEDEx, il sistema di gestione dei trasferimenti di CMS, durante il primo Run di LHC ha trasferito all’incirca 150 PB ed attualmente trasferisce circa 2.5 PB di dati alla settimana attraverso la Worldwide LHC Computing Grid (WLCG). Questo sistema è stato progettato per completare ogni trasferimento richiesto dall’utente a spese del tempo necessario per il suo completamento. Dopo svariati anni di operazioni con tale strumento, sono stati raccolti dati relativi alle latenze di trasferimento ed immagazzinati in log files contenenti informazioni utili per l’analisi. A questo punto, partendo dall’analisi di una ampia mole di trasferimenti in CMS, è stata effettuata una suddivisione di queste latenze ponendo particolare attenzione nei confronti dei fattori che contribuiscono al tempo di completamento del trasferimento. L’analisi presentata in questa tesi permetterà di equipaggiare PhEDEx con un insieme di utili strumenti in modo tale da identificare proattivamente queste latenze e adottare le opportune tattiche per minimizzare l’impatto sugli utenti finali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questa tesi è la misura di sezione d’urto di produzione di coppie top-antitop nel canale adronico. Per la misura sono stati utilizzati i dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con un’energia nel centro di massa pari a 13 TeV. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 2.474 f b^ −1 . L’analisi dati inizia selezionando gli eventi che soddisfano determinate condizioni (e.g. trigger, tagli cinematici, sei o più jet, almeno 2 jet provenienti dall’adronizzazione di due quark bottom) con lo scopo di incrementare la purezza del segnale scartando il più possibile gli eventi di fondo. A seguire, viene ricostruita la massa del quark top usando un fit cinematico. Sulle distribuzioni di tale massa si basa la stima degli eventi di fondo e di segnale. Infine, attraverso un fit di verosimiglianza, si ottiene il valore della sezione d’urto: σ t t ̄ = 893 ± 57 (stat) ± 104 (syst) pb. Questo risultato è in buon accordo con il valore teorico di 832 pb e con altre misure di CMS effettuate in canali differenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sezione d'urto differenziale di produzione di coppie t/t viene misurata utilizzando dati raccolti nel 2012 dall'esperimento CMS in collisioni protone-protone con un'energia nel centro di massa di 8 TeV. La misura viene effettuata su eventi che superano una serie di selezioni applicate al fine di migliorare il rapporto segnale/rumore. In particolare, facendo riferimento al canale all-hadronic, viene richiesta la presenza di almeno sei jet nello stato finale del decadimento della coppia t/t di cui almeno due con quark b. Ottenuto un campione di eventi sufficientemente puro, si può procedere con un fit cinematico, che consiste nel minimizzare una funzione chi quadro in cui si considera tra i parametri liberi la massa invariante associata ai quark top; le cui distribuzioni, richiedendo che il chi quadro sia <10, vengono ricostruite per gli eventi candidati, per il segnale, ottenuto mediante eventi simulati, e per il fondo, modellizzato negando la presenza di jet con b-tag nello stato finale del decadimento della coppia t/t. Con le suddette distribuzioni, attraverso un fit di verosimiglianza, si deducono le frazioni di segnale e di fondo presenti negli eventi. È dunque possibile riempire un istogramma di confronto tra gli eventi candidati e la somma di segnale+fondo per la massa invariante associata ai quark top. Considerando l'intervallo di valori nel quale il rapporto segnale/rumore è migliore si possono ottenere istogrammi di confronto simili al precedente anche per la quantità di moto trasversa del quark top e la massa invariante e la rapidità del sistema t/t. Infine, la sezione d'urto differenziale è misurata attraverso le distribuzioni di tali variabili dopo aver sottratto negli eventi il fondo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis presents a study of the Grid data access patterns in distributed analysis in the CMS experiment at the LHC accelerator. This study ranges from the deep analysis of the historical patterns of access to the most relevant data types in CMS, to the exploitation of a supervised Machine Learning classification system to set-up a machinery able to eventually predict future data access patterns - i.e. the so-called dataset “popularity” of the CMS datasets on the Grid - with focus on specific data types. All the CMS workflows run on the Worldwide LHC Computing Grid (WCG) computing centers (Tiers), and in particular the distributed analysis systems sustains hundreds of users and applications submitted every day. These applications (or “jobs”) access different data types hosted on disk storage systems at a large set of WLCG Tiers. The detailed study of how this data is accessed, in terms of data types, hosting Tiers, and different time periods, allows to gain precious insight on storage occupancy over time and different access patterns, and ultimately to extract suggested actions based on this information (e.g. targetted disk clean-up and/or data replication). In this sense, the application of Machine Learning techniques allows to learn from past data and to gain predictability potential for the future CMS data access patterns. Chapter 1 provides an introduction to High Energy Physics at the LHC. Chapter 2 describes the CMS Computing Model, with special focus on the data management sector, also discussing the concept of dataset popularity. Chapter 3 describes the study of CMS data access patterns with different depth levels. Chapter 4 offers a brief introduction to basic machine learning concepts and gives an introduction to its application in CMS and discuss the results obtained by using this approach in the context of this thesis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The t/t production cross section is measured with the CMS detector in the all-jets channel in $pp$ collisions at the centre-of-mass energy of 13 TeV. The analysis is based on the study of t/t events in the boosted topology, namely events in which decay products of the quark top have a high Lorentz boost and are thus reconstructed in the detector as a single, wide jet. The data sample used in this analysis corresponds to an integrated luminosity of 2.53 fb-1. The inclusive cross section is found to be sigma(t/t) = 727 +- 46 (stat.) +115-112 (sys.) +- 20~(lumi.) pb, a value which is consistent with the theoretical predictions. The differential, detector-level cross section is measured as a function of the transverse momentum of the leading jet and compared to the QCD theoretical predictions. Finally, the differential, parton-level cross section is reported, measured as a function of the transverse momentum of the leading parton, extrapolated to the full phase space and compared to the QCD predictions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato, "Joomla! e Microweb: soluzioni low cost per la piccola impresa", si pone l'obiettivo di unire un insieme di realtà differenti tra loro: esigenze economiche, piattaforme tecniche e rete sociale possono integrarsi in un circuito virtuoso. Attraverso l'analisi della piattaforma CMS Joomla!, e la sua integrazione con utilities di terze parti, è possibile velocizzare senza perdere qualità, abbattendo i costi, il processo di pubblicazione e mantenimento di un sito web. Attraverso, poi, un'efficace integrazione di Joomla! con servizi social integrati nella piattaforma stessa, è possibile venire in contatto con quelli che vengono definiti gli hub concettuali della rete, come Facebook e YouTube. Mirate politiche di marketing, soprattutto per i prodotti di nicchia, possono essere quindi portate a termine con soddisfazione senza cadere in costi eccessivamente elevati. Infine, è stato coniato il concetto di "Microweb" che sintetizza nel suo significato il processo di integrazione di servizi social e di utilities in un'unica piattaforma madre, nel caso specifico Joomla!.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Web ha subito numerose trasformazioni rispetto al passato. Si è passati da un Web statico, in cui l'unica possibilità era quella di leggere i contenuti della pagina, ad un Web dinamico e interattivo come quello dei social network. Il Web moderno è, ancora oggi, un universo in espansione. La possibilità di arricchire le pagine con contenuti interattivi, video, foto e molto altro, rende l'esperienza web sempre più coinvolgente. Inoltre la diffusione sempre più ampia di mobile device ha reso necessaria l'introduzione di nuovi strumenti per sfruttare al meglio le funzionalità di tali dispositivi. Esistono al momento tantissimi linguaggi di scripting e di programmazione, ma anche CMS che offrono a chiunque la possibilità di scrivere e amministrare siti web. Nonostante le grandi potenzialità che offrono, spesso queste tecnologie si occupano di ambiti specifici e non permettono di creare sistemi omogenei che comprendano sia client che server. Dart si inserisce proprio in questo contesto. Tale linguaggio dà a i programmatori la possibilità di poter sviluppare sia lato client sia lato server. L'obiettivo principale di questo linguaggio è infatti la risoluzione di alcune problematiche comuni a molti programmatori web. Importante in questo senso è il fatto di rendere strutturata la costruzione di programmi web attraverso l'uso di interfacce e classi. Fornisce inoltre un supporto per l'integrazione di svariate funzionalità che allo stato attuale sono gestite da differenti tecnologie. L'obiettivo della presente tesi è quello di mettere a confronto Dart con alcune delle tecnologie più utilizzate al giorno d'oggi per la programmazione web-based. In particolare si prenderanno in considerazione JavaScript, jQuery, node.js e CoffeeScript.