31 resultados para CMs


Relevância:

20.00% 20.00%

Publicador:

Resumo:

We present here a characterization of the Monte Carlo samples used at CMS in the current LHC run (Run 2, sqrt(s)=13 TeV) and we compare them to the ones used in the previous run (Run 1, sqrt(s)=8 TeV). We then use these samples to reconstruct the top quark mass from the all-hadronic decay products and we compare the efficiencies of the standard reconstruction method when applied to the two different samples. We finally find a way to improve the efficiency for 13 TeV samples by using jets reconstructed with a different algorithm, the Cambridge-Aachen algorithm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Modello Standard descrive la fenomenologia delle interazioni fondamentali con estrema precisione; tuttavia è incompleto e deve esistere nuova fisica oltre tale modello. Al momento non si è in grado di prevedere come e a che scala di energia tale fisica si manifesti. Un’eventuale risonanza nello stato finale μ + μ − a masse elevate costituirebbe un segnale di nuova fisica. Un fenomeno di questo tipo viene catalogato come produzione della particella Z' , la quale non rappresenterebbe necessariamente un nuovo bosone vettore sequenziale alla Z_0 . Questa tesi si colloca nell’ambito della ricerca della Z' nei processi di interazione protone-protone a LHC in termini di una generica risonanza che decade in coppie di muoni di carica opposta. I limiti attualmente fissati stabiliscono che non vi siano segnali di nuove risonanze per il Modello Sequenziale (SSM) al di sotto dei 2960 GeV. In questo lavoro di tesi si effettua un’analisi per un’eventuale Z ', fino a 5 TeV di massa. A Maggio 2015, LHC ha raggiunto un’energia nel centro di massa di 13 TeV aumentando di un fattore 10 o più il potere di scoperta per oggetti con massa superiore a 1 TeV. In questo scenario, favorevole all’osservazione di fenomeni rari, si inserisce la mia ricerca.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

PhEDEx, the CMS transfer management system, during the first LHC Run has moved about 150 PB and currently it is moving about 2.5 PB of data per week over the Worldwide LHC Computing Grid (WLGC). It was designed to complete each transfer required by users at the expense of the waiting time necessary for its completion. For this reason, after several years of operations, data regarding transfer latencies has been collected and stored into log files containing useful analyzable informations. Then, starting from the analysis of several typical CMS transfer workflows, a categorization of such latencies has been made with a focus on the different factors that contribute to the transfer completion time. The analysis presented in this thesis will provide the necessary information for equipping PhEDEx in the future with a set of new tools in order to proactively identify and fix any latency issues. PhEDEx, il sistema di gestione dei trasferimenti di CMS, durante il primo Run di LHC ha trasferito all’incirca 150 PB ed attualmente trasferisce circa 2.5 PB di dati alla settimana attraverso la Worldwide LHC Computing Grid (WLCG). Questo sistema è stato progettato per completare ogni trasferimento richiesto dall’utente a spese del tempo necessario per il suo completamento. Dopo svariati anni di operazioni con tale strumento, sono stati raccolti dati relativi alle latenze di trasferimento ed immagazzinati in log files contenenti informazioni utili per l’analisi. A questo punto, partendo dall’analisi di una ampia mole di trasferimenti in CMS, è stata effettuata una suddivisione di queste latenze ponendo particolare attenzione nei confronti dei fattori che contribuiscono al tempo di completamento del trasferimento. L’analisi presentata in questa tesi permetterà di equipaggiare PhEDEx con un insieme di utili strumenti in modo tale da identificare proattivamente queste latenze e adottare le opportune tattiche per minimizzare l’impatto sugli utenti finali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questa tesi è la misura di sezione d’urto di produzione di coppie top-antitop nel canale adronico. Per la misura sono stati utilizzati i dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con un’energia nel centro di massa pari a 13 TeV. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 2.474 f b^ −1 . L’analisi dati inizia selezionando gli eventi che soddisfano determinate condizioni (e.g. trigger, tagli cinematici, sei o più jet, almeno 2 jet provenienti dall’adronizzazione di due quark bottom) con lo scopo di incrementare la purezza del segnale scartando il più possibile gli eventi di fondo. A seguire, viene ricostruita la massa del quark top usando un fit cinematico. Sulle distribuzioni di tale massa si basa la stima degli eventi di fondo e di segnale. Infine, attraverso un fit di verosimiglianza, si ottiene il valore della sezione d’urto: σ t t ̄ = 893 ± 57 (stat) ± 104 (syst) pb. Questo risultato è in buon accordo con il valore teorico di 832 pb e con altre misure di CMS effettuate in canali differenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sezione d'urto differenziale di produzione di coppie t/t viene misurata utilizzando dati raccolti nel 2012 dall'esperimento CMS in collisioni protone-protone con un'energia nel centro di massa di 8 TeV. La misura viene effettuata su eventi che superano una serie di selezioni applicate al fine di migliorare il rapporto segnale/rumore. In particolare, facendo riferimento al canale all-hadronic, viene richiesta la presenza di almeno sei jet nello stato finale del decadimento della coppia t/t di cui almeno due con quark b. Ottenuto un campione di eventi sufficientemente puro, si può procedere con un fit cinematico, che consiste nel minimizzare una funzione chi quadro in cui si considera tra i parametri liberi la massa invariante associata ai quark top; le cui distribuzioni, richiedendo che il chi quadro sia <10, vengono ricostruite per gli eventi candidati, per il segnale, ottenuto mediante eventi simulati, e per il fondo, modellizzato negando la presenza di jet con b-tag nello stato finale del decadimento della coppia t/t. Con le suddette distribuzioni, attraverso un fit di verosimiglianza, si deducono le frazioni di segnale e di fondo presenti negli eventi. È dunque possibile riempire un istogramma di confronto tra gli eventi candidati e la somma di segnale+fondo per la massa invariante associata ai quark top. Considerando l'intervallo di valori nel quale il rapporto segnale/rumore è migliore si possono ottenere istogrammi di confronto simili al precedente anche per la quantità di moto trasversa del quark top e la massa invariante e la rapidità del sistema t/t. Infine, la sezione d'urto differenziale è misurata attraverso le distribuzioni di tali variabili dopo aver sottratto negli eventi il fondo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis presents a study of the Grid data access patterns in distributed analysis in the CMS experiment at the LHC accelerator. This study ranges from the deep analysis of the historical patterns of access to the most relevant data types in CMS, to the exploitation of a supervised Machine Learning classification system to set-up a machinery able to eventually predict future data access patterns - i.e. the so-called dataset “popularity” of the CMS datasets on the Grid - with focus on specific data types. All the CMS workflows run on the Worldwide LHC Computing Grid (WCG) computing centers (Tiers), and in particular the distributed analysis systems sustains hundreds of users and applications submitted every day. These applications (or “jobs”) access different data types hosted on disk storage systems at a large set of WLCG Tiers. The detailed study of how this data is accessed, in terms of data types, hosting Tiers, and different time periods, allows to gain precious insight on storage occupancy over time and different access patterns, and ultimately to extract suggested actions based on this information (e.g. targetted disk clean-up and/or data replication). In this sense, the application of Machine Learning techniques allows to learn from past data and to gain predictability potential for the future CMS data access patterns. Chapter 1 provides an introduction to High Energy Physics at the LHC. Chapter 2 describes the CMS Computing Model, with special focus on the data management sector, also discussing the concept of dataset popularity. Chapter 3 describes the study of CMS data access patterns with different depth levels. Chapter 4 offers a brief introduction to basic machine learning concepts and gives an introduction to its application in CMS and discuss the results obtained by using this approach in the context of this thesis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The t/t production cross section is measured with the CMS detector in the all-jets channel in $pp$ collisions at the centre-of-mass energy of 13 TeV. The analysis is based on the study of t/t events in the boosted topology, namely events in which decay products of the quark top have a high Lorentz boost and are thus reconstructed in the detector as a single, wide jet. The data sample used in this analysis corresponds to an integrated luminosity of 2.53 fb-1. The inclusive cross section is found to be sigma(t/t) = 727 +- 46 (stat.) +115-112 (sys.) +- 20~(lumi.) pb, a value which is consistent with the theoretical predictions. The differential, detector-level cross section is measured as a function of the transverse momentum of the leading jet and compared to the QCD theoretical predictions. Finally, the differential, parton-level cross section is reported, measured as a function of the transverse momentum of the leading parton, extrapolated to the full phase space and compared to the QCD predictions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato, "Joomla! e Microweb: soluzioni low cost per la piccola impresa", si pone l'obiettivo di unire un insieme di realtà differenti tra loro: esigenze economiche, piattaforme tecniche e rete sociale possono integrarsi in un circuito virtuoso. Attraverso l'analisi della piattaforma CMS Joomla!, e la sua integrazione con utilities di terze parti, è possibile velocizzare senza perdere qualità, abbattendo i costi, il processo di pubblicazione e mantenimento di un sito web. Attraverso, poi, un'efficace integrazione di Joomla! con servizi social integrati nella piattaforma stessa, è possibile venire in contatto con quelli che vengono definiti gli hub concettuali della rete, come Facebook e YouTube. Mirate politiche di marketing, soprattutto per i prodotti di nicchia, possono essere quindi portate a termine con soddisfazione senza cadere in costi eccessivamente elevati. Infine, è stato coniato il concetto di "Microweb" che sintetizza nel suo significato il processo di integrazione di servizi social e di utilities in un'unica piattaforma madre, nel caso specifico Joomla!.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Web ha subito numerose trasformazioni rispetto al passato. Si è passati da un Web statico, in cui l'unica possibilità era quella di leggere i contenuti della pagina, ad un Web dinamico e interattivo come quello dei social network. Il Web moderno è, ancora oggi, un universo in espansione. La possibilità di arricchire le pagine con contenuti interattivi, video, foto e molto altro, rende l'esperienza web sempre più coinvolgente. Inoltre la diffusione sempre più ampia di mobile device ha reso necessaria l'introduzione di nuovi strumenti per sfruttare al meglio le funzionalità di tali dispositivi. Esistono al momento tantissimi linguaggi di scripting e di programmazione, ma anche CMS che offrono a chiunque la possibilità di scrivere e amministrare siti web. Nonostante le grandi potenzialità che offrono, spesso queste tecnologie si occupano di ambiti specifici e non permettono di creare sistemi omogenei che comprendano sia client che server. Dart si inserisce proprio in questo contesto. Tale linguaggio dà a i programmatori la possibilità di poter sviluppare sia lato client sia lato server. L'obiettivo principale di questo linguaggio è infatti la risoluzione di alcune problematiche comuni a molti programmatori web. Importante in questo senso è il fatto di rendere strutturata la costruzione di programmi web attraverso l'uso di interfacce e classi. Fornisce inoltre un supporto per l'integrazione di svariate funzionalità che allo stato attuale sono gestite da differenti tecnologie. L'obiettivo della presente tesi è quello di mettere a confronto Dart con alcune delle tecnologie più utilizzate al giorno d'oggi per la programmazione web-based. In particolare si prenderanno in considerazione JavaScript, jQuery, node.js e CoffeeScript.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Large Hadron Collider, located at the CERN laboratories in Geneva, is the largest particle accelerator in the world. One of the main research fields at LHC is the study of the Higgs boson, the latest particle discovered at the ATLAS and CMS experiments. Due to the small production cross section for the Higgs boson, only a substantial statistics can offer the chance to study this particle properties. In order to perform these searches it is desirable to avoid the contamination of the signal signature by the number and variety of the background processes produced in pp collisions at LHC. Much account assumes the study of multivariate methods which, compared to the standard cut-based analysis, can enhance the signal selection of a Higgs boson produced in association with a top quark pair through a dileptonic final state (ttH channel). The statistics collected up to 2012 is not sufficient to supply a significant number of ttH events; however, the methods applied in this thesis will provide a powerful tool for the increasing statistics that will be collected during the next LHC data taking.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Masterarbeit entstand im Rahmen des Projekts Language Toolkit. Die Haupttätigkeit meines Praktikums lag in der Lokalisierung der Website von Remedia ins Deutsche. Zu lokalisieren waren die in Kap. 1 beschriebenen Seiten der Abteilung „Cosmoonda“ zu den von der gleichnamigen Forschungsgruppe des Unternehmens entwickelten bioenergetischen Geräten. Das zweite Kapitel umfasst eine Einführung in die Lokalisierung und bietet einen Überblick über ihre Geschichte. Am Ende des Kapitels wurden die Vorteile der elocalization behandelt und es wurde das neue Anforderungsprofil des Übersetzers beschrieben. Kap. 3 beinhaltet die Analyse der überwiegenden Sprachfunktionen sowie der Textsorten und -typen zum Zweck der bestmöglichen Übertragung der Kommunikationsabsicht des Auftraggebers. Zur Festlegung der optimalen Übersetzungsstrategie von Werbetexten tragen unterschiedliche Faktoren bei, wie z.B. die Säulen des Marketing-Mix, die im vierten Kapitel in Bezug auf die Standardisierung oder Lokalisierung von Werbebotschaften analysiert wurden. Im vorliegenden Zusammenhang spielt die Positionierung eine ausschlaggebende Rolle, weil bioenergetische Geräte einen unterschiedlichen Lebenszyklus in Ausgangs- und Zielmarkt erleben. Anhand von konkreten Beispielen wurde im fünften Kapitel gezeigt, wie die Sprachen der Unternehmen, die ähnliche Produkte und Dienstleistungen anbieten, sich auch aufgrund von kognitiven, temporellen und pragmatischen Faktoren unterscheiden. Kap. 6 enthält eine Beschreibung der praktischen Schritte des Lokalisierungsprozesses (Dokumentationsphase sowie Erstellung und Analyse von Korpora). Der vorletzte Teil bietet einen Überblick über die Komponenten sowie die Vor- und Nachteile der Nutzung von CMS. Im letzten Teil der Arbeit habe ich mich mit den translatorischen Problemen und ihren Lösungen (durch AT-Fehler verursachte evidente Translationsprobleme, Strategien zur Wiedergabe von Produktnamen, Äquivalenzen zwischen AT und ZT) auseinandergesetzt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’azoto è uno dei prodotti principali dell’industria chimica, utilizzato principalmente per assicurare un sicuro stoccaggio di composti infiammabili. Generatori con sistemi PSA sono spesso più economici della tradizionale distillazione criogenica. I processi PSA utilizzano una colonna a letto fisso, riempita con materiale adsorbente, che adsorbe selettivamente un componente da una miscela gassosa. L’ossigeno diffonde molto più velocemente dell'azoto nei pori di setacci molecolari carboniosi. Oltre ad un ottimo materiale adsorbente, anche il design è fondamentale per la performance di un processo PSA. La fase di adsorbimento è seguita da una fase di desorbimento. Il materiale adsorbente può essere quindi riutilizzato nel ciclo seguente. L’assenza di un simulatore di processo ha reso necessario l’uso di dati sperimentali per sviluppare nuovi processi. Un tale approccio è molto costoso e lungo. Una modellazione e simulazione matematica, che consideri tutti i fenomeni di trasporto, è richiesta per una migliore comprensione dell'adsorbente sia per l'ottimizzazione del processo. La dinamica della colonna richiede la soluzione di insiemi di PDE distribuite nel tempo e nello spazio. Questo lavoro è stato svolto presso l'Università di Scienze Applicate - Münster, Germania. Argomento di questa tesi è la modellazione e simulazione di un impianto PSA per la produzione di azoto con il simulatore di processo Aspen Adsorption con l’obiettivo di permettere in futuro ottimizzazioni di processo affidabili, attendibili ed economiche basate su computazioni numeriche. E' discussa l’ottimizzazione di parametri, dati cinetici, termodinamici e di equilibrio. Il modello è affidabile, rigoroso e risponde adeguatamente a diverse condizioni al contorno. Tuttavia non è ancora pienamente soddisfacente poiché manca una rappresentazione adeguata della cinetica ovvero dei fenomeni di trasporto di materia. La messa a punto del software permetterà in futuro di indagare velocemente nuove possibilità di operazione.