973 resultados para LHC,CMS,C ,Python,Patatrack,Tracking
Resumo:
La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC di fondamentale importanza per tutti gli esperimenti. Questo passo uno dei pi dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dellevento e diventa sempre pi complesso con laumentare del numero di collisioni. Lesperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte pi interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare lalto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con unefficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e pi complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.
Resumo:
Conselho Nacional de Desenvolvimento Cientfico e Tecnolgico (CNPq)
Resumo:
In questo lavoro di tesi stato studiato lo spettro di massa invariante del sistema J/psi pi+ pi-, m(J/psi pi+ pi-), in collisioni protone-protone a LHC, con energia nel centro di massa sqrt(s)) pari a 8 TeV, alla ricerca di nuovi stati adronici. Lo studio stato effettuato su un campione di dati raccolti da CMS in tutto il 2012, corrispondente ad una luminosit integrata di 18.6 fb-1. Lo spettro di massa invariante m(J/psi pi+ pi-), stato ricostruito selezionando gli eventi J/psi->mu+ mu- associati a due tracce cariche di segno opposto, assunte essere pioni, provenienti da uno stesso vertice di interazione. Nonostante l'alta statistica a disposizione e l'ampia regione di massa invariante tra 3.6 e 6.0 GeV/c^2 osservata, sono state individuate solo risonanze gi note: la risonanza psi(2S) del charmonio, lo stato X(3872) ed una struttura pi complessa nella regione attorno a 5 GeV/c^2, che caratteristica della massa dei mesoni contenenti il quark beauty (mesoni B). Al fine di identificare la natura di tale struttura, stato necessario ottenere un campione di eventi arricchito in adroni B. stata effettuata una selezione basata sull'elevata lunghezza di decadimento, che riflette la caratteristica degli adroni B di avere una vita media relativamente lunga (ordine dei picosecondi) rispetto ad altri adroni. Dal campione cos ripulito, stato possibile distinguere tre sottostrutture nello spettro di massa invariante in esame: una a 5.36 GeV/c^2, identificata come i decadimenti B^0_s-> J/psi pi+ pi-, un'altra a 5.28 GeV/c^2 come i candidati B^0-> J/psi pi+ pi- e un'ultima allargata tra 5.1 e 5.2 GeV/c^2 data da effetti di riflessione degli scambi tra pioni e kaoni. Quest'ultima struttura stata identificata come totalmente costituita di una combinazione di eventi B^0-> J/psi K+ pi- e B^0_s-> J/psi K+ K-.
Resumo:
Nella fisica delle particelle, onde poter effettuare analisi dati, necessario disporre di una grande capacit di calcolo e di storage. LHC Computing Grid una infrastruttura di calcolo su scala globale e al tempo stesso un insieme di servizi, sviluppati da una grande comunit di fisici e informatici, distribuita in centri di calcolo sparsi in tutto il mondo. Questa infrastruttura ha dimostrato il suo valore per quanto riguarda l'analisi dei dati raccolti durante il Run-1 di LHC, svolgendo un ruolo fondamentale nella scoperta del bosone di Higgs. Oggi il Cloud computing sta emergendo come un nuovo paradigma di calcolo per accedere a grandi quantit di risorse condivise da numerose comunit scientifiche. Date le specifiche tecniche necessarie per il Run-2 (e successivi) di LHC, la comunit scientifica interessata a contribuire allo sviluppo di tecnologie Cloud e verificare se queste possano fornire un approccio complementare, oppure anche costituire una valida alternativa, alle soluzioni tecnologiche esistenti. Lo scopo di questa tesi di testare un'infrastruttura Cloud e confrontare le sue prestazioni alla LHC Computing Grid. Il Capitolo 1 contiene un resoconto generale del Modello Standard. Nel Capitolo 2 si descrive l'acceleratore LHC e gli esperimenti che operano a tale acceleratore, con particolare attenzione allesperimento CMS. Nel Capitolo 3 viene trattato il Computing nella fisica delle alte energie e vengono esaminati i paradigmi Grid e Cloud. Il Capitolo 4, ultimo del presente elaborato, riporta i risultati del mio lavoro inerente l'analisi comparata delle prestazioni di Grid e Cloud.
Resumo:
The recent developments on Hidden Markov Models (HMM) based speech synthesis showed that this is a promising technology fully capable of competing with other established techniques. However some issues still lack a solution. Several authors report an over-smoothing phenomenon on both time and frequencies which decreases naturalness and sometimes intelligibility. In this work we present a new vowel intelligibility enhancement algorithm that uses a discrete Kalman filter (DKF) for tracking frame based parameters. The inter-frame correlations are modelled by an autoregressive structure which provides an underlying time frame dependency and can improve time-frequency resolution. The systems performance has been evaluated using objective and subjective tests and the proposed methodology has led to improved results.
Resumo:
Conselho Nacional de Desenvolvimento Cientfico e Tecnolgico (CNPq)
Resumo:
Conselho Nacional de Desenvolvimento Cientfico e Tecnolgico (CNPq)
Resumo:
Conselho Nacional de Desenvolvimento Cientfico e Tecnolgico (CNPq)
Resumo:
La sezione d'urto di produzione per coppie tt-barra viene misurata utilizzando dati raccolti dall'esperimento CMS in collisioni protone-protone ad LHC, con energia nel sistema del centro di massa radice di s = 8 TeV. Il campione raccolto corrisponde ad una luminosit integrata di 19.5 fb^-1. La misura viene effettuata su eventi che contano un numero di jet pari o superiore a 6, almeno due dei quali identificati come prodotto dell'adronizzazione di quark bottom. Il valore di sezione d'urto ottenuto (260 pm 10 (stat)) pb, in accordo con le previsioni teoriche del Modello Standard.
Resumo:
L'obiettivo di questa tesi studiare la fattibilit dello studio della produzione associata ttH del bosone di Higgs con due quark top nell'esperimento CMS, e valutare le funzionalit e le caratteristiche della prossima generazione di toolkit per l'analisi distribuita a CMS (CRAB versione 3) per effettuare tale analisi. Nel settore della fisica del quark top, la produzione ttH particolarmente interessante, soprattutto perch rappresenta l'unica opportunit di studiare direttamente il vertice t-H senza dover fare assunzioni riguardanti possibili contributi dalla fisica oltre il Modello Standard. La preparazione per questa analisi cruciale in questo momento, prima dell'inizio del Run-2 dell'LHC nel 2015. Per essere preparati a tale studio, le implicazioni tecniche di effettuare un'analisi completa in un ambito di calcolo distribuito come la Grid non dovrebbero essere sottovalutate. Per questo motivo, vengono presentati e discussi un'analisi dello stesso strumento CRAB3 (disponibile adesso in versione di pre-produzione) e un confronto diretto di prestazioni con CRAB2. Saranno raccolti e documentati inoltre suggerimenti e consigli per un team di analisi che sar eventualmente coinvolto in questo studio. Nel Capitolo 1 introdotta la fisica delle alte energie a LHC nell'esperimento CMS. Il Capitolo 2 discute il modello di calcolo di CMS e il sistema di analisi distribuita della Grid. Nel Capitolo 3 viene brevemente presentata la fisica del quark top e del bosone di Higgs. Il Capitolo 4 dedicato alla preparazione dell'analisi dal punto di vista degli strumenti della Grid (CRAB3 vs CRAB2). Nel capitolo 5 presentato e discusso uno studio di fattibilit per un'analisi del canale ttH in termini di efficienza di selezione.
Resumo:
Il Modello Standard descrive la fenomenologia delle interazioni fondamentali con estrema precisione; tuttavia incompleto e deve esistere nuova fisica oltre tale modello. Al momento non si in grado di prevedere come e a che scala di energia tale fisica si manifesti. Uneventuale risonanza nello stato finale + a masse elevate costituirebbe un segnale di nuova fisica. Un fenomeno di questo tipo viene catalogato come produzione della particella Z' , la quale non rappresenterebbe necessariamente un nuovo bosone vettore sequenziale alla Z_0 . Questa tesi si colloca nellambito della ricerca della Z' nei processi di interazione protone-protone a LHC in termini di una generica risonanza che decade in coppie di muoni di carica opposta. I limiti attualmente fissati stabiliscono che non vi siano segnali di nuove risonanze per il Modello Sequenziale (SSM) al di sotto dei 2960 GeV. In questo lavoro di tesi si effettua unanalisi per uneventuale Z ', fino a 5 TeV di massa. A Maggio 2015, LHC ha raggiunto unenergia nel centro di massa di 13 TeV aumentando di un fattore 10 o pi il potere di scoperta per oggetti con massa superiore a 1 TeV. In questo scenario, favorevole allosservazione di fenomeni rari, si inserisce la mia ricerca.
Resumo:
Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti pi di 30 petabyte di dati dalle collisioni. Per processare questi dati necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiunger presto il limite delle attuali capacit di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring pi efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti la possibilit di evitare un'elevato livello di aggregazione dei dati gi in uno stadio iniziale, nonch di raccogliere dati di monitoring con una granularit elevata che tuttavia consenta riprocessamento successivo e aggregazione on-demand.
Resumo:
L'analisi di codice compilato un'attivit sempre pi richiesta e necessaria, critica per la sicurezza e stabilit delle infrastrutture informatiche utilizzate in tutto il mondo. Le tipologie di file binari da analizzare sono numerose e in costante evoluzione, si pu passare da applicativi desktop o mobile a firmware di router o baseband. Scopo della tesi progettare e realizzare Dragonlifter, un convertitore da codice compilato a C che sia estendibile e in grado di supportare un numero elevato di architetture, sistemi operativi e formati file. Questo rende possibile eseguire programmi compilati per altre architetture, tracciare la loro esecuzione e modificarli per mitigare vulnerabilit o cambiarne il comportamento.
Resumo:
In this thesis work, a cosmic-ray telescope was set up in the INFN laboratories in Bologna using smaller size replicas of CMS Drift Tubes chambers, called MiniDTs, to test and develop new electronics for the CMS Phase-2 upgrade. The MiniDTs were assembled in INFN National Laboratory in Legnaro, Italy. Scintillator tiles complete the telescope, providing a signal independent of the MiniDTs for offline analysis. The telescope readout is a test system for the CMS Phase-2 upgrade data acquisition design. The readout is based on the early prototype of a radiation-hard FPGA-based board developed for the High Luminosity LHC CMS upgrade, called On Board electronics for Drift Tubes. Once the set-up was operational, we developed an online monitor to display in real-time the most important observables to check the quality of the data acquisition. We performed an offline analysis of the collected data using a custom version of CMS software tools, which allowed us to estimate the time pedestal and drift velocity in each chamber, evaluate the efficiency of the different DT cells, and measure the space and time resolution of the telescope system.
Resumo:
Universidade Estadual de Campinas . Faculdade de Educao Fsica