936 resultados para top quark,analisi multivariata,tmva,gluoni,quark,classificazione,reti neurali,machine learning
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Resumo:
Lo scopo di questa tesi è la misura di sezione d’urto di produzione di coppie top-antitop nel canale adronico. Per la misura sono stati utilizzati i dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con un’energia nel centro di massa pari a 13 TeV. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 2.474 f b^ −1 . L’analisi dati inizia selezionando gli eventi che soddisfano determinate condizioni (e.g. trigger, tagli cinematici, sei o più jet, almeno 2 jet provenienti dall’adronizzazione di due quark bottom) con lo scopo di incrementare la purezza del segnale scartando il più possibile gli eventi di fondo. A seguire, viene ricostruita la massa del quark top usando un fit cinematico. Sulle distribuzioni di tale massa si basa la stima degli eventi di fondo e di segnale. Infine, attraverso un fit di verosimiglianza, si ottiene il valore della sezione d’urto: σ t t ̄ = 893 ± 57 (stat) ± 104 (syst) pb. Questo risultato è in buon accordo con il valore teorico di 832 pb e con altre misure di CMS effettuate in canali differenti.
Resumo:
In this article we review the phenomenological consequences of radiative flavor-violation (RFV) in the MSSM. In the model under consideration the U(3)^3 flavor symmetry of the gauge sector is broken in a first step to U(2)^3 by the top and bottom Yukawa couplings of the superpotential (and possibly also by the bilinear SUSY-breaking terms). In a second step the remaining U(2)^3 flavor symmetry is softly broken by the trilinear A-terms in order to obtain the measured quark masses and the CKM matrix of the Standard Model (SM) at low energies. The phenomenological implications of this model depend on the actual choice of the SUSY breaking A-terms. If the CKM matrix is generated in the down sector (by A^d), Bs->mu^+mu^- receives non-decoupling contributions from Higgs penguins which become important already for moderate values of tan(beta). Also the Bs mixing amplitude can be significantly modified compared to the SM prediction including a potential induction of a new CP-violating phase (which is not possible in the MSSM with MFV).
Resumo:
Results of a search for supersymmetry via direct production of third-generation squarks are reported, using 20.3 fb −1 of proton-proton collision data at √s =8 TeV recorded by the ATLAS experiment at the LHC in 2012. Two different analysis strategies based on monojetlike and c -tagged event selections are carried out to optimize the sensitivity for direct top squark-pair production in the decay channel to a charm quark and the lightest neutralino (t 1 →c+χ ˜ 0 1 ) across the top squark–neutralino mass parameter space. No excess above the Standard Model background expectation is observed. The results are interpreted in the context of direct pair production of top squarks and presented in terms of exclusion limits in the m ˜t 1, m ˜ X0 1 ) parameter space. A top squark of mass up to about 240 GeV is excluded at 95% confidence level for arbitrary neutralino masses, within the kinematic boundaries. Top squark masses up to 270 GeV are excluded for a neutralino mass of 200 GeV. In a scenario where the top squark and the lightest neutralino are nearly degenerate in mass, top squark masses up to 260 GeV are excluded. The results from the monojetlike analysis are also interpreted in terms of compressed scenarios for top squark-pair production in the decay channel t ˜ 1 →b+ff ′ +χ ˜ 0 1 and sbottom pair production with b ˜ 1 →b+χ ˜ 0 1 , leading to a similar exclusion for nearly mass-degenerate third-generation squarks and the lightest neutralino. The results in this paper significantly extend previous results at colliders.
Resumo:
This paper reports the results of a search for strong production of supersymmetric particles in 20.1 fb−1 of proton-proton collisions at a centre-of-mass energy of 8TeV using the ATLAS detector at the LHC. The search is performed separately in events with either zero or at least one high-pT lepton (electron or muon), large missing transverse momentum, high jet multiplicity and at least three jets identified as originated from the fragmentation of a b-quark. No excess is observed with respect to the Standard Model predictions. The results are interpreted in the context of several supersymmetric models involving gluinos and scalar top and bottom quarks, as well as a mSUGRA/CMSSM model. Gluino masses up to 1340 GeV are excluded, depending on the model, significantly extending the previous ATLAS limits.
Resumo:
Internet ha rivoluzionato il modo di comunicare degli individui. Siamo testimoni della nascita e dello sviluppo di un'era caratterizzata dalla disponibilità di informazione libera e accessibile a tutti. Negli ultimi anni grazie alla diffusione di smartphone, tablet e altre tipologie di dispositivi connessi, è cambiato il fulcro dell'innovazione spostandosi dalle persone agli oggetti. E' così che nasce il concetto di Internet of Things, termine usato per descrivere la rete di comunicazione creata tra i diversi dispositivi connessi ad Internet e capaci di interagire in autonomia. Gli ambiti applicativi dell'Internet of Things spaziano dalla domotica alla sanità, dall'environmental monitoring al concetto di smart cities e così via. L'obiettivo principale di tale disciplina è quello di migliorare la vita delle persone grazie a sistemi che siano in grado di interagire senza aver bisogno dell'intervento dell'essere umano. Proprio per la natura eterogenea della disciplina e in relazione ai diversi ambiti applicativi, nell'Internet of Things si può incorrere in problemi derivanti dalla presenza di tecnologie differenti o di modalità eterogenee di memorizzazione dei dati. A questo proposito viene introdotto il concetto di Internet of Things collaborativo, termine che indica l'obiettivo di realizzare applicazioni che possano garantire interoperabilità tra i diversi ecosistemi e tra le diverse fonti da cui l'Internet of Things attinge, sfruttando la presenza di piattaforme di pubblicazione di Open Data. L'obiettivo di questa tesi è stato quello di creare un sistema per l'aggregazione di dati da due piattaforme, ThingSpeak e Sparkfun, con lo scopo di unificarli in un unico database ed estrarre informazioni significative dai dati tramite due tecniche di Data Mining: il Dictionary Learning e l'Affinity Propagation. Vengono illustrate le due metodologie che rientrano rispettivamente tra le tecniche di classificazione e di clustering.
Resumo:
Il presente lavoro di tesi analizza un tratto del fiume Secchia, prossimo alla località di Veggia (Sassuolo), al fine di determinare la variazione del livello idrometrico in funzione di diverse portate associate a tempi di ritorno a breve e lungo termine. Vengono dapprima introdotti il concetto di rischio idraulico ed i relativi riferimenti normativi che lo disciplinano, unitamente ai piani di gestione e ai possibili interventi di protezione fluviale. Si introduce successivamente il codice di calcolo HEC-RAS, che viene impiegato nel presente studio per simulare l’andamento dei profili di moto permanente, nel caso in cui il fiume sia o meno interessato dalla presenza di un ponte. In entrambi i casi vengono poi discusse le variazioni dei livelli idrometrici per portate con tempi di ritorno di 20, 100 e 200 anni: si osserva che l’asta fluviale è a rischio nella zona a valle dello studio, mentre nella zona dove è ubicato il ponte l’aumentare dei livelli idrometrici non mette in crisi la struttura. A seguire vengono presentate le opere di mitigazione, destinate alla protezione dell’alveo e dell’ambiente circostante. Poi, si mostrano le opere di mitigazione, essi funzionano di diminuire i rischi dalla diversa classificazione di opere.
Resumo:
Lo scopo della tesi è di stimare le prestazioni del rivelatore ALICE nella rivelazione del barione Lambda_c nelle collisioni PbPb usando un approccio innovativo per l'identificazione delle particelle. L'idea principale del nuovo approccio è di sostituire l'usuale selezione della particella, basata su tagli applicati ai segnali del rivelatore, con una selezione che usi le probabilità derivate dal teorema di Bayes (per questo è chiamato "pesato Bayesiano"). Per stabilire quale metodo è il più efficiente , viene presentato un confronto con altri approcci standard utilizzati in ALICE. Per fare ciò è stato implementato un software di simulazione Monte Carlo "fast", settato con le abbondanze di particelle che ci si aspetta nel nuovo regime energetico di LHC e con le prestazioni osservate del rivelatore. E' stata quindi ricavata una stima realistica della produzione di Lambda_c, combinando i risultati noti da esperimenti precedenti e ciò è stato usato per stimare la significatività secondo la statistica al RUN2 e RUN3 dell'LHC. Verranno descritti la fisica di ALICE, tra cui modello standard, cromodinamica quantistica e quark gluon plasma. Poi si passerà ad analizzare alcuni risultati sperimentali recenti (RHIC e LHC). Verrà descritto il funzionamento di ALICE e delle sue componenti e infine si passerà all'analisi dei risultati ottenuti. Questi ultimi hanno mostrato che il metodo risulta avere una efficienza superiore a quella degli usuali approcci in ALICE e che, conseguentemente, per quantificare ancora meglio le prestazioni del nuovo metodo si dovrebbe eseguire una simulazione "full", così da verificare i risultati ottenuti in uno scenario totalmente realistico.
Resumo:
La sezione d'urto differenziale di produzione di coppie t/t viene misurata utilizzando dati raccolti nel 2012 dall'esperimento CMS in collisioni protone-protone con un'energia nel centro di massa di 8 TeV. La misura viene effettuata su eventi che superano una serie di selezioni applicate al fine di migliorare il rapporto segnale/rumore. In particolare, facendo riferimento al canale all-hadronic, viene richiesta la presenza di almeno sei jet nello stato finale del decadimento della coppia t/t di cui almeno due con quark b. Ottenuto un campione di eventi sufficientemente puro, si può procedere con un fit cinematico, che consiste nel minimizzare una funzione chi quadro in cui si considera tra i parametri liberi la massa invariante associata ai quark top; le cui distribuzioni, richiedendo che il chi quadro sia <10, vengono ricostruite per gli eventi candidati, per il segnale, ottenuto mediante eventi simulati, e per il fondo, modellizzato negando la presenza di jet con b-tag nello stato finale del decadimento della coppia t/t. Con le suddette distribuzioni, attraverso un fit di verosimiglianza, si deducono le frazioni di segnale e di fondo presenti negli eventi. È dunque possibile riempire un istogramma di confronto tra gli eventi candidati e la somma di segnale+fondo per la massa invariante associata ai quark top. Considerando l'intervallo di valori nel quale il rapporto segnale/rumore è migliore si possono ottenere istogrammi di confronto simili al precedente anche per la quantità di moto trasversa del quark top e la massa invariante e la rapidità del sistema t/t. Infine, la sezione d'urto differenziale è misurata attraverso le distribuzioni di tali variabili dopo aver sottratto negli eventi il fondo.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
The t/t production cross section is measured with the CMS detector in the all-jets channel in $pp$ collisions at the centre-of-mass energy of 13 TeV. The analysis is based on the study of t/t events in the boosted topology, namely events in which decay products of the quark top have a high Lorentz boost and are thus reconstructed in the detector as a single, wide jet. The data sample used in this analysis corresponds to an integrated luminosity of 2.53 fb-1. The inclusive cross section is found to be sigma(t/t) = 727 +- 46 (stat.) +115-112 (sys.) +- 20~(lumi.) pb, a value which is consistent with the theoretical predictions. The differential, detector-level cross section is measured as a function of the transverse momentum of the leading jet and compared to the QCD theoretical predictions. Finally, the differential, parton-level cross section is reported, measured as a function of the transverse momentum of the leading parton, extrapolated to the full phase space and compared to the QCD predictions.
Resumo:
Oggetto del presente studio è un'analisi del genere testuale del contratto di compravendita immobiliare negli ordinamenti di Italia, Germania e Austria in un'ottica sincronica e pragmatica. Il testo è considerato come un atto comunicativo legato a convenzioni prestabilite e volto ad assolvere a specifiche funzioni sociali. L'obbiettivo principale del lavoro è lo sviluppo di un modello di analisi testuale che possa evidenziare l'interazione tra la funzione primaria e l'assetto macro- e microstrutturale di questo genere testuale, ovvero tra il piano giuridico e quello linguistico-testuale. L'analisi svolta permette inoltre di confrontare tre sistemi giuridici rispetto alla modalità di attuare questo negozio, nonché le lingue italiana e tedesca ed altresì due varietà di quest'ultima. Il corpus è composto da 40 atti autentici e 9 atti da formulari, compresi in un arco temporale che va dal 2000 al 2018. L'analisi parte con la definizione delle coordinate intra-ed extratestuali che determinano questo genere testuale e da una sua classificazione all'interno dei testi dell'ambito giuridico. Su questa base, i contratti dei corpora di Italia, Germania e Austria vengono analizzati separatamente rispetto alla loro macrostruttura, comprendendo in ciò tre piani macrostrutturali, ovvero quello giuridico da un lato e quelli funzionale e tematico dall'altro. L'interazione tra la funzione giuridica e l'assetto linguistico-testuale del contratto di compravendita immobiliare emerge in particolare a livello di quello funzionale, ossia relativo alla sequenza delle funzioni linguistiche realizzate sulla base dei contenuti giuridici. I risultati evinti dall'analisi dei tre corpora sono, infine, messi a confronto e integrati con una classificazione delle forme verbali che caratterizzano determinati macro-ambiti d'uso/funzionali all'interno di questo genere testuale, ovvero la realizzazione di specifiche funzioni linguistiche e giuridiche. Il metodo proposto offre nuovi spunti per ricerche future, tanto nell'ambito della linguistica contrastiva applicata a testi specialistici, che della traduzione e linguistica giuridica.
Resumo:
L’obiettivo del seguente elaborato è quello di spiegare le modalità con cui viene monitorato il misfire, le varie strategie a supporto e la calibrazione che ne consegue in un motore V6 Twin Spark con sistema a precamera. Le varie attività sono state svolte nel gruppo OBD presso il dipartimento Powertrain dell’azienda Maserati S.p.A. nell’ambito della diagnosi misfire. Nella prima parte dell’elaborato verrà introdotto un quadro illustrativo delle normative vigenti in tema di emissioni per un motore a combustione interna che delineerà l’esigenza di avere un sistema di monitoraggio On-Board Diagnostic, e verranno descritte le principali diagnosi per i componenti meccanici ed elettronici. Nel secondo capitolo verrà introdotto il concetto di misfire, la sua classificazione e i requisiti che devono essere rispettati per il suo monitoraggio; nell’ultima parte, verrà descritto il motore oggetto di studi e le strumentazioni utilizzate per lo sviluppo dell’attività. Nel terzo capitolo verranno introdotte le varie strategie utilizzate per il rilevamento della mancata accensione della miscela e verrà illustrato come il sistema a precamera ha richiesto la loro revisione. In particolare, per quanto riguarda l’utilizzo della corrente di ionizzazione saranno analizzate le criticità dovute a questo nuovo sviluppo e per l’analisi della variazione di velocità angolare della ruota fonica verrà analizzato come tale sviluppo ha impattato nelle temperature del catalizzatore e nella robustezza della diagnosi effettuata. Infine, nell’ultimo capitolo verrà illustrato come ci si è approcciati alla calibrazione della finestra di osservazione, partendo dalle prove effettuate al banco, proseguendo con l’analisi di tali prove nelle varie condizioni di funzionamento del motore e concludendo con l’implementazione del processo di calcolo automatizzato per la calibrazione. In merito a quest'ultimo punto è stato sviluppato un Tool finalizzato a calcolare la finestra ottimale per ogni punto motore.
Resumo:
Il presente elaborato si prefigge il raggiungimento di un duplice obiettivo: da un lato, l’analisi dettagliata delle difficoltà riscontrabili dall’interprete di intercettazioni durante l’esercizio della professione, e dall’altro, l’elaborazione di suggerimenti e buone pratiche per coloro che si apprestano a svolgere un incarico di interpretazione di intercettazioni. In primo luogo, vengono descritte le peculiarità dell’interpretazione per i servizi pubblici e dell’interpretazione giuridico-giudiziaria, macro ambito dell’interpretazione di intercettazioni. In seguito, si accenna brevemente all’interpretazione dialogica. In secondo luogo, si indaga l’interpretazione giudiziaria; vengono esposte le competenze che un interprete giudiziario deve possedere, la metodologia di lavoro, gli interlocutori e i contesti lavorativi. Successivamente, vengono analizzate le intercettazioni di conversazioni, esaminandone la duplice valenza di strumento e fonte di prova e inquadrandole all’interno del sistema giuridico italiano. La parte conclusiva affronta il tema centrale dell’intero elaborato, ossia l’interpretazione di intercettazioni di conversazioni. Innanzitutto, vengono definite dal punto di vista teorico le caratteristiche specifiche della suddetta modalità interpretativa, la sequenzialità del lavoro dell’interprete e le sfide che questa modalità sottende. Alla parte teorica fa seguito un’analisi delle difficoltà riscontrabili dall’interprete di intercettazioni; queste sono state suddivise in tre macrocategorie, quali qualità dell’audio, elementi linguistici e socioculturali ed elementi impliciti. Per poter comprendere appieno l’analisi, vengono presentati i materiali e la metodologia utilizzati e la classificazione delle principali difficoltà. Il presente elaborato si conclude fornendo una serie di suggerimenti e buone pratiche da seguire al fine di affrontare al meglio la preparazione e lo svolgimento di un incarico di interpretazione di intercettazioni.
Resumo:
In questo elaborato che conclude il Corso di Laurea in Astronomia vengono presentate le classificazioni spettrali di Harvard e di Yerkes, osservando anche i motivi per cui storicamente assumono il loro aspetto. Vengono poi analizzati i processi fisici che danno forma agli spettri permettendo di caratterizzarli gli uni dagli altri. In conclusione vengono osservate le tecniche osservative necessarie all'analisi dei dati.