276 resultados para Rilevatori, TLE, satelliti, collisioni, simulatori, filtri, orbite, apocentro, pericentro, detriti
Resumo:
L’obiettivo di questa tesi è quello di analizzare uno dei generi principali del mondo della serialità: il teen drama. In particolare, la produzione Netflix del genere, soffermandomi sulla trattazione di due serie: Tredici e Sex Education. Partendo dalla considerazione che gli odierni teenager sono inseriti in una realtà digitale senza filtri, l’indagine è volta a dimostrare come Netflix, a mio avviso, sia in grado di utilizzare un linguaggio privo di retoriche per comunicare al meglio con i destinatari del genere, gli adolescenti e di impiegare tale linguaggio nella trattazione di tematiche sociali come il suicidio (Tredici) e il sesso (Sex Education), dandogli uno spessore all’interno della narrazione come mai era stato fatto nei teen drama precedenti. Prima di arrivare alla trattazione della tesi appena esposta, oggetto del terzo capitolo, il primo capitolo si sofferma sulla nascita del genere, facendo un riassunto dei principali titoli che hanno portato allo sviluppo e affermazione del genere dagli anni Novanta fino agli anni Dieci del Duemila. Nel secondo capitolo invece, analizzo le caratteristiche principali dei teen drama targati Netflix e di alcuni titoli del passato che sono riapparsi sulla piattaforma.
Resumo:
L’Electron Ion Collider (EIC) è un futuro acceleratore di particelle che ha l’obiettivo di approfondire le nostre conoscenze riguardo l’interazione forte, una delle quattro interazioni fondamentali della natura, attraverso collisioni di elettroni su nuclei e protoni. L’infrastruttura del futuro detector comprende un sistema d’identificazione basato sull’emissione di luce Cherenkov, un fenomeno che permette di risalire alla massa delle particelle. Una delle configurazioni prese in considerazione per questo sistema è il dual-radiator RICH, basato sulla presenza di due radiatori all’esterno dei quali si trovano dei fotorivelatori. Un’opzione per questi sensori sono i fotorivelatori al silicio SiPM, oggetto di questo lavoro di tesi. L’obiettivo dell’attività è lo studio di un set-up per la caratterizzazione della risposta di sensori SiPM a basse temperature, illuminati attraverso un LED. Dopo un’analisi preliminare per determinare le condizioni di lavoro, si è trovato che la misura è stabile entro un errore del 3.5%.
Resumo:
Questa Tesi di Laurea è legata agli aspetti tecnologici dell'esperimento Gamma-Flash, progetto coordinato dall'Istituto Nazionale di Astrofisica finanziato dall'Agenzia Spaziale Italiana che ha lo scopo di studiare eventi altamente energetici che avvengono in atmosfera denominati Terrestial Gamma-ray Flashes (TGFs). Questi eventi hanno uno stretto legame con i fulmini che avvengono durante episodi temporaleschi. I fulmini producono particelle ionizzate ed elettroni che per effetto bremmstrahlung emettono radiazione in un ampio intervallo di energie da centinaia di keV a decine di MeV. Questo tipo di eventi è stato rivelato da numerose missioni da satellite fin dagli anni '90 (BATSE/CGRO) e successivamente con i satelliti RHESSI, AGILE, BeppoSAX e Fermi. Molto più rare sono le osservazioni di questi eventi da terra o da rivelatori posti su velivoli. Gamma-Flash ha lo scopo di realizzare strumentazione per la rivelazione di questi eventi da un osservatorio posto su M.te Cimone (2165m s.l.m) e su un aereo in grado di raggiungere quote di 8-10000m. L'esperimento viene effettuato attraverso rivelatori a scintillazione e con elettronica dedicata la cui risposta in energia dipende dalla temperatura di funzionamento. È quindi importante conoscere come il detector si comporta al variare della temperatura, che, soprattutto nell'esperimento terrestre, può variare di decine di gradi anche su tempi scala brevi. Scopo di questa tesi è stato quindi di caratterizzare uno dei rivelatori che saranno posti all'Osservatorio O. Vittori di M.te Cimone utilizzando una camera climatica che simula le condizioni di temperatura variabili e riscontrabili durante l'esperimento.
Resumo:
La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.
Resumo:
Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
In questa tesi è presentato il lavoro svolto per ottimizzare le selezioni dei decadimenti Λ 0 b → pK− e Λ 0 b → pπ− al fine di misurarne le asimmetrie di CP. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 6 fb−1, raccolto dall'esperimento LHCb in collisioni protone-protone ad un'energia nel centro di massa di 13 TeV. L'ottimizzazione della selezione è di fondamentale importanza nello studio di questi decadimenti, per ottenere la minor incertezza statistica possibile sulle asimmetrie misurate. Il lavoro svolto in questa tesi ha portato ad avere incertezze statistiche sulle singole asimmetrie di CP pari a: σ(A pK CP ) = 0.76%, σ(A pπ CP) = 0.95%, che risultano essere minori di circa un fattore due rispetto ai risultati già pubblicati dalla Collaborazione LHCb. Il lavoro svolto in questa tesi sarà parte della pubblicazione dei risultati ottenuti su rivista internazionale, prevista per il 2023
Resumo:
In questo elaborato viene discussa la dinamica dei sistemi collisionali, la quale non si riferisce alle effettive collisioni fisiche che possono verificarsi seppur raramente in campo astrofisico (Appendice A), ma piuttosto al ruolo dominante ricoperto dagli incontri gravitazionali ravvicinati tra coppie di stelle. Nel Capitolo 1 viene introdotto lo studio della dinamica stellare, viene riportata la definizione di sistema collisionale e la sua distinzione da sistema non collisionale, in cui i moti, invece, sono influenzati dalla forza gravitazionale esercitata da una omogenea distribuzione di massa. Viene accennato, inoltre, il fondamentale Teorema del Viriale. A seguire, nel Capitolo 2, viene proposto il problema dei due corpi, fondamentale per lo sviluppo del calcolo del tempo di rilassamento a due corpi, e viene confrontato quest'ultimo sia con il tempo dinamico che con il tempo di frizione dinamica. Infine, nel Capitolo 3 vengono esposti alcuni esempi di dinamica stellare in astrofisica, come l'evaporazione gravitazionale, il core collapse e la catastrofe gravotermica degli ammassi globulari.
Resumo:
HERMES (High Energy Rapid Modular Ensemble of Satellites) è una missione basata su una costellazione di nano-satelliti in orbita terrestre bassa, ospitanti rivelatori di raggi X e gamma, avente l'obiettivo di indagare l'emissione di Gamma Ray Burst (GRB). Si tratta di un insieme di spettrografi ad alta risoluzione temporale, attivi nella banda 3–2000 keV, che operando congiuntamente sono in grado di localizzare eventi transienti. Questo esperimento fornirà un metodo veloce e complementare alla rivelazione di onde gravitazionali per l'osservazione di eventi brillanti come i GRB nell'ambito dell'astrofisica multimessaggero. Il rivelatore di ogni nano-satellite di HERMES è composto da Silicon Drift Deterctors (SDD) collegati otticamente a cristalli scintillatori di tipo GAGG:Ce. Il GAGG:Ce è uno scintillatore inorganico di nuova generazione (sviluppato attorno al 2012). L'obiettivo di questa tesi è studiare la risposta, in termini di ampiezza assoluta e uscita luce, del GAGG:Ce accoppiato a una SDD, concentrandosi nello studio della risposta non lineare dello scintillatore, dovuta al K-edge del gadolinio all'energia di 50.23 keV, per contribuire all'ottimizzazione della calibrazione strumentale per il satellite HERMES. Per l'esperimento sono stati usati tre diversi campioni di scintillatore GAGG:Ce. L'esperimento si è basato sull'osservazione di sorgenti radioattive di calibrazione e di un fascio monocromatico di fotoni X, prodotto attraverso il generatore disponibile presso la facility LARIX-A dell'Università di Ferrara, con un rivelatore composto dallo scintillatore in analisi letto con una SDD. L'intervallo di energie scelto per il fascio monocromatico è di 20-160 keV, mentre i radioisotopi consentono di acquisire dati anche ad energie maggiori. La risposta dello scintillatore è stata quindi studiata dalla minima energia rivelabile (20-40 keV) all'energia della riga del 137Cs a 661.65 keV.
Resumo:
Questa tesi analizza il problema della variazione delle misurazioni della concentrazione del Radon in presenza di anidride carbonica e fornisce varie soluzioni al problema.
Resumo:
L'elaborato analizza, in maniera generica, come avviene la produzione, lo stoccaggio ed il trasporto dell'idrogeno e valuta i mezzi che sfruttano l'idrogeno come combustibile: i veicoli a fuel cell e i veicoli con motori a combustione interna alimentati a idrogeno (H2ICE). Poiché le proprietà dell'idrogeno sono molto diverse rispetto a quelle dei combustibili convenzionali, queste nuove tecnologie necessitano di celle di prova appositamente progettate e dimensionate. L'elaborato, pertanto, descrive nel dettaglio quali sono le normative, le strumentazioni e gli standard da rispettare per garantire che, all'interno della sala, i test possano essere eseguiti in totale sicurezza. Inoltre, vengono esaminati i sistemi di consegna e dosaggio dell'idrogeno, passando poi al sistema di ventilazione che gioca un ruolo fondamentale nel funzionamento dei test. Infine, sono riportati esempi di specifici set-up sperimentali volti allo studio delle problematiche riscontrate nei motori a combustione interna alimentati a idrogeno. Nel primo set-up, vengono descritti i sistemi di controllo, il tipo di motore e tutti i sensori utilizzati per analizzare l'impatto che ha l'EGR sui motori H2ICE; mentre, nel secondo, vengono esaminati i fattori che inducono la detonazione e la relativa frequenza.
Resumo:
In questo elaborato vengono analizzati degli scenari orbitali per le comunicazioni interplanetarie che prevedono l’uso di un satellite relay. L’architettura "two leg" considerata permette di avere un data rate di comunicazione più elevato, utilizzando un veicolo spaziale relay che, attraverso un link ottico, riceve dati da una sonda dello spazio profondo (leg-1) e li trasmette in radiofrequenza verso la Terra (leg-2). Lo scopo dell’elaborato è analizzare diverse posizioni in cui si può collocare il satellite relay, tra cui orbita LEO, orbita GEO e punti lagrangiani, trovando per ognuno vantaggi e svantaggi che permettono di capire quale geometria sia la più efficiente. A tal proposito è stata fatta un’analisi degli angoli SDP e SPD per i pianeti Marte, Venere, Nettuno e Urano, che permette di confrontare il loro andamento in un arco di tempo di dieci anni. Infine, l'elaborato presenta uno studio volto ad analizzare i requisiti della progettazione del sistema ottico, affinché esso possa comunicare con una perdita minima di link availability dovuta alla luce solare; anche in questo caso sono stati messi a confronto diversi scenari orbitali in un periodo di tempo di cento anni per capire quale fosse il più vantaggioso.
Resumo:
Il lavoro di questa tesi è stato implementare su Matlab un algoritmo numerico che permettesse di determinare la posizione di un utilizzatore mediante misure GPS. In particolare, dopo un'introduzione al sistema GPS e alla navigazione GPS, è stato analizzato il contenuto dei LOG di ESEO e si è proceduto all'implementazione dell'algoritmo sul calcolatore. Lo scopo ultimo della tesi è stato verificare l'accuratezza di tale algoritmo, mediante il calcolo degli errori con le posizioni reali e mediante una verifica tramite calcolo del range geometrico.
Resumo:
Nel presente documento si discute la progettazione di una guida lineare curva allo scopo di permettere la movimentazione di un simulatore di Sole per nanosatelliti. Vengono presentati i nanosatelliti e vengono introdotti alcuni metodi di rappresentazione d’assetto, per proseguire con una descrizione dei sensori di Sole per la determinazione d’assetto. Si descrive, poi, il banco di prova per il controllo e la determinazione d’assetto presente nel Laboratorio di Microsatelliti e Microsistemi Spaziali e, di seguito, il progetto delle guide con il confronto tra le opzioni commerciali disponibili. Infine, si descrive la progettazione degli elementi di collegamento tra il simulatore e i cursori.
Resumo:
Nei prossimi anni è atteso un aggiornamento sostanziale di LHC, che prevede di aumentare la luminosità integrata di un fattore 10 rispetto a quella attuale. Tale parametro è proporzionale al numero di collisioni per unità di tempo. Per questo, le risorse computazionali necessarie a tutti i livelli della ricostruzione cresceranno notevolmente. Dunque, la collaborazione CMS ha cominciato già da alcuni anni ad esplorare le possibilità offerte dal calcolo eterogeneo, ovvero la pratica di distribuire la computazione tra CPU e altri acceleratori dedicati, come ad esempio schede grafiche (GPU). Una delle difficoltà di questo approccio è la necessità di scrivere, validare e mantenere codice diverso per ogni dispositivo su cui dovrà essere eseguito. Questa tesi presenta la possibilità di usare SYCL per tradurre codice per la ricostruzione di eventi in modo che sia eseguibile ed efficiente su diversi dispositivi senza modifiche sostanziali. SYCL è un livello di astrazione per il calcolo eterogeneo, che rispetta lo standard ISO C++. Questo studio si concentra sul porting di un algoritmo di clustering dei depositi di energia calorimetrici, CLUE, usando oneAPI, l'implementazione SYCL supportata da Intel. Inizialmente, è stato tradotto l'algoritmo nella sua versione standalone, principalmente per prendere familiarità con SYCL e per la comodità di confronto delle performance con le versioni già esistenti. In questo caso, le prestazioni sono molto simili a quelle di codice CUDA nativo, a parità di hardware. Per validare la fisica, l'algoritmo è stato integrato all'interno di una versione ridotta del framework usato da CMS per la ricostruzione. I risultati fisici sono identici alle altre implementazioni mentre, dal punto di vista delle prestazioni computazionali, in alcuni casi, SYCL produce codice più veloce di altri livelli di astrazione adottati da CMS, presentandosi dunque come una possibilità interessante per il futuro del calcolo eterogeneo nella fisica delle alte energie.