474 resultados para FastLApp Android Telemetria Acquisizione-dati GPS Accelerometro Sensori Cronometro App Mobile
Resumo:
In questa tesi viene seguito il lavoro di test delle schede ROD del layer 2 del Pixel Detector dell’ esperimento ATLAS, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Le schede ROD andranno a sostituire le precedenti schede SiROD nella catena di acquisizione dati dell’esperimento, procedendo dal nuovo strato IBL, e proseguendo con i tre layer del Pixel Detector, corroborando l’aggiornamento tecnologico e prestazionale necessario in vista dell’incremento di luminosità dell’esperimento.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
Negli ultimi anni si è imposto il concetto di Ubiquitous Computing, ovvero la possibilità di accedere al web e di usare applicazioni per divertimento o lavoro in qualsiasi momento e in qualsiasi luogo. Questo fenomeno sta cambiando notevolmente le abitudini delle persone e ciò è testimoniato anche dal fatto che il mercato mobile è in forte ascesa: da fine 2014 sono 45 milioni gli smartphone e 12 milioni i tablet in circolazione in Italia. Sembra quasi impossibile, dunque, rinunciare al mobile, soprattutto per le aziende: il nuovo modo di comunicare ha reso necessaria l’introduzione del Mobile Marketing e per raggiungere i propri clienti ora uno degli strumenti più efficaci e diretti sono le applicazioni. Esse si definiscono native se si pongono come traguardo un determinato smartphone e possono funzionare solo per quel sistema operativo. Infatti un’app costruita, per esempio, per Android non può funzionare su dispositivi Apple o Windows Phone a meno che non si ricorra al processo di porting. Ultimamente però è richiesto un numero sempre maggiore di app per piattaforma e i dispositivi presenti attualmente sul mercato presentano differenze tra le CPU, le interfacce (Application Programming Interface), i sistemi operativi, l’hardware, etc. Nasce quindi la necessità di creare applicazioni che possano funzionare su più sistemi operativi, ovvero le applicazioni platform-independent. Per facilitare e supportare questo genere di lavoro sono stati definiti nuovi ambienti di sviluppo tra i quali Sencha Touch e Apache Cordova. Il risultato finale dello sviluppo di un’app attraverso questi framework è proprio quello di ottenere un oggetto che possa essere eseguito su qualsiasi dispositivo. Naturalmente la resa non sarà la stessa di un’app nativa, la quale ha libero accesso a tutte le funzionalità del dispositivo (rubrica, messaggi, notifiche, geolocalizzazione, fotocamera, accelerometro, etc.), però con questa nuova app vi è la garanzia di un costo di sviluppo minore e di una richiesta considerevole sul mercato. L’obiettivo della tesi è quello di analizzare questo scenario attraverso un caso di studio proveniente da una realtà aziendale che presenta proprio la necessità di sviluppare un’applicazione per più piattaforme. Nella prima parte della tesi viene affrontata la tematica del mobile computing e quella del dualismo tra la programmazione nativa e le web app: verranno analizzate le caratteristiche delle due diverse tipologie cercando di capire quale delle due risulti essere la migliore. Nella seconda parte sarà data luce a uno dei più importanti framework per la costruzione di app multi-piattaforma: Sencha Touch. Ne verranno analizzate le caratteristiche, soffermandosi in particolare sul pattern MVC e si potrà vedere un confronto con altri framework. Nella terza parte si tratterà il caso di studio, un app mobile per Retail basata su Sencha Touch e Apache Cordova. Nella parte finale si troveranno alcune riflessioni e conclusioni sul mobile platform-independent e sui vantaggi e gli svantaggi dell’utilizzo di JavaScript per sviluppare app.
Resumo:
Il sistema di acquisizione dati del nuovo layer IBL di ATLAS conta attualmente 15 schede ROD attive sull’esperimento. In ognuna di queste schede sono presenti due catene JTAG per la programmazione e il test. La prima catena è facilmente accessibile da remoto tramite uno standard VME o Ethernet, mentre la seconda è accessibile solo tramite un programmatore JTAG. Accedere alla catena secondaria di tutte 15 le ROD è in primo luogo sconveniente poiché sarebbero necessari 15 programmatori diversi; in secondo luogo potrebbe risultare difficoltoso doverli gestire tutti da un unico computer. Nasce così l’esigenza di sviluppare un’elettronica aggiuntiva con funzione di controllo che riesca, tramite un unico programmatore, a distribuire un segnale JTAG in ingresso a 15 uscite selezionabili in maniera esclusiva. In questa tesi vengono illustrati i vari passaggi che hanno portato alla realizzazione del progetto ponendo attenzione alla scelta, al funzionamento e all’eventuale programmazione dei componenti elettronici che lo costituiscono. Per ogni parte è stato realizzato un ambiente hardware di prototipazione che ne ha garantito il test delle funzionalità. La scheda, basata su un microcontrollore ATmega 328-P, è attualmente in fase di completamento nel laboratorio di progettazione elettronica dell’INFN di Bologna. Il prototipo studiato e realizzato tramite il lavoro di questa tesi verrà anche utilizzato in ambiente CERN una volta che ne sarà convalidata l’affidabilità e potrà anche essere facilmente adattato a tutti gli esperimenti che usano un protocollo JTAG per la programmazione di dispositivi remoti.
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Resumo:
Questo lavoro di tesi è incentrato sulla microtomografia con radiazione di sincrotrone, di cui vengono presentate le diverse modalità di acquisizione, mostrandone le potenzialità e mettendola a confronto con la microCT convenzionale. Le principali caratteristiche di un fascio di raggi X prodotto presso sorgenti di radiazione di sincrotrone sono le seguenti: la monocromaticità, che evita l’indurimento del fascio, la forte intensità, che permette una acquisizione dati rapida a risoluzione spaziale molto alta, con conseguente precisa mappatura delle strutture interne del campione, e l’alta coerenza, che porta ad ulteriori possibilità di imaging, come l’acquisizione in contrasto di fase. Grazie a queste caratteristiche la microCT con radiazione di sincrotrone rappresenta attualmente uno strumento di indagine di grande importanza in molteplici campi della ricerca, che vanno dalla scienza dei materiali, alla geologia, dal campo medico fino a quello dei Beni Culturali. In particolare, in questa sede, vengono illustrate e discusse alcune applicazioni in campo medico (mammografia) e in campo paleontologico e paleoantropologico (studio della microstruttura di denti fossili e moderni per ottenere informazioni riguardo il ciclo vitale, l’invecchiamento, la crescita, il processo di dentizione, la dieta, e così via).
Resumo:
L'obiettivo di questo elaborato è quello di realizzare un sistema di acquisizione real-time e low cost, in grado di stimare la posizione di una sorgente sonora. Per acquisizione real-time si intende un sistema in grado di seguire gli spostamenti della sorgente audio nell'ambiente, limitando il più possibile i tempi di latenza fra un'acquisizione e l'altra. A tal fine si sfrutteranno due coppie di microfoni, che concorrereranno in maniera sequenziale alla stima dell'angolo di arrivo del suono (e quindi della retta su cui giace il punto di provenienza del suono). Combinando i dati raccolti dai quattro microfoni sarà dunque possibile risalire alla posizione di provenienza della sorgente sonora. Il software (implementato in MATLAB) verrà ampiamente discusso nei seguenti capitoli, il suo scopo sarà quello di gestire l'acquisizione dati, garantire il funzionamento real-time e fornire una stima di posizione della sorgente sonora, mostrando il relativo errore commesso durante la misura, nel caso in cui si conosca a priori la posizione della sorgente.
Resumo:
Il progresso scientifico e le innovazioni tecnologiche nei campi dell'elettronica, informatica e telecomunicazioni, stanno aprendo la strada a nuove visioni e concetti. L'obiettivo della tesi è quello d'introdurre il modello del Cloud computing per rendere possibile l'attuale visione di Internet of Thing. Nel primo capitolo si introduce Ubiquitous computing come un nuovo modo di vedere i computer, cercando di fare chiarezza sulla sua definizione, la sua nascita e fornendo un breve quadro storico. Nel secondo capitolo viene presentata la visione di Internet of Thing (Internet delle “cose”) che si avvale di concetti e di problematiche in parte già considerate con Ubiquitous computing. Internet of Thing è una visione in cui la rete Internet viene estesa agli oggetti di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati ambientali sono solo alcuni esempi. Per realizzare questo tipo di applicazioni le tecnologie wireless sono da considerare necessarie, sebbene questa visione non assuma nessuna specifica tecnologia di comunicazione. Inoltre, anche schede di sviluppo possono agevolare la prototipazione di tali applicazioni. Nel terzo capitolo si presenta Cloud computing come modello di business per utilizzare su richiesta risorse computazionali. Nel capitolo, vengono inizialmente descritte le caratteristiche principali e i vari tipi di modelli di servizio, poi viene argomentato il ruolo che i servizi di Cloud hanno per Internet of Thing. Questo modello permette di accelerare lo sviluppo e la distribuzione di applicazioni di Internet of Thing, mettendo a disposizione capacità di storage e di calcolo per l'elaborazione distribuita dell'enorme quantità di dati prodotta da sensori e dispositivi vari. Infine, nell'ultimo capitolo viene considerato, come esempio pratico, l'integrazione di tecnologie di Cloud computing in una applicazione IoT. Il caso di studio riguarda il monitoraggio remoto dei parametri vitali, considerando Raspberry Pi e la piattaforma e-Health sviluppata da Cooking Hacks per lo sviluppo di un sistema embedded, e utilizzando PubNub come servizio di Cloud per distribuire i dati ottenuti dai sensori. Il caso di studio metterà in evidenza sia i vantaggi sia le eventuali problematiche che possono scaturire utilizzando servizi di Cloud in applicazioni IoT.
Resumo:
Le osservazioni e i risultati proposti in questo elaborato si inseriscono all'interno di un progetto più vasto frutto della collaborazione tra SRM e il Dipartimento di Trasporti dell'Università di Bologna. Infatti in occasione del European Cycling Challenge del 2013, SRM ha raccolto per la sola area di Bologna un dataset di 1,050,000 punti GPS registrati da ciclisti volontari durante l'interno mese di Maggio attraverso l'applicazione Endomondo. Ai ciclisti che partecipavano volontariamente all’iniziativa è stato chiesto di registrare i proprio viaggi nella città di Bologna effettuati con la bici, attraverso l’ applicazione, gratuitamente scaricabile sul proprio smartphone: all’inizio di ciascun viaggio, i partecipanti dovevano attivare l’applicazione, e quindi il sistema GPS del loro smartphone, e registrare lo spostamento. Questo campione è stato dunque utilizzato come punto di partenza per questo progetto che rappresenta il primo caso studio italiano in cui i modelli di scelta del percorso ciclabile si sono basati su un ampio campione di dati GPS raccolti mediante sondaggio RP. In questo elaborato quindi si è analizzato il campione dei percorsi in termini di singoli spostamenti, del confronto con il percorso di minor lunghezza e all'interno di un set di alternative compiute. Infine si sono indagati due parametri che hanno influenzato la scelta del percorso ciclabile da parte degli utenti.
Resumo:
I bacini idrografici appenninici romagnoli rappresentano una fonte idropotabile di essenziale importanza per la Romagna, grazie alla regolazione stagionale svolta dall’invaso artificiale di Ridracoli. Nel presente elaborato si è implementato un modello per lo studio e la valutazione del regime idrologico dei bacini idrografici allacciati all’invaso, affrontando sia gli aspetti relativi alla miglior spazializzazione dei dati metereologici in ingresso al modello (in particolare in relazione alla stima della temperatura, fondamentale per la rappresentazione dei processi di evapotraspirazione e dei fenomeni di accumulo e scioglimento nevoso), sia gli aspetti di calibrazione dei parametri, confrontando le simulazioni ottenute a partire da diverse configurazioni del modello in termini di rappresentazione spaziale e temporale dei fenomeni. Inoltre si è eseguita una regionalizzazione del modello su due sezioni fluviali che sono al momento oggetto di indagini idrologiche, fornendo supporto alla valutazione della possibilità di realizzazione di una nuova opera di presa. A partire dai dati puntuali dei sensori termometrici disponibili si è ricercata la migliore tecnica di interpolazione della temperatura sull’area di studio, ottenendo una discreta precisione, con un errore in procedura di ricampionamento jack-knife raramente superiore al grado centigrado. La calibrazione del modello TUWien in approccio semi-distribuito, sia quando applicato a scala oraria sia quando applicato a scala giornaliera, ha portato a buoni risultati. La complessità del modello, dovuta in gran parte alla presenza di uno specifico modulo per la gestione di accumulo e scioglimento nivale, è stata ripagata dalle buone prestazioni delle simulazioni ottenute, sia sul periodo di calibrazione sia su quello di validazione. Tuttavia si è osservato che l’approccio semi-distribuito non ha portato benefici sostanziali rispetto a quello concentrato, soprattutto in relazione al forte aumento di costo computazionale.
Resumo:
Negli ultimi anni si è assistito al considerevole aumento della disponibilità di dati GPS e della loro precisione, dovuto alla diffusione e all’evoluzione tecnologica di smartphone e di applicazioni di localizzazione. Il processo di map-matching consiste nell’integrare tali dati - solitamente una lista ordinata di punti, identificati tramite coordinate geografiche ricavate mediante un sistema di localizzazione, come il GPS - con le reti disponibili; nell’ambito dell’ingegneria dei trasporti, l’obiettivo è di identificare il percorso realmente scelto dall’utente per lo spostamento. Il presente lavoro si propone l’obiettivo di studiare alcune metodologie di map-matching per l’identificazione degli itinerari degli utenti, in particolare della mobilità ciclabile. Nel primo capitolo è esposto il funzionamento dei sistemi di posizionamento e in particolare del sistema GPS: ne sono discusse le caratteristiche, la suddivisione nei vari segmenti, gli errori di misurazione e la cartografia di riferimento. Nel secondo capitolo sono presentati i vari aspetti del procedimento di map-matching, le sue principali applicazioni e alcune possibili classificazioni degli algoritmi di map-matching sviluppati in letteratura. Nel terzo capitolo è esposto lo studio eseguito su diversi algoritmi di map-matching, che sono stati testati su un database di spostamenti di ciclisti nell’area urbana di Bologna, registrati tramite i loro smartphone sotto forma di punti GPS, e sulla relativa rete. Si analizzano altresì i risultati ottenuti in un secondo ambiente di testing, predisposto nell’area urbana di Catania, dove sono state registrate in modo analogo alcune tracce di prova, e utilizzata la relativa rete. La comparazione degli algoritmi è eseguita graficamente e attraverso degli indicatori. Vengono inoltre proposti e valutati due algoritmi che forniscono un aggiornamento di quelli analizzati, al fine di migliorarne le prestazioni in termini di accuratezza dei risultati e di costo computazionale.
Resumo:
In questo elaborato si tratterà il metodo di analisi e modellazione post-sismica del terreno attraverso l’utilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la più rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attività umane e del territorio. Obiettivo della tesi è descrivere l’efficacia dell’utilizzo congiunto della tecnica di monitoraggio GPS e l’Interferometria Differenziale SAR. Grazie all’analisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra l’importanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dell’evento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarità dell’evento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzerà la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verrà descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per l’analisi di reti GNSS per il controllo delle deformazioni.
Resumo:
Negli ultimi anni la teoria dei network è stata applicata agli ambiti più diversi, mostrando proprietà caratterizzanti tutti i network reali. In questo lavoro abbiamo applicato gli strumenti della teoria dei network a dati cerebrali ottenuti tramite MRI funzionale “resting”, provenienti da due esperimenti. I dati di fMRI sono particolarmente adatti ad essere studiati tramite reti complesse, poiché in un esperimento si ottengono tipicamente più di centomila serie temporali per ogni individuo, da più di 100 valori ciascuna. I dati cerebrali negli umani sono molto variabili e ogni operazione di acquisizione dati, così come ogni passo della costruzione del network, richiede particolare attenzione. Per ottenere un network dai dati grezzi, ogni passo nel preprocessamento è stato effettuato tramite software appositi, e anche con nuovi metodi da noi implementati. Il primo set di dati analizzati è stato usato come riferimento per la caratterizzazione delle proprietà del network, in particolare delle misure di centralità, dal momento che pochi studi a riguardo sono stati condotti finora. Alcune delle misure usate indicano valori di centralità significativi, quando confrontati con un modello nullo. Questo comportamento `e stato investigato anche a istanti di tempo diversi, usando un approccio sliding window, applicando un test statistico basato su un modello nullo pi`u complesso. Il secondo set di dati analizzato riguarda individui in quattro diversi stati di riposo, da un livello di completa coscienza a uno di profonda incoscienza. E' stato quindi investigato il potere che queste misure di centralità hanno nel discriminare tra diversi stati, risultando essere dei potenziali bio-marcatori di stati di coscienza. E’ stato riscontrato inoltre che non tutte le misure hanno lo stesso potere discriminante. Secondo i lavori a noi noti, questo `e il primo studio che caratterizza differenze tra stati di coscienza nel cervello di individui sani per mezzo della teoria dei network.
Resumo:
Con l’aumento del consumo mondiale di risorse energetiche del pianeta, è diventato sempre più necessario utilizzare sistemi energetici che sfruttino al meglio la fonte di energia che li alimenta. Una delle soluzioni in questo ambito è quella proposta dagli Organic Rankine Cycle (ORC). Questi sistemi recuperano energia termica altrimenti non utilizzabile per le temperature troppo basse e sfruttano sorgenti termiche con ampi range di temperatura. L’elaborato volge all’analisi sperimentale delle prestazioni di un sistema Micro-ORC di piccola taglia, con rendimento termodinamico massimo dichiarato dal costruttore del 10 %. Inizialmente vengono descritti i fluidi organici e i sistemi che ne fanno uso, descrivendo anche esempi bibliografici di banchi prova per interpretare al meglio i risultati ottenuti con quello disponibile, che viene poi descritto, comprendendo i circuiti di asservimento dell’acqua calda e fredda, i punti di misura e il programma di acquisizione dati. Ci si concentra poi sulla descrizione e l’utilizzo dei codici implementati per l’elaborazione dei dati acquisiti. Questi hanno permesso di osservare gli andamenti temporali delle grandezze fondamentali per il sistema e valutarne la ripetibilità del comportamento nel corso di differenti prove. Vengono proposte infine le mappe di funzionamento per l’intero impianto e per i vari sotto-sistemi, offrendone un’interpretazione e inquadrandone i punti di lavoro ottimali. Attraverso la loro osservazione si sono dedotte le condizioni necessarie per avere un funzionamento ritenuto stabile del sistema ed è stato possibile ottimizzare le procedure svolte durante le fasi di test e di acquisizione dati. Sarà oggetto di studi futuri l’ottimizzazione dell’impianto, prolungando i tempi di esercizio a parità di carico elettrico e frequenza imposta alla pompa, con il fine di ottenere delle curve di prestazioni confrontabili con quelle presenti in bibliografia per altri sistemi ORC.
Resumo:
Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.