493 resultados para DUNE,SiPM,fotorivelazione,neutrini,test di SiPM
Resumo:
Nel Comune di Cesena è presente un sistema di gestione dei risultati elettorali che si avvale di una base di dati per memorizzare le informazioni sui seggi, sui partiti, sui candidati, e sui risultati da loro ottenuti, ma il software in uso manca di funzionalità avanzate che permettano di eseguire correttamente raffronti fra diverse elezioni, di tenere traccia di cambiamenti nelle parti più statiche dei dati, di identificare univocamente un soggetto anche se è presente più volte con nomi diversi. In questo contesto si inserisce la progettazione del nuovo Sistema di Gestione dei Risultati Elettorali; in primo luogo è stata necessaria una fase di analisi del sistema attuale per capirne le funzionalità e caratteristiche a livello di database, quali fossero le sue mancanze e quali dati venivano memorizzati da usare come base concettuale di partenza per il nuovo sistema. Si è poi passati alla fase di progettazione vera e propria del nuovo sistema perciò è stato prima necessario strutturare la nuova base di dati; con l’aiuto di diagrammi ER si è stabilito quali fossero le entità necessarie al funzionamento del database, siamo passati poi attraverso una normalizzazione dei diagrammi fino ad ottenere uno schema fisico che indicasse tutte le tabelle e abbiamo scelto di utilizzare la suite DBMS Oracle per la creazione del database. Si è poi scelto di utilizzare il linguaggio di scripting PHP per realizzare l’interfaccia per consentire l’accesso al sistema da parte di molteplici client, prestando particolare attenzione al procedimento di inserimento dei dati preliminari di un’elezione, cioè tutti quei dati che vengono inseriti prima del giorno della votazione che includono i seggi che verranno utilizzati, i partiti e i candidati che si contenderanno il voto degli elettori. Anche in questo caso, al termine dell’implementazione, si è eseguita un’ampia fase di test per assicurarsi che l’utente inserisca in maniera corretta solo ed esclusivamente i dati necessari.
Resumo:
Il lavoro di questa tesi si propone di esaminare i dati di immagini cerebrali ricevuti da due differentii bobine RF per l'imaging in risonanza magnetica. La strumentazione utilizzata é: un apparecchio di RMN che utilizza uno scanner a 1.5T (GE Medical System signa HDx 15) e due differenti bobine a radiofrequenza: 1) 8-channel brain phased array coil GE (1.5T HD 8 Channel High Resolution Head Array per il GE HDx MR System); 2) GE Quad HEAD Birdcage Coil. I software utilizzati invece sono stati quattro, due per la segmentazione e la parcellizzazione dei dati dalle acquisizioni di MRI (FSL e Freesurfer), e due per l'analisi dei dati (SPSS e Microsoft Excel). I tool utilizzati di FSL sono stati SIENA, per un'indagine sulla variazione percentile della totalitá del volume cerebrale; SIENAX invece permette una segmentazione di volumi di 6 sotto regioni: sostanza grigia (GREY), sostanza bianca (WHITE), totalitá del cervello (BRAIN), liquor cerebrospinale dei ventricoli (vcsf), scaling volumetrico (vscaling), sostanza grigia periferica (pgrey). Freesurfer invece parcellizza la corteccia cerebrale e segmenta le zone della sostanza grigia profonda cerebrale. Lo scopo ultimo era quello di analizzare come la differenza di segnale acquisito dalle due bobine variasse i risultati delle analisi volumetriche delle immagini e vedere se il t-test evidenziasse variazioni sistematiche. Questa analisi aveva come scopo quello di determinare la possibilità di confrontare i soggetti i cui dati sono stati ottenuti con due bobine differenti. I dati analizzati non hanno evidenziato particolari differenze tra le due bobine, se non per i valori del liquor dei ventricoli che sono risultati variare, verosimilmente, per i processi fisiologici di atrofia della sostanza grigia cerebrale che avvengono nel tempo intercorso tra un'acquisizione e l'altra.
Resumo:
L’obiettivo principale di questa tesi è utilizzare le tecniche di gamification più importanti nella progettazione ed implementazione di un’interfaccia Human-Vehicle per creare un software che possa rendere la guida di un’automobile elettrica più efficace ed efficiente da parte del guidatore. Per lo sviluppo del software è stato svolto uno studio specifico sulla gamification, sulle interfacce Human-Vehicle e sulle macchine elettriche attualmente in produzione. Successivamente è stata svolta la fase di progettazione in cui sono stati creati dei mockup relativi all’interfaccia grafica ed è stato svolto un focus group. Infine è stato implementato il vero e proprio software di simulazione EcoGame ed è stato effettuato un test utenti.
Resumo:
Nel primo capitolo parleremo dell'accessibilità ai siti web siccome con la crescita dei contenuti multimediali e dei contenuti dinamici, non vengono sempre presi in causa le disabilità che una persona può avere nel visualizzare determinati contenuti. Si tratterà di crescita del web 2.0 e nascita del web 3.0. La transcodifica dei contenuti e i problemi che ogni persona in base alla sua disabilità può riscontrare usando apparecchi differenti per l'accesso ai dati. Parleremo dell'evoluzione dell'uso dei siti in versione mobile cosi da fare un paragono con l'usabilità tra desktop e mobile. Nel secondo capitolo andremo ad analizzare tutte le specifiche che siamo andati a prendere in considerazione per lo sviluppo di questa estensione. Guarderemo quali sono le motivazioni che ci hanno portato allo sviluppo di un'estensione di questo tipo. Verranno anche descritte tutte le scelte progettuali prese in via di sviluppo per migliorare l'usabilità e l'utilizzo dei dati raccolti, per fornire un servizio più efficiente all'utente. Nel terzo capitolo andremo a spiegare tutta l'implementazione effettuata per ExTraS con tutte le funzionalità considerate e scelte in base ai problemi più importanti di accessibilità attualmente riscontrati nel mondo del web da persone con diversi gradi di disabilità. Le principali disabilità che vengono prese in considerazione per l'utilizzo di questo addon sono persone che soffrono di ipovisione, daltonismo. L'ultimo paragrafo di questo capitolo descriverà test effettuati con utenti reali e con utenti simulati. Il test con utenti simulati è stato effettuato grazie al lavoro di tesi effettuato da Alberto Fariselli il quale ha integrato ExTraS creando un simulatore basato sul Q-learning.
Resumo:
Sviluppare e manutenere applicativi destinati a differenti piattaforme è un’opzione esclusiva di quelle entità capaci di sostenere costi molto alti per la realizzazione di queste applicazioni. Questo esclude gli sviluppatori indipendenti, che spesso realizzano prodotti in totale autonomia; le start-up, che hanno l’esigenza di sviluppare un’idea di business avendo a disposizione budget estremamente ridotti; le piccole aziende, alle quali viene così preclusa la possibilità di competere con player più importanti. Questo tipo di emergenze rende lo sviluppo cross-platform una soluzione interessante per la realizzazione delle applicazioni mobili, abbattendo i costi di sviluppo e permettendo di raggiungere più velocemente un pubblico più ampio. C'è quindi sempre maggiore interesse, da parte degli sviluppatori, per gli strumenti di sviluppo cross-platform. Per catturare l’attenzione degli sviluppatori è necessario che lo strumento sia dotato di buona stabilità, che offra un ambiente di sviluppo confortevole, una buona user experience, facilità di aggiornamento, tempi di sviluppo contenuti e possibilità di immissione delle applicazioni su diversi ecosistemi software. L’idea alla base di questa Tesi di laurea è valutare i pro e i contro di uno di questi framework cross-platform e compararlo con le tecnologie native. Il framework scelto è Ionic per via della sua popolarità tra gli sviluppatori e della ridotta bibliografia scientifica a riguardo. Molte ricerche scientifiche valutano le prestazioni di uno o più framework cross-platform rispetto ad una soluzione nativa, tuttavia è raro un confronto tra un framework e più soluzioni native. Per questo, oltre a valutare i pro e i contro del framework, verrà anche effettuata una comparazione tra gli applicativi nativi per Android e iOS e le controparti sviluppate attraverso Ionic, permettendo di identificare eventuali differenze di performance e aiutare gli sviluppatori nelle scelte tecnologiche.
Resumo:
This work focuses on Machine Translation (MT) and Speech-to-Speech Translation, two emerging technologies that allow users to automatically translate written and spoken texts. The first part of this work provides a theoretical framework for the evaluation of Google Translate and Microsoft Translator, which is at the core of this study. Chapter one focuses on Machine Translation, providing a definition of this technology and glimpses of its history. In this chapter we will also learn how MT works, who uses it, for what purpose, what its pros and cons are, and how machine translation quality can be defined and assessed. Chapter two deals with Speech-to-Speech Translation by focusing on its history, characteristics and operation, potential uses and limits deriving from the intrinsic difficulty of translating spoken language. After describing the future prospects for SST, the final part of this chapter focuses on the quality assessment of Speech-to-Speech Translation applications. The last part of this dissertation describes the evaluation test carried out on Google Translate and Microsoft Translator, two mobile translation apps also providing a Speech-to-Speech Translation service. Chapter three illustrates the objectives, the research questions, the participants, the methodology and the elaboration of the questionnaires used to collect data. The collected data and the results of the evaluation of the automatic speech recognition subsystem and the language translation subsystem are presented in chapter four and finally analysed and compared in chapter five, which provides a general description of the performance of the evaluated apps and possible explanations for each set of results. In the final part of this work suggestions are made for future research and reflections on the usability and usefulness of the evaluated translation apps are provided.
Resumo:
Questa tesi si pone l'obiettivo di implementare in ambiente Linux un'applicazione di sincronizzazione, chiamata DTNbox, che permetta lo scambio di file tra due nodi di una rete classificabile come Delay-/Disruption-Tolerant Network (DTN), ossia una rete in cui a causa di ritardi, interruzioni, partizionamento, non sia possibile utilizzare l'usuale architettura di rete TCP/IP. E' evidente che i problemi menzionati rendono estremamente più complessa la sincronizzazione fra cartelle rispetto ad Internet, da cui le peculiarità di DTNbox rispetto ad altre applicazioni in rete visto che, ad esempio, non è possibile la sincronizzazione tramite un nodo centrale, come in Dropbox e similari, ma occorre basarsi su comunicazioni peer-to-peer. L'oggetto della mia tesi si è quindi sviluppato principalmente su tre direzioni: • Implementare, utilizzando il linguaggio di programmazione C, le funzionalità previste dal nuovo progetto per Linux • Integrarne e modificarne le parti ritenute carenti, man mano che i test parziali ne hanno mostrato la necessità • Testarne il suo corretto funzionamento Si è deciso pertanto di dare precedenza alla scrittura delle parti fondamentali del programma quali i moduli di controllo, la struttura e gestione del database e lo scambio di messaggi tra due nodi appartenenti ad una rete DTN per poter arrivare ad una prima versione funzionante del programma stesso, in modo che eventuali future tesi possano concentrarsi sullo sviluppo di una interfaccia grafica e sull'aggiunta di nuovi comandi e funzionalità accessorie. Il programma realizzato è stato poi testato su macchine virtuali grazie all'uso dello strumento Virtualbricks.
Resumo:
In questo lavoro vengono indagati i benefici dell’aumento della pressione d’iniezione dell’AdBlue nei sistemi SCR. Dopo aver esposto le ipotesi teoriche a supporto della tesi, si passa all’allestimento del veicolo dimostrativo impiegato per l’attività sperimentale. In questa fase viene illustrato tutto il processo di preparazione, che comprende: la messa a punto del circuito idraulico, la caratterizzazione degli iniettori impiegati, la strumentazione della linea di scarico, e il software INCA impiegato per il comando delle centraline. Dopodiché vengono descritti nel dettaglio i test, condotti con il veicolo sperimentale, sul banco a rulli. Attraverso le prove, eseguite su due differenti punti motore, si è potuto dimostrare l’effettivo aumento di efficienza di abbattimento degli NOx, da parte del sistema SCR, all’aumentare della pressione d’iniezione dell’AdBlue. Inoltre si hanno effetti positivi anche in merito al fenomeno dell’ammonia slip, che viene sensibilmente ridotto ai livelli di pressione più alti.
Resumo:
Grazie all'enorme sviluppo dei LED, le comunicazioni tramite luce visibile stanno acquisendo sempre maggiore importanza. Obiettivo di questa tesi è implementare su schede a basso costo (come Rasperry Pi) un sistema di trasmissione e ricezione basato appunto sulla visible light communication. Dopo un primo tentativo di trasferire il codice OpenVLC, sviluppato dal centro di ricerca spagnolo IMDEA Network, su Rasperry Pi, si è deciso di intraprendere una nuova strada e si è implementato un trasmettitore VLC in Simulink di Matlab e una prima bozza di ricevitore che sfrutta la SPI (serial-parallel interface). I primi risultati mostrano il corretto funzionamento del sistema anche se con data rate molto basse. Sviluppi futuri prevederanno l'ottimizzazione del sistema.
Resumo:
Questo elaborato di tesi ha lo scopo di illustrare un'applicazione realizzata per dispositivi Android in grado di localizzare l'utente all'interno di un ambiente indoor sfruttando l'utilizzo dei Beacon e dare una valutazione dei risultati ottenuti. L'utente potrà registrare i dispositivi Beacon in suo possesso all'interno dell'applicazione, caricare la planimetria di un ambiente e configurarlo indicando esattamente quale Beacon si trova in una determinata posizione. Infine potrà scegliere quale tra i tre algoritmi implementati (Prossimità, Triangolazione e Fingerprinting) utilizzare per visualizzare la propria posizione sulla mappa. I tre algoritmi sono stati sottoposti a vari test che hanno permesso di analizzare le differenze tra di essi in termini di accuratezza e le performance generali dell'applicativo.
Resumo:
Scopo di questo elaborato di tesi è la modellazione e l’implementazione di una estensione del simulatore Alchemist, denominata Biochemistry, che permetta di simulare un ambiente multi-cellulare. Al fine di simulare il maggior numero possibile di processi biologici, il simulatore dovrà consentire di modellare l’eterogeneità cellulare attraverso la modellazione di diversi aspetti dei sistemi cellulari, quali: reazioni intracellulari, segnalazione tra cellule adiacenti, giunzioni cellulari e movimento. Dovrà, inoltre, essere ammissibile anche l’esecuzione di azioni impossibili nel mondo reale, come la distruzione o la creazione dal nulla di molecole chimiche. In maniera più specifica si sono modellati ed implementati i seguenti processi biochimici: creazione e distruzione di molecole chimiche, reazioni biochimiche intracellulari, scambio di molecole tra cellule adiacenti, creazione e distruzione di giunzioni cellulari. È stata dunque posta particolare enfasi nella modellazione delle reazioni tra cellule vicine, il cui meccanismo è simile a quello usato nella segnalazione cellulare. Ogni parte del sistema è stata modellata seguendo fenomeni realmente presenti nei sistemi multi-cellulari, e documentati in letteratura. Per la specifica delle reazioni chimiche, date in ingresso alla simulazione, è stata necessaria l’implementazione di un Domain Specific Language (DSL) che consente la scrittura di reazioni in modo simile al linguaggio naturale, consentendo l’uso del simulatore anche a persone senza particolari conoscenze di biologia. La correttezza del progetto è stata validata tramite test compiuti con dati presenti in letteratura e inerenti a processi biologici noti e ampiamente studiati.
Resumo:
Con l’aumento del consumo mondiale di risorse energetiche del pianeta, è diventato sempre più necessario utilizzare sistemi energetici che sfruttino al meglio la fonte di energia che li alimenta. Una delle soluzioni in questo ambito è quella proposta dagli Organic Rankine Cycle (ORC). Questi sistemi recuperano energia termica altrimenti non utilizzabile per le temperature troppo basse e sfruttano sorgenti termiche con ampi range di temperatura. L’elaborato volge all’analisi sperimentale delle prestazioni di un sistema Micro-ORC di piccola taglia, con rendimento termodinamico massimo dichiarato dal costruttore del 10 %. Inizialmente vengono descritti i fluidi organici e i sistemi che ne fanno uso, descrivendo anche esempi bibliografici di banchi prova per interpretare al meglio i risultati ottenuti con quello disponibile, che viene poi descritto, comprendendo i circuiti di asservimento dell’acqua calda e fredda, i punti di misura e il programma di acquisizione dati. Ci si concentra poi sulla descrizione e l’utilizzo dei codici implementati per l’elaborazione dei dati acquisiti. Questi hanno permesso di osservare gli andamenti temporali delle grandezze fondamentali per il sistema e valutarne la ripetibilità del comportamento nel corso di differenti prove. Vengono proposte infine le mappe di funzionamento per l’intero impianto e per i vari sotto-sistemi, offrendone un’interpretazione e inquadrandone i punti di lavoro ottimali. Attraverso la loro osservazione si sono dedotte le condizioni necessarie per avere un funzionamento ritenuto stabile del sistema ed è stato possibile ottimizzare le procedure svolte durante le fasi di test e di acquisizione dati. Sarà oggetto di studi futuri l’ottimizzazione dell’impianto, prolungando i tempi di esercizio a parità di carico elettrico e frequenza imposta alla pompa, con il fine di ottenere delle curve di prestazioni confrontabili con quelle presenti in bibliografia per altri sistemi ORC.
Resumo:
La tesi analizza la problematica del monitoraggio ambientale a basso costo, cercando di approfondirne le caratteristiche e studiando le situazioni in cui questo vi si adatta bene. Lo studio ha permesso di realizzare due tipologie di stazioni di raccolta dati, una dedicata alla misurazione delle polveri sottili, e una dedicata alla misurazione dell’acidità delle piogge. Entrambe le stazioni condividono la logica di funzionamento, quindi il “core” rimane lo stesso pur lavorando con dati estremamente diversi, mentre si distinguono per i due sensori utilizzati. In fase di test i sensori si sono dimostrati sufficientemente precisi lasciando ben sperare per la realizzazione di applicazioni in contesti reali simili a quelli considerati durante l’analisi. Le stazioni sono in grado di fornire dati geo-localizzati consultabili attraverso un portale web, è possibile visualizzare ogni stazione su una mappa ricevendo aggiornamenti sulle ultime misurazioni, inoltre si possono modellare i dati e visualizzarli su una serie di grafici. Una delle caratteristiche fondamentali che ha guidato tutta la progettazione è stata l’estendibilità del modello, la logica di funzionamento della stazione può essere facilmente implementata su tecnologie hardware e software diverse.
Resumo:
Il lavoro di tesi riguarda lo studio dettagliato di un ciclone di tipo tropicale (tropical like cyclone, TLC) verificatosi nel Canale di Sicilia nel novembre 2014, realizzato attraverso un'analisi modellistica effettuata con i modelli BOLAM e MOLOCH (sviluppati presso il CNR-ISAC di Bologna) e il confronto con osservazioni. Nel primo capitolo è fornita una descrizione generale dei cicloni tropicali e dei TLC, indicando come la formazione di questi ultimi sia spesso il risultato dell'evoluzione di cicloni extratropicali baroclini nel Mediterraneo; sono identificate le aree geografiche con i periodi dell'anno maggiormente soggetti all'influenza di questi fenomeni, riportando un elenco dei principali TLC verificatisi nel Mediterraneo negli utlimi tre decenni e lo stato dell'arte sullo studio di questi eventi. Nel secondo capitolo sono descritte le modalità di implementazione delle simulazioni effettuate per il caso di studio e presentati i principali prodotti dell'analisi modellistica e osservazioni da satellite. Il terzo capitolo si apre con la descrizione della situazione sinottica e l'analisi osservativa con immagini Meteosat e rilevazioni radar che hanno permesso di ricostruire la traiettoria osservata del TLC. In seguito, viene dapprima fornito l'elenco completo delle simulazioni numeriche, quindi sono presentati alcuni dei più importanti risultati ottenuti, dai quali emerge che la previsione della traiettoria e intensità del TLC differisce notevolmente dalle osservazioni. Tenendo conto della bassa predicibilità che ha caratterizzato l'evento, nel quarto capitolo è descritto il metodo usato per ricostruire in maniera ottimale la traiettoria, utilizzando spezzoni da varie simulazioni, che ha permesso un confronto più realistico con i dati osservati e un'analisi dei processi fisici. Nel quinto capitolo sono riportati i principali risultati di alcuni test mirati a valutare l'impatto di aspetti legati all'implementazione delle simulazioni e ad altre forzanti fisiche.
Resumo:
Il lavoro di questa tesi è focalizzato sulla valutazione della sensibilità delle microonde rispetto a differenti idrometeore per le frequenze a 89 GHz e 150 GHz e nella banda di assorbimento del vapor d'acqua a 183.31 GHz. Il metodo di indagine consiste nell'utilizzo del modello di trasferimento radiativo RTTOV (Eyre, 1991) per simulare radianze dei canali dei sensori satellitari nelle microonde Advanced Microwave Sounding Unit-B (AMSU-B) e Microwave Humidity Sounder (MHS). Le simulazioni basate sul modello RTTOV si sono focalizzate su tre dataset indipendenti, forniti da ECMWF. Il primo passo tiene conto di una selezione di categorie dei profili atmosferici basato su una distinzione della fase delle idrometeore, LWP, IWP e WVP, con sottoclassi terra e oceano. La distinzione in diverse categorie permette di valutare la sensibilità di ciascuna frequenza utilizzata nelle simulazioni al variare del contenuto di acqua e ghiaccio. Un secondo approccio è usato per valutare la risposta di ciascuna frequenza nei casi di nevicate sulla terraferma. Questa indagine ha permesso lo sviluppo di un nuovo algoritmo prototipale per la stima dell'intensità di precipitazione nevosa basato su una serie di test a soglia e una equazione di combinazione lineare multipla che sfrutta una combinazione dei canali più sensibili alla snowfall: 150, 186 e 190 GHz. Una prima verifica su casi di studio pre-selezionati di snowstorm sembra fornire risultati promettenti. Infine è stato realizzato uno studio di sensibilità dell’algoritmo 183-WSL (Laviola and Levizzani, 2011) utilizzando le simulazioni di RTTOV con precipitazione/non precipitazione come predittori discreti e con le intensità di precipitazione come predittori continui. Le simulazioni RTTOV rivelano una sovrastima delle radianze in presenza di profili di pioggia e ciò potrebbe essere dovuto alle approssimazioni e parametrizzazioni adottate nel modello RTTOV-SCATT usato per la risoluzione dello scattering in presenza di precipitazione.