585 resultados para PCM, accumulo latente, fluidi a cambiamento di fase, acido laurico
Resumo:
Grazie alla costante evoluzione tecnologica, negli ultimi anni sempre più oggetti di vita quotidiana stanno accedendo ad Internet. Il proliferare dei dispositivi “smart” ha dato il via ad una nuova rivoluzione tecnologica: quella di Internet of Things (IoT), che sta portando nelle mani degli utenti un elevatissimo numero di informazioni in grado di offrire notevoli benefici alla vita di ogni giorno. Per poter accedere ai dati messi a disposizione risulterà necessario realizzare un servizio in grado di consentire la scoperta, l’accesso e l’interazione con i nodi della rete che si occuperanno della gestione delle informazioni. In letteratura sono già disponibili alcuni di questi meccanismi, ma essi presentano dei difetti che verrebbero ancor più accentuati dalle ridotte capacità computazionali dei terminali IoT. In questo progetto di tesi verrà presentato un servizio di discovery per gateway IoT Kura-based, pensato, grazie all’utilizzo del protocollo di messaggistica MQTT, per operare con terminali dalle performance limitate ed in situazioni di scarsa connettività. Il servizio realizzato prevede che degli smartphone Android richiedano a tutti i gateway in una determinata località i parametri per entrare nel loro network. La richiesta verrà inviata mediante un messaggio MQTT pubblicato in un topic location-specific su un broker remoto. I gateway che riceveranno il messaggio, se interessati alle caratteristiche del client, gli risponderanno comunicando i dati di accesso al network in modo che il dispositivo possa auto-configurarsi per accedervi. Ad accesso avvenuto client e gateway comunicheranno in modo diretto attraverso un broker locale. In fase di testing si valuteranno le performance del servizio analizzando i tempi di risposta e l’utilizzo di risorse lato gateway, e l’assorbimento di potenza lato client.
Resumo:
I bacini idrografici appenninici romagnoli rappresentano una fonte idropotabile di essenziale importanza per la Romagna, grazie alla regolazione stagionale svolta dall’invaso artificiale di Ridracoli. Nel presente elaborato si è implementato un modello per lo studio e la valutazione del regime idrologico dei bacini idrografici allacciati all’invaso, affrontando sia gli aspetti relativi alla miglior spazializzazione dei dati metereologici in ingresso al modello (in particolare in relazione alla stima della temperatura, fondamentale per la rappresentazione dei processi di evapotraspirazione e dei fenomeni di accumulo e scioglimento nevoso), sia gli aspetti di calibrazione dei parametri, confrontando le simulazioni ottenute a partire da diverse configurazioni del modello in termini di rappresentazione spaziale e temporale dei fenomeni. Inoltre si è eseguita una regionalizzazione del modello su due sezioni fluviali che sono al momento oggetto di indagini idrologiche, fornendo supporto alla valutazione della possibilità di realizzazione di una nuova opera di presa. A partire dai dati puntuali dei sensori termometrici disponibili si è ricercata la migliore tecnica di interpolazione della temperatura sull’area di studio, ottenendo una discreta precisione, con un errore in procedura di ricampionamento jack-knife raramente superiore al grado centigrado. La calibrazione del modello TUWien in approccio semi-distribuito, sia quando applicato a scala oraria sia quando applicato a scala giornaliera, ha portato a buoni risultati. La complessità del modello, dovuta in gran parte alla presenza di uno specifico modulo per la gestione di accumulo e scioglimento nivale, è stata ripagata dalle buone prestazioni delle simulazioni ottenute, sia sul periodo di calibrazione sia su quello di validazione. Tuttavia si è osservato che l’approccio semi-distribuito non ha portato benefici sostanziali rispetto a quello concentrato, soprattutto in relazione al forte aumento di costo computazionale.
Resumo:
Il presente lavoro di tesi si pone come obbiettivo l’elaborazione di dati GNSS in modalità cinematica post-processing per il monitoraggio strutturale e, in una seconda fase, lo studio delle precisioni raggiungibili delle soluzioni ottenute utilizzando algoritmi di post-elaborazione del dato. L’oggetto di studio è la torre Garisenda, situata in piazza Ravegnana, accanto alla torre Asinelli, nel centro storico di Bologna, da tempo oggetto di studi e monitoraggi per via della sua inclinazione particolarmente critica. Per lo studio è stato utilizzato un data set di quindici giorni, dal 15/12/2013 al 29/12/2013 compresi. Per l’elaborazione dei dati è stato utilizzato un software open source realizzato da ricercatori del Politecnico di Milano, goGPS. Quest'ultimo, essendo un codice nuovo, è stato necessario testarlo al fine di poter ottenere dei risultati validi. Nella prima fase della tesi si è quindi affrontato l’aspetto della calibrazione dei parametri che forniscono le soluzioni più precise per le finalità di monitoraggio considerando le possibili scelte offerte dal codice goGPS. In particolare sono stati imposti dei movimenti calibrati e si è osservata la soluzione al variare dei parametri selezionati scegliendo poi quella migliore, ossia il miglior compromesso tra la capacità di individuare i movimenti e il rumore della serie. Nella seconda fase, allo scopo di poter migliorare le precisioni delle soluzioni si sono valutati metodi di correzione delle soluzioni basati sull'uso di filtri sequenziali e sono state condotte analisi sull'incremento di precisione derivante dall'applicazione di tali correzioni.
Resumo:
Negli ultimi anni la biologia ha fatto ricorso in misura sempre maggiore all’informatica per affrontare analisi complesse che prevedono l’utilizzo di grandi quantità di dati. Fra le scienze biologiche che prevedono l’elaborazione di una mole di dati notevole c’è la genomica, una branca della biologia molecolare che si occupa dello studio di struttura, contenuto, funzione ed evoluzione del genoma degli organismi viventi. I sistemi di data warehouse sono una tecnologia informatica che ben si adatta a supportare determinati tipi di analisi in ambito genomico perché consentono di effettuare analisi esplorative e dinamiche, analisi che si rivelano utili quando si vogliono ricavare informazioni di sintesi a partire da una grande quantità di dati e quando si vogliono esplorare prospettive e livelli di dettaglio diversi. Il lavoro di tesi si colloca all’interno di un progetto più ampio riguardante la progettazione di un data warehouse in ambito genomico. Le analisi effettuate hanno portato alla scoperta di dipendenze funzionali e di conseguenza alla definizione di una gerarchia nei dati. Attraverso l’inserimento di tale gerarchia in un modello multidimensionale relativo ai dati genomici sarà possibile ampliare il raggio delle analisi da poter eseguire sul data warehouse introducendo un contenuto informativo ulteriore riguardante le caratteristiche dei pazienti. I passi effettuati in questo lavoro di tesi sono stati prima di tutto il caricamento e filtraggio dei dati. Il fulcro del lavoro di tesi è stata l’implementazione di un algoritmo per la scoperta di dipendenze funzionali con lo scopo di ricavare dai dati una gerarchia. Nell’ultima fase del lavoro di tesi si è inserita la gerarchia ricavata all’interno di un modello multidimensionale preesistente. L’intero lavoro di tesi è stato svolto attraverso l’utilizzo di Apache Spark e Apache Hadoop.
Resumo:
Gli odierni sviluppi delle reti stradali nel territorio italiano e l’aumento della propensione all’utilizzo del veicolo hanno portato ad una continua ricerca nello stesso ambito volta sì a mantenere alti i livelli prestazionali e di sicurezza sulla rete stradale ma anche ad aprirsi ad uno scenario ecosostenibile, dato il continuo scarseggiare di materie prime per proseguire con le usuali tecniche di produzione. In tutti i campi riguardanti l’ambito delle costruzioni civili, che siano esse strutturali o infrastrutturali, numerose sono state le tecnologie introdotte per la realizzazione di materiali sostenibili ma anche e soprattutto il recupero di materiale di scarto, andando così incontro oltre che a una costruzione sostenibile anche ad un recupero di ciò che sarebbe destinato a discariche, ufficiali o abusive che siano. Nell’ottica dell’introduzione di “nuovi” materiali una posizione di rispetto interessa gli Pneumatici Fuori Uso (PFU) il cui recupero sotto forma di granulato e di polverino in gomma costituiscono, nell’ambito delle pavimentazioni stradali, una notevole opportunità di riutilizzo all’interno dei conglomerati bituminosi. Il presente lavoro sperimentale è stato svolto nell’ottica di analizzare dapprima le caratteristiche delle pavimentazioni drenanti, del polverino di gomma da PFU e dell’interazione tra i due, a supporto delle sperimentazioni effettuate sulle miscele realizzate in laboratorio. In particolare, sfruttando la tecnologia dry, che permette l’inserimento del polverino nella fase di miscelazione degli aggregati, dopo un’attenta analisi preliminare della composizione delle miscele da realizzare e il successivo confezionamento dei provini e loro addensamento, si è proceduto all’esecuzione di diverse prove al termine delle quali sono state analizzate le differenze meccaniche e reologiche tra miscele ottenute con aggiunta di polverino e miscele prive di PFU.
Resumo:
Il percorso intrapreso per la scrittura della tesi, si snoda essenzialmente in due fasi e nove capitoli. La prima fase ha avuto come scopo l’analisi dal punto di vista tecnologico dell’evoluzione tecnologica avuta nel campo di realtà aumentata e dispositivi wearable in particolare orientandosi verso una tipologia di interazioni hands-free. Questo ha portato ad una ricognizione sullo stato dell’arte permettendo di attenere una base di conoscenza solida per la costruzione del sistema presentato all’interno del caso di studi. I capitoli successivi, in particolare dal quinto, introducono alla seconda fase ed hanno lo scopo di progettare e realizzare il sistema proposto, partendo da un’attenta analisi delle caratteristiche richieste passando per la prototipazione e successiva definizione delle caratteristiche atte alla valutazione del sistema stesso.
Resumo:
L'obiettivo principale di questa tesi è quello di approfondire il tema della comunicazione e sincronizzazione dati nel contesto di uno specifico caso di studio di sistema informatico a supporto del lavoro cooperativo per il soccorso in emergenza: a partire dai requisiti del caso applicativo, secondo cui agli operatori deve essere possibile utilizzare il sistema anche a fronte di disconnessioni dei propri dispositivi mobili, emerge infatti la necessità di un middleware a cui il livello applicativo demandi le funzionalità di sincronizzare le informazioni prodotte durante le operazioni, in modo da promuovere uno scambio di informazioni che migliori e supporti l'azione del singolo e conseguentemente del team. Quindi, dopo aver introdotto la tematica ed analizzato il caso di studio da affrontare, viene descritta l'esplorazione del panorama tecnologico volta alla ricerca di strumenti o approcci che possano mitigare la complessità nella realizzazione di questa funzionalità. Nel panorama tecnologico considerato, comprendente framework per servizi web, MOM e database, uno strumento di particolare interesse è stato individuato in CouchDB, un database NoSQL, grazie alle sue funzionalità di replica e sincronizzazione e alla presenza di una libreria per lo sviluppo su dispositivi mobili: su di esso è stata effettuata una breve fase di sperimentazione volta a saggiarne in maniera più concreta le potenzialità anche in relazione alla valutazione di fattibilità per il caso applicativo considerato.
Resumo:
Nel Comune di Cesena è presente un sistema di gestione dei risultati elettorali che si avvale di una base di dati per memorizzare le informazioni sui seggi, sui partiti, sui candidati, e sui risultati da loro ottenuti, ma il software in uso manca di funzionalità avanzate che permettano di eseguire correttamente raffronti fra diverse elezioni, di tenere traccia di cambiamenti nelle parti più statiche dei dati, di identificare univocamente un soggetto anche se è presente più volte con nomi diversi. In questo contesto si inserisce la progettazione del nuovo Sistema di Gestione dei Risultati Elettorali; in primo luogo è stata necessaria una fase di analisi del sistema attuale per capirne le funzionalità e caratteristiche a livello di database, quali fossero le sue mancanze e quali dati venivano memorizzati da usare come base concettuale di partenza per il nuovo sistema. Si è poi passati alla fase di progettazione vera e propria del nuovo sistema perciò è stato prima necessario strutturare la nuova base di dati; con l’aiuto di diagrammi ER si è stabilito quali fossero le entità necessarie al funzionamento del database, siamo passati poi attraverso una normalizzazione dei diagrammi fino ad ottenere uno schema fisico che indicasse tutte le tabelle e abbiamo scelto di utilizzare la suite DBMS Oracle per la creazione del database. Si è poi scelto di utilizzare il linguaggio di scripting PHP per realizzare l’interfaccia per consentire l’accesso al sistema da parte di molteplici client, prestando particolare attenzione al procedimento di inserimento dei dati preliminari di un’elezione, cioè tutti quei dati che vengono inseriti prima del giorno della votazione che includono i seggi che verranno utilizzati, i partiti e i candidati che si contenderanno il voto degli elettori. Anche in questo caso, al termine dell’implementazione, si è eseguita un’ampia fase di test per assicurarsi che l’utente inserisca in maniera corretta solo ed esclusivamente i dati necessari.
Resumo:
Il mondo degli smartphone, in particolare grazie all’avvento delle app, costituisce un settore che ha avuto negli ultimi anni una crescita tale, da richiedere l’introduzione di un nuovo termine in ambito finanziario: app economy. La crescente richiesta da parte del mercato di nuove opportunitá derivanti dal mondo delle applicazioni, ha aumentato sensibilmente il carico di lavoro richiesto alle software house specializzate,che hanno pertanto avuto la necessitá di adeguarsi a tale cambiamento. Per ovviare alle suddette problematiche, sono iniziati ad emergere due tool che consentono lo sviluppo di applicazioni multipiattaforma utilizzando un linguaggio ed un ambiente di sviluppo comuni. Tali sistemi consentono un risparmio in termini di tempi e costi, ma non sono in grado di competere con i tool nativi in termini di qualità del prodotto realizzato, in particolare per quanto concerne l'interfaccia grafica. Si propone pertanto un approccio che tenta di combinare i vantaggi di entrambe le soluzioni, al fine di ottimizzare la fluidità della UI, consentendo allo stesso tempo il riuso della logica applicativa.
Resumo:
L’obiettivo principale di questa tesi è utilizzare le tecniche di gamification più importanti nella progettazione ed implementazione di un’interfaccia Human-Vehicle per creare un software che possa rendere la guida di un’automobile elettrica più efficace ed efficiente da parte del guidatore. Per lo sviluppo del software è stato svolto uno studio specifico sulla gamification, sulle interfacce Human-Vehicle e sulle macchine elettriche attualmente in produzione. Successivamente è stata svolta la fase di progettazione in cui sono stati creati dei mockup relativi all’interfaccia grafica ed è stato svolto un focus group. Infine è stato implementato il vero e proprio software di simulazione EcoGame ed è stato effettuato un test utenti.
Resumo:
L’attività di tesi, svolta presso i laboratori dell’Istituto CNR-IMM di Bologna, si è focalizzata sulla crescita tramite Deposizione Chimica da Fase Vapore di schiume di grafene - network tridimensionali costituiti da fogli di grafene interconnessi, in grado di unire le straordinarie proprietà del grafene ad una elevatissima area superficiale - e sulla loro caratterizzazione, con l’obiettivo di sintetizzare strutture 3D di grafene con una porosità controllata e buone caratteristiche strutturali. Nel primo capitolo della tesi vengono illustrate da un punto di vista generale le caratteristiche e proprietà salienti del grafene, sia dal punto di vista strutturale che fisico. il secondo capitolo è dedicato alle tecniche di produzione del materiale, dall’esfoliazione meccaniche, a quella chimica, per arrivare alle tecniche di crescita vere e proprie. Maggiore attenzione viene chiaramente riservata alla Deposizione Chimica da Fase Vapore, utilizzata poi nell’ambito dell’attività sperimentale svolta. Nel terzo capitolo vengono descritti in dettaglio tutti gli apparati sperimentali utilizzati, sia per la sintesi del materiale (il sistema CVD), che per la sua caratterizzazione (microscopia elettronica a scansione, diffrazione a raggi X, spettroscopia fotoelettronica a raggi X e Raman). Il quarto ed il quinto capitolo sono dedicati alla parte sperimentale vera e propria. Nel quarto si descrive e si discute il processo messo a punto per crescere strutture tridimensionali di grafene a partire da schiume metalliche commerciali, mentre nel quinto vengono infine descritti gli approcci originali messi a punto per la sintesi di strutture con porosità controllata. Nelle conclusioni, infine, oltre a tirare le somme di tutto il lavoro svolto, vengono delineate le prospettive applicative dei materiali prodotti e le attività che sono attualmente in corso relative alla loro caratterizzazione e al loro impiego.
Resumo:
I sedimenti superficiali dei fondali circostanti l’arcipelago del Golfo di La Spezia sono stati analizzati dal punto di vista granulometrico e composizionale al fine di ottenere la mappatura delle concentrazioni di coralliti sub-fossili di Cladocora caespitosa nel sedimento. Mediante lo studio del sedimento campionato in trentacinque stazioni, sono state individuate tre zone di accumulo di coralliti: (i) in corrispondenza del capo occidentale dell’Isola Palmaria con le concentrazioni più elevate comprese tra il 25 e 55% (ii) sul lato sud-orientale della stessa isola con concentrazioni tra il 10 e 12% e (iii) una fascia contornante l’Isola del Tinetto con quantità inferiori al 3%. La concentrazione anomala di coralliti è il risultato dello scarico di materiali di dragaggio provenienti dal porto di La Spezia, scaricati al largo delle coste occidentali dell’arcipelago tra gli anni ‘50 e ’70 e progressivamente ridistribuiti verso sud-est dalla deriva litorale.
Resumo:
Lo scopo di questo l'elaborato è l'analisi,lo studio e il confronto delle tecnologie per l'analisi in tempo reale di Big Data: Apache Spark Streaming, Apache Storm e Apache Flink. Per eseguire un adeguato confronto si è deciso di realizzare un sistema di rilevamento e riconoscimento facciale all’interno di un video, in maniera da poter parallelizzare le elaborazioni necessarie sfruttando le potenzialità di ogni architettura. Dopo aver realizzato dei prototipi realistici, uno per ogni architettura, si è passati alla fase di testing per misurarne le prestazioni. Attraverso l’impiego di cluster appositamente realizzati in ambiente locale e cloud, sono state misurare le caratteristiche che rappresentavano, meglio di altre, le differenze tra le architetture, cercando di dimostrarne quantitativamente l’efficacia degli algoritmi utilizzati e l’efficienza delle stesse. Si è scelto quindi il massimo input rate sostenibile e la latenza misurate al variare del numero di nodi. In questo modo era possibile osservare la scalabilità di architettura, per analizzarne l’andamento e verificare fino a che limite si potesse giungere per mantenere un compromesso accettabile tra il numero di nodi e l’input rate sostenibile. Gli esperimenti effettuati hanno mostrato che, all’aumentare del numero di worker le prestazioni del sistema migliorano, rendendo i sistemi studiati adatti all’utilizzo su larga scala. Inoltre sono state rilevate sostanziali differenze tra i vari framework, riportando pro e contro di ognuno, cercando di evidenziarne i più idonei al caso di studio.
Resumo:
La presente attività di tesi è stata svolta presso la Divisione di Sicurezza Nucleare dell’ENEA di Bologna ed è stata finalizzata ad analizzare, mediante il codice MELCOR 2.1, le conseguenze di tre incidenti severi non mitigati di tipo LBLOCA in un generico reattore nucleare ad acqua leggera pressurizzata (PWR) da 900 MWe. In particolare sono stati confrontati gli scenari incidentali relativi a tre distinti eventi iniziatori nel circuito di refrigerazione primario: la rottura a ghigliottina della gamba fredda (CL) del loop 1, della gamba calda (HL) del loop 1 e della surge line di connessione con il pressurizzatore. Le analisi MELCOR hanno indagato la progressione incidentale in-vessel, con particolare riferimento alle fenomenologie termoidrauliche e di degradazione del core. MELCOR infatti è un codice integrato che simula le principali fenomenologie riguardanti sequenze incidentali di tipo severo in reattori ad acqua leggera. Durante la prima fase dei tre transitori incidentali risultano predominanti fenomenologie di carattere termoidraulico. In particolare MELCOR predice la rapida depressurizzazione e il conseguente svuotamento del sistema di refrigerazione primario. I tre transitori sono poi caratterizzati dallo scoprimento completo del core a causa dell’indisponibilità del sistema di refrigerazione di emergenza. Il conseguente riscaldamento del core per il calore di decadimento e per ossidazione delle strutture metalliche conduce inevitabilmente alla sua degradazione e quindi al fallimento della lower head del recipiente in pressione del reattore nei tre scenari incidentali in tempi diversi. Durante la prima fase incidentale, di carattere prevalentemente termoidraulico, sono state rilevate le principali differenze fenomenologiche causate dalle differenti posizioni e dimensioni delle rotture. Il transitorio causato dalla rottura della CL si è confermato come il più gravoso, con fallimento anticipato della lower head rispetto agli altri due transitori considerati.
Resumo:
L’obiettivo della tesi è quello di fare una panoramica sulla strategia BIM e quindi sulla digitalizzazione del processo costruttivo. Grazie alla analisi di un caso di studio, altro obiettivo è quello di analizzare e valutare la metodologia BIM 4D/5D, ossia la gestione dei tempi e dei costi di realizzazione dell’opera. Nella prima fase si affronta il tema del BIM, con una analisi sull’evoluzione degli strumenti di elaborazione e rappresentazione digitale del progetto architettonico, su come questi strumenti si differenzino sia dal punto di vista operativo che concettuale rivoluzionando il flusso di lavoro odierno. Quindi, partendo da un’analisi che e ritrae l’estrema frammentazione del settore delle costruzioni, si va ad analizzare come il BIM aumenti e favorisca la collaborazione delle parti interessate, armonizzando l’intero processo costruttivo dell’opera. Si prosegue con l'esame della diffusione e del livello di maturità degli strumenti BIM, di come i privati e le amministrazioni pubbliche, a livello mondiale, stiano spingendo per favorire l’adozione della metodologia BIM. Inoltre si analizzano le dinamiche dell’interoperabilità, delle metodologie e protocolli di interscambio dati, che sono un elemento chiave per il successo del BIM per via dei numerosi strumenti, specializzati nelle varie discipline del settore edile. Nella terza parte, dedicata al Project Management di un caso di studio, si verifica la bontà delle metodologie teorizzate attraverso la realizzazione di un modello virtuale in Revit. Dal modello realizzato dal laureando sono estrapolate le informazioni necessarie alla gestione, e tramite il software STRVison CPM, si elaborano i principali documenti per la progettazione e gestione del cantiere: il CM, il CME, i tempi operativi, il cronoprogramma Gantt. Obbiettivo è constatare l’effettivo livello di maturità della strategia BIM 4D e 5D e la reale possibilità di un impiego capillare nel panorama italiano del settore delle costruzioni.