317 resultados para Squacquerone di Romagna DOP, shelf-life, sicurezza, qualità delle materie prime


Relevância:

100.00% 100.00%

Publicador:

Resumo:

I rifiuti rappresentano un’opportunità di crescita sostenibile in termini di riduzione del consumo di risorse naturali e di sviluppo di tecnologie per il riciclo di materia ed il recupero energetico. Questo progetto di ricerca si occupa di valutare, attraverso l’approccio dello studio del ciclo di vita, la valorizzazione energetica di una particolare categoria di rifiuti: i fanghi derivanti dalla depurazione delle acque. Si è studiata la valorizzazione dei fanghi attraverso l’applicazione del Thermo Catalytic Re-forming (TCR)®, tecnologia che consente di trasformare i fanghi in un carburante per la produzione di energia elettrica (bioliquido). Le valutazioni sono effettuate per una linea di processo generale e due configurazioni progettuali declinate in due scenari. Il caso di studio è stato riferito al depuratore di S. Giustina (Rimini). Per la linea di processo, per ognuna delle configurazioni e i relativi scenari, è stato compilato il bilancio energetico e di massa e, conseguentemente, valutata l’efficienza energetica del processo. Le regole della Renewable Energy Directive (RED), applicate attraverso lo strumento ‘BioGrace I’, permettono di definire il risparmio di gas serra imputabile al bioliquido prodotto. I risultati mostrano che adottare la tecnologia TRC® risulta essere energeticamente conveniente. Infatti, è possibile ricavare dal 77 al 111% del fabbisogno energetico di una linea di processo generale (linea fanghi convenzionale e recupero energetico TCR®). Questo permette, quindi, di ricavare energia utile al processo di depurazione. La massima performance si realizza quando la tecnologia si trova a valle di una linea di trattamento fanghi priva di digestione anaerobica e se il biochar prodotto viene utilizzato come combustibile solido sostitutivo del carbone. La riduzione delle emissioni imputabile al bioliquido prodotto va dal 53 al 75%, valori che soddisfano il limite definito dalla RED del 50% di riduzione delle emissioni (2017) per ogni configurazione progettuale valutata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Secondo l'Agenzia Europea dell'Ambiente una delle principali minacce per le risorse di acqua dolce della zone costiere italiane è l’intrusione salina. L’obiettivo di questa tesi magistrale è la caratterizzazione idrogeologica di una frazione dell’acquifero freatico costiero situato in due differenti corpi dunosi. L’indagine proseguita per cinque mesi ha evidenziano differenze tra un’area sottoposta a forte pressione antropica (Marina Romea) e un’area che mostra un relativo sviluppo naturale del sistema spiaggia-duna (Porto Corsini). La tecnica di campionamento utilizzata è il sistema a minifiltri (multi level samplers), metodologia innovativa che garantisce tempistiche di monitoraggio rapide e una campionatura multi-livello puntuale e precisa. La campagna di monitoraggio ha coinvolto misure di freatimetria, conduttività elettrica e analisi chimiche delle acque che hanno portato ad una loro classificazione geo-chimica. Dai risultati si evidenzia che l’acquifero è molto salinizzato, gli strati d’acqua dolce sono isolati in lenti superficiali e i tipi di acque presenti sono dominati da ioni sodio e cloro. Tra i due siti il più vulnerabile risulta essere Marina Romea per molti fattori: l’erosione costiera che assottiglia la fascia dunale adibita alla ricarica di acqua dolce, un’estensione spaziale della duna minore rispetto a Porto Corsini, la presenza di infrastrutture turistiche che hanno frazionato la duna, la vicinanza al canale di drenaggio che causa la risalita delle acque profonde saline, la presenza di specie arboree idro-esigenti che attingono e quindi assottigliano le lenti d’acqua dolce. Si propone di migliorare la qualità dell’acqua sotterranea con una migliore gestione del canale di drenaggio, sostituendo alcuni esemplari di pinacee con specie arbustive tipiche degli ambienti dunosi ed infine imponendo misure per il risparmio idrico durante la stagione turistica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha avuto lo scopo di valutare l’effetto dell’insorgenza delle anomalie “white-striping” e “wooden breast” (sia separatamente che contestualmente nell’ambito dello stesso filetto) su composizione chimica, profilo in acidi grassi e suscettibilità all’ossidazione lipidica e proteica. Le modificazioni riscontrate nella composizione chimica (maggiori livelli di collagene e lipidi a discapito del tenore in proteine) determinano una ridotta qualità nutrizionale con possibili effetti negativi sulla percezione del consumatore, oltre che sulla capacità di ritenzione idrica come riscontrato in precedenti studi. Per quanto riguarda il profilo in acidi grassi, l’effetto delle anomalie è stato più limitato rispetto a quanto ipotizzato. Infatti, nonostante l’aumento dei lipidi totali, le carni di petto anomale non presentano modificazioni nel contenuto di acidi grassi monoinsaturi e polinsaturi totali. Le uniche differenze hanno riguardato il totale degli acidi grassi saturi e il contenuto di acidi grassi essenziali (EPA, DPA, DHA) che sono risultati significativamente inferiori. Le ridotte quantità di EPA e DPA nei petti anomali possono essere correlate alla minore attività degli enzimi Δ5 e Δ6 desaturasi, probabilmente in ragione della complessiva riduzione nell’espressione dei geni che codificano tali enzimi. Da sottolineare infine che le carni anomale hanno presentato livelli inferiori di emepigmenti. Per quanto attiene alle caratteristiche tecnologiche, è stata osservato un maggiore livello di ossidazione delle proteine in relazione alla presenza dell’anomalia wooden breast. Al contrario, l’ossidazione dei lipidi non ha mostrato differenze sostanziali fra i campioni anomali e quelli normali. Nel complesso, pertanto questo lavoro di tesi ha ulteriormente evidenziato i rischi connessi all’utilizzo delle carni anomale, e soprattutto di quelle affette da wooden breast, nella preparazione di prodotti trasformati in relazione al peggioramento delle rese di lavorazione dovuto alla minore concentrazione e qualità delle proteine. La componente lipidica sembra invece essere meno compromessa dalla presenza di tali anomalie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Non possiamo permettere l'utilizzo del [tessuto] urbano come strumento per la produzione di iniquità e trasferimenti, incapaci di vedere l'importanza e la difficoltà di creare uno spazio attivo che sia equo, ecologico ed economico" (Schafran, 2014). In un contesto di emergenza ambientale globale e considerando le problematiche degli insediamenti popolari sudamericani, la presente ricerca propone l’introduzione del concetto di sostenibilità urbana come fattore di miglioramento di un quartiere della periferia del Gran Santiago. Il caso studio è interessante in quanto la politica cilena si muove in direzione di maggiore consapevolezza per i temi ambientali, pur dovendo ancora risolvere problemi di segregazione e scarsa qualità nella “vivienda social”. La presente ricerca è quindi finalizzata ad individuare una matrice composta da linee guida di sostenibilità riferite alla scala di quartiere, come strategia per rispondere ai problemi socio-residenziali, oltre alle imperanti esigenze di maggiore sostenibilità ambientale. A tale scopo è necessario fare riferimento a sistemi di valutazione adeguati: analizzando quelli utilizzati in ambito nazionale e internazionale, si ricava una matrice di 106 linee guida, 16 criteri e 3 ambiti principali di interesse. È questo lo strumento utilizzato per la diagnosi del caso studio. In base alle criticità emerse e alle necessità dell’area emergono due strategie principali su cui si articola la proposta progettuale di riqualificazione del quartiere: implementare dotazioni di servizi e aree verdi e introdurre tecnologie e misure ecofriendy, col fine di generare identità e migliorare la qualità di vita nel quartiere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno tra i principali problemi dei compositi è il fenomeno della delaminazione. In questo lavoro di tesi sono state prodotte membrane nanofibrose ottenute mediante elettrofilatura di poliarammidi, da impiegare come rinforzo per contrastare tale fenomeno. Sono state quindi preparate soluzioni di Nomex con differenti combinazioni di concentrazione e solvente da sottoporre ad elettrofilatura, e sono stati ricercati i parametri di processo ottimali. La qualità delle nanofibre è stata valutata attraverso analisi SEM e successivamente sono state determinate le proprietà termo-meccaniche delle membrane migliori. Le stesse sono state impiegate per la produzione di compositi in fibra di carbonio a matrice epossidica e l’effetto sulla delaminazione è stato valutato tramite test preliminari ILSS e DCB. Inoltre, è stato valutato al cono-calorimetro il comportamento alla fiamma del composito nano-rinforzato. Sono state anche tentate prove preliminari di elettrofilatura di soluzioni di Kevlar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del presente lavoro di tesi è l’implementazione di un metodo per la detezione automatica dei contorni dell’esofago in immagini ecografiche intracardiache acquisite durante procedure di ablazione transcatetere per il trattamento della fibrillazione atriale. Il progetto si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale ‘’ S. Maria delle Croci ’’ di Ravenna, Azienda Unità Sanitaria Locale della Romagna e si inserisce in un progetto di ricerca più ampio in cui sono stati sviluppati due differenti metodi per il tracciamento automatico della parete posteriore dell’atrio sinistro. L’obiettivo è consentire al clinico il monitoraggio della posizione dell’esofago rispetto all’atrio sinistro per ridurre il rischio di lesioni della parete esofagea. L’idea di base dell’algoritmo è di lavorare sull’immagine per linee di scansione orizzontali, valutando la distribuzione dei livelli di intensità di grigio. Una volta individuati i punti appartenenti alle pareti anteriore e posteriore dell’esofago, sono stati utilizzati dei polinomi rispettivamente del quarto e secondo ordine per interpolare i dati. Per assicurarsi che la detezione sia corretta è stato introdotto un check aggiuntivo che consente la correzione del risultato qualora il clinico non sia soddisfatto, basandosi su input manuale di due punti richiesto all’operatore. L’algoritmo è stato testato su 15 immagini, una per ogni paziente, e i contorni ottenuti sono stati confrontati con i tracciamenti manuali effettuati da un cardiologo per valutare la bontà del metodo. Le metriche di performance e l’analisi statistica attestano l’accuratezza del metodo. Infine sono state calcolate delle misure di interesse clinico, quali la distanza tra parete posteriore dell’atrio sinistro e parete anteriore dell’esofago e la larghezza media di quest’ultimo che risulta comparabile con quanto riportato in letteratura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I dispositivi impiantabili stanno acquisendo grande importanza nell’ambito delle applicazioni biomedicali, ciò è dovuto principalmente alla loro attitudine nell’adempiere funzioni di stimolazione, monitoraggio su organi interni e di comunicazione di segnali vitali al mondo esterno. La comunità scientifica, in particolare, concentra la sua attenzione sulle tecniche di alimentazione di tali dispositivi. Le batterie al litio hanno rappresentato, fino a qualche tempo fa, la sorgente di alimentazione primaria. Il bisogno crescente di minimizzare le dimensioni di questi dispositivi e migliorare la qualità di vita del paziente (evitare successive operazioni chirurgiche, rischi e infezioni a causa dei cavi percutanei), ha spinto nella ricerca di nuove soluzioni. Una di queste è rappresentata dalla Wireless Power Transfer (WPT). In questo lavoro di tesi, è stato proposto un sistema di alimentazione wireless transcutaneo. Il sistema sfrutta il principio dell’accoppiamento induttivo risonante, che consiste nella trasmissione di energia in campo vicino tra due risuonatori magneticamente accoppiati. Al fine di acquisire la massima efficienza, sono state effettuate operazioni di ottimizzazione geometrica sul trasmettitore e di adattamento sul modello circuitale. I software CST e LTspice hanno reso possibile le simulazioni sul sistema dal punto di vista elettromagnetico e circuitale. Gli sviluppi futuri prevedono di convalidare i risultati ottenuti realizzando prove “in vitro”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di tesi tratta l'industrializzazione di una famiglia di componenti meccanici con gli obiettivi di riduzione del lead time e dei costi di produzione ed un miglioramento della qualità costruttiva. Per fare ciò è stato definito un nuovo ciclo di fabbricazione che riunisse tutte le operazioni di asportazione di truciolo in un unico centro di lavoro di fresatura. Sono state definite, progettate e messe in atto tutte le fasi del processo produttivo utilizzando i moderni software CAD-CAM-CNC. Al termine sono stati elaborati i risultati ottenuti svolgendo anche una analisi economica per valutare il risparmio percentuale annuo sul costo di produzione. Infine è stato fatto un confronto fra il vecchio ed il nuovo processo produttivo realizzato secondo i principi dell'Industria 4.0 ed i relativi vantaggi che esso permette di ottenere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il rilevamento e l’analisi delle frodi è una delle attività cruciali per un sistema di carrier billing. Una frode non rilevata prontamente può causare ingenti danni economici, mentre un falso positivo porta ad uno spreco di tempo da parte del team di Reporting and Control. In questa tesi viene studiato il dominio di un Payment Service Provider (PSP) operativo nel settore del carrier billing, andando ad approfondire il sistema di rilevamento delle frodi basato sull’analisi di serie storiche con la tecnica Holt-Winters. Verrà fornita una panoramica sull’architettura del sistema seguita da alcuni esempi in cui la scarsa qualità delle predizioni ha causato una perdita economica o temporale al PSP. Verranno quindi proposte numerose soluzioni per estendere e migliorare il sistema attuale, concentrandosi principalmente sulla pulizia dei dati da analizzare e sullo sfruttamento di informazioni implicitamente contenute nei dati. I miglioramenti apportati possono essere divisi in due categorie: quelli che necessitano della supervisione dell’essere umano e quelli che possono essere ottenuti in modo automatico da un algoritmo. Alcune di queste soluzioni verranno implementate e commentate confrontando le prestazioni del sistema prima e dopo le varie implementazioni. Alcune proposte verranno invece trattate solamente a livello teorico ma faranno parte degli sviluppi futuri. Infine si cercherà di trarre delle conclusioni, dimostrando come nel dominio del carrier billing sia possibile ottenere prestazioni soddisfacenti grazie ad un filtraggio supervisionato dei dati delle serie storiche, mentre i tentativi di filtraggio non supervisionato hanno fornito risultati contrastanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi morfologia e delle dinamiche evolutive di un alveo fluviale rappresenta una componente fondamentale per la gestione e riqualificazione dei corsi d’acqua naturali. Il presente elaborato tratta i principali aspetti dell’analisi geomorfologica fluviale e della modellazione numerico-idraulica per ciò che riguarda la gestione fluviale e la difesa del suolo, in relazione ad un tratto del torrente Ghiaia nei pressi dell’abitato di Monteveglio, seguendo una linea concettuale conforme alle norme regionali e territoriali. La prima fase del lavoro ha messo in evidenza le dinamiche evolutive del corso d’acqua in riferimento ad una scala temporale di circa 30 anni. È stata effettuata un’accurata indagine geomorfologica, confrontando diversi tipi di materiale disponibile: ortofoto e rilievi topografici relativi alla planimetria dell’alveo, alle sezioni trasversali e ai profili longitudinali. La seconda fase del lavoro ha messo in evidenza lo stato di fatto dell’area in studio, avvalendosi di un modello idraulico generato con l’utilizzo del software HEC – RAS 4.2.0. Sono stati simulati differenti scenari di analisi in moto permanente, i quali hanno permesso di verificare l’officiosità idraulica delle sezioni, il conseguente rischio idraulico, quindi di stimare quei valori di portata associati al Tempo di Ritorno che mettono in crisi il sistema, esponendo il centro abitato a situazioni di potenziale allagamento. Lo studio così effettuato ha permesso di ottenere un quadro preliminare delle condizioni idrauliche dell’area in esame, potendo indicare alcune ipotesi di intervento per mettere in sicurezza il territorio ed in particolare il centro abitato di Monteveglio. Gli interventi proposti sono stati mirati al contenimento almeno della piena trentennale e consistono nel risezionamento del tratto in studio e nella gestione della vegetazione, entrambi volti a migliorare il deflusso idrico e garantire l’officiosità idraulica del tratto in studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dall'analisi dei big data si possono trarre degli enormi benefici in svariati ambiti applicativi. Uno dei fattori principali che contribuisce alla ricchezza dei big data, consiste nell'uso non previsto a priori di dati immagazzinati in precedenza, anche in congiunzione con altri dataset eterogenei: questo permette di trovare correlazioni significative e inaspettate tra i dati. Proprio per questo, il Valore, che il dato potenzialmente porta con sè, stimola le organizzazioni a raccogliere e immagazzinare sempre più dati e a ricercare approcci innovativi e originali per effettuare analisi su di essi. L’uso fortemente innovativo che viene fatto dei big data in questo senso e i requisiti tecnologici richiesti per gestirli hanno aperto importanti problematiche in materia di sicurezza e privacy, tali da rendere inadeguati o difficilmente gestibili, gli strumenti di sicurezza utilizzati finora nei sistemi tradizionali. Con questo lavoro di tesi si intende analizzare molteplici aspetti della sicurezza in ambito big data e offrire un possibile approccio alla sicurezza dei dati. In primo luogo, la tesi si occupa di comprendere quali sono le principali minacce introdotte dai big data in ambito di privacy, valutando la fattibilità delle contromisure presenti all’attuale stato dell’arte. Tra queste anche il controllo dell’accesso ha riscontrato notevoli sfide causate dalle necessità richieste dai big data: questo elaborato analizza pregi e difetti del controllo dell’accesso basato su attributi (ABAC), un modello attualmente oggetto di discussione nel dibattito inerente sicurezza e privacy nei big data. Per rendere attuabile ABAC in un contesto big data, risulta necessario l’ausilio di un supporto per assegnare gli attributi di visibilità alle informazioni da proteggere. L’obiettivo di questa tesi consiste nel valutare fattibilità, caratteristiche significative e limiti del machine learning come possibile approccio di utilizzo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli odierni sviluppi delle reti stradali nel territorio italiano e l’aumento della propensione all’utilizzo del veicolo hanno portato ad una continua ricerca nello stesso ambito volta sì a mantenere alti i livelli prestazionali e di sicurezza sulla rete stradale ma anche ad aprirsi ad uno scenario ecosostenibile, dato il continuo scarseggiare di materie prime per proseguire con le usuali tecniche di produzione. In tutti i campi riguardanti l’ambito delle costruzioni civili, che siano esse strutturali o infrastrutturali, numerose sono state le tecnologie introdotte per la realizzazione di materiali sostenibili ma anche e soprattutto il recupero di materiale di scarto, andando così incontro oltre che a una costruzione sostenibile anche ad un recupero di ciò che sarebbe destinato a discariche, ufficiali o abusive che siano. Nell’ottica dell’introduzione di “nuovi” materiali una posizione di rispetto interessa gli Pneumatici Fuori Uso (PFU) il cui recupero sotto forma di granulato e di polverino in gomma costituiscono, nell’ambito delle pavimentazioni stradali, una notevole opportunità di riutilizzo all’interno dei conglomerati bituminosi. Il presente lavoro sperimentale è stato svolto nell’ottica di analizzare dapprima le caratteristiche delle pavimentazioni drenanti, del polverino di gomma da PFU e dell’interazione tra i due, a supporto delle sperimentazioni effettuate sulle miscele realizzate in laboratorio. In particolare, sfruttando la tecnologia dry, che permette l’inserimento del polverino nella fase di miscelazione degli aggregati, dopo un’attenta analisi preliminare della composizione delle miscele da realizzare e il successivo confezionamento dei provini e loro addensamento, si è proceduto all’esecuzione di diverse prove al termine delle quali sono state analizzate le differenze meccaniche e reologiche tra miscele ottenute con aggiunta di polverino e miscele prive di PFU.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.