998 resultados para Documentazione installazione banco prova analisi dati
Resumo:
La presente ricerca è stata svolta con l’obbiettivo di valutare le caratteristiche prestazionali di pavimentazioni in conglomerato bituminoso con aggiunta di PFU. Il prodotto è un legante bituminoso modificato, al quale il polverino di gomma da PFU è aggiunto manualmente (meccanicamente) al mescolatore tramite tecnologia Dry, nella quale la frazione di gomma è impiegata in sostituzione a una porzione di inerti fini. Ai fini di tale studio sono stati stesi 300 metri di SMA lungo la S.P. 569 nel centro abitato di Zola Predosa (BO) durante la quale sono state effettuate le analisi ambientali. Di questi 300 metri, una parte è costituita da SMA tradizionale, mentre la parte restante è divisa tra SMA contenente 1,20% in peso di PFU e SMA contenente 0,75% in peso di PFU. Sono state predisposte 3 diverse indagini sperimentali: a 2 mesi dalla stesa (31 Luglio 2014), a 6 mesi e la terza ad 1 anno dalla prima sessione di controllo. Nella prima campagna è stato eseguito il prelievo di campioni carotati per la verifica fisico-meccanica delle miscele posate e degli spessori, mentre per tutte le campagne di prova tutte sono state effettuate analisi per la valutazione dell’aderenza, della tessitura e dell’emissione e assorbimento acustico della pavimentazione. L’elaborato è sviluppato nel seguente modo: sarà prima presentata una panoramica sul problema del riciclaggio di PFU. Verranno poi riportate le norme che regolano l’uso delle strumentazioni utilizzate durante le prove e la trattazione dei dati che ne derivano. Verrà poi descritto il campo prove, la stesa sperimentale e tutti i test effettuati sul sito di Zola Predosa. Successivamente verrà effettuata l’analisi dei dati rispettivamente per l’analisi ambientale, il pendolo, l’altezza in sabbia, l’analisi dei livelli acustici, il LaserProf, lo Skiddomter BV11 e il Laser NextEngine HD. Infine verranno tratte le conclusioni, basate sulle analisi condotte, al fine di valutare il rendimento delle pavimentazioni indagate.
Resumo:
Il presente lavoro di tesi riguarda lo studio e l'impiego di architetture neurali profonde (nello specifico stacked denoising auto-encoder) per la definizione di un modello previsionale di serie temporali. Il modello implementato è stato applicato a dati industriali riguardanti un impianto fotovoltaico reale, per effettuare una predizione della produzione di energia elettrica sulla base della serie temporale che lo caratterizza. I risultati ottenuti hanno evidenziato come la struttura neurale profonda contribuisca a migliorare le prestazioni di previsione di strumenti statistici classici come la regressione lineare multipla.
Resumo:
Questo elaborato nasce con l’obiettivo di trovare quali indicatori sono maggiormente indicativi delle reali performance ambientali ed economiche nella gestione dei rifiuti urbani al fine di studiare la situazione attuale e le cause che maggiormente influenzano la qualità della gestione del servizio. Il lavoro di analisi dei dati è stato diviso in quattro fasi principali. Inizialmente sono stati raccolti dati pubblici relativi ai vari Comuni della Provincia di Bologna per la successiva creazione di indicatori complessi, indispensabili sia per il confronto dei dati stessi, che delle varie categorie e delle classi create in seguito. Infine lo sviluppo dei grafici ha permesso di mettere in relazione i vari elementi in modo da fornire una chiara rappresentazione di come questi possano influire sui costi e sulle tematiche ambientali.
Resumo:
L'RCMT (Regional Centroid Moment Tensor), realizzato e gestito dai ricercatori dell'INGV (Istituto Nazionale di Geofisica e Vulcanologia), è dal 1997 il catalogo di riferimento per gli eventi sismici avvenuti nell'area Europea-Mediterranea, ossia nella regione avente longitudine compresa tra 10° W e 40° E e latitudine compresa tra 25° N e 60° N. Tale regione è caratterizzata da un'attività tettonica complessa, legata non soltanto alla convergenza delle placche Euroasiatica ed Africana, ma anche al movimento di altre placche minori (ad esempio, la placca Arabica), che tutte insieme danno origine ad una vasta gamma di regimi tettonici. Col termine RCMT si indica un particolare tipo di tensore momento sismico, la cui determinazione avviene su scala regionale, per eventi sismici aventi M_w >= 4.5 (M_w >= 4.0 per gli eventi che avvengono nella penisola italica). Il tensore momento sismico è uno strumento fondamentale per caratterizzare natura ed entità di un terremoto. Da esso, infatti, oltre alla magnitudo momento M_w, si ricava anche il meccanismo focale. Comunemente rappresentato sotto forma di beach ball, consente di individuare il tipo di movimento (distensivo, compressivo o trascorrente, o anche una combinazione del primo o del secondo con il terzo) avvenuto sulla faglia che ha provocato il terremoto. I tensori momento sismico permettono, quindi, di identificare le faglie che si attivano durante una sequenza sismica, di comprendere la loro cinematica e di ipotizzare la successiva evoluzione a breve termine. Scopo di questa relazione di laurea è stato derivare le relazioni che intercorrono fra le M_w dell'RCMT e le M_w del CMT (Centroid Moment Tensor della Columbia University), del GFZ (Deutsches GeoForschungsZentrum di Postdam) e del TDMT (Time Domain Moment Tensor). Le relazioni sono state ottenute applicando il metodo dei minimi quadrati agli eventi comuni, che sono stati selezionati utilizzando alcuni semplici programmi scritti in Fortran.
Resumo:
Internet ha rivoluzionato il modo di comunicare degli individui. Siamo testimoni della nascita e dello sviluppo di un'era caratterizzata dalla disponibilità di informazione libera e accessibile a tutti. Negli ultimi anni grazie alla diffusione di smartphone, tablet e altre tipologie di dispositivi connessi, è cambiato il fulcro dell'innovazione spostandosi dalle persone agli oggetti. E' così che nasce il concetto di Internet of Things, termine usato per descrivere la rete di comunicazione creata tra i diversi dispositivi connessi ad Internet e capaci di interagire in autonomia. Gli ambiti applicativi dell'Internet of Things spaziano dalla domotica alla sanità, dall'environmental monitoring al concetto di smart cities e così via. L'obiettivo principale di tale disciplina è quello di migliorare la vita delle persone grazie a sistemi che siano in grado di interagire senza aver bisogno dell'intervento dell'essere umano. Proprio per la natura eterogenea della disciplina e in relazione ai diversi ambiti applicativi, nell'Internet of Things si può incorrere in problemi derivanti dalla presenza di tecnologie differenti o di modalità eterogenee di memorizzazione dei dati. A questo proposito viene introdotto il concetto di Internet of Things collaborativo, termine che indica l'obiettivo di realizzare applicazioni che possano garantire interoperabilità tra i diversi ecosistemi e tra le diverse fonti da cui l'Internet of Things attinge, sfruttando la presenza di piattaforme di pubblicazione di Open Data. L'obiettivo di questa tesi è stato quello di creare un sistema per l'aggregazione di dati da due piattaforme, ThingSpeak e Sparkfun, con lo scopo di unificarli in un unico database ed estrarre informazioni significative dai dati tramite due tecniche di Data Mining: il Dictionary Learning e l'Affinity Propagation. Vengono illustrate le due metodologie che rientrano rispettivamente tra le tecniche di classificazione e di clustering.
Resumo:
La Cartella Clinica Elettronica è lo strumento d’eccellenza per la condivisione e il recupero dei dati clinici e per la gestione organica e strutturata dei dati riferiti alla storia clinica di un paziente. Garantisce il supporto dei processi clinici (diagnostico-terapeutici) e d’assistenza nei singoli episodi di cura e favorisce la continuità di cura. In questo nuovo scenario acquista rilevanza il contributo degli infermieri ai processi sanitari e al percorso diagnostico-terapeutico di competenza medica, nonché l’affermarsi del processo assistenziale di specifica competenza infermieristica. Nasce l’esigenza di progettare e sviluppare un valido sistema informativo, indispensabile per documentare sistematicamente ogni attività infermieristica, ottenere informazioni utili per la pianificazione, la gestione e la valutazione dei percorsi assistenziali e per migliorare l’assistenza. Il seguente progetto di tesi sperimentale ha come obiettivo la digitalizzazione delle documentazione infermieristica,in accordo con le esigenze del personale clinico in un ambito realmente operativo di reparto ospedaliero, al fine di realizzare uno strumento informativo semplice ma efficace, in grado di rendere agevole la registrazione dell’attività clinica quotidiana. Per iniziare la trattazione, sono forniti elementi introduttivi e propedeutici ad una comprensione più esaustiva del sistema che verrà integrato con le schede infermieristiche digitali. Si procede con la descrizione delle fasi di sviluppo che hanno portato all’informatizzazione delle schede infermieristiche, analizzando sia gli studi preliminari che gli strumenti utilizzati per la loro realizzazione. Il lavoro si conclude con la presentazione e discussione di un prototipo al personale infermieristico referente, così da mostrare al cliente l’effettiva funzionalità della cartella infermieristica e il flusso di utilizzo per avere un riscontro preliminare su leggibilità ed organicità dei documenti.
Resumo:
Questo lavoro è incentrato sull'analisi e la simulazione di un ciclo Rankine a fluido organico (ORC) per la produzione di energia da calore a bassa entalpia. Il lavoro è stato svolto in collaborazione con l'università di Gent, in Belgio, in particolare grazie al Prof. De Peape e all' Ing. Steven Lecompte; il lavoro in Italia è stato coordinato dal Prof. De Pascale. L'obiettivo principale della tesi è stata la creazione un modello computazionale in grado di descrivere le prestazioni dell'impianto a carico parziale. Ogni elemento dell'impianto è stato analizzato e modellizzato secondo un approccio di simulazione originale in Matlab. I componenti ottenuti sono stati poi combinati a formare la simulazione dell'intero sistema; questa è in grado di prevedere la potenza prodotta ed il rendimento del ciclo al variare delle condizioni esterne. I risultati ottenuti dalle simulazioni sono stati poi confrontati con i dati sperimentali raccolti sull'impianto di prova dell'Università. Questo confronto dimostra un buon accordo dei risultati previsti con quelli misurati. L'errore relativo massimo ottenuto per la potenza elettrica è sotto il 7%, così come quello sul rendimento; Gli errori relativi a pressione ed entalpie sono in genere sotto il 5%. Il modello può perciò dirsi validato e rappresenta un valido strumento di analisi per comprendere la risposta ai carichi parziali anche al di fuori del range di calibrazione. Il modello è stato infine utilizzato per costruire delle mappe del carico parziale e analizzare l'influenza delle variabili del ciclo. Ulteriori applicazioni delle mappe prodotte sono proposte a fine del lavoro.
Resumo:
Nell' elaborato vengono descritti gli studi conseguiti sia a livello internazionale che nazionale riguardanti la sostenibilità e i consumi energetici dell' ambiente costruito, passando dai problemi di occupazione, crescita economica e riduzione di emissioni di gas ad effetto serra, proseguendo poi con gli obiettivi da adottare in termini anche di circular economy e industria 4.0 per arrivare ad un unico grande scenario, ovvero quello della Riqualificazione Energetica degli Edifici.
Resumo:
La mia tesi si occupa di trattare come, attraverso questo nuovo prodotto dell’informatica chiamato big data, si possano ottenere informazioni e fare previsioni sull’andamento del turismo.
Resumo:
Negli ultimi anni, i limiti sempre più stringenti sulle emissioni inquinanti dei gas di scarico, hanno portato ad un notevole aumento della complessità dei motori a combustione interna. Questa complicazione determina un aumento esponenziale del numero di test da effettuare nella sala prova. I metodi tipici di gestione dei test non possono più essere utilizzati, ma è essenziale creare un sistema che ottimizzi le prove. Per ridurre drasticamente il tempo di esecuzione, è necessario implementare un'architettura in grado di facilitare lo scambio di dati tra i sistemi presenti nella sala prova, e, in aggiunta, definire le strategie di automazione dei test. L'approccio a taluni metodi si presenta ancora complicato in molti gruppi di sviluppo di strategie di controllo motore, anche se, una volta sviluppati, portano e a grandi benefici durante la fase di test. Il lavoro illustra i metodi implementati per la gestione di queste strategie. Prima si descrive l'approccio utilizzato nella calibrazione di anticipo di accensione per mantenere livelli accettabili di detonazione durante il processo di calibrazione. Successivamente è mostrato il sistema di automazione dei test che consente il pieno controllo del punto di funzionamento del motore, la gestione dell'acquisizione e la verifica della stabilità delle condizioni ottenute. L'ultima parte mostra sistemi di prototipazione rapida per la gestione di componenti innovatici del motore.