266 resultados para Palazzo Reale di Milano
Resumo:
In questo progetto di tesi sarà innanzitutto presentato il Kinect One e sarà fatta una panoramica sull’uso della realtà virtuale in ambito riabilitativo. In seguito sarà analizzato l’algoritmo di Body tracking, valutandone il comportamento in diverse situazioni pratiche e poi stimandone la precisione in statica. Sarà presentato un filtraggio per limitare il rumore in tempo reale e valutarne i pro ed i contro in funzione delle caratteristiche impostabili. Saranno presentate inoltre le metodologie con cui gli algoritmi integrati del Kinect permettono di ricavare una stima dell’orientamento delle parti anatomiche nello spazio ed alcune considerazioni circa le implicazioni pratiche di tali metodologie, anche in base alle osservazioni sul campo ottenute durante i mesi di realizzazione di questo progetto. Lo scopo è determinare se e come sia possibile utilizzare il Microsoft Kinect One come unico sistema di motion tracking del paziente in applicazioni cliniche di riabilitazione, quali limiti ci sono nel suo utilizzo e quali categorie di scenari e prove potrebbe supportare.
Resumo:
Il presente elaborato di tesi si pone come obiettivo quello di valutare il rischio per l’ambiente causato dal rilascio accidentale di idrocarburi liquidi; in particolare è stato preso a riferimento un deposito reale contenente tali sostanze e si è valutato il rischio ambientale da esso generato nelle matrici del suolo e sottosuolo e delle acque superficiali. Per far ciò sono stati applicati il metodo speditivo descritto nel Rapporto 57/2005 (Rapporto APAT) elaborato dal Gruppo misto APAT/ARPA/CNVVF, che ha provveduto all'individuazione di una metodologia speditiva per la valutazione del rischio per l’ambiente da incidenti rilevanti in depositi di idrocarburi liquidi con riferimento a suolo e sottosuolo, e il metodo speditivo per le acque superficiali descritto nel Rapporto ISPRA 92/2013, che riporta criteri e indirizzi tecnico-operativi per la valutazione delle analisi degli incidenti rilevanti con conseguenze per l’ambiente. Il Rapporto APAT propone una metodologia speditiva ad indici; per la sua applicazione è necessario calcolare 2 indici: l’Indice di Propensione al Rilascio, che si ottiene dalla conoscenza delle caratteristiche impiantistiche del deposito preso in esame e l’Indice di Propensione alla Propagazione, che si ottiene dalla conoscenza delle caratteristiche idrogeologiche del sito su cui insiste il deposito. Il Rapporto ISPRA presenta invece diverse metodologie per la valutazione del rischio ambientale maturate in ambito europeo e propone un nuovo metodo a indici per la valutazione del rischio ambientale per le acque superficiali. Per l’applicazione di tale metodo a indici si è calcolato dapprima l’Indice di Propensione al Rilascio, così come richiesto anche nel metodo speditivo per suolo e sottosuolo e si è successivamente classificato il corpo idrico su cui insiste il deposito. Attraverso l’applicazione dei 2 metodi è stato dunque possibile valutare il livello di criticità ambientale del deposito, determinando la necessità di procedere con una metodologia semplificata o una metodologia avanzata per la stima del rischio di contaminazione ambientale.
Resumo:
Questo studio è mirato ad analizzare ed ottimizzare il consumo dei reagenti solidi impiegati da uno stabilimento di termovalorizzazione di rifiuti solidi urbani e speciali (Silea S.p.A, presso Valmadrera (LC)), per abbattere le correnti acide trattate nelle due linee fumi multistadio. Dopo aver scelto quale delle due linee prendere come riferimento, per poi riportare i risultati ottenuti anche sull’altra con opportune correzioni, il lavoro è stato condotto in diverse fasi, e affiancato da un costante confronto diretto con gli ingegneri e i tecnici dello stabilimento. Una volta preso atto delle normali condizioni di funzionamento dell’impianto, si è proceduto all’esecuzione di test, mirati a quantificare l’efficienza di rimozione dell’acido cloridrico, da parte del bicarbonato di sodio e dell’innovativo sorbente dolomitico, brevettato sotto il nome: Depurcal® MG. I test sono stati suddivisi in giornate differenti in base al tipo di reattivo da analizzare (e quindi lo stadio) e programmati in modo che permettessero di correlare la conversione dell’HCl alla portata di reagente solido introdotto. Una volta raccolti i dati, essi sono stati elaborati e filtrati in base a criteri oggettivi, per poi essere analizzati con senso critico, fornendo un quadro completo sulla reale potenzialità dell’impianto. Attraverso l’utilizzo di un opportuno modello è stato possibile caratterizzarlo e individuare la migliore condizione economico-operativa per ognuno dei possibili scenari individuati.
Resumo:
Studio di una macchina automatica adibita all’avvolgimento ed al packaging di bobine di tubo corrugato flessibile in materiale plastico, denominata FLASH 700, finalizzato alla definizione dei principali parametri funzionali, degli attuali limiti di funzionamento ed alla soluzione di alcuni problemi. L’attività ha comportato un’iniziale studio dettagliato della macchina, indirizzato all’acquisizione delle necessarie competenze tecniche di costruzione e funzionamento, per poterne successivamente definire i parametri funzionali e comprenderne gli attuali limiti e margini di miglioramento, definiti i quali si è passati ad un'accurata fase di studio riguardante il ciclo di funzionamento del gruppo avvolgitore (che arrotola il tubo in bobine), eseguita durante i collaudi pre-vendita, con lo scopo di delineare i tempi necessari ad eseguire ogni operazione e ad evidenziare i punti critici (tempi morti) del sistema che caratterizzano l’attuale tempo ciclo. Infine, determinate le principali cause dei limiti di funzionamento e definite le principali funzioni di macchina causa del tempo ciclo, sono state proposte alcune possibili modifiche costruttive finalizzate all’abbattimento degli attuali limiti. Alcune delle soluzioni proposte sono state infine realizzate e collaudate in macchina, al fine di verificarne il reale miglioramento apportato.
Resumo:
Studio dei carichi presenti su cuscinetti alle estremità dell'utensile MAS1, rullo di 30mm. Studio in condizione critica ideale e in condizione reale con rilevazione con cella di carico.
Resumo:
Elaborato che si propone di evidenziare come i veicoli a benzina e a diesel possano soddisfare la normativa Euro 6. Si analizza il funzionamento dei principali sistemi di after-treatment come: catalizzatore SCR e DeNOx, trappola LNT, filtri FAP e DPF, sistemi EGR, per i motori ad accensione per compressione e catalizzatore TWC per motori ad accensione comandata. Parallelamente, si spiega l'evoluzione della normativa da Euro 6b a Euro 6c in termini di riduzione del numero di particelle di particolato emesse per km e come rispondere a queste più restrittive condizioni; viene introdotto, in via ancora sperimentale, il filtro antiparticolato GPF e un sistema di misurazione di nano particelle di dimensioni inferiori a 23 nm cioè una rivalutazione del metodo PMP. Contestualmente si definisce il progetto CARS 2020, il quale aggiunge una limitazione anche sulla quantità di anidride carbonica emessa a 95 g/km e le eventuali possibili soluzioni per rispettarla: da un maggior uso di combustibili alternativi a miglioramenti tecnologici dei motori stessi. Infine si studiano gli sviluppi dei cicli di omologazione, dal 2017 infatti entreranno in gioco test su strada con dispositivi PEMS on-board e cicli armonizzati WLTC. Le procedure RDE e WLTP permetteranno di testare i vecioli in maniera più reale e globale, rispettivamente, riuscendo a fornire anche valori attendibili dei consumi registrati durante le prove.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.
Resumo:
Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.
Resumo:
L’obiettivo della tesi è definire un modello che permetta di realizzare applicazioni che integrino diverse tecnologie come la realtà aumentata, pervasive computing e Internet of Things. In particolare si analizza la nozione di "augmentation" che indica un’estensione e un arricchimento delle funzionalità e delle informazioni che possono essere percepite dai sensi umani e che può essere ritrovata, in modo diverso, nelle tecnologie trattate. A tal proposito, si introduce l’idea di augmented world, il cui scopo è quello di realizzare un livello aumentato collegato ad un livello fisico, attraverso il quale permettere l’interazione tra elementi virtuali ed elementi fisici. In seguito, tramite un'analisi tassonomica si vogliono individuare le caratteristiche ed i requisiti fondanti degli ambiti applicativi trattati per poter definire un modello che possa essere utilizzato come riferimento per le diverse tipologie di applicazioni. Infine il modello proposto è stato applicato a diversi casi di studio che spaziano tra i principali contesti applicativi in cui vengono utilizzate le tecnologie illustrate. La modellazione è fatta prescindendo da alcuni aspetti relativi alla comunicazione o alla sincronizzazione tra livello reale e livello aumentato, in quanto l’obiettivo è esporre una prima validazione del modello che permetta di riscontrarne l’adeguatezza ed eventuali limiti per una futura raffinazione.
Resumo:
In questa tesi presentiamo una strategia, e la relativa implementazione, per il problema dell’allocazione e schedulazione, su risorse unarie, di applicazioni multi-task periodiche, composte da attività che interagiscono fra loro e la cui durata è incerta. Lo scopo che ci si propone di raggiungere, è l’implementazione di una strategia di allocazione schedulazione che garantisca robustezza ed efficienza, in quei contesti in cui la conoscenza a priori è limitata e in cui le applicazioni si ripetono indefinitamente nel tempo. Per raggiungere questo scopo, sarà usato un approccio ibrido fra statico e dinamico. Staticamente è generata una soluzione del problema, sfruttando la programmazione a vincoli, in cui le durate delle attività sono arbitrariamente fissate. Questa soluzione, non rappresenta la soluzione del nostro problema, ma è utilizzata per generare un ordinamento delle attività, che compongono le applicazioni periodiche. Dinamicamente, sfruttando l’ordinamento ottenuto, è effettuata l’allocazione e la schedulazione effettiva delle applicazioni periodiche, considerando durate variabili per le attività. L’efficienza ottenuta applicando il nostro approccio è valutata effettuando test su una vasta gamma di istanze, sia industriali, sia sintetiche appositamente generate. I risultati sono confrontati con quelli ottenuti, per le stesse istanze, applicando un approccio puramente statico. Come si vedrà, in alcuni casi, è possibile anche quadruplicale la velocità di completamento delle applicazioni trattate.
Resumo:
L’applicazione dei metodi tradizionali dell’ingegneria del software non garantiscono il successo di un progetto, per questo motivo da circa quindici anni è emersa una nuova filosofia di sviluppo nota come Agile Software Development. In questa tesi è stata decritta una panoramica sulle metodologie agili, con particolare attenzione al framework Scrum e un caso di studio reale al quale Scrum è stato applicato. Il caso di studio riguarda l’implementazione di una applicazione web per la gestione del front-end di un Corporate Banking. L’applicazione di Scrum ha permesso di ottenere la soddisfazione del cliente finale, la crescita dello Scrum Team e un tasso di manutenzione correttiva accettabile.
Resumo:
Questa tesi ha l'obiettivo di mostrare i fondamenti per lo sviluppo di un sistema di navigazione per caschi motociclistici in realtà aumentata. L'applicazione implementata sfrutta i concetti principali di realtà aumentata sensor based, cioè basata su geo-localizzazione, al fine di fornire i dati di interesse all'interno del campo visivo del guidatore. Lo scopo del progetto è di realizzare un sistema in grado di interagire con l'utente attraverso i suoi movimenti, e rendere fruibili le informazioni riguardanti la navigazione all'interno di un casco. Non sono pochi i vantaggi che questi strumenti potrebbero introdurre nella guida veicolare, anche in ambito di sicurezza stradale. Infatti, in questo modo, l'utilizzatore del casco non sarà più costretto a distrarsi dalla guida per consultare le informazioni del percorso da seguire, ma avrà la possibilità di vederle proiettate direttamente all'interno del suo campo visivo. Tutte le informazioni che oggi siamo abituati a ricevere da un comune navigatore satellitare (o dal nostro smartphone), saranno disponibili nella visione reale del mondo che ci circonda in modo rapido e intuitivo. Si è scelto di utilizzare Android come sistema operativo per lo sviluppo del sistema, utilizzando la libreria droidAR per la realtà aumentata.
Resumo:
I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.
Resumo:
La quantità di dati che vengono generati e immagazzinati sta aumentando sempre più grazie alle nuove tecnologie e al numero di utenti sempre maggiore. Questi dati, elaborati correttamente, permettono quindi di ottenere delle informazioni di valore strategico che aiutano nell’effettuare decisioni aziendali a qualsiasi livello, dalla produzione fino al marketing. Sono nati soprattutto negli ultimi anni numerosi framework proprietari e open source che permettono l'elaborazione di questi dati sfruttando un cluster. In particolare tra i più utilizzati e attivi in questo momento a livello open source troviamo Hadoop e Spark. Obiettivo di questa tesi è realizzare un modello di Spark per realizzare una funzione di costo che sia non solo implementabile all’interno dell’ottimizzatore di Spark SQL, ma anche per poter effettuare delle simulazioni di esecuzione di query su tale sistema. Si è quindi studiato nel dettaglio con ducumentazione e test il comportamento del sistema per realizzare un modello. I dati ottenuti sono infine stati confrontati con dati sperimentali ottenuti tramite l'utilizzo di un cluster. Con la presenza di tale modello non solo risulta possibile comprendere in maniera più approfondita il reale comportamento di Spark ma permette anche di programmare applicazioni più efficienti e progettare con maggiore precisione sistemi per la gestione dei dataset che sfruttino tali framework.
Resumo:
Parametro indispensabile di valutazione di un qualsiasi prodotto o servizio, ai giorni nostri, è la web reputation. Sono sempre più numerose le aziende che monitorano la propria "reputazione online". Quest'ultima può esser definita come l'insieme dei messaggi, commenti e feedbacks, positivi, neutri o negativi che siano, di utenti che esprimono la loro opinione tramite il web su un determinato servizio o prodotto rivolto al pubblico. L’applicazione sviluppata, si pone l’obiettivo di analizzare in tempo reale tramite l’utilizzo di Apache Storm, dati provenienti da fonti eterogenee, classificarli tramite KNIME utilizzando tecniche di classificazione quali SVM, alberi decisionali e Naive Bayesian, renderli persistenti mediante l’utilizzo del database NoSQL HBASE e di visualizzarli in tempo reale attraverso dei grafici utilizzando delle servlet, al fine di costituire un valido strumento di supporto per i processi decisionali.