222 resultados para Reúso
Resumo:
Questa tesi si prefigge lo scopo di rendere possibile la comprensione ad un pubblico italiano dello spettacolo teatrale in lingua slovacca Michelangelo – Freska o ceste umelca (Michelangelo – Affresco sul cammino di un artista) attraverso la sopratitolazione. Il regista della rappresentazione teatrale, Peter Weinciller, oltre a dirigere la compagnia Teatro Colorato sul territorio slovacco, è riuscito a portare le opere di successo anche all’estero, per cui si è reso necessario l’ausilio di un mezzo che potesse renderlo possibile. Per poter compiere questa mediazione, ci si è avvalsi dei sopratitoli, uno strumento di recente introduzione nel mondo della traduzione audiovisiva. Questa tecnica, che deriva dalla più conosciuta sottotitolazione, permette di rendere accessibile ad un pubblico mondiale rappresentazioni teatrali in lingua originale. Durante il lavoro si è cercato di capire a fondo il testo di partenza per poter rendere nella miglior maniera possibile il contenuto e le emozioni che include e che intende suscitare. Nonostante le difficoltà incontrate nella traduzione dal punto di vista linguistico, si è cercato di rendere fruibile al pubblico la migliore mediazione possibile dalla lingua slovacca, essendo comunque consapevoli che il soggetto e la collocazione temporale e spaziale dell’opera abbiano avvantaggiato un pubblico italiano. In conclusione, si è riusciti a proporre un lavoro che ha permesso una perfetta mediazione di uno spettacolo che altrimenti non avrebbe avuto la possibilità di essere rappresentato su territorio non slovacco.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
Gli oceani coprono quasi il 75% della superficie della terra ed esercitano una grande influenza sulla vita di tutte le specie viventi e sull’evoluzione del clima a livello planetario. I repentini cambiamenti climatici hanno reso sempre piú importante studiarne i comportamenti. L’analisi della salinitá degli oceani é estremamente importante per gli studi sull’ambiente marino; puó essere usata per tracciare le masse d’acqua, descrivendone i flussi e svelandone la correlazione con i processi climatici, puó essere di aiuto ai biologi per studiare gli organismi marini e costituisce un parametro fondamentale per una vasta gamma di sensori. Un sistema autonomo che misuri conducibilitá e temperatura é il primo strumento per determinare la salinitá dell’acqua, sul mercato sono presenti sí numerosi sensori a elevata accuratezza ma necessitano di ingombranti strumenti di laboratorio per funzionare. Sistemi di ridotte dimensioni non sono invece altrettanto accurati ed affidabili. Questa tesi mira a sviluppare un'interfaccia che permetta di analizzare conducibilitá e temperatura con un elevato livello di accuratezza. Particolare attenzione sará posta all’elaborazione delle misure effettuate e alla caratterizzazione degli errori e dell’accuratezza del sistema. Partendo da queste basi in futuro si potrá creare un sistema autonomo a bassissima potenza, alimentato da batterie, che, basandosi sull’iterazione fra il chip impedenziometrico e il PIC, permetta di fare misure per un ciclo di vita di qualche anno.
Resumo:
L’oggetto di studio della presente tesi è una macchina utensile ad altra produttività con tavola rotante (transfer) che presenta numerosi elementi di innovazione rispetto a versioni precedenti. In particolare è stata ottimizzata la scelta dei materiali che compongono i vari elementi della struttura, sono stati ripensati gli impianti di servizio e, infine, è stato reso possibile l’impiego di tecnologie di lavorazione che permettono una notevole riduzione del consumo elettrico. Il transfer è costituito da una stazione di carico/scarico e da numerose stazioni di lavoro equipaggiate con moduli a tre assi che permettono di eseguire le diverse operazioni da realizzare sul componente in lavorazione. Le unità a tre assi vengono impiegate per movimentare gli elettromandrini che mettendo in rotazione gli utensili permettono l’esecuzione delle diverse lavorazioni. L’attività svolta è stata suddivisa in diverse fasi: nella prima è stata realizzata un’analisi funzionale che ha permesso di valutare (i) la rigidezza dell’unità a tre assi che equipaggia ogni stazione di lavoro e (ii) l’errore di posizionamento indotto dal riscaldamento delle viti di manovra che permettono la movimentazione dei tre assi della macchina. Nella seconda fase sono state valutate le potenzialità della tecnologia Minimum Quantity Lubrication (MQL) come alternativa ecologica ed economica alla tradizionale tecnica di lubrorefrigerazione con emulsione. La tecnica MQL consiste nel nebulizzare nella zona di taglio un aerosol composto da aria e olio. In particolare è stato calibrato il sistema di generazione dell’aerosol stesso ed è stata indagata l’influenza dei diversi parametri di taglio sulla qualità della lavorazione. Infine è stata effettuata un’analisi economica che ha permesso di valutare il vantaggio economico in termini di potenza installata e consumo di energia elettrica del transfer in relazione ad una macchina utensile di pari taglia che presenta le soluzioni costruttive standard per questa tipologia di dispositivo.
Resumo:
Il presente lavoro di tesi si pone l’obiettivo di studiare come un Cubesat 1U reagisce se sollecitato con vibrazioni di una certa banda di frequenze, corrispondenti a quelle generate durante il lancio del vettore VEGA, e cercare di sviluppare un modello virtuale che in futuro permetta di simulare in maniera più realistica il comportamento delle successive strutture che saranno progettate. Il campo dei nanosatelliti è in rapida espansione negli ultimi anni, bassi costi di produzione e lancio abbinati a tempi rapidi di sviluppo e progettazione li rendono un ottimo strumento per aziende di piccole dimensioni e università per aquisire esperienza nel campo delle tecnologie spaziali e permettere la formazione degli studenti. Grazie a questi fattori il corso di Ingegneria Aerospaziale di Forlì ha intrapreso la progettazione di un Cubesat che una volta ultimato potrà essere lanciato in orbita grazie al contributo dell’ESA, che si presta a fornire lanci gratuiti alle università europee. Questo progetto porta avanti il lavoro compiuto durante la fase di tirocinio in cui abbiamo cercato di progettare una struttura semplice e realizzabile completamente nei laboratori dell’università, che permettesse anche successivamente a studenti e dottorandi di cimentarsi nello studio e nella progettazione di un nanosatellite. Il mio compito in particolare consiste nell’esecuzione di una serie di prove sperimentali con uno shaker presente nei laboratori della Scuola e, raccogliendo, analizzando e interpretando la risposta della struttura, si cercherà di modificare il modello CAD realizzato finora (lavoro compiuto in un'altra tesi di laurea) in modo che rispecchi più fedelmente il comportamento di quello reale e fornire quindi una base ai futuri lavori in questo ambito. La struttura, ispirata a quelle già presenti sul mercato, è stata progettata utilizzando Solidworks un software CAD, successivamente è stata fatta un analisi tramite un altro software FEM, realizzato e poi testato mediante uno shaker presso i laboratori del corso di studi in ingegneria aerospaziale di Forlì. Per poter fare ciò si è anche realizzata quella che è stata usata come interfaccia per connettere il Cubesat allo shaker, infatti data la sua proprietà di esercitare spostamenti solo lungo l’asse verticale si è reso necessario trovare un modo per sollecitare il nanosatellite lungo tutti e tre gli assi per poter evidenziare i modi flessionali della struttura. I dati ottenuti riguardano le accelerazioni rilevate in vari punti del Cubesat e del supporto da parte di accelerometri piezometrici che sono stati analizzati per risalire al tipo di comportamento con cui ha risposto la struttura a vibrazioni di varia frequenza e intensità.
Resumo:
Nel presente lavoro sono state analizzate le distribuzioni quantitative dei Foraminiferi planctonici e bentonici presenti in una carota e in un box core prelevati nel Mare di Ross in Antartide durante la campagna KOPRI ANTA03 nel Febbraio 2013 nell’ambito del progetto di ricerca congiunto Corea- Italia finanziato dal Progetto Nazionale di Ricerca in Antartide (PNRA). Scopo del lavoro è stato quello di comprendere l’evoluzione ambientale dell’area in base alla distribuzione quantitativa e qualitativa delle associazioni a Foraminiferi nel tardo Quaternario. In base alla distribuzione quantitativa dei Foraminiferi identificati, la sequenza sedimentaria della carota C2 è stata suddivisa in tre intervalli corrispondenti a tre principali fasi paleoceanografiche/paleoclimatiche. La prima fase, più antica di 18 ka, caratterizzata dall’assenza o rarità di forme documenta un ambiente con presenza di copertura glaciale. La seconda, depositatasi tra 18 ka e ~8 ka è caratterizzata da una maggiore variabilità intraspecifica e riflette un miglioramento delle condizioni climatiche. La terza, corrisponde ad un periodo compreso tra ~8 ka e ~2 ka. La presenza di forme agglutinanti e l’assenza di Foraminiferi a guscio calcareo suggeriscono la presenza di condizioni di dissoluzione carbonatica sul fondale in un ambiente marino libero da copertura glaciale. La documentazione di numerosi individui allo stadio giovanile di Neogloboquadrina pachyderma durante l’intervallo B ha reso possibile avanzare ipotesi riguardo la strategia di sopravvivenza di questa specie in ambiente estremo quale il ghiaccio antartico. La somiglianza morfologica tra individui giovanili di Neogloboquadrina pachyderma riscontrata durante il nostro studio nei sedimenti a livello fossile nella carota con individui giovanili della stessa specie provenienti da campioni di ghiaccio marino antartico documentati in bibliografia, ha permesso di supportare la tesi dello sviluppo di tali forme nei pori del “microghiaccio”.
Resumo:
L’azoto è uno dei prodotti principali dell’industria chimica, utilizzato principalmente per assicurare un sicuro stoccaggio di composti infiammabili. Generatori con sistemi PSA sono spesso più economici della tradizionale distillazione criogenica. I processi PSA utilizzano una colonna a letto fisso, riempita con materiale adsorbente, che adsorbe selettivamente un componente da una miscela gassosa. L’ossigeno diffonde molto più velocemente dell'azoto nei pori di setacci molecolari carboniosi. Oltre ad un ottimo materiale adsorbente, anche il design è fondamentale per la performance di un processo PSA. La fase di adsorbimento è seguita da una fase di desorbimento. Il materiale adsorbente può essere quindi riutilizzato nel ciclo seguente. L’assenza di un simulatore di processo ha reso necessario l’uso di dati sperimentali per sviluppare nuovi processi. Un tale approccio è molto costoso e lungo. Una modellazione e simulazione matematica, che consideri tutti i fenomeni di trasporto, è richiesta per una migliore comprensione dell'adsorbente sia per l'ottimizzazione del processo. La dinamica della colonna richiede la soluzione di insiemi di PDE distribuite nel tempo e nello spazio. Questo lavoro è stato svolto presso l'Università di Scienze Applicate - Münster, Germania. Argomento di questa tesi è la modellazione e simulazione di un impianto PSA per la produzione di azoto con il simulatore di processo Aspen Adsorption con l’obiettivo di permettere in futuro ottimizzazioni di processo affidabili, attendibili ed economiche basate su computazioni numeriche. E' discussa l’ottimizzazione di parametri, dati cinetici, termodinamici e di equilibrio. Il modello è affidabile, rigoroso e risponde adeguatamente a diverse condizioni al contorno. Tuttavia non è ancora pienamente soddisfacente poiché manca una rappresentazione adeguata della cinetica ovvero dei fenomeni di trasporto di materia. La messa a punto del software permetterà in futuro di indagare velocemente nuove possibilità di operazione.
Resumo:
Per il mio elaborato finale ho scelto di proporre la traduzione del fumetto per l’infanzia Akissi scritto dall’autrice ivoriana Marguerite Abouet e reso in immagini dal fumettista Mathieu Sapin. Il racconto tratta di una bambina birbante e scalmanata che, insieme ai suoi amici, anima il tranquillo villaggio di Yopougon, in Costa d’Avorio.
Resumo:
Il progetto di musealizzazione dell’area archeologica di Suasa pone le basi sullo studio dei legami storici, culturali e paesaggistici che si sono instaurati sin dall’epoca romana e permangono tutt’oggi. Il primo passo parte dallo studio della Salaria Gallica: nasce così la volontà di mantenere la Salaria usufruibile da tutti, richiamando quindi l’interesse di un pubblico di vario target intorno l’area di progetto . Da questa principio si rende quindi necessaria una prima divisione dell’aria in una parte pubblica ed una privata, la prima interessata dalla costruzione di un nuovo spazio polifunzionale, la seconda destinata al mantenimento delle tracce (archeologiche e paesaggistiche). Si rende fondamentale nello spazio pubblico la costruzione di un nuovo edificio che vada ad ospitare funzioni utili alle due aree, una costruzione che è figlia di principi che caratterizzano l’area sin dall’epoca romana: la viabilità antica e le maglie generatrici. Lo spazio privato, reso tale attraverso la costruzione di un limite fisico è a sua volta diviso in due parchi: il parco archeologico e il parco agricolo. Il parco archeologico è interessato dalla costruzione di una copertura atta alla salvaguardia delle tracce di una delle istanze archeologiche di maggior valore : la Domus dei Coiedii. I principi che contraddistinguono il progetto sono quelli di riproporre, a scopo educativo, la volumetria antica della domus, mantenendo però una pianta libera che sottolinei la maestosità che fu. Si ha così una triade di parchi, legati fra loro da elementi ordinatori che nascono da una rilettura di sistemi romani ed una riproposizione di tali. Si tratta degli elementi d’ombra, che riprenderanno le strutture a sacco tipiche romane, e dei percorsi studiati per sottolineare la gerarchia delle tracce.
Resumo:
Il presente lavoro mette in evidenza le principali difficoltà che il traduttore di testi specialistici è chiamato ad affrontare durante la pratica della traduzione. In particolar modo, il nostro studio si concentra sulla figura del traduttore che lavora in ambito artistico : oggigiorno la facilità degli spostamenti e il conseguente aumento del turismo culturale hanno reso la traduzione di dépliant, guide turistiche e cataloghi una pratica necessaria e in continua crescita. L’obiettivo prefissato è quello di verificare l’apporto che le risorse lessicografiche e terminologiche attualmente disponibili danno al traduttore di testi a contenuto artistico. Il nostro lavoro si articola in quattro capitoli. Il primo, di stampo teorico, pone l’accento sulla natura polisemica della parola terminologia (disciplina, metodologia e insieme di termini appartenenti ad un ambito specialistico) e sulla distinzione tra pratica terminologica e traduttiva gettando le basi del secondo capitolo che, partendo dall'esposizione degli ostacoli terminologici incontrati dal traduttore, descrive le lacune dei principali dizionari bilingui italiano-francese e delle basi di dati terminologiche oggi a disposizione. Il terzo capitolo, dedicato alla presentazione del progetto Lessico multilingue dei beni culturali (LBC), ne evidenzia i punti di forza e sottolinea la necessità di creare degli strumenti “ibridi”, concepiti per aiutare il traduttore in ambito artistico. Questa conclusione sarà ulteriormente ribadita nel quarto capitolo, di stampo pratico : l’analisi di una quindicina di termini dell’ambito della scultura (estratti dal corpus de La Vita di Michelangelo, appositamente creato nell'ambito del progetto LBC) mostra l’eccessivo numero di strumenti che il traduttore è costretto a consultare per risolvere adeguatamente le difficoltà incontrate, pratica che non rispecchia più il mestiere della traduzione, all'interno della società dell’informazione, sempre più influenzato dalle scadenze imposte.
Resumo:
Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.
Resumo:
I dispositivi impiantabili stanno acquisendo grande importanza nell’ambito delle applicazioni biomedicali, ciò è dovuto principalmente alla loro attitudine nell’adempiere funzioni di stimolazione, monitoraggio su organi interni e di comunicazione di segnali vitali al mondo esterno. La comunità scientifica, in particolare, concentra la sua attenzione sulle tecniche di alimentazione di tali dispositivi. Le batterie al litio hanno rappresentato, fino a qualche tempo fa, la sorgente di alimentazione primaria. Il bisogno crescente di minimizzare le dimensioni di questi dispositivi e migliorare la qualità di vita del paziente (evitare successive operazioni chirurgiche, rischi e infezioni a causa dei cavi percutanei), ha spinto nella ricerca di nuove soluzioni. Una di queste è rappresentata dalla Wireless Power Transfer (WPT). In questo lavoro di tesi, è stato proposto un sistema di alimentazione wireless transcutaneo. Il sistema sfrutta il principio dell’accoppiamento induttivo risonante, che consiste nella trasmissione di energia in campo vicino tra due risuonatori magneticamente accoppiati. Al fine di acquisire la massima efficienza, sono state effettuate operazioni di ottimizzazione geometrica sul trasmettitore e di adattamento sul modello circuitale. I software CST e LTspice hanno reso possibile le simulazioni sul sistema dal punto di vista elettromagnetico e circuitale. Gli sviluppi futuri prevedono di convalidare i risultati ottenuti realizzando prove “in vitro”.
Resumo:
Nell'ambito dello sviluppo software, la concorrenza è sempre stata vista come la strada del futuro. Tuttavia, questa è stata spesso ignorata a causa del continuo sviluppo dell'hardware che ha permesso agli sviluppatori di continuare a scrivere software sequenziale senza doversi preoccupare delle performance. In un'era in cui le nuove architetture hardware presentano processori multi-core, tutto questo non è più possibile. L'obiettivo di questa tesi è stato quello di considerare il Modello ad Attori come valida alternativa allo sviluppo di applicazioni in ambito mobile e quindi di progettare, sviluppare e distribuire un nuovo framework sulla base di tale modello. Il lavoro parte quindi da una panoramica di Swift, il nuovo linguaggio di programmazione presentato da Apple al WWDC 2014, in cui vengono analizzati nel dettaglio i meccanismi che abilitano alla concorrenza. Successivamente viene descritto il modello ad attori in termini di: attori, proprietà, comunicazione e sincronizzazione. Segue poi un'analisi delle principali implementazioni di questo modello, tra cui: Scala, Erlang ed Akka; quest'ultimo rappresenta la base su cui è stato ispirato il lavoro di progettazione e sviluppo del framework Actor Kit. Il quarto capitolo descrive tutti i concetti, le idee e i principi su cui il framework Actor Kit è stato progettato e sviluppato. Infine, l'ultimo capitolo presenta l'utilizzo del framework in due casi comuni della programmazione mobile: 1) Acquisizione dati da Web API e visualizzazione sull'interfaccia utente. 2) Acquisizione dati dai sensori del dispositivo. In conclusione Actor Kit abilita la progettazione e lo sviluppo di applicazioni secondo un approccio del tutto nuovo nell'ambito mobile. Un possibile sviluppo futuro potrebbe essere l'estensione del framework con attori che mappino i framework standard di Apple; proprio per questo sarà reso pubblico con la speranza che altri sviluppatori possano evolverlo e renderlo ancora più completo e performante.
Resumo:
Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.