40 resultados para Realtà Aumentata Augmented Reality App Vuforia Image Targeting Unity XCode iOS
Resumo:
Grazie al progresso nel potenziamento dell'hardware sono state sviluppate tecnologie che stanno rivoluzionando drasticamente il modo di interagire con l'ambiente circostante. Una di queste è sicuramente l'avvento degli Smartglasses e della relativa Realtà Aumentata (AR). Sulla scia del rapido diffondersi di questa tecnologia negli ultimi anni, questa tesi vuole mettere in evidenza le opportunità e i benefici legati al suo impiego esponendo come questa aprirà nuove forme di servizi e metterà in discussione il mondo così come lo si conosce. In particolare la tesi è strutturata in questo modo: nel capitolo uno verranno esposte le tre principali tecnologie wearables rispettivamente SmartWatches, FitnessTracker e SmartGlasses, quest'ultimi visti non solo come dei semplici wearables ma come dispositivi per la Realtà Aumentata, mostrando la maggior parte di quelli presenti sul mercato con una relativa descrizione delle caratteristiche hardware. Nel secondo capitolo verrà dunque esposto il concetto di Realtà Aumentata con l'illustrazione di come si progetta generalmente un'applicazione AR ed analizzando alcuni degli innumerevoli scenari applicativi. Nel terzo capitolo verrà presentato come la tecnologia smartglass utilizzi la realtà aumentata e verranno mostrate le proposte applicative che i più importanti prodotti offrono. Nel quarto capitolo invece si parlerà dei vari tools di sviluppo per progettare ed implementare applicazioni di realtà aumentata in particolare per dispositivi smartglasses. Nel quinto capitolo verrà approfondito proprio uno di questi tools: le librerie di ARToolKit raccontandone le caratteristiche principali e mostrando la struttura generale di un'applicazione che ne fa uso. Infine nel sesto capitolo verrà discusso come questa realtà aumentata grazie all'ausilio di tutti questi dispositivi sta cambiando il modo di interagire con tutto l'ambiente, creando scenari futuristici che coinvolgono ambienti intelligenti nei quali si creerà un livello digitale che aumenterà il mondo fisico.
Resumo:
Questa tesi ha l'obiettivo di mostrare i fondamenti per lo sviluppo di un sistema di navigazione per caschi motociclistici in realtà aumentata. L'applicazione implementata sfrutta i concetti principali di realtà aumentata sensor based, cioè basata su geo-localizzazione, al fine di fornire i dati di interesse all'interno del campo visivo del guidatore. Lo scopo del progetto è di realizzare un sistema in grado di interagire con l'utente attraverso i suoi movimenti, e rendere fruibili le informazioni riguardanti la navigazione all'interno di un casco. Non sono pochi i vantaggi che questi strumenti potrebbero introdurre nella guida veicolare, anche in ambito di sicurezza stradale. Infatti, in questo modo, l'utilizzatore del casco non sarà più costretto a distrarsi dalla guida per consultare le informazioni del percorso da seguire, ma avrà la possibilità di vederle proiettate direttamente all'interno del suo campo visivo. Tutte le informazioni che oggi siamo abituati a ricevere da un comune navigatore satellitare (o dal nostro smartphone), saranno disponibili nella visione reale del mondo che ci circonda in modo rapido e intuitivo. Si è scelto di utilizzare Android come sistema operativo per lo sviluppo del sistema, utilizzando la libreria droidAR per la realtà aumentata.
Resumo:
I moderni sistemi computazionali hanno reso applicazioni e dispositivi sempre più complessi e versatili, integrando in essi un numero crescente di funzioni. Da qui si avverte la necessità di un design d’interfaccia utente efficace e pratico che renda il rapporto uomo/macchina semplice ed intuitivo. Negli ultimi anni questo proposito è stato accolto da sviluppatori e progettisti che si sono affacciati nel mondo della “Realtà Aumentata”, una nuova visione d’insieme nel rapporto tra mondo reale e virtuale. Augmented Reality (AR), propone infatti di sviluppare nuove interfacce uomo-computer, che invece di mostrare le informazioni digitali su display isolati, immergano i dati stessi nell’ambiente concreto. Sfuma così una distinzione marcata tra il reale e il virtuale, ma anzi si cerca di combinare in modo naturale la coesistenza di quest’ultimi, permettendo la creazione di interfacce utente semplici e intuitive anche per applicazioni complesse. Il proposito che la tesi vuole andare ad affrontare è proprio quello di indagare lo sviluppo di nuove applicazioni basate su questa tecnologia. Nel primo capitolo verrà analizzatala storia, i campi di applicazione, i device più importanti sui quali è implementata e le varie tecniche di Tracciamento. Nella seconda parte della tesi andremo a interessarci del sistema vero e proprio sul quale regge questa tecnologia. Quindi nel successivo capitolo vedremo esempi di architetture e di piattaforme che offrono questa realtà di sviluppo, soffermandoci su un particolare caso di studio: Metaio; di cui nel terzo e ultimo capitolo indagheremo framework, SDK e API messe a disposizione.
Resumo:
Il grande sviluppo a cui stiamo assistendo negli ultimi anni nell'ambito delle tecnologie mobile e del wearable computing apre le porte a scenari innovativi e interessanti per quanto riguarda sistemi distribuiti collaborativi. Le persone possono sempre più facilmente cooperare e scambiarsi informazioni grazie a queste nuove tecnologie e si può pensare allo sviluppo di sistemi che permettano forme molto avanzate di collaborazione facendo leva sull'aspetto hands-free, ovvero sulla possibilità di utilizzare dispositivi che liberino le mani, come i moderni smart-glasses. Per lo sviluppo di tali sistemi è necessario però studiare nuove tecniche e architetture, in quanto gli strumenti ad oggi a disposizione a supporto della realtà aumentata non sembrano essere del tutto adeguati per tale scopo. Infatti piattaforme come Wikitude o Layar, seppure offrano potenti tecniche di riconoscimento di markers e immagini e di rendering, non offrono quella dinamicità fondamentale per un sistema distribuito collaborativo. Questo scritto ha lo scopo di esplorare questi aspetti mediante l'ideazione, l'analisi, la progettazione e la prototipazione di un semplice caso di studio ispirato a sistemi collaborativi distribuiti basati su realtà aumentata. In particolare in questo lavoro si porrà l'attenzione sul livello delle comunicazioni e delle infrastrutture di rete.
Resumo:
Dall'inizio del nuovo millennio lo sviluppo di tecnologie nel campo del mobile computing, della rete internet, lo sviluppo dell'Internet of things e pure il cloud computing hanno reso possibile l'innovazione dei metodi di lavoro e collaborazione. L'evoluzione del mobile computing e della realtà aumentata che sta avvenendo in tempi più recenti apre potenzialmente nuovi orizzonti nello sviluppo di sistemi distribuiti collaborativi. Esistono oggi diversi framework a supporto della realtà aumentata, Wikitude, Metaio, Layar, ma l'interesse primario di queste librerie è quello di fornire una serie di API fondamentali per il rendering di immagini 3D attraverso i dispositivi, per lo studio dello spazio in cui inserire queste immagini e per il riconoscimento di marker. Questo tipo di funzionalità sono state un grande passo per quanto riguarda la Computer Graphics e la realtà aumentata chiaramente, però aprono la strada ad una Augmented Reality(AR) ancora più aumentata. Questa tesi si propone proprio di presentare l'ideazione, l'analisi, la progettazione e la prototipazione di un sistema distribuito situato a supporto della collaborazione basato su realtà aumentata. Lo studio di questa applicazione vuole mettere in luce molti aspetti innovativi e che ancora oggi non sono stati approfonditi né tanto meno sviluppati come API o forniti da librerie riguardo alla realtà aumentata e alle sue possibili applicazioni.
Resumo:
L'obiettivo di questa tesi è quello di esplorare l'ideazione di sistemi software collaborativi innovativi basati su smart-glasses e forme di realtà aumentata mobile. In particolare, è stato formulato un caso di studio che cattura alcuni aspetti essenziali di questi sistemi: un'applicazione nel quale più utenti dotati di smart glasses si muovono in una zona precisa cercando di raggiungere tutti i punti d'interesse preimpostati in fase di inizializzazione e ottendendo le ricompense contenute dentro agli scrigni situati nei suddetti punti. Lo specifico caso di studio si occupa di approfondire gli aspetti relativi all'Interfaccia Utente, mentre precedentemente erano state affrontate le parti riguardanti la comunicazione e la cooperazione. L'applicazione è location-based e si serve delle tecniche di geolocalizzazione GPS ed è hands-free perché l'interfaccia grafica è mostrata all'utente tramite lo schermo degli smart-glasses.
Resumo:
La grande crescita e l'enorme distribuzione che hanno avuto negli ultimi tempi i moderni devices mobile (smartphones, tablet, dispositivi wearable, etc...) ha dato l'avvio ad un massiccio sviluppo di applicazioni mobile di qualunque genere, dall'health-care all'AR (Augmented Reality, realtà aumentata), dalle applicazioni social alle applicazioni che offrono servizi all'utente.
Resumo:
Da alcuni anni in ambito business ed enterprise si sta diffondendo l'utilizzo di dispositivi wearable al fine di rendere più efficiente ed efficace la gestione di molteplici attività e processi aziendali. I sistemi hand-held comunemente utilizzati in ambito lavorativo, tra cui smartphone e tablet, spesso non risultano idonei in contesti in cui un operatore debba interagire con il dispositivo mentre ha le proprie mani impegnate con attrezzature e strumenti di lavoro. I sistemi hands-free rimediano a tali problematiche supportando tecniche di interazione non convenzionali che consentono all'operatore di mantenere libere le proprie mani durante la consultazione del dispositivo e di rimanere concentrato sull'attività che sta svolgendo. I sistemi basati su smart-glass, oltre ad offrire funzionalità hands-free, presentano l'ulteriore vantaggio di poter presentare all'interno del campo visivo dell'utente importanti informazioni di supporto inerenti all'attività che sta svolgendo, avvalendosi anche dell'utilizzo di tecnologie di realtà aumentata. La sinergia tra dispositivi basati su smart-glass e tecniche di realtà aumentata sta destando un crescente interesse sia in ambito accademico che industriale; esiste la possibilità che in un prossimo futuro questa tipologia di sistemi divenga la nuova piattaforma computazionale enterprise di riferimento. L'obiettivo di questo lavoro di tesi è stato lo studio e la progettazione di una soluzione hands-free basata su smart-glass in grado di supportare alcune attività di customer care del Gruppo Loccioni, una società che si occupa dello sviluppo di sistemi automatici di misura e controllo per migliorare la qualità, l'efficienza e la sostenibilità di prodotti, processi ed edifici. In particolare, il sistema sviluppato ha consentito di migliorare la gestione dei processi di manutenzione e riparazione degli impianti energetici sostenibili che il Gruppo Loccioni installa presso le sedi di imprese clienti.
Resumo:
Il percorso intrapreso per la scrittura della tesi, si snoda essenzialmente in due fasi e nove capitoli. La prima fase ha avuto come scopo l’analisi dal punto di vista tecnologico dell’evoluzione tecnologica avuta nel campo di realtà aumentata e dispositivi wearable in particolare orientandosi verso una tipologia di interazioni hands-free. Questo ha portato ad una ricognizione sullo stato dell’arte permettendo di attenere una base di conoscenza solida per la costruzione del sistema presentato all’interno del caso di studi. I capitoli successivi, in particolare dal quinto, introducono alla seconda fase ed hanno lo scopo di progettare e realizzare il sistema proposto, partendo da un’attenta analisi delle caratteristiche richieste passando per la prototipazione e successiva definizione delle caratteristiche atte alla valutazione del sistema stesso.
Resumo:
Grazie alla crescente evoluzione tecnologica è oggi possibile, tramite Head Mounted Display (HMD), vivere una realtà virtuale ricca nei dettagli, interattiva ed immersiva. L’avanzamento in questo settore ha infatti portato a una vera e propria rivoluzione, aprendo la possibilità di utilizzare questa tecnologia in molteplici ambiti. L’ostacolo riscontrato è che a un progresso di tale entità non si associa un adeguato aggiornamento e perfezionamento riguardo alle metodologie di interazione con oggetti 3D, dell’utilizzo di interfacce grafiche e del generale design ambientale. La diretta conseguenza di questo mancato aggiornamento è quella di indebolire o addirittura annullare l’effetto presenza dell'HMD, requisito indispensabile che consente all’utente di immergersi sensorialmente nel contesto simulato. L’obiettivo di questo studio consiste nel comprendere cosa è necessario tenere in considerazione e quali regole vanno cambiate per poter mantenere un'alta sensazione di presenza per l'utente all’interno di una realtà virtuale. A questo scopo è stato creato un ambiente virtuale 3D in grado di supportare l'utilizzo di un HMD, l'Oculus Rift, e di diversi dispositivi di input in grado di consentire controllo tramite movimenti naturali, il Razer Hydra ed il Leap Motion, in modo da poter effettuare un'analisi diretta sul livello del fattore presenza percepito nell'effettuare diverse interazioni con l'ambiente virtuale e le interfacce grafiche attraverso questi dispositivi. Questa analisi ha portato all'individuazione di molteplici aspetti in queste tipologie di interazioni e di design di intrefacce utente che, pur essendo di uso comune negli ambienti 3D contemporanei, se vissuti in un contesto di realtà virtuale non risultano più funzionali e indeboliscono il senso di presenza percepito dall'utente. Per ognuno di questi aspetti è stata proposta ed implementata una soluzione alternativa (basata su concetti teorici quali Natural Mapping, Diegesis, Affordance, Flow) in grado di risultare funzionale anche in un contesto di realtà virtuale e di garantire una forte sensazione di presenza all'utente. Il risultato finale di questo studio sono quindi nuovi metodi di design di ambienti virtuali per realtà aumentata. Questi metodi hanno permesso la creazione di un ambiente virtuale 3D pensato per essere vissuto tramite HMD dove l'utente è in grado di utilizzare movimenti naturali per interagire con oggetti 3D ed operare interfacce grafiche.
Resumo:
La tesi presenta una panoramica sull'augmented, virtual e mixed reality, descrivendone le caratteristiche e le modalità di sviluppo. Come caso di studio viene analizzato il dispositivo Microsoft Hololens, descrivendone le caratteristiche concettuali, hardware e software. Per le applicazioni di questo dispositivo viene effettuata una riprogettazione della gestione e del concetto di ologramma all'interno di un'applicazione olografica, analizzandone i motivi e i vantaggi. E' fornita una overview sui dettagli implementativi della riprogettazione al fine di chiarire ogni aspetto dell'applicazione.
Resumo:
La tesi consiste nella realizzazione di un programma che guida l’utente durante la visita delle attrazioni di una città: monumenti, musei, chiese, cinema etc. L’utente attraverso l’applicazione può visualizzare sulla mappa tutti i punti di interesse o solamente quelli che si trovano nelle sue vicinanze; può ottenere informazioni testuali, multimediali e vocali che descrivono ogni luogo, condividere commenti sui social network Facebook e Twitter, ottenere le indicazioni stradali e usare anche la realtà aumentata per avere una diversa percezione dell’ambiente che comunque rimane prevalentemente reale. Inoltre l’utente viene avvisato dall’applicazione quando un punto di interesse è nelle vicinanze.
Resumo:
Nel contesto della tesi è stata sviluppata un'applicazione di Realtà Aumentata per tablet Android nell'ambito dell'interior design. Dopo aver acquisito un'istantanea con la fotocamera del dispositivo di un ambiente interno, è possibile selezionare attraverso un "tocco" sul display il rivestimento (pavimento o parete) di cui si vuole simulare il cambiamento di colore o texture. Una volta individuata ed evidenziata l'area di interesse, in tempo reale è possibile cambiare interattivamente l'aspetto del rivestimento precedentemente selezionato. La tesi si focalizza sulla ricerca di un metodo che consenta di avere una segmentazione accurata della superficie di interesse. L'algoritmo di segmentazione studiato, utilizzato nell'applicazione di Realtà Aumentata, è sviluppato nel contesto della collaborazione tra il Computer Vision Group (CVG), coordinato dal Prof. Alessandro Bevilacqua e Maticad S.r.l., un'azienda che opera nel settore dell'Information Technology, Distributed Applications, Internet e Computer Grafica, presso la quale ho effettuato un periodo di tirocinio. Maticad, oltre a software per pc desktop, sviluppa applicazioni per iOS e in questo contesto, durante il tirocinio, ho sviluppata un'applicazione demo per iOS 7 volta a studiare le prestazioni dei sensori (ottico, inerziali, magnetici), in vista di un futuro porting dell'applicazione su quel sistema operativo.
Resumo:
Il Projection Mapping è una tecnologia che permette di proiettare delle immagini sulla superficie di uno o più oggetti, anche di forma irregolare, trasformandoli in display interattivi. Il suo utilizzo, abbinato a suoni e musiche, permette di creare una narrazione audio-visuale. La suggestione e l’emozione scaturite dalla visione di una performance di Projection Mapping su di un monumento pubblico, hanno stimolato la mia curiosità e mi hanno spinto a cercare di capire se era possibile realizzare autonomamente qualcosa di analogo. Obiettivo di questa tesi è perciò spiegare cos’è il Projection Mapping e fornire una serie di indicazioni utili per realizzarne un’applicazione interattiva con OpenFrameworks (un framework open-source in C++) e hardware a basso costo (un computer, un videoproiettore e un sensore Kinect).
Resumo:
This thesis proposes a novel technology in the field of swarm robotics that allows a swarm of robots to sense a virtual environment through virtual sensors. Virtual sensing is a desirable and helpful technology in swarm robotics research activity, because it allows the researchers to efficiently and quickly perform experiments otherwise more expensive and time consuming, or even impossible. In particular, we envision two useful applications for virtual sensing technology. On the one hand, it is possible to prototype and foresee the effects of a new sensor on a robot swarm, before producing it. On the other hand, thanks to this technology it is possible to study the behaviour of robots operating in environments that are not easily reproducible inside a lab for safety reasons or just because physically infeasible. The use of virtual sensing technology for sensor prototyping aims to foresee the behaviour of the swarm enhanced with new or more powerful sensors, without producing the hardware. Sensor prototyping can be used to tune a new sensor or perform performance comparison tests between alternative types of sensors. This kind of prototyping experiments can be performed through the presented tool, that allows to rapidly develop and test software virtual sensors of different typologies and quality, emulating the behaviour of several hardware real sensors. By investigating on which sensors is better to invest, a researcher can minimize the sensors’ production cost while achieving a given swarm performance. Through augmented reality, it is possible to test the performance of the swarm in a desired virtual environment that cannot be set into the lab for physical, logistic or economical reasons. The virtual environment is sensed by the robots through properly designed virtual sensors. Virtual sensing technology allows a researcher to quickly carry out real robots experiment in challenging scenarios without all the required hardware and environment.