966 resultados para GPS, BLE, Riconoscimento, Immagini, AR
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Resumo:
Generic object recognition is an important function of the human visual system and everybody finds it highly useful in their everyday life. For an artificial vision system it is a really hard, complex and challenging task because instances of the same object category can generate very different images, depending of different variables such as illumination conditions, the pose of an object, the viewpoint of the camera, partial occlusions, and unrelated background clutter. The purpose of this thesis is to develop a system that is able to classify objects in 2D images based on the context, and identify to which category the object belongs to. Given an image, the system can classify it and decide the correct categorie of the object. Furthermore the objective of this thesis is also to test the performance and the precision of different supervised Machine Learning algorithms in this specific task of object image categorization. Through different experiments the implemented application reveals good categorization performances despite the difficulty of the problem. However this project is open to future improvement; it is possible to implement new algorithms that has not been invented yet or using other techniques to extract features to make the system more reliable. This application can be installed inside an embedded system and after trained (performed outside the system), so it can become able to classify objects in a real-time. The information given from a 3D stereocamera, developed inside the department of Computer Engineering of the University of Bologna, can be used to improve the accuracy of the classification task. The idea is to segment a single object in a scene using the depth given from a stereocamera and in this way make the classification more accurate.
Resumo:
Tematiche di violenza e aggressione sono oggi di estrema attualità e sempre più spesso se ne sente parlare al telegiornale o in programmi specializzati. Aggressione per molestie, furto o per scopi razziali; le motivazioni e i casi d'interesse sono vari e spesso hanno inizio senza alcun apparente motivo e la sensazione di sentirsi sempre meno al sicuro, anche appena usciti di casa, può degenerare ad una vera e propria paranoia. L'unica cosa che è sempre al nostro fianco, oggi giorno, sono i nostri smartphone, che risultano sempre più sofisticati e intelligenti; perché, allora, non provare ad usarli come protezione? L'obiettivo su cui si è incentrata questa tesi è, appunto, il riconoscimento di un'aggressione basata sull'analisi della situazione in cui si trova l'utente, attraverso l'uso dei sensori messi a disposizione dagli odierni smartphone in circolazione. Esistono già numerose applicazioni per la sicurezza personale, ma il metodo utilizzato per la segnalazione di un'aggressione è sempre basato sulla pressione di un pulsante o un'azione particolare che l'utente deve svolgere. L'applicazione creata in questo studio, invece, cerca di riconoscere le situazioni di pericolo osservando i movimenti dell'utente e basa il riconoscimento sulla presenza di situazioni fuori dalla normale quotidianità che, attraverso dei "controlli di conferma", permettono di riconoscere il pericolo in maniera completamente autonoma. Si è deciso di approcciarsi ad un riconoscimento autonomo, in quanto, non sempre si ha la possibilità, o il tempo, di prendere in mano il proprio smartphone per avvisare del pericolo e molte volte il panico potrebbe far perdere la lucidità alla vittima, il cui primo pensiero è quello di difendersi e scappare e non utilizzare il dispositivo. Altre volte, distrarsi anche per un secondo, potrebbe essere fatale per la propria sicurezza. Per questo motivo si è ricercato un'approccio di riconoscimento basato "sull'osservazione" di ciò che sta accadendo, piuttosto che sull'attesa di un segnale. L'obiettivo di riconoscimento prefissato è stato quello delle aggressioni in strada e i sensori utilizzati a questo scopo sono stati: accelerometro, giroscopio, GPS e microfono. Attraverso la combinazione di questi sensori, infatti, è stato possibile riconoscere cadute (di forte entità), urla e probabili spinte/strattoni. Si sono studiate, per tanto, le caratteristiche che collegassero queste tipologie di situazioni per ogni sensore preso in esame, costruendo un'approccio di riconoscimento risultato valido per gli obiettivi minimi prefissati.
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
Dall'inizio del nuovo millennio lo sviluppo di tecnologie nel campo del mobile computing, della rete internet, lo sviluppo dell'Internet of things e pure il cloud computing hanno reso possibile l'innovazione dei metodi di lavoro e collaborazione. L'evoluzione del mobile computing e della realtà aumentata che sta avvenendo in tempi più recenti apre potenzialmente nuovi orizzonti nello sviluppo di sistemi distribuiti collaborativi. Esistono oggi diversi framework a supporto della realtà aumentata, Wikitude, Metaio, Layar, ma l'interesse primario di queste librerie è quello di fornire una serie di API fondamentali per il rendering di immagini 3D attraverso i dispositivi, per lo studio dello spazio in cui inserire queste immagini e per il riconoscimento di marker. Questo tipo di funzionalità sono state un grande passo per quanto riguarda la Computer Graphics e la realtà aumentata chiaramente, però aprono la strada ad una Augmented Reality(AR) ancora più aumentata. Questa tesi si propone proprio di presentare l'ideazione, l'analisi, la progettazione e la prototipazione di un sistema distribuito situato a supporto della collaborazione basato su realtà aumentata. Lo studio di questa applicazione vuole mettere in luce molti aspetti innovativi e che ancora oggi non sono stati approfonditi né tanto meno sviluppati come API o forniti da librerie riguardo alla realtà aumentata e alle sue possibili applicazioni.
Resumo:
Il makeup, come strumento atto a modificare i tratti somatici di un individuo per aumentarne la bellezza, è largamente diffuso e socialmente accettabile al giorno d’oggi. Per la sua facile reperibilità, semplicità di utilizzo e capacità di alterare le caratteristiche principali di un volto, può diventare uno strumento pericoloso per chi volesse sottrarsi a dei controlli. In questo lavoro di tesi sono stati analizzati algoritmi presenti in letteratura che cercano di arginare gli effetti di alterazione di un viso, causati dal makeup, durante un processo di riconoscimento del volto. Inoltre è stato utilizzato un software per verificare la robustezza dei programmi commerciali in merito al problema del makeup e confrontare poi i risultati riscontrati in letteratura con quelli ottenuti dai test.
Resumo:
This research on odometry based GPS-denied navigation on multirotor Unmanned Aerial Vehicles is focused among the interactions between the odometry sensors and the navigation controller. More precisely, we present a controller architecture that allows to specify a speed specified flight envelope where the quality of the odometry measurements is guaranteed. The controller utilizes a simple point mass kinematic model, described by a set of configurable parameters, to generate a complying speed plan. For experimental testing, we have used down-facing camera optical-flow as odometry measurement. This work is a continuation of prior research to outdoors environments using an AR Drone 2.0 vehicle, as it provides reliable optical flow on a wide range of flying conditions and floor textures. Our experiments show that the architecture is realiable for outdoors flight on altitudes lower than 9 m. A prior version of our code was utilized to compete in the International Micro Air Vehicle Conference and Flight Competition IMAV 2012. The code will be released as an open-source ROS stack hosted on GitHub.
Resumo:
Lo scopo di questa trattazione è quindi di illustrare il lavoro svolto nel tentativo di classificare le reazioni emozionali ad immagini con una forte carica emozionale, sia positiva che negativa. A tale scopo sono stati acquisiti i segnali EEG di diversi soggetti durante l’esposizione ad immagini di vario contenuto, insieme alla loro reazione dichiarata alle immagini stesse. Queste sono state immagazzinate, elaborate utilizzando diversi metodi di estrazione delle informazioni, ed infine si è tentato di effettuare un riconoscimento di pattern sui segnali tramite algoritmi di apprendimento supervisionato; i dati sono stati quindi divisi tra dati di “training”, utilizzati per la strutturazione dell’algoritmo, e dati di test, necessari per la verifica dell’affidabilità dell’algoritmo.
Resumo:
En el siguiente artículo se evidenciaran las distancias totales recorridas por jugadores de rugby, las cuales se desprenden de datos empíricos (cuantificación de las mismas a través de GPS) de un total de veintiún (N=21)jugadores pertenecientes al grupo I de la URBA. Los datos recogidos nos indican que, independientemente de su puesto dentro de la cancha, los jugadores recorren en promedio 5115 metros por partido. Sin embargo, los datos de mayor importancia, como se verán, son los valores registrados específicamente por cada puesto de juego, ya queel mínimo valor de desplazamiento requerido para un jugadoren este deporte, es el que registran los pilares, de 4092 mts y el mayor valor alcanzado, se da para los puestos de loswings y el full back, donde recorren 5856 mts. El GPS además, nos da la posibilidad de contabilizar las distancias registradas a velocidades de desplazamiento >a los 18 km/h, donde aquí también cada puesto mostrara distintos valores, como se veráen diferentes cuadros. Debido a que ?los requerimientos físicos del rugby son bien diferentes y variados para cada jugador? (Delovo, 2013: 4) ¿resulta necesario diferenciar los entrenamientos para cada puesto específico de este deporte?
Resumo:
En el siguiente artículo se evidenciaran las distancias totales recorridas por jugadores de rugby, las cuales se desprenden de datos empíricos (cuantificación de las mismas a través de GPS) de un total de veintiún (N=21)jugadores pertenecientes al grupo I de la URBA. Los datos recogidos nos indican que, independientemente de su puesto dentro de la cancha, los jugadores recorren en promedio 5115 metros por partido. Sin embargo, los datos de mayor importancia, como se verán, son los valores registrados específicamente por cada puesto de juego, ya queel mínimo valor de desplazamiento requerido para un jugadoren este deporte, es el que registran los pilares, de 4092 mts y el mayor valor alcanzado, se da para los puestos de loswings y el full back, donde recorren 5856 mts. El GPS además, nos da la posibilidad de contabilizar las distancias registradas a velocidades de desplazamiento >a los 18 km/h, donde aquí también cada puesto mostrara distintos valores, como se veráen diferentes cuadros. Debido a que ?los requerimientos físicos del rugby son bien diferentes y variados para cada jugador? (Delovo, 2013: 4) ¿resulta necesario diferenciar los entrenamientos para cada puesto específico de este deporte?
Resumo:
En el siguiente artículo se evidenciaran las distancias totales recorridas por jugadores de rugby, las cuales se desprenden de datos empíricos (cuantificación de las mismas a través de GPS) de un total de veintiún (N=21)jugadores pertenecientes al grupo I de la URBA. Los datos recogidos nos indican que, independientemente de su puesto dentro de la cancha, los jugadores recorren en promedio 5115 metros por partido. Sin embargo, los datos de mayor importancia, como se verán, son los valores registrados específicamente por cada puesto de juego, ya queel mínimo valor de desplazamiento requerido para un jugadoren este deporte, es el que registran los pilares, de 4092 mts y el mayor valor alcanzado, se da para los puestos de loswings y el full back, donde recorren 5856 mts. El GPS además, nos da la posibilidad de contabilizar las distancias registradas a velocidades de desplazamiento >a los 18 km/h, donde aquí también cada puesto mostrara distintos valores, como se veráen diferentes cuadros. Debido a que ?los requerimientos físicos del rugby son bien diferentes y variados para cada jugador? (Delovo, 2013: 4) ¿resulta necesario diferenciar los entrenamientos para cada puesto específico de este deporte?
Resumo:
Målet med detta projekt är att ta fram en applikationsprototyp för Androidenheter som ska locka användare av applikationen till och tillbaka till broparken i Skönsberg med hjälp av augmented-reality. Applikationen ska känna av om användaren befinner sig inom eller utanför parkens område och visa olika bilder/modeller på specifika GPS-koordinater i det digitala lagret beroende på användarens positionering. Arbetet har genomförts i samarbete med Dohi på uppdrag av Sundsvalls kommun där regelbundna möten hafts med uppdragsgivaren. Utvecklingen av applikationen sker i PhoneGap med Wikitude-plugin. Projektet har resulterat i en applikationsprototyp som använder ActionRanges, som är en typ av GeoFence, för att presentera olika bilder hämtade från en egen server i det digitala lagret beroende på användarens position. Användarna har inom parkens område möjlighet att själv påverka de bilder som visas i det digitala lagret genom att i applikationen ta en bild som laddas upp till servern där bilderna lagras och där bilden som tagits även visar det digitala lagret.
Resumo:
Augmented Reality (AR) applications often require knowledge of the user’s position in some global coordinate system in order to draw the augmented content to its correct position on the screen. The most common method for coarse positioning is the Global Positioning System (GPS). One of the advantages of GPS is that GPS receivers can be found in almost every modern mobile device. This research was conducted in order to determine the accuracies of different GPS receivers. The tests included seven consumer-grade tablets, three external GPS modules and one professional-grade GPS receiver. All of the devices were tested with both static and mobile measurements. It was concluded that even the cheaper external GPS receivers were notably more accurate than the GPS receivers of the tested tablets. The absolute accuracy of the tablets is difficult to determine from the test results, since the results vary by a large margin between different measurements. The accuracy of the tested tablets in static measurements were between 0.30 meters and 13.75 meters.
Resumo:
La tesi tratta della tecnica per il riconoscimento facciale delle autofacce, seguendo come traccia l'articolo "Eigenface for Recognition" di Turk e Pentland, pubblicato nel 1991. In particolare ho verificato la semplicità dell'algoritmo che caratterizza questa tecnica testandola sulle immagini di alcuni soggetti dell'MR2 Face Database grazie al codice che ho implementato a partire da quello di Michael Scheinfeild.Il primo capitolo tratta brevemente della storia delle tecniche di riconoscimento facciale studiate fino agli anni '90. Nel secondo capitolo vengono riportati alcuni richiami di autovalori, autovettori, varianza e covarianza.Nel terzo capitolo viene trattata la tecnica autofacce passaggio per passaggio, facendo riferimento alla verifica che ho fatto in laboratorio. In particolare si trattano la generazione dello spazio delle autofacce e quella della procedura di riconoscimento facciale, seguite da un breve accenno al tipo di problema a cui si approccia questa tecnica.