958 resultados para riconoscimento volto alterazione digitale immagini morphing
Resumo:
Il progetto si propone di dotare la realta fisica di un estensione digitale. Sensori, attuatori e tecnologie embedded hanno cambiato il nostro modo di lavorare, allenarci e seguire i nostri interessi. Il mondo del commercio non e rimasto a guardare ed ha dovuto adattarsi alla metamorfosi high-tech del settore dei servizi. Il sistema proposto costituisce un promotore per acquisti ed un raccoglitore intelligente di abitudini sullo shopping e si compone di applicazione mobile, microcontroller e web server. Caratteristica prima e principale del progetto e sicuramente la pervasivita. All'utente ed utilizzatore dell'app dello shopping center deve essere certamente resa nota la collaborazione al fine di raccogliere dati statistici sulle sue abitudini, tuttavia sono le modalita di tale operazione a dover rimanere velate, in modo da non appesantire il cliente con tediose operazioni di invio di feedback e valutazioni ed allo stesso tempo permettere una raccolta capillare delle informazioni. Parallelamente alla raccolta di dati funzionali al producer, sono state implementate features per il consumatore, come notifiche promozionali place-triggered e pubblicita mirata. Tra tutte le tecnologie adibite allo scambio di informazioni, si e scelto l'utilizzo del Bluetooth e del piu recente Bluetooth Low Energy (BLE) per permettere ai dispositivi di comunicare tra loro.
Resumo:
Dopo una breve introduzione sulla realtà aumentata (definizione, storia e stato dell’arte) viene effettuata un'analisi delle librerie esistenti per l’implementazione su dispositivi mobile. Considerando compatibilità con i recenti SO, frequenza degli aggiornamenti, costi per le licenze e funzionalità offerte viene scelta la libreria Vuforia, originariamente sviluppata da Qualcomm e poi acquistata da PTC inc. Si conviene poi che le apps basate su realtà aumentata creano il contenuto “aumentato” in due maniere: o tramite riconoscimento di una specifica immagine oppure tramite localizzazione GPS. Di questi due metodi descritti, il primo risulta molto più affidabile e per questo viene sviluppata una app che crea un contenuto in 3D (aumentato) riconoscendo una immagine: funzionalità di Image Targeting. Il progetto considera le seguenti varianti: l’immagine da riconoscere, chiamata “target”, può essere in un database locale oppure cloud mentre il contenuto in 3D aumentato può essere sia statico che animato. Durante la fase di implementazione vengono fornite anche alcuni nozioni di base di Computer Graphic per il rendering del modello 3D. La tesi si conclude con una panoramica di apps presenti sullo store che funzionano secondo questo principio di Image Targeting, i possibili utilizzi in ambito educativo/ludico ed i costi di realizzazione.
Resumo:
Questo lavoro di tesi si propone di realizzare un sistema in grado non solo di gestire la similarità tra media di stesso tipo, in modo tale da essere al pari per potenzialità in catalogazione e ricerca dei sistemi esistenti, ma di introdurre anche il concetto di similarità tra documenti, i quali contengono media di diverso tipo. Anche se esistono già DBMS in grado di gestire tipi di media complessi, nessuno ha un modello in grado di gestire la compresenza di più tipi di dato efficientemente. Per realizzare un sistema multimediale che sia in grado di gestire non solo la similarità tra media compatibili per tipo ma in generale la ricerca tra documenti si è deciso di utilizzare sistemi per media specifici già esistenti e di integrarli in modo da farli cooperare. A tale proposito si è deciso inizialmente di creare un sistema in grado di gestire documenti che possano contenere inizialmente parti testuali, immagini, video e serie temporali. E’ chiaro intuire come le differenze tra i singoli sistemi (e tra le singole tipologie di dati) rendano quasi impossibile il confronto tra media di tipo diverso esaminandone solamente il contenuto. Per questo un sistema multimediale come quello proposto non potrà effettuare ricerca per contenuto tra media differenti (a parte tra immagini e video in cui può essere possibile confrontare l’immagine con gli screenshot che compongono un video) ma si baserà principalmente sul confronto semantico tra media di tipo diverso e lo combinerà invece con ricerche per metadati e contenuto tra media dello stesso tipo. In questa tesi verranno analizzate le tecnologie utilizzate, le modifiche apportate ai framework esistenti e le novità introdotte per realizzare il sistema generale e in seguito verrà proposta la realizzazione due applicazioni su casi reali per dimostrare l’efficacia di tale sistema.
Resumo:
Il presente lavoro si riferisce ad una delle attività di monitoraggio topografico più diffuse e consolidate: il controllo altimetrico per mezzo della livellazione geometrica di precisione, finalizzato alla determinazione dei dislivelli – e della loro variazione nel tempo – tra capisaldi appositamente istituiti sulla struttura. Va ricordato infatti che in Topografia non è possibile determinare direttamente la quota assoluta di un punto, ma solamente il dislivello, ossia la differenza di quota fra punti della superficie fisica. Il caso di studio si riferisce nello specifico ad un oggetto di grandissimo interesse: le Due Torri di Bologna. La Torre degli Asinelli e la Torre Garisenda di Bologna sono infatti soggette da lungo tempo ad una attività di monitoraggio altimetrico con la tecnica della livellazione geometrica di precisione, oggi realizzata con strumentazione digitale. L’attività viene condotta dall’area di Geomatica del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Università di Bologna in collaborazione con il Comune di Bologna. Scopo della tesi è illustrare gli aspetti teorici alla base della tecnica della livellazione geometrica e le operazioni che sono state eseguite sul campo ed in laboratorio, in affiancamento a quanto effettuato dal DICAM con il coordinamento del Prof. G. Bitelli. Nel Capitolo 1 viene descritta la metodologia di rilevamento mediante livellazione geometrica di precisione e la tecnica di elaborazione dei dati tramite la compensazione per osservazioni indirette secondo il principio dei minimi quadrati. Nel Capitolo 2 viene presentato il caso di studio e descritto il rilievo che è stato effettuato durante il periodo della tesi. Vengono illustrate le fasi operative sul campo e la successiva fase di predisposizione dei dati per la compensazione. Infine si illustra l’elaborazione numerica realizzata per la determinazione delle quote nel sistema di riferimento locale utilizzato.
Resumo:
Questo elaborato presenta una procedura di rilievo eseguito con la scansione Laser e la Fotogrammetria per lo studio della facciata della Chiesa di Santa Lucia in Bologna e le successive elaborazioni dei dati tramite software di correlazione automatica Open Source e commerciali Low Cost basati sui principi della Structure from Motion. Nel particolare, il rilievo laser è stato eseguito da 5 posizioni diverse e tramite l’utilizzo di 7 target, mentre il rilievo fotogrammetrico è stato di tipo speditivo poiché le prese sono state eseguite solo da terra ed è stato impiegato un tempo di lavoro minimo (una decina di minuti). I punti di appoggio per la georeferenziazione dei dati fotogrammetrici sono stati estratti dal datum fornito dal laser e dal set di fotogrammi a disposizione è stato ottenuta una nuvola di punti densa tramite programmi Open Source e con software commerciali. Si sono quindi potuti operare confronti tra i risultati ottenuti con la fotogrammetria e tra il dato che si aveva di riferimento, cioè il modello tridimensionale ottenuto grazie al rilievo laser. In questo modo si è potuto verificare l’accuratezza dei risultati ottenuti con la fotogrammetria ed è stato possibile determinare quale calcolo teorico approssimativo dell’errore poteva essere funzionante per questo caso di studio e casi simili. Inoltre viene mostrato come produrre un foto raddrizzamento tramite l’utilizzo di una sola foto utilizzando un programma freeware. Successivamente è stata vettorializzata la facciata della chiesa ed è stata valutata l’accuratezza di tale prodotto, sempre confrontandola con il dato di riferimento, ed infine è stato determinato quale calcolo teorico dell’errore poteva essere utilizzato in questo caso. Infine, avendo notato la diffusione nel commercio odierno della stampa di oggetti 3D, è stato proposto un procedimento per passare da una nuvola di punti tridimensionale ad un modello 3D stampato.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Resumo:
Una nuova ed originale tecnica è stata messa a punto, finalizzata alla realizzazione di una procedura per la diagnosi dell’osteoporosi, mediante l’utilizzo di scanner low field single-sided NMR. Tre differenti scanner (NMR MOLE, MOUSE PM 10 e MOUSE PM5) sono stati usati per determinare il Bone Volume-to-Total Volume ratio (BV/TV), parametro che fornisce indicazioni sulla microstruttura dell’osso. I risultati sono stati confrontati con le analisi micro-CT. Gli esperimenti sono stati condotti nel Lab. NMR del dipartimento DIFA di UNIBO e nel Lab. NMR della Victoria University di Wellington (NZ), durante un periodo di visita di cinque mesi, supportato da una borsa di studio della “Facoltà di Scienze” di UNIBO. Le analisi micro-CT sono state condotte presso il Lab. di Tecnologie Mediche dell’Istituto Ortopedico Rizzoli, Bologna. La ricerca è stata parzialmente finanziata dalla “Fondazione del Monte di Bologna e Ravenna”. La caratterizzazione dell’osso trabecolare di campioni animali e dei tessuti che lo circondano (come cartilagine e muscolo) è stata condotta tramite mappe di correlazione T1-T2 e D-T2 , dove T1 e T2 sono, rispettivamente, il tempo di rilassamento longitudinale e trasversale del nucleo 1H, e D è il coefficiente di autodiffusione molecolare. E’ stata sviluppata una sequenza di impulsi (Diffusion-Weighted T1-T2) per ottenere mappe T1-T2 pesate in diffusione. I risultati hanno consentito di mettere a punto una procedura che elimina il segnale NMR proveniente da cartilagine e muscolo, rendendo più realistico lo scenario di applicazione in-vivo. I tre diversi dispositivi NMR hanno dato risultati consistenti tra loro e con le immagini micro-CT. L’intera catena di esperimenti condotti ha mostrato che dispositivi NMR single-sided possono essere usati per valutare il BV/TV di ossa trabecolari, con il vantaggio di essere portatili, a basso costo e non invasivi, permettendo campagne di screening della popolazione a rischio osteoporosi.
Resumo:
In questo lavoro di tesi è presentato un metodo per lo studio della compartimentalizzazione dell’acqua in cellule biologiche, mediante lo studio dell’autodiffusione delle molecole d’acqua tramite uno strumento NMR single-sided. Le misure sono state eseguite nel laboratorio NMR all’interno del DIFA di Bologna. Sono stati misurati i coefficienti di autodiffusione di tre campioni in condizione bulk, ottenendo risultati consistenti con la letteratura. È stato poi analizzato un sistema cellulare modello, Saccharomyces cerevisiae, allo stato solido, ottimizzando le procedure per l’ottenimento di mappe di correlazione 2D, aventi come assi il coefficiente di autodiffusione D e il tempo di rilassamento trasversale T2. In questo sistema l’acqua è confinata e l’autodiffusione è ristretta dalle pareti cellulari, si parla quindi di coefficiente di autodiffusione apparente, Dapp. Mediante le mappe sono state individuate due famiglie di nuclei 1H. Il campione è stato poi analizzato in diluizione in acqua distillata, confermando la separazione del segnale in due distinte famiglie. L’utilizzo di un composto chelato, il CuEDTA, ha permesso di affermare che la famiglia con il Dapp maggiore corrisponde all’acqua esterna alle cellule. L’analisi dei dati ottenuti sulle due famiglie al variare del tempo lasciato alle molecole d’acqua per la diffusione hanno portato alla stima del raggio dei due compartimenti: r=2.3±0.2µm per l’acqua extracellulare, r=0.9±0.1µm per quella intracellulare, che è probabilmente acqua scambiata tra gli organelli e il citoplasma. L’incertezza associata a tali stime tiene conto soltanto dell’errore nel calcolo dei parametri liberi del fit dei dati, è pertanto una sottostima, dovuta alle approssimazioni connesse all’utilizzo di equazioni valide per un sistema poroso costituito da pori sferici connessi non permeabili. Gli ordini di grandezza dei raggi calcolati sono invece consistenti con quelli osservabili dalle immagini ottenute con il microscopio ottico.
Resumo:
I raggi X, a partire dalla loro scoperta, avvenuta nel 1895 ad opera di Wilhelm Conrad Röntgen, si sono rivelati un potentissimo mezzo per lo studio della materia. In particolare in campo medico hanno permesso la nascita della diagnostica per immagini che, parallelamente allo sviluppo delle tecnologie, è diventata un mezzo imprescindibile per lo studio delle patologie. Negli ultimi decenni molti studi sono stati compiuti in particolare sui vantaggi dell’utilizzo nell’imaging di raggi X monocromatici in sostituzione dell’usuale radiazione policromatica. Con il seguente elaborato si ha l’intento di fornire un quadro generale sulla fisica dei raggi X, sulla loro interazione con la materia e sugli attuali metodi di produzione di fasci monocromatici e quasi-monocromatici, con particolare attenzione all'utilizzo su vasta scala. Sono state infine trattate le principali applicazioni della radiazione monocromatica e quasi-monocromatica nelle tecniche di imaging medico.
Resumo:
Il framework in oggetto, è un ambiente ideato con lo scopo di applicare tecniche di Machine Learning (in particolare le Random Forest) alle funzionalità dell'algoritmo di stereo matching SGM (Semi Global Matching), al fine di incrementarne l'accuratezza in versione standard. Scopo della presente tesi è quello di modificare alcune impostazioni di tale framework rendendolo un ambiente che meglio si adatti alla direzionalità delle scanline (introducendo finestre di supporto rettangolari e ortogonali e il training di foreste separate in base alla singola scanline) e ampliarne le funzionalità tramite l'aggiunta di alcune nuove feature, quali la distanza dal più vicino edge direzionale e la distintività calcolate sulle immagini Left della stereo pair e gli edge direzionali sulle mappe di disparità. Il fine ultimo sarà quello di eseguire svariati test sui dataset Middlebury 2014 e KITTI e raccogliere dati che descrivano l'andamento in positivo o negativo delle modifiche effettuate.
Resumo:
In questo lavoro di tesi sono state impiegate le librerie grafiche OpenGL ES 2 per eseguire calcoli paralleli sulla GPU del Raspberry Pi. Sono stati affrontati e discussi concetti riguanrdati il calcolo parallelo, stream processing, GPGPU e le metriche di valutazione di algoritmi paralleli. Sono inoltre descritte le potenzialita e le limitazioni derivanti dall'impiego di OpenGL per implementare algoritmi paralleli. In particolare si e fatto riferimento all'algoritmo Seam Carving per il restringimento di immagini, realizzando e valutando una implementazione parallela di questo sul Raspberry Pi.
Resumo:
In questa tesi si esamineranno alcune possibili vulnerabilità dei sistemi di riconoscimento di impronte digitali e si tenterà di migliorare la loro sicurezza nei confronti di una tipologia specifica di attacco che utilizza impronte digitali "artificiali" per permettere ad un criminale di utilizzare il documento di un complice. È stata infatti recentemente dimostrata la possibilità di inserire in un documento elettronico caratteristiche biometriche che lo rendono utilizzabile da due diverse persone. Questa problematica di sicurezza è alla base dell’attacco che verrà analizzato in questa tesi e per il quale si cercheranno contromisure efficaci.
Resumo:
Dalla volontà di proporre una soluzione al tema delle disabilità fisiche in ambiente cittadino evoluto e tecnologicamente avanzato, è nata l'idea di progettare un'applicazione in grado di generare visibilità attorno ad un tema che dovrebbe progredire nella stessa maniera dello sviluppo tecnologico. Lo scopo di questa tesi è proporre un tentativo concreto per entrare in contatto con una problematica di ordine sociale che lo sviluppo tecnologico dovrebbe tenere in maggiore considerazione. Si vuole cercare di sfruttare Internet come mezzo per enfatizzare un problema concreto come la mancanza di visibilità e coinvolgimento sociale attorno la tematica delle disabilità. I nativi digitali utilizzano costantemente sia social network che piattaforme dedite allo scambio di informazioni e alla creazione di visibilità. Vivono il mondo digitale come una vetrina nella quale potersi mettere in mostra e creare una reputazione. Il mondo digitale, in particolare quello dei social network viene visto dai più come la fonte principale di costruzione dei legami sociali, ciò è sicuramente vero, ma bisogna capire che tipo e quanto profonde possano essere tali relazioni. La mia generazione è cresciuta in un periodo ibrido, coinvolta sia nel mondo analogico sia in quello digitale, molti sono stati risucchiati da un vortice di superficialità e apparenze altamente correlati con gli effetti generati da una società capitalistica perfettamente identificabile nei profili che ogni giorno andiamo a creare per metterci in mostra nei social network. In prima analisi con la collaborazione del Dipartimento disabilità dell'Università di Bologna si era cercato di porre l'attenzione su un approccio più orientativo per venire in contro a problematiche del genere. Qualcosa che permettesse a tutti nella stessa maniera di vivere la realtà accademica e cittadina stimolando l'interazione degli studenti con socialità marginale.
Resumo:
Il lavoro di questa tesi si propone di esaminare i dati di immagini cerebrali ricevuti da due differentii bobine RF per l'imaging in risonanza magnetica. La strumentazione utilizzata é: un apparecchio di RMN che utilizza uno scanner a 1.5T (GE Medical System signa HDx 15) e due differenti bobine a radiofrequenza: 1) 8-channel brain phased array coil GE (1.5T HD 8 Channel High Resolution Head Array per il GE HDx MR System); 2) GE Quad HEAD Birdcage Coil. I software utilizzati invece sono stati quattro, due per la segmentazione e la parcellizzazione dei dati dalle acquisizioni di MRI (FSL e Freesurfer), e due per l'analisi dei dati (SPSS e Microsoft Excel). I tool utilizzati di FSL sono stati SIENA, per un'indagine sulla variazione percentile della totalitá del volume cerebrale; SIENAX invece permette una segmentazione di volumi di 6 sotto regioni: sostanza grigia (GREY), sostanza bianca (WHITE), totalitá del cervello (BRAIN), liquor cerebrospinale dei ventricoli (vcsf), scaling volumetrico (vscaling), sostanza grigia periferica (pgrey). Freesurfer invece parcellizza la corteccia cerebrale e segmenta le zone della sostanza grigia profonda cerebrale. Lo scopo ultimo era quello di analizzare come la differenza di segnale acquisito dalle due bobine variasse i risultati delle analisi volumetriche delle immagini e vedere se il t-test evidenziasse variazioni sistematiche. Questa analisi aveva come scopo quello di determinare la possibilità di confrontare i soggetti i cui dati sono stati ottenuti con due bobine differenti. I dati analizzati non hanno evidenziato particolari differenze tra le due bobine, se non per i valori del liquor dei ventricoli che sono risultati variare, verosimilmente, per i processi fisiologici di atrofia della sostanza grigia cerebrale che avvengono nel tempo intercorso tra un'acquisizione e l'altra.
Resumo:
Le celle solari a film sottile sono tra le alternative più promettenti nel campo fotovoltaico. La ricerca di materiali non tossici ed economici per la passivazione delle superfici è di fondamentale importanza. Il presente è uno studio sulla morfologia di film sottili di ZnS. I campioni analizzati sono stati cresciuti tramite DC sputtering a diversa potenza (range 50-150W) per studiare le connessioni tra condizioni di deposizione e proprietà strutturali. Lo studio è stato condotto mediante acquisizione di mappe AFM. E' stata effettuata un'analisi dei buchi (dips) in funzione della potenza di sputtering, per individuare il campione con la minore densità di dips in vista di applicazioni in celle solari a film sottile. I parametri strutturali, quali la rugosità superficiale e la lunghezza di correlazione laterale sono stati determinati con un'analisi statistica delle immagini. La densità e dimensione media dei grani sono state ricavate da una segmentazione delle immagini. Le analisi sono state svolte su due campioni di ZnO per fini comparativi. Tramite EFM sono state ottenute mappe di potenziale di contatto. Tramite KPFM si è valutata la differenza di potenziale tra ZnS e un layer di Al depositato sulla superficie. La sheet resistance è stata misurata con metodo a quattro punte. Dai risultati la potenza di sputtering influenza la struttura superficiale, ma in maniera non lineare. E' stato individuato il campione con la minore rugosità e densità di dips alla potenza di 75 W. Si è concluso che potenze troppo grandi o piccole in fase di deposizione promuovono il fenomeno di clustering dei grani e di aumentano la rugosità e densità di dips. E' emersa una corrispondenza diretta tra morfologia e potenziale di contatto alla superficie. La differenza di potenziale tra Al e ZnS è risultata inferiore al valore noto, ciò può essere dovuto a stati superficiali indotti da ossidi. Il campione risulta totalmente isolante.