496 resultados para riconoscimento volto alterazione digitale immagini morphing
Resumo:
Tesi sperimentale per testare la nuova libreria di Activity Recognition per Android di Google inc.
Resumo:
Scopo della tesi è la descrizione di un metodo per il calcolo di minimi di funzionali, basato sulla steepest descent. L'idea principale è quella di considerare un flusso nella direzione opposta al gradiente come soluzione di un problema di Cauchy in spazi di Banach, che sotto l'ipotesi di Palais-Smale permette di determinare minimi. Il metodo viene applicato al problema di denoising e segmentazione in elaborazione di immagini: vengono presentati metodi classici basati sull'equazione del calore, il total variation ed il Perona Malik. Nell'ultimo capitolo il grafico di un'immagine viene considerato come varietà, che induce una metrica sul suo dominio, e viene nuovamente utilizzato il metodo di steepest descent per costruire algoritmi che tengano conto delle caratteristiche geometriche dell'immagine.
Resumo:
Nel presente studio è stato affrontato il problema di effettuare l’acquisizione di impronte digitali mediante la fotocamera di uno Smartphone. Si tratta di un’applicazione potenzialmente molto interessante in quanto l’utilizzo di uno Smartphone renderebbe molto più semplice l’acquisizione delle impronte, non essendo necessari dispositivi specifici come, ad esempio, scanner d’impronte digitali. D’altra parte, l’utilizzo di una fotocamera per l’acquisizione delle impronte introduce diverse problematiche, fra cui individuare l’area del dito corrispondente all'impronta, valutare la qualità di un'immagine e determinare quali minuzie estratte corrispondano effettivamente a quelle di interesse. Questo studio conferma la fattibilità di un sistema del genere che risulta essere in grado di fornire buone prestazioni di riconoscimento biometrico.
Resumo:
Viene proposto un porting su piattaforma mobile Android di un sistema SLAM (Simultaneous Localization And Mapping) chiamato SlamDunk. Il porting affronta problematiche di prestazioni e qualità delle ricostruzioni 3D ottenute, proponendo poi la soluzione ritenuta ottimale.
Resumo:
Il lavoro fornisce una ricostruzione anatomica tridimensionale dell'atrio sinistro in pazienti affetti da fibrillazione atriale. Le immagini utilizzate sono state acquisite in risonanza magnetica e, precisamente sono dati coronali di angio RM. L'elaborazione prevede una segmentazione dei dati e un'individuazione del contorno dell'area anatomica di interesse. Il risultato finale è l'interpolazione lungo l'asse z di acquisizione e una visualizzazione in tre dimensioni.
Resumo:
L’Arco d’Augusto di Rimini rappresenta da sempre il monumento simbolo della città; ha visto ogni periodo storico, dei quali riporta tuttora i segni in modo visibile. L’alto valore storico, culturale ed artistico che l’Arco porta con se merita di essere valorizzato, conservato e studiato. E’ stato realizzato un rilievo fotogrammetrico del monumento romano e una successiva analisi strutturale mediante la tecnica F.E.M. Il rilievo è stato eseguito con la moderna tecnica digitale non convenzionale, la quale ha permesso di comprendere quanto essa sia in grado di soddisfare le varie esigenze di rilievo nell’ambito dei Beni Culturali. Nel primo capitolo si affrontano le tematiche relative al rilievo dei Beni Culturali, si concentra poi l’attenzione sul settore della fotogrammetria digitale. Il secondo capitolo è dedicato interamente alla storia dell’Arco d’Augusto, riportando tutti i rilievi dell’Arco realizzati dal Medioevo ad oggi. Il terzo capitolo riporta la serie di restauri che l’Arco riminese ha subito nel corso dei secoli, fra cui i due grandi interventi di restauro: il primo eseguito nel 1947 dall’Ing. Rinaldi G., il secondo nel 1996-98 per opera dell’Arch. Foschi P.L. Nel quarto capitolo si parla di come la tecnica fotogrammetrica si presti molto bene all’analisi e al controllo delle deformazioni strutturali. Il capitolo cinque è dedicato al rilievo topo-fotogrammetrico dell’oggetto, affrontato in tutte le sue fasi: ricognizione preliminare,progettazione ed esecuzione delle prese. Il sesto capitolo affronta l’elaborazione dei dati mediante il software PhotoModeler Pro 5. Nel settimo capitolo si confronta il presente rilievo con l’ortofoto realizzata nel 1982 dall’Arch. Angelini R. Il capitolo otto riporta alcune informazioni al riguardo della geomorfologia della zona limitrofa all’Arco. Nell’ultimo capitolo si descrive l’impiego del software agli elementi finiti Straus7 per creare ed elaborare il modello numerico dell’Arco.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
Lo scopo di questa tesi è quello di presentare alcuni degli algoritmi di ricostruzione utilizzati nei sistemi a microonde per l'imaging della mammella. Sebbene, la mammografia a raggi X sia la tecnica che a oggi presenta le migliori caratteristiche per la rilevazione di lesioni tumorali ai tessuti del seno, la compressione necessaria nel processo di imaging e la probabilità non trascurabile di falsi negativi hanno portato alla ricerca e allo sviluppo di metodi alternativi di imaging alla mammella. Tra questi, l'imaging attraverso microonde sfrutta la differenza delle proprietà dielettriche tra tessuto sano e tumorale. Nel seguente elaborato verrà descritto come è ottenuta l'immagine dell'interno della mammella attraverso gli algoritmi di ricostruzione utilizzati da vari prototipi di sistemi di imaging. Successivamente verranno riportati degli esempi che mostrano i risultati ottenuti attraverso simulazioni o, quando possibile, in ambiente clinico.
Resumo:
Con l'aumento del numero di sensori e ricevitori presenti sui dispositivi mobili attuali, è possibile lo sviluppo di nuove applicazioni in grado di fornire dati utili sul contesto in cui si trova un utente in un determinato momento. In questa tesi viene descritta la realizzazione di un servizio per dispositivi Android in grado di riconoscere il tipo di mobilità dell'utente. La motivazione principale di questo progetto è stata la scarsità di soluzioni specifiche per questo tipo di riconoscimento contestuale. Sono state quindi realizzate una libreria Java e un'applicazione Android in grado di fornire tale funzionalità. La tecnica impiegata per il riconoscimento è derivata da una ricerca dei dottori Luca Bedogni e Marco Di Felice e del professore Luciano Bononi, dell'Università di Bologna. Tale tecnica sfrutta le misurazioni di accelerometro e giroscopio del dispositivo per rilevare pattern di movimento e associarli ai vari tipi di mobilità dell'utente. Per mostrare un possibile impiego di questo servizio, è stata realizzata un'applicazione che sfrutta i dati forniti dal servizio di riconoscimento per la gestione dello stato di alcune funzionalità del dispositivo. Inoltre, è stata effettuata una analisi statistica della precisione effettiva di questo sistema di riconoscimento, per evidenziarne i punti di forza e i limiti rispetto alle soluzioni già esistenti. E' stato osservato che il consumo energetico di questo sistema è minore rispetto ad applicazioni basate su servizi di geolocalizzazione, e che la sua precisione è accettabile rispetto ad altre soluzioni già esistenti.
Resumo:
Il presente lavoro è inserito nel contesto di applicazioni che riguardano la pianificazione e gestione delle emergenze umanitarie. Gli aspetti che si sono voluti mettere in evidenza sono due. Da un lato l'importanza di conoscere le potenzialità dei dati che si hanno di fronte per poterli sfruttare al meglio. Dall'altro l'esigenza di creare prodotti che siano facilmente consultabili da parte dell'utente utilizzando due diverse tecniche per comprenderne le peculiarità. Gli strumenti che hanno permesso il presente studio sono stati tre: i principi del telerilevamento, il GIS e l'analisi di Change Detection.
Resumo:
The development of next generation microwave technology for backhauling systems is driven by an increasing capacity demand. In order to provide higher data rates and throughputs over a point-to-point link, a cost-effective performance improvement is enabled by an enhanced energy-efficiency of the transmit power amplification stage, whereas a combination of spectrally efficient modulation formats and wider bandwidths is supported by amplifiers that fulfil strict constraints in terms of linearity. An optimal trade-off between these conflicting requirements can be achieved by resorting to flexible digital signal processing techniques at baseband. In such a scenario, the adaptive digital pre-distortion is a well-known linearization method, that comes up to be a potentially widely-used solution since it can be easily integrated into base stations. Its operation can effectively compensate for the inter-modulation distortion introduced by the power amplifier, keeping up with the frequency-dependent time-varying behaviour of the relative nonlinear characteristic. In particular, the impact of the memory effects become more relevant and their equalisation become more challenging as the input discrete signal feature a wider bandwidth and a faster envelope to pre-distort. This thesis project involves the research, design and simulation a pre-distorter implementation at RTL based on a novel polyphase architecture, which makes it capable of operating over very wideband signals at a sampling rate that complies with the actual available clock speed of current digital devices. The motivation behind this structure is to carry out a feasible pre-distortion for the multi-band spectrally efficient complex signals carrying multiple channels that are going to be transmitted in near future high capacity and reliability microwave backhaul links.
Resumo:
La tesi tratta in modo approfondito le tipologie di apprendimento non tradizionale, ovvero in contesto non scolastico/universitario, focalizzandosi sull'importanza che hanno i dispositivi mobili come mezzo di aggiornamento e miglioramento costante delle conoscenze e abilità delle persone. Queste nuove metodologie sono chiamate microlearning e mobile learning, evoluzioni naturali dell'e-learning nate dall'esigenza di un apprendimento che non fosse più solo a distanza, ma applicabile al contesto mobile per rispecchiare le nuove esigenze delle persone.
Resumo:
In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.
Resumo:
La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.
Resumo:
In questo documento si presenta lo studio degli algoritmi matematici e crittografici su cui si basa il sistema di moneta digitale Bitcoin, in circolazione dal 2009. Bitcoin è un sistema di cripto valuta elettronica peer-to-peer, ideato da un anonimo conosciuto con lo pseudonimo "Satoshi Nakamoto", i cui principi sono descritti in un documento pubblicato nel 2008 ed ora accessibile in rete. L'utilizzo di Bitcoin permette di effettuare transazioni con sicurezza da un soggetto ad un altro e, grazie a una tecnologia peer-to-peer che opera senza alcuna autorità centrale e intermediari quali banche o istituzioni governative, sia la gestione delle operazioni sia l'emissione di denaro sono svolte per mezzo di un protocollo P2P. Nel corso della trattazione si propone un analisi più tecnica del sistema di gestione e creazione dei Bitcoin e degli strumenti crittografici che hanno permesso l'avvento di questa moneta elettronica decentralizzata.