999 resultados para Catene di Markov, MCMC, Algoritmo di Hastings-Metropolis, Campionamento di Gibbs


Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi in oggetto propone un algoritmo che viene incontro alla necessità di segmentare in modo regolare immagini di nevi. Si è fatto uso di metodi level set region-based in una formulazione variazionale. Tale metodo ha permesso di ottenere una segmentazione precisa, adattabile a immagini di nevi con caratteristiche molto diverse ed in tempi computazionali molto bassi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Introduzione: Le catene N-linked associate al principale sito di N-glicosilazione (Asn297) delle IgG sono di tipo bi-antennario e presentano una grande microeterogeneità in quanto una o entrambe le antenne possono terminare con uno o due residui di acido sialico, galattosio o N-acetilglucosammina ed essere core-fucosilate. Nell’invecchiamento e in malattie infiammatorie aumenta la percentuale di glicani associati alle catene pesanti delle IgG privi del galattosio terminale (IgG-G0). La glicosilazione enzimatica delle proteine è classicamente un processo intracellulare, sebbene recenti studi abbiano messo in evidenza la possibilità di una glicosilazione ecto-cellulare in quanto le piastrine sono ottimi donatori di nucleotidi-zuccheri. Scopo: Misurare le attività delle glicosiltrasferasi ST6Gal1 e B4GalT plasmatiche (potenzialmente responsabili della glicosilazione di proteine plasmatiche) in soggetti di entrambi i sessi e di età compresa tra 5 e 105 anni e correlarle con lo stato di glicosilazione di IgG circolanti (analizzato mediante lectin-blot) e il GlycoAge test, un noto marcatore di invecchiamento, espresso come il logaritmo del rapporto tra gli N-glicani agalattosilati e di-galattosilati associati a glicoproteine plasmatiche. Risultati e conclusioni: I dati ottenuti indicano che: 1) l’attività B4GalT si propone come nuovo marcatore di invecchiamento perché aumenta linearmente con l’età; 2) la ST6Gal1 è maggiormente espressa solo nei bambini e negli over 80; 3) le attività delle due glicosilatransferasi non risultano correlate in modo significativo né tra loro né con il GlycoAge test, indicando che questi tre marcatori siano espressioni di diversi quadri fisio-patologici legati all’invecchiamento; 4) con l’età si ha una predominanza di glicoforme di IgG pro-infiammatorie, ovvero prive dell’acido sialico, del galattosio terminali e del core fucose; 5) l’attività della ST6Gal1 e B4GalT risultano in controtendenza con il grado di sialilazione e galattosilazione delle IgG, indicando quindi che la loro glicosilazione non avviene a livello extracellulare.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Scopo di questo lavoro è mostrare una soluzione al problema della ricostruzione delle immagini basata sullo strumento matematico della trasformata di Radon. In un primo momento si introdurrà il problema legato ad un particolare ambito, quello medico; ci si focalizzerà, infatti sui principi di funzionamento della TAC (tomografia assiale computerizzata)e si cercherà di chiarire dal punto di vista fisico come la trasformata di Radon del coefficiente di attenuazione del materiale sia utile per visualizzare degli organi o comunque degli oggetti che altrimenti non potrebbero essere visibili, se non rompendo la struttura che li contiene. Dopo aver raccontato un po' di storia della TAC, sarà necessario quindi definire tale trasformata, le sue principali proprietà e trovare una formula per la sua inversione. Si mostrerà che la sola formula d'inversione non potrà essere utilizzata a livello pratico; si ricaverà allora un algoritmo di retroproiezione filtrata, basato sulla trasformata di Radon, applicato per visualizzare delle immagini tramite TAC.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nelle smart cities moderne, la mobilità di veicoli elettrici (EV) è considerata un fattore determinante nella riduzione del consumo di combustibili fossili e conseguenti emissioni inquinanti. Tuttavia, nonostante gli interessi e investimenti a livello globale, l'accettazione da parte degli utenti è ancora bassa, principalmente a causa della mancanza di infrastrutture e servizi a supporto dei guidatori di EV. Queste mancanze sono la causa principale della cosiddetta range anxiety (timore che il veicolo non abbia autonomia sufficiente per raggiungere la destinazione) e hanno portato al preconcetto che gli EV siano adatti alla sola percorrenza di brevi tragitti. Per contrastare questi problemi, in questo documento è proposta un'applicazione di route planning che supporti mobilità di EV anche su percorsi medio-lunghi, mediante utilizzo di un modello di predizione del consumo energetico e considerazione dell'eventuale necessità di ricarica. Saranno descritte tecniche per determinare il tragitto che un EV sia in grado di percorrere per arrivare a destinazione, in considerazione di restrizioni energetiche, fattore altimetrico del percorso ed eventuali operazioni di ricarica necessarie. Il modello di consumo e l'algoritmo che determina il miglior percorso (dal punto di vista energetico) sono implementati da un web service che interagisce con i servizi di Google Maps (per ottenere indicazioni stradali, dati altimetrici e informazioni in tempo reale sul traffico) e con servizi che offrono informazioni sulle stazioni di ricarica e relative posizioni. Dopo aver descritto il modello di consumo e l'algoritmo per la ricerca del percorso, sarà presentata l'architettura del servizio implementato. Sarà quindi fornita una valutazione del servizio, analizzandone performance e scalabilità, nonché l'efficacia nel supporto di percorsi di EV all'interno di scenari su larga scala (nello specifico la regione Emilia Romagna), attraverso tecniche di simulazione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nella tesi viene svolto un lavoro di modellazione del protocollo MAC 802.15.4 Wireless Personal Area Network (WPAN), per reti di sensori; dopodiché esso viene sottoposto ad una serie di analisi energetiche attraverso simulazioni nell'ambiente OMNeT++. Numerosi sono i parametri che sono stati considerati per caratterizzare al meglio le analisi effettuate, nonché le diverse condizioni iniziali. Il profilo energetico ottenuto è stato messo a confronto con quello del protocollo 802.15.4m per TVWS. I dati ottenuti sono stati elaborati con un algoritmo power control con l'obiettivo di raggiungere la massima ottimizzazione energetica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Università di Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilità di lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L'elaborato si pone l'obiettivo di sviluppare un controllo sensorless di posizione per un attuatore tubolare pentafase anisotropo a magneti permanenti. Le peculiarità degli attuatori tubolari sono molteplici: assenza di organi di trasmissione del moto; compattezza; elevate densità di forza e prestazioni nella dinamica, con una più ampia banda passante per il sistema di controllo; maggiore precisione, risoluzione, ripetibilità ed affidabilità. Tale tipologia di macchina è pertanto molto interessante in diverse applicazioni quali robotica, automazione, packaging, sistemi di posizionamento ecc., ed è altresì promettente nei settori aerospaziale e automotive. L'azionamento in studio è inoltre di tipo multifase. In tal caso si ottengono diversi vantaggi: possibilità di suddividere la potenza su un numero elevato di rami del convertitore; capacità di lavorare in condizioni di guasto; incremento della densità di coppia della macchina; possibilità di controllare in modo indipendente e con un solo inverter più macchine collegate in serie. Prestazioni migliori della macchina si possono ottenere con un opportuno sistema di controllo. Nel caso di azionamenti a magneti permanenti risulta particolarmente attraente il controllo di tipo sensorless della posizione rotorica, in alternativa ad un encoder o un resolver. Questo aumenta l'affidabilità, riduce i costi e diminuisce l'ingombro complessivo dell'azionamento. Appare molto interessante l'utilizzo di un azionamento tubolare di tipo multifase, e ancor più lo sviluppo di un apposito controllo di posizione di tipo sensorless. L’algoritmo sensorless di stima della posizione dell’attuatore può essere sviluppato partendo dall’anisotropia di macchina, sfruttando la possibilità peculiare delle macchine multifase di estrarre informazioni sullo stato attraverso i molteplici gradi di libertà presenti. Nel caso in questione si tratta del controllo della terza armonica spaziale del campo magnetico al traferro. Fondamentale è la definizione di un modello matematico in grado di rappresentare in modo opportuno l’anisotropia di macchina. In letteratura non sono ancora presenti modelli adatti a descrivere il dispositivo in questione; pertanto una parte essenziale della tesi è stata dedicata a definire tale modello e a verificarne la validità. Partendo dal modello è possibile dunque sviluppare un appropriato algoritmo di controllo sensorless e rappresentare in simulink l'intero azionamento. Nella parte conclusiva del lavoro di tesi vengono presentate le prove sperimentali, finalizzate alla determinazione dei parametri di macchina e alla verifica del funzionamento del sistema di controllo. Infine sono confrontati i risultati ottenuti rispetto a quelli realizzati con controlli di tipo tradizionale.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo lavoro di tesi si sono sviluppati un modello molecolare ed una metodologia Molecular Dynamics in grado di simulare il comportamento di particelle attive, alimentate da un motore molecolare, in matrici liquido-cristalline. In particolare, abbiamo sviluppato un metodo di calcolo della temperatura traslazionale ed un algoritmo di termalizzazione compatibili con le condizioni di non-equilibrio del sistema. Dall’analisi delle prove condotte sono emerse variazioni significative nei comportamenti collettivi dei campioni quali segregazioni e flussi coerenti caratterizzati da un alto grado di ordine nematico. Il modello proposto, pur nella nella sua semplicità, può costituire una base per future e più specifiche simulazioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nell'ultimo decennio sono stati sviluppati numerosi materiali π-coniugati contenenti unità tiofeniche per applicazioni in dispositivi organici a film sottile. Nel campo delle celle solari, la possibilità di creare dispositivi basati sull’utilizzo di materiali organici, rispetto ai dispositivi attualmente in commercio a base di silicio, ha suscitato grande interesse soprattutto per la possibilità di realizzare dispositivi su larga area con basso costo di produzione e su substrati flessibili. Gli oligo- e i politiofeni sono eccellenti candidati grazie alle ottime proprietà di trasporto di carica e alle caratteristiche di assorbimento di luce. In celle solari di tipo Bulk-Heterojunction (BHJ), ad esempio, il poli(3-esiltiofene) è uno tra i materiali più studiati. Ad oggi, con il P3HT sono state raggiunte efficienze certificate superiori all’8%, variando sia parametri dipendenti dalla struttura molecolare, come ad esempio il peso molecolare, la regioregolarità delle catene alchiliche, il grado di polidispersità, il grado di polimerizzazione, sia parametri da cui dipende l’organizzazione della blend donatore-accettore. Per superare l’efficienza di conversione ottenuta con i polimeri classici come il P3HT è necessario progettare e sintetizzare materiali con precise caratteristiche: basso energy gap per aumentare l’assorbimento di luce, elevata mobilità di carica per avere una rapida estrazione delle cariche, posizione ottimale degli orbitali di frontiera per garantire una efficiente dissociazione dell’eccitone ed infine buona solubilità per migliorare la processabilità. Il presente lavoro di tesi si è articolato nei seguenti punti: sintesi di oligo- e politiofeni tioalchil sostituiti con inserzione di unità benzotiadiazolo per massimizzare l’assorbimento ed abbassare il gap energetico; studio dell’effetto della ramificazione del gruppo tioalchilico sull’organizzazione supramolecolare allo stato solido e successiva ottimizzazione della morfologia del film solido variando metodi di deposizione e solventi; applicazione degli oligomeri e dei polimeri sintetizzati come materiali donatori in celle fotovoltaiche di tipo Bulk-Heterojunction in presenza di fenil-C61-butirrato di metile (PCBM) come materiale accettore.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.