358 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio della combustione RCCI analizzando combinazioni di carburante, forma che ottimizza la combustione e sistemi per abbattere le emissioni di HC e CO.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa questa tesi vengono presentate alcune delle più importanti definizioni di funzione computabile mediante un algoritmo: una prima descrizione è quella data tramite le funzioni ricorsive, un secondo approccio è dato in termini di macchine di Turing, infine, vengono considerati gli algoritmi di Markov. Si dimostra che tutte queste definizioni sono equivalenti. Completa la tesi un breve cenno al lambda-K-calcolo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi anni, complice la rapida evoluzione degli elaboratori e dei sensori, spinta dal mercato smartphone, una tecnologia si sta sviluppando e si sta diffondendo rapidamente. Si tratta di quella relativa agli unmanned vehicles (UV), i veicoli senza pilota, spesso nel linguaggio comune chiamati “droni”. Questi particolari veicoli sono dotati della tecnologia adatta per svolgere in relativa autonomia particolari mansioni, senza la necessità della presenza di un pilota a bordo. In questa Tesi magistrale si descrivono brevemente le diverse categorie di UV e l’attuale livello di autonomia raggiunta nello svolgimento di alcune funzioni, grazie a tecnologie quali i linguaggi ad agenti, di cui si presentano anche alcune significative applicazioni allo stato dell’arte. Per rendere più efficaci eventuali nuove funzionalità, fornendo una metodologia di sviluppo, atta ad aumentare il grado di astrazione, viene proposto un approccio architetturale a tre livelli. In particolare, viene approfondito il secondo livello, presentando l’implementazione di una funzionalità, l’autolocalizzazione spaziale, utile ad un sistema di terzo livello per arricchire la propria conoscenza dell’ambiente, al fine di raggiungere la massima autonomia nel controllo del mezzo. Questa prima esperienza ha consentito di approfondire le necessità in termini di hardware e software, al fine di poter effettuare una scelta mirata per l’ottimizzazione dei risultati ed un eventuale porting on-board, nella prospettiva di svincolare il mezzo da eventuali collegamenti con una stazione di terra, fino ad ora necessaria per eseguire le attività più complesse. Un interessante caso di studio consente di verificare la bontà del modello proposto e i risultati raggiunti nell’autolocalizzazione. In conclusione, si propongono ulteriori sviluppi che potranno fornire gli strumenti necessari alla massima espressione del potenziale che gli UV possiedono.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Università di Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilità di lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Obiettivo della tesi è analizzare e testare i principali approcci di Machine Learning applicabili in contesti semantici, partendo da algoritmi di Statistical Relational Learning, quali Relational Probability Trees, Relational Bayesian Classifiers e Relational Dependency Networks, per poi passare ad approcci basati su fattorizzazione tensori, in particolare CANDECOMP/PARAFAC, Tucker e RESCAL.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La necessità di indagine sul fronte dell’insufficienza cardiaca deriva dall’elevato impatto sociale della patologia, non soltanto per l’effetto invalidante sulla condizione del paziente che ne è affetto, bensì anche per la notevole incidenza sui servizi sanitari nazionali, per l’importante valore di mortalità e morbilità che ne è associato. Il numero di ospedalizzazioni per scompenso cardiaco è consistente; ciò rende ragione dell’elevato assorbimento di risorse dovuto a questa patologia. Il razionale dell’impiego della Terapia di Resincronizzazione Cardiaca (CRT) consiste nella correzione della dissincronia cardiaca come causa di disfunzione meccanica atriale e ventricolare. Il metodo analitico sviluppato origina dalle indagini sugli spostamenti dell’elettrocatetere posizionato in Seno Coronarico, sulla base del fatto che il sito di stimolazione risulta un fattore determinante per la buona risposta alla terapia. Dovendo studiare le posizioni nel tempo del catetere, si è pensato di valutarne le variazioni nel periodo pre e post attivazione della CRT ricostruendone la traiettoria in 3D. Lo studio parametrico di quest’ultima ha permesso di individuare un indice predittore della risposta alla CRT al follow-up a sei mesi. La prosecuzione della ricerca presentata ha l’intento di migliorare gli algoritmi di elaborazione dei dati per rendere più robuste le misure, sfruttando tecniche che possano aumentare riproducibilità, ripetibilità, e ininfluenza rispetto alla variabilità delle condizioni analitiche. Sviluppando nuovi modelli si è eliminata l'interazione dell'operatore nelle fasi d'indagine, rendendo le analisi completamente automatiche. I metodi sono stati testati e applicati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Modellazione di un impianto fotovoltaico connesso alla rete. Simulazione con software Simulink del funzionamento dell'intero sistema fotovoltaico e confronto delle prestazioni legate all'utilizzo degli algoritmi MPPT più comuni, quali Hill Climbing e Incremental Conductance.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In un sistema radar è fondamentale rilevare, riconoscere e cercare di seguire il percorso di un eventuale intruso presente in un’area di osservazione al fine ultimo della sicurezza, sia che si consideri l’ambito militare, che anche quello civile. A questo proposito sono stati fatti passi avanti notevoli nella creazione e sviluppo di sistemi di localizzazione passiva che possano rilevare un target (il quale ha come unica proprietà quella di riflettere un segnale inviato dal trasmettitore), in modo che esso sia nettamente distinto rispetto al caso di assenza dell’intruso stesso dall’area di sorveglianza. In particolare l’ultilizzo di Radar Multistatico (ossia un trasmettitore e più ricevitori) permette una maggior precisione nel controllo dell’area d’osservazione. Tra le migliori tecnologie a supporto di questa analisi vi è l’UWB (Ultra Wide-Band), che permette di sfruttare una banda molto grande con il riscontro di una precisione che può arrivare anche al centimetro per scenari in-door. L’UWB utilizza segnali ad impulso molto brevi, a banda larga e che quindi permettono una risoluzione elevata, tanto da consentire, in alcune applicazioni, di superare i muri, rimuovendo facilmente gli elementi presenti nell’ambiente, ossia il clutter. Quindi è fondamentale conoscere algoritmi che permettano la detection ed il tracking del percorso compiuto dal target nell’area. In particolare in questa tesi vengono elaborati nuovi algoritmi di Clustering del segnale ricevuto dalla riflessione sull’intruso, utilizzati al fine di migliorare la visualizzazione dello stesso in post-processing. Infine questi algoritmi sono stati anche implementati su misure sperimentali attuate tramite nodi PulsOn 410 Time Domain, al fine ultimo della rilevazione della presenza di un target nell’area di osservazione dei nodi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La malattia di Parkinson è un disturbo neurodegenerativo con eziologia sconosciuta che colpisce in particolare le aree del cervello che sono coinvolte nel controllo del movimento. Tale disturbo neurologico causa anomalie sull’andatura del soggetto portandolo ad esempio a strisciare i piedi e flettere il busto più del necessario; anomalie che causano una camminata insicura che può sfociare in inciampi e cadute. Lo scopo di questo studio è disegnare e sviluppare algoritmi in grado di stimare la clearance dei piedi e l’inclinazione del tronco, al fine di essere inseriti nel progetto CuPiD, il quale fornisce un feedback vocale ogni volta in cui il soggetto parkinsoniano presenti valori dei parametri monitorati al di fuori di un range fisiologico. Sono stati reclutati 20 soggetti, 10 a cui è stata diagnosticata la malattia di Parkinson idiopatica e 10 asintomatici.
Nella valutazione sperimentale si è acquisita la camminata dei soggetti coinvolti nell’esperimento, utilizzando un sistema inerziale ed un sistema stereofotogrammetrico come gold standard. Ogni soggetto ha eseguito 4 camminate, ciascuna della durata di 2 minuti, nelle seguenti diverse condizioni: camminata normale, focus sui piedi, focus sul tronco, audio stroop. Inoltre si è valutata l’entità delle differenze cliniche dei due parametri stimati, tra il gruppo dei soggetti malati di Parkinson ed il gruppo dei soggetti sani. Dallo studio effettuato si propone un algoritmo per la stima della clearance che presenta un errore relativamente alto

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Progetto relativo al sistema di ventilazione di un cabinato contenente una centrale di compressione di gas naturale da immettere nella rete nazionale. La centrale è sita a Poggio Renatico. Il progetto è suddiviso in tre parti: - dimensionamento e posizionamento dell'impianto di ventilazione; - valutazione delle atmosfere esplosive, con la Guida CEI 31-35; - studio fluidodinamico interno al cabinato, con Solidworks Flow Simulation.