389 resultados para GPGPU RaspberryPi OpenGL Algoritmi Paralleli SeamCarving StreamProcessing
Resumo:
I Polar Codes sono la prima classe di codici a correzione d’errore di cui è stato dimostrato il raggiungimento della capacità per ogni canale simmetrico, discreto e senza memoria, grazie ad un nuovo metodo introdotto recentemente, chiamato ”Channel Polarization”. In questa tesi verranno descritti in dettaglio i principali algoritmi di codifica e decodifica. In particolare verranno confrontate le prestazioni dei simulatori sviluppati per il ”Successive Cancellation Decoder” e per il ”Successive Cancellation List Decoder” rispetto ai risultati riportati in letteratura. Al fine di migliorare la distanza minima e di conseguenza le prestazioni, utilizzeremo uno schema concatenato con il polar code come codice interno ed un CRC come codice esterno. Proporremo inoltre una nuova tecnica per analizzare la channel polarization nel caso di trasmissione su canale AWGN che risulta il modello statistico più appropriato per le comunicazioni satellitari e nelle applicazioni deep space. In aggiunta, investigheremo l’importanza di una accurata approssimazione delle funzioni di polarizzazione.
Resumo:
Lo studio dello sviluppo delle attività motorie fondamentali (FMS) nei bambini sta acquisendo in questi anni grande importanza, poiché la padronanza di queste ultime sembra essere correlata positivamente sia con la condizione di benessere fisico, sia con il mantenimento di alti livelli di autostima; si ritiene inoltre che possano contribuire al mantenimento di uno stile di vita sano in età adulta. In questo elaborato di tesi viene preso in considerazione un test di riferimento per la valutazione delle FMS, il TMGD – 2. Lo scopo è quello di fornire una valutazione quantitativa delle performance delle FMS, sulla base degli standard proposti dal protocollo TGMD-2, mediante una versione strumentata del test, utilizzando delle Inertial Measurement Unit (IMU). Questi sensori consentono di superare il limite posto dalla soggettività nella valutazione dell’operatore e permettono di esprimere un giudizio in maniera rapida e automatica. Il TGMD-2 è stato somministrato, in versione strumentata, a 91 soggetti di età compresa tra i 6 e i 10 anni. Sono stati ideati degli algoritmi che, a partire dai segnali di accelerazione e velocità angolare acquisiti mediante le IMU, consentono di conferire una valutazione a ciascuno dei task impartito dal TGMD – 2. Gli algoritmi sono stati validati mediante il confronto fra i risultati ottenuti e i giudizi di un valutatore esperto del TGMD-2, mostrando un alto grado di affinità, in genere tra l’80% e il 90%.
Resumo:
La tecnologia della diffusion tensor imaging (DTI) è una tecnica non invasiva, che permette di effettuare una caratterizzazione in vivo di diversi tessuti, è una tecnica consolidata in ambito neurologico e rappresenta una metodica ancora da esplorare ma molto promettente in ambito renale. Questo lavoro di tesi si concentra in primo luogo sulla differenziazione di diverse strutture renali quali, la corteccia e la medulla del rene sano, le cisti del rene affetto dalla malattia policistica autosomica dominante e i carcinomi. La seconda parte del lavoro si concentra sui reni policistici, in quanto è una delle malattie genetiche più comuni e la principale causa di insufficienza renale e non è, ad oggi, stata adeguatamente affrontata in questo genere di studi. Il secondo obiettivo è, quindi, di valutare se la tecnica dell’imaging di diffusione potrebbe essere utile per fornire informazioni sullo stato della malattia e sul grado si avanzamento di essa. Sono stati implementati in Matlab gli algoritmi per la costruzione del tensore di diffusione a partire dalle immagini DWI e per la selezione delle ROI sulle varie regioni di interesse. I risultati ottenuti per l’analisi dei reni policistici dimostrano che per gli intervalli temporali considerati non è possibile correlare il valore di diffusività media del parenchima e lo stadio di avanzamento della malattia, stabilito dai valori di eGFR. Per quanto riguarda i risultati ottenuti dalla differenziazione delle diverse strutture renali la tecnica della diffusion imaging risulta essere potenzialmente in grado di differenziare i diversi tessuti renali e di valutare separatamente la funzionalità dei reni.
Resumo:
In questo progetto di tesi sarà innanzitutto presentato il Kinect One e sarà fatta una panoramica sull’uso della realtà virtuale in ambito riabilitativo. In seguito sarà analizzato l’algoritmo di Body tracking, valutandone il comportamento in diverse situazioni pratiche e poi stimandone la precisione in statica. Sarà presentato un filtraggio per limitare il rumore in tempo reale e valutarne i pro ed i contro in funzione delle caratteristiche impostabili. Saranno presentate inoltre le metodologie con cui gli algoritmi integrati del Kinect permettono di ricavare una stima dell’orientamento delle parti anatomiche nello spazio ed alcune considerazioni circa le implicazioni pratiche di tali metodologie, anche in base alle osservazioni sul campo ottenute durante i mesi di realizzazione di questo progetto. Lo scopo è determinare se e come sia possibile utilizzare il Microsoft Kinect One come unico sistema di motion tracking del paziente in applicazioni cliniche di riabilitazione, quali limiti ci sono nel suo utilizzo e quali categorie di scenari e prove potrebbe supportare.
Resumo:
La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.
Resumo:
Il principale scopo di questa tesi è focalizzato alla ricerca di una caratterizzazione dei contenuti in video 3D. In una prima analisi, le complessità spaziale e temporale di contenuti 3D sono state studiate seguendo le convenzionali tecniche applicate a video 2D. In particolare, Spatial Information (SI) e Temporal Information (TI) sono i due indicatori utilizzati nella caratterizzazione 3D di contenuti spaziali e temporali. Per presentare una descrizione completa di video 3D, deve essere considerata anche la caratterizzazione in termini di profondità. A questo riguardo, nuovi indicatori di profondità sono stati proposti sulla base di valutazioni statistiche degli istogrammi di mappe di profondità. Il primo depth indicator è basato infatti sullo studio della media e deviazione standard della distribuzione dei dati nella depth map. Un'altra metrica proposta in questo lavoro stima la profondità basandosi sul calcolo dell’entropia della depth map. Infine, il quarto algoritmo implementato applica congiuntamente una tecnica di sogliatura (thresholding technique) e analizza i valori residui dell’istogramma calcolando l’indice di Kurtosis. Gli algoritmi proposti sono stati testati con un confronto tra le metriche proposte in questo lavoro e quelle precedenti, ma anche con risultati di test soggettivi. I risultati sperimentali mostrano l’efficacia delle soluzioni proposte nel valutare la profondità in video 3D. Infine, uno dei nuovi indicatori è stato applicato ad un database di video 3D per completare la caratterizzazione di contenuti 3D.
Resumo:
In campo medico ha un ruolo fondamentale il monitoraggio dei parametri vitali, importanti indicatori dello stato di salute del paziente, essenziali nella diagnosi e nella cura dellle patologie. La frequenza cardiaca occupa un ruolo fondamentale nella clinica, primo indice dell'attività cardio circolatoria del paziente. Il trattato analizza una metodica di monitoraggio del battito cardiaco per mezzo delle videocamere digitali, la ripresa diretta in video del volto del paziente e la presenza di un'adeguata illuminazione ambientale: la pulsazione cardiaca esercita variazioni di pressione a livello periferico generando un cambiamento del colore della pelle sulle zone più esposte, quali il viso. Analizzando l'andamento temporale del segnale RGB registra, per mezzo di algoritmi di elaborazione delle immagini, è possibile stimare accuratamente il battito cardiaco dell'utente. Nell'elaborato viene affrontata la metodica degl algoritmi di image-prcessing presentando un applicativo scritto in linguaggio Python, funzionante e testato su di un sistema Linux (Ubuntu 14.04). Tale metodo si basa sui concetti della fotopletismografia applicata in remoto denotando il non-contact-mode.
Resumo:
Il lavoro di questa tesi presenta il risultato di una attività di sperimentazione su alcuni algoritmi di ottimizzazione topologica recentemente sviluppati in ambito scientifico e descritti in pubblicazioni su riviste internazionali. L’ottimizzazione topologica può essere definita come una tecnica che mira a variare la forma geometrica di un oggetto bidimensionale o tridimensionale in modo da rispettare requisiti su posizionamento di vincoli e applicazione di forze e da minimizzare l’impiego di materiale necessario ad ottenere una struttura che soddisfi alcuni requisiti. Il settore aerospaziale è sicuramente uno di quelli che può beneficiare di questa metodologia visto che è sempre necessario progettare componenti leggeri e quanto più ottimizzati riducendo gli sprechi di materiale; in ambito aeronautico questo porta ad incrementare l’autonomia ed il carico utile riducendo i costi ambientali ed economici delle attività di trasporto. Discorso analogo vige per il campo spaziale in cui i pesi sono cruciali per la scelta del lanciatore da utilizzare per mandare in orbita strumentazioni e impattano in maniera importante sui costi delle missioni. In questa tesi, dopo una breve descrizione delle tecniche di ottimizzazione topologica prese in considerazione nei test svolti, sono presentati i risultati dell'applicazione di questi metodi ad una serie di specifici casi applicativi del settore aerospaziale, mettendo in risalto i risultati in termini di forme geometriche ottenute per alcuni casi di studio. Per ognuno di questi è descritta la schematizzazione seguita a livello di vincoli e di carichi e la dimensione della superficie o volume di controllo di partenza. Gli esiti del processo di ottimizzazione sono poi commentati, sia a livello di conformazione geometrica ottenuta che di possibilità di implementare dal punto di vista costruttivo la forma trovata.
Resumo:
Database preferences La tesi passa in rassegna i principali approcci alla formulazione e risoluzione di query su database relazionali con preferenza, di tipo sia qualitativo sia quantitativo. Verranno inoltre studiati gli algoritmi per il calcolo di skyline.
Resumo:
Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.
Resumo:
Il makeup, come strumento atto a modificare i tratti somatici di un individuo per aumentarne la bellezza, è largamente diffuso e socialmente accettabile al giorno d’oggi. Per la sua facile reperibilità, semplicità di utilizzo e capacità di alterare le caratteristiche principali di un volto, può diventare uno strumento pericoloso per chi volesse sottrarsi a dei controlli. In questo lavoro di tesi sono stati analizzati algoritmi presenti in letteratura che cercano di arginare gli effetti di alterazione di un viso, causati dal makeup, durante un processo di riconoscimento del volto. Inoltre è stato utilizzato un software per verificare la robustezza dei programmi commerciali in merito al problema del makeup e confrontare poi i risultati riscontrati in letteratura con quelli ottenuti dai test.
Resumo:
L'obiettivo principale che questa tesi intende perseguire e la progettazione di un sistema di acquisizione 3D a basso costo basato sul metodo di triangolazione a lama laser. A tale scopo si adotterà una telecamera general-purpose, e si provvederà sia alla realizzazione di un prototipo di sistema di attuazione per automatizzare la scansione dell'oggetto, sia all'implementazione di algoritmi per la calibrazione della geometria laser-telecamera, il rilevamento del profilo laser nell'immagine e la sua successiva ricostruzione 3D, tenendo anche conto delle complicazioni che l'uso di oggetti ad alto potere diffusivo apporta a tale problema, a causa dei marcati effetti di subsurface scattering della luce laser. Il sistema di triangolazione sarà validato caratterizzando, mediante il confronto con pezzi di dimensioni note, la precisione e l'accuratezza delle misurazioni, e valutando i tempi di esecuzione degli algoritmi. Inoltre, le prestazioni ed i risultati delle acquisizioni saranno messi a confronto con quelli ottenuti adottando una telecamera high-end dedicata. Lo studio preliminare svolto in questa sede e propedeutico per la futura realizzazione di un sistema per la ricostruzione in camera bianca di protesi d'osso su misura.
Resumo:
Lo streaming è una tecnica per trasferire contenuti multimediali sulla rete globale, utilizzato per esempio da servizi come YouTube e Netflix; dopo una breve attesa, durante la quale un buffer di sicurezza viene riempito, l'utente può usufruire del contenuto richiesto. Cisco e Sandvine, che con cadenza regolare pubblicano bollettini sullo stato di Internet, affermano che lo streaming video ha, e avrà sempre di più, un grande impatto sulla rete globale. Il buon design delle applicazioni di streaming riveste quindi un ruolo importante, sia per la soddisfazione degli utenti che per la stabilità dell'infrastruttura. HTTP Adaptive Streaming indica una famiglia di implementazioni volta a offrire la migliore qualità video possibile (in termini di bit rate) in funzione della bontà della connessione Internet dell'utente finale: il riproduttore multimediale può cambiare in ogni momento il bit rate, scegliendolo in un insieme predefinito, adattandosi alle condizioni della rete. Per ricavare informazioni sullo stato della connettività, due famiglie di metodi sono possibili: misurare la velocità di scaricamento dei precedenti trasferimenti (approccio rate-based), oppure, come recentemente proposto da Netflix, utilizzare l'occupazione del buffer come dato principale (buffer-based). In questo lavoro analizziamo algoritmi di adattamento delle due famiglie, con l'obiettivo di confrontarli su metriche riguardanti la soddisfazione degli utenti, l'utilizzo della rete e la competizione su un collo di bottiglia. I risultati dei nostri test non definiscono un chiaro vincitore, riconoscendo comunque la bontà della nuova proposta, ma evidenziando al contrario che gli algoritmi buffer-based non sempre riescono ad allocare in modo imparziale le risorse di rete.
Resumo:
La tesi, svolta per il completamento della Laurea Magistrale in Ingegneria Informatica, tratta la realizzazione di un progetto prototipo di Computer Vision (CV) e Realtà Aumentata (RA) per la manutenzione tecnica di macchinari industriali attraverso l'utilizzo di dispositivi mobili See-Through. Lo scopo è stato, oltre lo studio dello stato dell'arte in materia, provare con mano e rendere maggiormente visibili al pubblico questi nuovi rami dell'informatica. Il prototipo creato è stato inserito in un contesto aziendale, con misurazioni e prove sul campo. Partendo da una breve introduzione sulla realtà aumentata, nel primo capitolo viene descritto il progetto sviluppato, diviso in due sottoprogetti. Il primo, svolto solamente in una fase iniziale e presentato nel secondo capitolo, espone la realizzazione di un'applicazione mobile per lo streaming video con l'aggiunta di contenuti grafici aumentati. Il secondo, progettato e sviluppato in totale autonomia, rappresenta un prototipo demo di utilizzo della RA. La realizzazione viene illustrata nei capitoli successivi. Nel terzo capitolo si introducono gli strumenti che sono stati utilizzati per lo sviluppo dell'applicazione, in particolare Unity (per il development multi-piattaforma), Vuforia (per gli algoritmi di CV) e Blender (per la realizzazione di procedure di manutenzione). Il quarto capitolo, la parte più rilevante della trattazione, descrive, passo dopo passo, la creazione dei vari componenti, riassumendo in modo conciso e attraverso l'uso di figure i punti cardine. Infine, il quinto capitolo conclude il percorso realizzato presentando i risultati raggiunti e lasciando spunto per possibili miglioramenti ed aggiunte.
Resumo:
L'argomento di questa tesi è l'architettura di rete Delay-/Disruption-Tolerant Networking (DTN), progettata per operare nelle reti “challenged”, dove la suite di protocolli TCP/IP risulta inefficace a causa di lunghi ritardi di propagazione del segnale, interruzioni e disturbi di canale, ecc. Esempi di reti “challenged” variano dalle reti interplanetarie alle Mobile Ad-Hoc Networks (MANETs). Le principali implementazioni dell'architettura DTN sono DTN2, implementazione di riferimento, e ION, sviluppata da NASA JPL per applicazioni spaziali. Una grande differenza tra reti spaziali e terrestri è che nello spazio i movimenti dei nodi sono deterministici, mentre non lo sono per i nodi mobili terrestri, i quali generalmente non conoscono la topologia della rete. Questo ha portato allo sviluppo di diversi algoritmi di routing: deterministici per le reti spaziali e opportunistici per quelle terrestri. NASA JPL ha recentemente deciso di estendere l'ambito di applicazione di ION per supportare anche scenari non deterministici. Durante la tesi, svolta presso NASA JPL, mi sono occupato di argomenti diversi, tutti finalizzati a questo obiettivo. Inizialmente ho testato la nuova implementazione dell'algoritmo IP Neighbor Discovery (IPND) di ION, corretti i bug e prodotta la documentazione ufficiale. Quindi ho contribuito ad integrare il Contact Graph Routing (CGR) di ION nel simulatore DTN “ONE” utilizzando la Java Native Interface (JNI) come ponte tra il codice Java di ONE e il codice C di ION. In particolare ho adattato tutte le librerie di ION necessarie per far funzionare CGR all'interno dell'ambiente di ONE. Infine, dopo aver analizzato un dataset di tracce reali di nodi mobili, ho contribuito a progettare e a sviluppare OCGR, estensione opportunistica del CGR, quindi ne ho curato l'integrazione in ONE. I risultati preliminari sembrano confermare la validità di OCGR che, una volta messo a punto, può diventare un valido concorrente ai più rinomati algoritmi opportunistici.