358 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisi cinematica delle fasi del nuoto, velocità in vasca e body roll attraverso l'uso di sensori inerziali. Implementazione di innovativi algoritmi di calcolo con l'utilizzo del filtro di Kalman 3D, matrici di rotazione e quaternioni per la determinazione dei parametri fondamentali del nuoto e della posizione del polso nel sistema di riferimento di torace. Confronto dei risultati ottenuti mediante i diversi algoritmi e loro validazione con quelli ottenuti con l'uso della stereofotogrammetria. Gli algoritmi possono essere generalizzati ad altri gesti motori.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio dello sviluppo delle attività motorie fondamentali (FMS) nei bambini sta acquisendo in questi anni grande importanza, poiché la padronanza di queste ultime sembra essere correlata positivamente sia con la condizione di benessere fisico, sia con il mantenimento di alti livelli di autostima; si ritiene inoltre che possano contribuire al mantenimento di uno stile di vita sano in età adulta. In questo elaborato di tesi viene preso in considerazione un test di riferimento per la valutazione delle FMS, il TMGD – 2. Lo scopo è quello di fornire una valutazione quantitativa delle performance delle FMS, sulla base degli standard proposti dal protocollo TGMD-2, mediante una versione strumentata del test, utilizzando delle Inertial Measurement Unit (IMU). Questi sensori consentono di superare il limite posto dalla soggettività nella valutazione dell’operatore e permettono di esprimere un giudizio in maniera rapida e automatica. Il TGMD-2 è stato somministrato, in versione strumentata, a 91 soggetti di età compresa tra i 6 e i 10 anni. Sono stati ideati degli algoritmi che, a partire dai segnali di accelerazione e velocità angolare acquisiti mediante le IMU, consentono di conferire una valutazione a ciascuno dei task impartito dal TGMD – 2. Gli algoritmi sono stati validati mediante il confronto fra i risultati ottenuti e i giudizi di un valutatore esperto del TGMD-2, mostrando un alto grado di affinità, in genere tra l’80% e il 90%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnologia della diffusion tensor imaging (DTI) è una tecnica non invasiva, che permette di effettuare una caratterizzazione in vivo di diversi tessuti, è una tecnica consolidata in ambito neurologico e rappresenta una metodica ancora da esplorare ma molto promettente in ambito renale. Questo lavoro di tesi si concentra in primo luogo sulla differenziazione di diverse strutture renali quali, la corteccia e la medulla del rene sano, le cisti del rene affetto dalla malattia policistica autosomica dominante e i carcinomi. La seconda parte del lavoro si concentra sui reni policistici, in quanto è una delle malattie genetiche più comuni e la principale causa di insufficienza renale e non è, ad oggi, stata adeguatamente affrontata in questo genere di studi. Il secondo obiettivo è, quindi, di valutare se la tecnica dell’imaging di diffusione potrebbe essere utile per fornire informazioni sullo stato della malattia e sul grado si avanzamento di essa. Sono stati implementati in Matlab gli algoritmi per la costruzione del tensore di diffusione a partire dalle immagini DWI e per la selezione delle ROI sulle varie regioni di interesse. I risultati ottenuti per l’analisi dei reni policistici dimostrano che per gli intervalli temporali considerati non è possibile correlare il valore di diffusività media del parenchima e lo stadio di avanzamento della malattia, stabilito dai valori di eGFR. Per quanto riguarda i risultati ottenuti dalla differenziazione delle diverse strutture renali la tecnica della diffusion imaging risulta essere potenzialmente in grado di differenziare i diversi tessuti renali e di valutare separatamente la funzionalità dei reni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo progetto di tesi sarà innanzitutto presentato il Kinect One e sarà fatta una panoramica sull’uso della realtà virtuale in ambito riabilitativo. In seguito sarà analizzato l’algoritmo di Body tracking, valutandone il comportamento in diverse situazioni pratiche e poi stimandone la precisione in statica. Sarà presentato un filtraggio per limitare il rumore in tempo reale e valutarne i pro ed i contro in funzione delle caratteristiche impostabili. Saranno presentate inoltre le metodologie con cui gli algoritmi integrati del Kinect permettono di ricavare una stima dell’orientamento delle parti anatomiche nello spazio ed alcune considerazioni circa le implicazioni pratiche di tali metodologie, anche in base alle osservazioni sul campo ottenute durante i mesi di realizzazione di questo progetto. Lo scopo è determinare se e come sia possibile utilizzare il Microsoft Kinect One come unico sistema di motion tracking del paziente in applicazioni cliniche di riabilitazione, quali limiti ci sono nel suo utilizzo e quali categorie di scenari e prove potrebbe supportare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il principale scopo di questa tesi è focalizzato alla ricerca di una caratterizzazione dei contenuti in video 3D. In una prima analisi, le complessità spaziale e temporale di contenuti 3D sono state studiate seguendo le convenzionali tecniche applicate a video 2D. In particolare, Spatial Information (SI) e Temporal Information (TI) sono i due indicatori utilizzati nella caratterizzazione 3D di contenuti spaziali e temporali. Per presentare una descrizione completa di video 3D, deve essere considerata anche la caratterizzazione in termini di profondità. A questo riguardo, nuovi indicatori di profondità sono stati proposti sulla base di valutazioni statistiche degli istogrammi di mappe di profondità. Il primo depth indicator è basato infatti sullo studio della media e deviazione standard della distribuzione dei dati nella depth map. Un'altra metrica proposta in questo lavoro stima la profondità basandosi sul calcolo dell’entropia della depth map. Infine, il quarto algoritmo implementato applica congiuntamente una tecnica di sogliatura (thresholding technique) e analizza i valori residui dell’istogramma calcolando l’indice di Kurtosis. Gli algoritmi proposti sono stati testati con un confronto tra le metriche proposte in questo lavoro e quelle precedenti, ma anche con risultati di test soggettivi. I risultati sperimentali mostrano l’efficacia delle soluzioni proposte nel valutare la profondità in video 3D. Infine, uno dei nuovi indicatori è stato applicato ad un database di video 3D per completare la caratterizzazione di contenuti 3D.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In campo medico ha un ruolo fondamentale il monitoraggio dei parametri vitali, importanti indicatori dello stato di salute del paziente, essenziali nella diagnosi e nella cura dellle patologie. La frequenza cardiaca occupa un ruolo fondamentale nella clinica, primo indice dell'attività cardio circolatoria del paziente. Il trattato analizza una metodica di monitoraggio del battito cardiaco per mezzo delle videocamere digitali, la ripresa diretta in video del volto del paziente e la presenza di un'adeguata illuminazione ambientale: la pulsazione cardiaca esercita variazioni di pressione a livello periferico generando un cambiamento del colore della pelle sulle zone più esposte, quali il viso. Analizzando l'andamento temporale del segnale RGB registra, per mezzo di algoritmi di elaborazione delle immagini, è possibile stimare accuratamente il battito cardiaco dell'utente. Nell'elaborato viene affrontata la metodica degl algoritmi di image-prcessing presentando un applicativo scritto in linguaggio Python, funzionante e testato su di un sistema Linux (Ubuntu 14.04). Tale metodo si basa sui concetti della fotopletismografia applicata in remoto denotando il non-contact-mode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tema della presente tesi è l’analisi cinematica e strutturale dei componenti del gruppo ammortizzatore anteriore di un motociclo stradale. Questo particolare studio non si basa sull’analisi classica di un sistema di sterzo in cui è presente la forcella, ma prende in esame un cinematismo di sterzo e sospensione basato sulla tecnologia della moto Tesi 3D prodotta dalla Bimota. Nella prima parte viene eseguita un’analisi cinematica dell’assieme; nella seconda sono individuati versi, direzioni ed intensità delle forze presenti nel gruppo ammortizzatore attraverso l’analisi statica e la creazione di un m-file di MatLab; nella terza sono calcolate la tensione e la pressione a cui è sottoposto ciascun componente in modo da poterli progettare considerando il coefficiente di sicurezza imposto dall’azienda. Infine sono stati disegnati i vari componenti, con le misure definitive, al CAD per verificare gli ingombri effettivi e il corretto funzionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Elaborato che si propone di evidenziare come i veicoli a benzina e a diesel possano soddisfare la normativa Euro 6. Si analizza il funzionamento dei principali sistemi di after-treatment come: catalizzatore SCR e DeNOx, trappola LNT, filtri FAP e DPF, sistemi EGR, per i motori ad accensione per compressione e catalizzatore TWC per motori ad accensione comandata. Parallelamente, si spiega l'evoluzione della normativa da Euro 6b a Euro 6c in termini di riduzione del numero di particelle di particolato emesse per km e come rispondere a queste più restrittive condizioni; viene introdotto, in via ancora sperimentale, il filtro antiparticolato GPF e un sistema di misurazione di nano particelle di dimensioni inferiori a 23 nm cioè una rivalutazione del metodo PMP. Contestualmente si definisce il progetto CARS 2020, il quale aggiunge una limitazione anche sulla quantità di anidride carbonica emessa a 95 g/km e le eventuali possibili soluzioni per rispettarla: da un maggior uso di combustibili alternativi a miglioramenti tecnologici dei motori stessi. Infine si studiano gli sviluppi dei cicli di omologazione, dal 2017 infatti entreranno in gioco test su strada con dispositivi PEMS on-board e cicli armonizzati WLTC. Le procedure RDE e WLTP permetteranno di testare i vecioli in maniera più reale e globale, rispettivamente, riuscendo a fornire anche valori attendibili dei consumi registrati durante le prove.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di questa tesi presenta il risultato di una attività di sperimentazione su alcuni algoritmi di ottimizzazione topologica recentemente sviluppati in ambito scientifico e descritti in pubblicazioni su riviste internazionali. L’ottimizzazione topologica può essere definita come una tecnica che mira a variare la forma geometrica di un oggetto bidimensionale o tridimensionale in modo da rispettare requisiti su posizionamento di vincoli e applicazione di forze e da minimizzare l’impiego di materiale necessario ad ottenere una struttura che soddisfi alcuni requisiti. Il settore aerospaziale è sicuramente uno di quelli che può beneficiare di questa metodologia visto che è sempre necessario progettare componenti leggeri e quanto più ottimizzati riducendo gli sprechi di materiale; in ambito aeronautico questo porta ad incrementare l’autonomia ed il carico utile riducendo i costi ambientali ed economici delle attività di trasporto. Discorso analogo vige per il campo spaziale in cui i pesi sono cruciali per la scelta del lanciatore da utilizzare per mandare in orbita strumentazioni e impattano in maniera importante sui costi delle missioni. In questa tesi, dopo una breve descrizione delle tecniche di ottimizzazione topologica prese in considerazione nei test svolti, sono presentati i risultati dell'applicazione di questi metodi ad una serie di specifici casi applicativi del settore aerospaziale, mettendo in risalto i risultati in termini di forme geometriche ottenute per alcuni casi di studio. Per ognuno di questi è descritta la schematizzazione seguita a livello di vincoli e di carichi e la dimensione della superficie o volume di controllo di partenza. Gli esiti del processo di ottimizzazione sono poi commentati, sia a livello di conformazione geometrica ottenuta che di possibilità di implementare dal punto di vista costruttivo la forma trovata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Database preferences La tesi passa in rassegna i principali approcci alla formulazione e risoluzione di query su database relazionali con preferenza, di tipo sia qualitativo sia quantitativo. Verranno inoltre studiati gli algoritmi per il calcolo di skyline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il makeup, come strumento atto a modificare i tratti somatici di un individuo per aumentarne la bellezza, è largamente diffuso e socialmente accettabile al giorno d’oggi. Per la sua facile reperibilità, semplicità di utilizzo e capacità di alterare le caratteristiche principali di un volto, può diventare uno strumento pericoloso per chi volesse sottrarsi a dei controlli. In questo lavoro di tesi sono stati analizzati algoritmi presenti in letteratura che cercano di arginare gli effetti di alterazione di un viso, causati dal makeup, durante un processo di riconoscimento del volto. Inoltre è stato utilizzato un software per verificare la robustezza dei programmi commerciali in merito al problema del makeup e confrontare poi i risultati riscontrati in letteratura con quelli ottenuti dai test.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo principale che questa tesi intende perseguire e la progettazione di un sistema di acquisizione 3D a basso costo basato sul metodo di triangolazione a lama laser. A tale scopo si adotterà una telecamera general-purpose, e si provvederà sia alla realizzazione di un prototipo di sistema di attuazione per automatizzare la scansione dell'oggetto, sia all'implementazione di algoritmi per la calibrazione della geometria laser-telecamera, il rilevamento del profilo laser nell'immagine e la sua successiva ricostruzione 3D, tenendo anche conto delle complicazioni che l'uso di oggetti ad alto potere diffusivo apporta a tale problema, a causa dei marcati effetti di subsurface scattering della luce laser. Il sistema di triangolazione sarà validato caratterizzando, mediante il confronto con pezzi di dimensioni note, la precisione e l'accuratezza delle misurazioni, e valutando i tempi di esecuzione degli algoritmi. Inoltre, le prestazioni ed i risultati delle acquisizioni saranno messi a confronto con quelli ottenuti adottando una telecamera high-end dedicata. Lo studio preliminare svolto in questa sede e propedeutico per la futura realizzazione di un sistema per la ricostruzione in camera bianca di protesi d'osso su misura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo streaming è una tecnica per trasferire contenuti multimediali sulla rete globale, utilizzato per esempio da servizi come YouTube e Netflix; dopo una breve attesa, durante la quale un buffer di sicurezza viene riempito, l'utente può usufruire del contenuto richiesto. Cisco e Sandvine, che con cadenza regolare pubblicano bollettini sullo stato di Internet, affermano che lo streaming video ha, e avrà sempre di più, un grande impatto sulla rete globale. Il buon design delle applicazioni di streaming riveste quindi un ruolo importante, sia per la soddisfazione degli utenti che per la stabilità dell'infrastruttura. HTTP Adaptive Streaming indica una famiglia di implementazioni volta a offrire la migliore qualità video possibile (in termini di bit rate) in funzione della bontà della connessione Internet dell'utente finale: il riproduttore multimediale può cambiare in ogni momento il bit rate, scegliendolo in un insieme predefinito, adattandosi alle condizioni della rete. Per ricavare informazioni sullo stato della connettività, due famiglie di metodi sono possibili: misurare la velocità di scaricamento dei precedenti trasferimenti (approccio rate-based), oppure, come recentemente proposto da Netflix, utilizzare l'occupazione del buffer come dato principale (buffer-based). In questo lavoro analizziamo algoritmi di adattamento delle due famiglie, con l'obiettivo di confrontarli su metriche riguardanti la soddisfazione degli utenti, l'utilizzo della rete e la competizione su un collo di bottiglia. I risultati dei nostri test non definiscono un chiaro vincitore, riconoscendo comunque la bontà della nuova proposta, ma evidenziando al contrario che gli algoritmi buffer-based non sempre riescono ad allocare in modo imparziale le risorse di rete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi, svolta per il completamento della Laurea Magistrale in Ingegneria Informatica, tratta la realizzazione di un progetto prototipo di Computer Vision (CV) e Realtà Aumentata (RA) per la manutenzione tecnica di macchinari industriali attraverso l'utilizzo di dispositivi mobili See-Through. Lo scopo è stato, oltre lo studio dello stato dell'arte in materia, provare con mano e rendere maggiormente visibili al pubblico questi nuovi rami dell'informatica. Il prototipo creato è stato inserito in un contesto aziendale, con misurazioni e prove sul campo. Partendo da una breve introduzione sulla realtà aumentata, nel primo capitolo viene descritto il progetto sviluppato, diviso in due sottoprogetti. Il primo, svolto solamente in una fase iniziale e presentato nel secondo capitolo, espone la realizzazione di un'applicazione mobile per lo streaming video con l'aggiunta di contenuti grafici aumentati. Il secondo, progettato e sviluppato in totale autonomia, rappresenta un prototipo demo di utilizzo della RA. La realizzazione viene illustrata nei capitoli successivi. Nel terzo capitolo si introducono gli strumenti che sono stati utilizzati per lo sviluppo dell'applicazione, in particolare Unity (per il development multi-piattaforma), Vuforia (per gli algoritmi di CV) e Blender (per la realizzazione di procedure di manutenzione). Il quarto capitolo, la parte più rilevante della trattazione, descrive, passo dopo passo, la creazione dei vari componenti, riassumendo in modo conciso e attraverso l'uso di figure i punti cardine. Infine, il quinto capitolo conclude il percorso realizzato presentando i risultati raggiunti e lasciando spunto per possibili miglioramenti ed aggiunte.