358 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica
Resumo:
Questa tesi si occupa dell’estensione di un framework software finalizzato all'individuazione e al tracciamento di persone in una scena ripresa da telecamera stereoscopica. In primo luogo è rimossa la necessità di una calibrazione manuale offline del sistema sfruttando algoritmi che consentono di individuare, a partire da un fotogramma acquisito dalla camera, il piano su cui i soggetti tracciati si muovono. Inoltre, è introdotto un modulo software basato su deep learning con lo scopo di migliorare la precisione del tracciamento. Questo componente, che è in grado di individuare le teste presenti in un fotogramma, consente ridurre i dati analizzati al solo intorno della posizione effettiva di una persona, escludendo oggetti che l’algoritmo di tracciamento sarebbe portato a individuare come persone.
Resumo:
L'ambiente di questa tesi è quello del Delay and Disruption Tolerant Networks (DTN), un'architettura di rete di telecomunicazioni avente come obiettivo le comunicazioni tra nodi di reti dette “challenged”, le quali devono affrontare problemi come tempi di propagazione elevati, alto tasso di errore e periodi di perdita delle connessioni. Il Bunde layer, un nuovo livello inserito tra trasporto e applicazione nell’architettura ISO/OSI, ed il protocollo ad esso associato, il Bundle Protocol (BP), sono stati progettati per rendere possibili le comunicazioni in queste reti. A volte fra la ricezione e l’invio può trascorrere un lungo periodo di tempo, a causa della indisponibilità del collegamento successivo; in questo periodo il bundle resta memorizzato in un database locale. Esistono varie implementazioni dell'architettura DTN come DTN2, implementazione di riferimento, e ION (Interplanetary Overlay Network), sviluppata da NASA JPL, per utilizzo in applicazioni spaziali; in esse i contatti tra i nodi sono deterministici, a differenza delle reti terrestri nelle quali i contatti sono generalmente opportunistici (non noti a priori). Per questo motivo all’interno di ION è presente un algoritmo di routing, detto CGR (Contact Graph Routing), progettato per operare in ambienti con connettività deterministica. È in fase di ricerca un algoritmo che opera in ambienti non deterministici, OCGR (Opportunistic Contact Graph Routing), che estende CGR. L’obiettivo di questa tesi è quello di fornire una descrizione dettagliata del funzionamento di OCGR, partendo necessariamente da CGR sul quale è basato, eseguire dei test preliminari, richiesti da NASA JPL, ed analizzarne i risultati per verificare la possibilità di utilizzo e miglioramento dell’algoritmo. Sarà inoltre descritto l’ambiente DTN e i principali algoritmi di routing per ambienti opportunistici. Nella parte conclusiva sarà presentato il simulatore DTN “The ONE” e l’integrazione di CGR e OCGR al suo interno.
Resumo:
Questa tesi riguarda l'implementazione e la verifica di alcuni algoritmi di determinazione d'assetto, con l'obiettivo di verificarne le prestazioni e valutarne la possibilità di utilizzo sul ADS del satellite DustCube, operante nel sistema binario Didymos. I filtri si basano sulla combinazione delle misure di diversi sensori, tra i quali star tracker, sensori di Sole, camera a infrarossi e giroscopio. I sensori in questione sono stati modellizzati all'interno di un simulatore implementato in MATLAB/Simulink. L'approccio utilizzato per la determinazione dell'assetto è quelllo di impiegare due differenti filtri: il primo per la calibrazione del giroscopio, il secondo che utilizza i parametri di calibrazione calcolati dal primo per correggere la velocità angolare misurata da giroscopio e determinare l'assetto con un maggiore accuratezza. Le prestazioni dei vari filtri sono state caratterizzate attraverso un'analisi statistica: le simulazioni Monte Carlo. I risultati, nei limiti delle ipotesi fatte, hanno confermato la validità dell'approccio. Per la determinazione effettiva delle prestazioni di questo sistema sull'ADS del DustCube si rimanda ad uno studio di maggior dettaglio.
Resumo:
Progettazione di dettaglio di un banco di prova per testare sistemi ADCS per CubeSat: Alma Test-Bed. Ci si è concentrati sul progetto di un primo nucleo di AlmaTB in grado di testare il controllo di tipo magnetico. Fanno parte di AlmaTB una gabbia di Helmholtz, un air-bearing system, un CubeSat di test, un metrology system. La gabbia di Helmholtz è un apparato costituito da tre coppie di bobine, una per ogni asse spaziale, che serve ad annullare il campo magnetico locale e simulare quello che si troverà in orbita attorno alla Terra. Un software ricava i dati del campo magnetico terrestre da modello IGRF a determinate coordinate e quota e fornisce agli alimentatori del set di bobine l'indicazione della corrente da distribuire. L'air-bearing system è un cuscinetto d'aria generato da un compressore che serve a ricreare le caratteristiche condizioni dell'ambiente spaziale di microgravità e attrito quasi-zero. Il CubeSat di test sarà montato su questo sistema. Il CubeSat di test, nella prima versione di AlmaTB, contiene i sensori e gli attuatori di tipo magnetico per determinare e controllare l'assetto di un nanosatellite. Il magnetometro presente all'interno è utilizzato anche come controllo del funzionamento della gabbia di Helmholtz. Il metrology system traccia i movimenti e l'inclinazione del CubeSat. Questo fornisce il riferimento di assetto vero, in modo da capire se il sistema ADCS lavora correttamente. Una volta che il banco di prova sarà completato e operativo sarà possibile testare algoritmi di determinazione e controllo di assetto che utilizzano diversi dispositivi tra sensori e attuatori disponibili nel mock-up. Su una workstation sono installati i software di controllo ed elaborazione dati. Si è scelto di procedere con un approccio di tipo "chiavi in mano", cioè scegliendo, quando disponibile, sistemi già completi e disponibili sul mercato. La prima versione di AlmaTB nasce dall'importante, vasto lavoro di matching tra i diversi apparati.
Resumo:
Nel presente lavoro è affrontato lo studio delle curve ellittiche viste come curve algebriche piane, più precisamente come cubiche lisce nel piano proiettivo complesso. Dopo aver introdotto nella prima parte le nozioni di Superfici compatte e orientabili e curve algebriche, tramite il teorema di classificazione delle Superfici compatte, se ne fornisce una preliminare classificazione basata sul genere della superficie e della curva, rispettivamente. Da qui, segue la definizione di curve ellittiche e uno studio più dettagliato delle loro pricipali proprietà, quali la possibilità di definirle tramite un'equazione affine nota come equazione di Weierstrass e la loro struttura intrinseca di gruppo abeliano. Si fornisce quindi un'ulteriore classificazione delle cubiche lisce, totalmente differente da quella precedente, che si basa invece sul modulo della cubica, invariante per trasformazioni proiettive. Infine, si considera un aspetto computazionale delle curve ellittiche, ovvero la loro applicazione nel campo della Crittografia. Grazie alla struttura che esse assumono sui campi finiti, sotto opportune ipotesi, i crittosistemi a chiave pubblica basati sul problema del logaritmo discreto definiti sulle curve ellittiche, a parità di sicurezza rispetto ai crittosistemi classici, permettono l'utilizzo di chiavi più corte, e quindi meno costose computazionalmente. Si forniscono quindi le definizioni di problema del logaritmo discreto classico e sulle curve ellittiche, ed alcuni esempi di algoritmi crittografici classici definiti su quest'ultime.
Resumo:
Questo elaborato si pone l’obiettivo principale di formulare una metodologia volta alla misura sperimentale della risposta impulsiva di ambienti indoor in ambito acustico. Lo studio della risposta impulsiva di una stanza trova diverse applicazioni nell’ambito dell’ingegneria acustica. Essa contiene infatti informazioni sulla geometria della stanza stessa, che può essere ricostruita con appositi algoritmi. È sovente impiegata anche in campo architettonico per progettare interventi di correzione o ottimizzazione acustica. In questo elaborato si darà spazio ad una terza applicazione: si utilizzerà la risposta impulsiva misurata in una determinata stanza per aggiungere effetti ambientali a suoni registrati in camere anecoiche. Per perseguire quest’obiettivo, nel capitolo 1 si richiamano i concetti di base riguardo i sistemi LTI, funzioni di trasferimento e risposta impulsiva, approfondendo gli aspetti legati alle tecniche tradizionalmente usate per la misura della risposta impulsiva in ambito acustico. Si pone poi la base teorica del metodo sperimentale che sarà sviluppato nel corso dell’elaborato, fondato sulla stima numerica dello spettro di segnali ad energia finita. Nel secondo capitolo s’illustra l’impostazione della catena di misura, chiarendo le scelte hardware intraprese, le motivazioni di tali scelte, il funzionamento generale dei dispositivi impiegati e le condizioni ottimali di misura. Il capitolo 3 rappresenta il cuore di questo elaborato, nel quale viene illustrata l’implementazione vera e propria della metodologia della misura della risposta impulsiva, a partire dal settaggio degli strumenti utilizzati, alla realizzazione del codice MATLAB per l’elaborazione dei dati, per giungere infine all’analisi dei risultati sperimentali ottenuti. Con il quarto ed ultimo capitolo si introduce il concetto di equalizzazione e si implementa una prima e grossolana soluzione al problema degli effetti distorcenti introdotti dai dispositivi non ideali.
Studio sperimentale del coefficiente di compressibilità secondaria al variare del contenuto organico
Resumo:
Questa tesi svolta nell’ambito della geotecnica ha L’obiettivo di porre l’attenzione sul comportamento dei cedimenti secondari, quindi sul coefficiente di consolidazione secondaria Cα mediante l’esecuzione di una prova edometrica su di una sezione di campione estratto in sito, dove si evidenzia una percentuale di contenuto organico molto alta (torba).Si introduce il concetto di terreno organico a partire dalla genesi fino ad una classificazione atta a distinguere terreni con percentuali di componente organica differenti. Si spiega la teoria della consolidazione monodimensionale, quindi la prova edometrica, riportando in maniera grafica e analitica tutti i coefficienti che da essa si possono ricavare a partire dai parametri di compressione volumetrica fino alla consolidazione primaria e secondaria (o creep)si descrivono dettagliatamente la strumentazione e la procedura di prova. Descrivendo l’edometro utilizzato in laboratorio e tutti gli accessori ad esso collegati, il campione da analizzare, la procedura di preparazione del campione alla prova edometrica, trovando alcune proprietà fisiche del campione, come il contenuto d’acqua e il contenuto organico, ed in fine riportando i passaggi della prova edometrica in modo tale da poter essere riprodotta.Si analizzano tutti i risultati ottenuti durante la prova in maniera analitica e grafica, osservando e commentando la forma dei grafici ottenuti in relazione al materiale che compone il campione ed i tempi impiegati per eseguire la prova.
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).
Resumo:
Questa tesi descrive alcune tecniche realizzative e algoritmi di controllo per il posizionamento delle testine di lettura/scrittura in hard disk drive magnetici. Viene presentata l'attuazione a due stadi delle testine per incrementare la banda frequenziale del sistema, in cui un motore VCM funge da primo stadio e come secondo stadio si utilizza un microattuatore, di tipo piezoelettrico o elettromagnetico o elettrotermico. Il posizionamento della testina sulle tracce magnetiche dei dischi contenenti i dati si divide in due fasi: track-seeking e track-following, che presentano diversi requisiti di velocità e precisione, per questo motivo si descrive il metodo dello switching control. Successivamente viene formulato un modello matematico nello spazio degli stati degli stati dell'attuatori a due stadi e il relativo controllo in retroazione, basato su osservatore dello stato. Inoltre per il track-seeking si propone il controllo a due gradi di libertà e per il track-following il metodo del disaccoppiamento della sensitività. Infine si riportano due novità tecnologiche per gli hard disk magnetici: l'attuazione a tre stadi, che sfrutta un secondo microattuatore, di tipo termico, e gli hard disk riempiti d'elio ed ermeticamente sigillati, che semplificano il controllo grazie alla minore turbolenza del gas e al suo minor peso.
Resumo:
In questa tesi sono stati analizzati alcuni metodi di ricerca per dati 3D. Viene illustrata una panoramica generale sul campo della Computer Vision, sullo stato dell’arte dei sensori per l’acquisizione e su alcuni dei formati utilizzati per la descrizione di dati 3D. In seguito è stato fatto un approfondimento sulla 3D Object Recognition dove, oltre ad essere descritto l’intero processo di matching tra Local Features, è stata fatta una focalizzazione sulla fase di detection dei punti salienti. In particolare è stato analizzato un Learned Keypoint detector, basato su tecniche di apprendimento di machine learning. Quest ultimo viene illustrato con l’implementazione di due algoritmi di ricerca di vicini: uno esauriente (K-d tree) e uno approssimato (Radial Search). Sono state riportate infine alcune valutazioni sperimentali in termini di efficienza e velocità del detector implementato con diversi metodi di ricerca, mostrando l’effettivo miglioramento di performance senza una considerabile perdita di accuratezza con la ricerca approssimata.
Resumo:
Partendo da un’analisi dei problemi che si incontrano nella fase di conceptual design, si presentano le diverse tecniche di modellazione tridimensionale, con particolare attenzione al metodo subdivision e agli algoritmi che lo governano (Chaikin, Doo – Sabin). Vengono poi proposti alcuni esempi applicativi della modellazione free form e skeleton, con una successiva comparazione, sugli stessi modelli, delle sequenze e operazioni necessarie con le tradizionali tecniche di modellazione parametrica. Si riporta un esempio dell’utilizzo del software IronCAD, il primo software a unire la modellazione parametrica e diretta. Si descrivono le limitazioni della modellazione parametrica e di quella history free nella fase concettuale di un progetto, per arrivare a definire le caratteristiche della hybrid modeling, nuovo approccio alla modellazione. Si presenta brevemente il prototipo, in fase di sviluppo, che tenta di applicare concretamente i concetti dell’hybrid modeling e che vuole essere la base di partenza per una nuova generazione di softwares CAD. Infine si presenta la possibilità di ottenere simulazioni real time su modelli che subiscono modifiche topologiche. La simulazione real time è permessa dalla ridefinizione in forma parametrica del problema lineare elastico che viene successivamente risolto mediante l’applicazione congiunta delle R – Functions e del metodo PGD. Seguono esempi di simulazione real time.
Resumo:
Si analizza il comportamento e la risposta di elementi sottoposti a diversi tipi di sollecitazione. Lo scopo ultimo è quello di valutare l’applicabilità di un modello che permetta di ricavare il comportamento di creep a trazione nei calcestruzzi fibrorinforzati, partendo dai risultati delle prove di creep a compressione e creep a flessione.
Resumo:
Negli ultimi anni, tra le varie tecnologie che hanno acquisito una sempre maggiore popolarità e diffusione, una di particolare rilevanza è quella degli Unmanned Aerial Vehicles. Di questi velivoli, quelli che stanno riscuotendo maggiore successo sono i multirotori, alimentati esclusivamente da azionamenti elettrici disposti in opportune posizioni della struttura. Particolari sforzi sono stati recentemente dedicati al miglioramento di questa tecnologia in termini di efficienza e precisione, tuttavia quasi sempre si trascura la vitale importanza dello sfruttamento efficiente dei motori elettrici. La tecnica di pilotaggio adottata nella quasi totalità dei casi per questi componenti è il BLDC sensorless, anche se la struttura si dimostra spesso essere PMSM, dunque inadatta all’uso di questa strategia. Il controllo ideale per i PMSM risulterebbe essere FOC, tuttavia per l'implementazione sensorless molti aspetti scontati nel BLDC devono essere affrontati, in particolare bisogna risolvere problemi di osservazione e identificazione. Durante la procedura di avviamento, efficienti strategie di self-commissioning vengono adottate per l’identificazione dei parametri elettrici. Per la fase di funzionamento nominale viene proposto un osservatore composto da diversi componenti interfacciati tra loro tramite un filtro complementare, il tutto al fine di ottenere una stima di posizione e velocità depurata dai disturbi. In merito al funzionamento in catena chiusa, vengono esposte valutazioni preliminari sulla stabilità e sulla qualità del controllo. Infine, per provare la validità degli algoritmi proposti, vengono mostrati i risultati delle prove sperimentali condotte su un tipico azionamento per UAV, pilotato da una scheda elettronica progettata appositamente per l’applicazione in questione. Vengono fornite inoltre indicazioni sull’implementazione degli algoritmi studiati, in particolare considerazioni sull’uso delle operazioni a virgola fissa per velocizzare l'esecuzione.
Resumo:
Il seguente elaborato di tesi tratta il problema della pianificazione di voli fotogrammetrici a bassa quota mediante l’uso di SAPR, in particolare è presentata una disamina delle principali applicazioni che permettono di programmare una copertura fotogrammetrica trasversale e longitudinale di un certo poligono con un drone commerciale. Il tema principale sviluppato è la gestione di un volo fotogrammetrico UAV mediante l’uso di applicativi software che permettono all’utente di inserire i parametri di volo in base alla tipologia di rilievo che vuole effettuare. L’obbiettivo finale è quello di ottenere una corretta presa fotogrammetrica da utilizzare per la creazione di un modello digitale del terreno o di un oggetto attraverso elaborazione dati in post-processing. La perfetta configurazione del volo non può prescindere dalle conoscenze base di fotogrammetria e delle meccaniche di un veicolo UAV. I capitoli introduttivi tratteranno infatti i principi della fotogrammetria analogica e digitale soffermandosi su temi utili alla comprensione delle problematiche relative al progetto di rilievo fotogrammetrico aereo. Una particolare attenzione è stata posta sulle nozioni di fotogrammetria digitale che, insieme agli algoritmi di Imagine Matching derivanti dalla Computer Vision, permette di definire il ramo della Fotogrammetria Moderna. Nei capitoli centrali verranno esaminate e confrontate una serie di applicazioni commerciali per smartphone e tablet, disponibili per sistemi Apple e Android, per trarne un breve resoconto conclusivo che le compari in termini di accessibilità, potenzialità e destinazione d’uso. Per una maggiore comprensione si determinano univocamente gli acronimi con cui i droni vengono chiamati nei diversi contesti: UAV (Unmanned Aerial Vehicle), SAPR (Sistemi Aeromobili a Pilotaggio Remoto), RPAS (Remotely Piloted Aicraft System), ARP (Aeromobili a Pilotaggio Remoto).
Resumo:
Essendo l’Italia un territorio soggetto a violenti e frequenti sismi, ed avendo un importante patrimonio in muratura, è interessante studiare il rapporto tra i due. La muratura è maggiormente resistente contro forze che agiscono nel suo piano, che generano quindi uno sforzo di taglio. Si andrà dunque a valutare sperimentalmente la resistenza a taglio delle murature. Tale campagna sperimentale sarà svolta su campioni di muratura sotto forma di triplette confezionate con due tipi di malta diversi a tre livelli di precompressione differenti. I risultati così ottenuti saranno infine rielaborati in un grafico, il grafico della legge di Coulomb, che mira a cercare un legame lineare tra le tau e le sigma di precompressione. Un valore aggiunto dello studio sta nel monitoraggio costante della prova, dal quale si nota che la precompressione durante questa varia. Portando dunque a due risultati diversi: il primo è un legame tau-sigma con livelli di sigma normativi e uno con legami di sigma effettivi della rottura. La campagna sperimentale, inoltre, comprende anche la valutazione del modulo elastico per i singoli campioni di laterizio e di malta. La malta sarà provata anche per la resistenza a flessione e compressione.