480 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica
Resumo:
Questo elaborato si pone l’obiettivo principale di formulare una metodologia volta alla misura sperimentale della risposta impulsiva di ambienti indoor in ambito acustico. Lo studio della risposta impulsiva di una stanza trova diverse applicazioni nell’ambito dell’ingegneria acustica. Essa contiene infatti informazioni sulla geometria della stanza stessa, che può essere ricostruita con appositi algoritmi. È sovente impiegata anche in campo architettonico per progettare interventi di correzione o ottimizzazione acustica. In questo elaborato si darà spazio ad una terza applicazione: si utilizzerà la risposta impulsiva misurata in una determinata stanza per aggiungere effetti ambientali a suoni registrati in camere anecoiche. Per perseguire quest’obiettivo, nel capitolo 1 si richiamano i concetti di base riguardo i sistemi LTI, funzioni di trasferimento e risposta impulsiva, approfondendo gli aspetti legati alle tecniche tradizionalmente usate per la misura della risposta impulsiva in ambito acustico. Si pone poi la base teorica del metodo sperimentale che sarà sviluppato nel corso dell’elaborato, fondato sulla stima numerica dello spettro di segnali ad energia finita. Nel secondo capitolo s’illustra l’impostazione della catena di misura, chiarendo le scelte hardware intraprese, le motivazioni di tali scelte, il funzionamento generale dei dispositivi impiegati e le condizioni ottimali di misura. Il capitolo 3 rappresenta il cuore di questo elaborato, nel quale viene illustrata l’implementazione vera e propria della metodologia della misura della risposta impulsiva, a partire dal settaggio degli strumenti utilizzati, alla realizzazione del codice MATLAB per l’elaborazione dei dati, per giungere infine all’analisi dei risultati sperimentali ottenuti. Con il quarto ed ultimo capitolo si introduce il concetto di equalizzazione e si implementa una prima e grossolana soluzione al problema degli effetti distorcenti introdotti dai dispositivi non ideali.
Studio sperimentale del coefficiente di compressibilità secondaria al variare del contenuto organico
Resumo:
Questa tesi svolta nell’ambito della geotecnica ha L’obiettivo di porre l’attenzione sul comportamento dei cedimenti secondari, quindi sul coefficiente di consolidazione secondaria Cα mediante l’esecuzione di una prova edometrica su di una sezione di campione estratto in sito, dove si evidenzia una percentuale di contenuto organico molto alta (torba).Si introduce il concetto di terreno organico a partire dalla genesi fino ad una classificazione atta a distinguere terreni con percentuali di componente organica differenti. Si spiega la teoria della consolidazione monodimensionale, quindi la prova edometrica, riportando in maniera grafica e analitica tutti i coefficienti che da essa si possono ricavare a partire dai parametri di compressione volumetrica fino alla consolidazione primaria e secondaria (o creep)si descrivono dettagliatamente la strumentazione e la procedura di prova. Descrivendo l’edometro utilizzato in laboratorio e tutti gli accessori ad esso collegati, il campione da analizzare, la procedura di preparazione del campione alla prova edometrica, trovando alcune proprietà fisiche del campione, come il contenuto d’acqua e il contenuto organico, ed in fine riportando i passaggi della prova edometrica in modo tale da poter essere riprodotta.Si analizzano tutti i risultati ottenuti durante la prova in maniera analitica e grafica, osservando e commentando la forma dei grafici ottenuti in relazione al materiale che compone il campione ed i tempi impiegati per eseguire la prova.
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).
Resumo:
Questa tesi descrive alcune tecniche realizzative e algoritmi di controllo per il posizionamento delle testine di lettura/scrittura in hard disk drive magnetici. Viene presentata l'attuazione a due stadi delle testine per incrementare la banda frequenziale del sistema, in cui un motore VCM funge da primo stadio e come secondo stadio si utilizza un microattuatore, di tipo piezoelettrico o elettromagnetico o elettrotermico. Il posizionamento della testina sulle tracce magnetiche dei dischi contenenti i dati si divide in due fasi: track-seeking e track-following, che presentano diversi requisiti di velocità e precisione, per questo motivo si descrive il metodo dello switching control. Successivamente viene formulato un modello matematico nello spazio degli stati degli stati dell'attuatori a due stadi e il relativo controllo in retroazione, basato su osservatore dello stato. Inoltre per il track-seeking si propone il controllo a due gradi di libertà e per il track-following il metodo del disaccoppiamento della sensitività. Infine si riportano due novità tecnologiche per gli hard disk magnetici: l'attuazione a tre stadi, che sfrutta un secondo microattuatore, di tipo termico, e gli hard disk riempiti d'elio ed ermeticamente sigillati, che semplificano il controllo grazie alla minore turbolenza del gas e al suo minor peso.
Resumo:
In questa tesi sono stati analizzati alcuni metodi di ricerca per dati 3D. Viene illustrata una panoramica generale sul campo della Computer Vision, sullo stato dell’arte dei sensori per l’acquisizione e su alcuni dei formati utilizzati per la descrizione di dati 3D. In seguito è stato fatto un approfondimento sulla 3D Object Recognition dove, oltre ad essere descritto l’intero processo di matching tra Local Features, è stata fatta una focalizzazione sulla fase di detection dei punti salienti. In particolare è stato analizzato un Learned Keypoint detector, basato su tecniche di apprendimento di machine learning. Quest ultimo viene illustrato con l’implementazione di due algoritmi di ricerca di vicini: uno esauriente (K-d tree) e uno approssimato (Radial Search). Sono state riportate infine alcune valutazioni sperimentali in termini di efficienza e velocità del detector implementato con diversi metodi di ricerca, mostrando l’effettivo miglioramento di performance senza una considerabile perdita di accuratezza con la ricerca approssimata.
Resumo:
Partendo da un’analisi dei problemi che si incontrano nella fase di conceptual design, si presentano le diverse tecniche di modellazione tridimensionale, con particolare attenzione al metodo subdivision e agli algoritmi che lo governano (Chaikin, Doo – Sabin). Vengono poi proposti alcuni esempi applicativi della modellazione free form e skeleton, con una successiva comparazione, sugli stessi modelli, delle sequenze e operazioni necessarie con le tradizionali tecniche di modellazione parametrica. Si riporta un esempio dell’utilizzo del software IronCAD, il primo software a unire la modellazione parametrica e diretta. Si descrivono le limitazioni della modellazione parametrica e di quella history free nella fase concettuale di un progetto, per arrivare a definire le caratteristiche della hybrid modeling, nuovo approccio alla modellazione. Si presenta brevemente il prototipo, in fase di sviluppo, che tenta di applicare concretamente i concetti dell’hybrid modeling e che vuole essere la base di partenza per una nuova generazione di softwares CAD. Infine si presenta la possibilità di ottenere simulazioni real time su modelli che subiscono modifiche topologiche. La simulazione real time è permessa dalla ridefinizione in forma parametrica del problema lineare elastico che viene successivamente risolto mediante l’applicazione congiunta delle R – Functions e del metodo PGD. Seguono esempi di simulazione real time.
Resumo:
Si analizza il comportamento e la risposta di elementi sottoposti a diversi tipi di sollecitazione. Lo scopo ultimo è quello di valutare l’applicabilità di un modello che permetta di ricavare il comportamento di creep a trazione nei calcestruzzi fibrorinforzati, partendo dai risultati delle prove di creep a compressione e creep a flessione.
Resumo:
Negli ultimi anni, tra le varie tecnologie che hanno acquisito una sempre maggiore popolarità e diffusione, una di particolare rilevanza è quella degli Unmanned Aerial Vehicles. Di questi velivoli, quelli che stanno riscuotendo maggiore successo sono i multirotori, alimentati esclusivamente da azionamenti elettrici disposti in opportune posizioni della struttura. Particolari sforzi sono stati recentemente dedicati al miglioramento di questa tecnologia in termini di efficienza e precisione, tuttavia quasi sempre si trascura la vitale importanza dello sfruttamento efficiente dei motori elettrici. La tecnica di pilotaggio adottata nella quasi totalità dei casi per questi componenti è il BLDC sensorless, anche se la struttura si dimostra spesso essere PMSM, dunque inadatta all’uso di questa strategia. Il controllo ideale per i PMSM risulterebbe essere FOC, tuttavia per l'implementazione sensorless molti aspetti scontati nel BLDC devono essere affrontati, in particolare bisogna risolvere problemi di osservazione e identificazione. Durante la procedura di avviamento, efficienti strategie di self-commissioning vengono adottate per l’identificazione dei parametri elettrici. Per la fase di funzionamento nominale viene proposto un osservatore composto da diversi componenti interfacciati tra loro tramite un filtro complementare, il tutto al fine di ottenere una stima di posizione e velocità depurata dai disturbi. In merito al funzionamento in catena chiusa, vengono esposte valutazioni preliminari sulla stabilità e sulla qualità del controllo. Infine, per provare la validità degli algoritmi proposti, vengono mostrati i risultati delle prove sperimentali condotte su un tipico azionamento per UAV, pilotato da una scheda elettronica progettata appositamente per l’applicazione in questione. Vengono fornite inoltre indicazioni sull’implementazione degli algoritmi studiati, in particolare considerazioni sull’uso delle operazioni a virgola fissa per velocizzare l'esecuzione.
Resumo:
Il seguente elaborato di tesi tratta il problema della pianificazione di voli fotogrammetrici a bassa quota mediante l’uso di SAPR, in particolare è presentata una disamina delle principali applicazioni che permettono di programmare una copertura fotogrammetrica trasversale e longitudinale di un certo poligono con un drone commerciale. Il tema principale sviluppato è la gestione di un volo fotogrammetrico UAV mediante l’uso di applicativi software che permettono all’utente di inserire i parametri di volo in base alla tipologia di rilievo che vuole effettuare. L’obbiettivo finale è quello di ottenere una corretta presa fotogrammetrica da utilizzare per la creazione di un modello digitale del terreno o di un oggetto attraverso elaborazione dati in post-processing. La perfetta configurazione del volo non può prescindere dalle conoscenze base di fotogrammetria e delle meccaniche di un veicolo UAV. I capitoli introduttivi tratteranno infatti i principi della fotogrammetria analogica e digitale soffermandosi su temi utili alla comprensione delle problematiche relative al progetto di rilievo fotogrammetrico aereo. Una particolare attenzione è stata posta sulle nozioni di fotogrammetria digitale che, insieme agli algoritmi di Imagine Matching derivanti dalla Computer Vision, permette di definire il ramo della Fotogrammetria Moderna. Nei capitoli centrali verranno esaminate e confrontate una serie di applicazioni commerciali per smartphone e tablet, disponibili per sistemi Apple e Android, per trarne un breve resoconto conclusivo che le compari in termini di accessibilità, potenzialità e destinazione d’uso. Per una maggiore comprensione si determinano univocamente gli acronimi con cui i droni vengono chiamati nei diversi contesti: UAV (Unmanned Aerial Vehicle), SAPR (Sistemi Aeromobili a Pilotaggio Remoto), RPAS (Remotely Piloted Aicraft System), ARP (Aeromobili a Pilotaggio Remoto).
Resumo:
Essendo l’Italia un territorio soggetto a violenti e frequenti sismi, ed avendo un importante patrimonio in muratura, è interessante studiare il rapporto tra i due. La muratura è maggiormente resistente contro forze che agiscono nel suo piano, che generano quindi uno sforzo di taglio. Si andrà dunque a valutare sperimentalmente la resistenza a taglio delle murature. Tale campagna sperimentale sarà svolta su campioni di muratura sotto forma di triplette confezionate con due tipi di malta diversi a tre livelli di precompressione differenti. I risultati così ottenuti saranno infine rielaborati in un grafico, il grafico della legge di Coulomb, che mira a cercare un legame lineare tra le tau e le sigma di precompressione. Un valore aggiunto dello studio sta nel monitoraggio costante della prova, dal quale si nota che la precompressione durante questa varia. Portando dunque a due risultati diversi: il primo è un legame tau-sigma con livelli di sigma normativi e uno con legami di sigma effettivi della rottura. La campagna sperimentale, inoltre, comprende anche la valutazione del modulo elastico per i singoli campioni di laterizio e di malta. La malta sarà provata anche per la resistenza a flessione e compressione.
Resumo:
Il poliuretano termoplastico (TPU) è un materiale polimerico molto versatile che, se formulato in maniera opportuna può assumere un’ampia gamma di caratteristiche chimico-fisiche e proprietà meccaniche. Per questo motivo negli ultimi decenni sono state studiate estesamente le sue applicazioni e i metodi di sintesi. Il lavoro presentato ha come scopo la valutazione delle proprietà reologiche dei fusi polimerici di una serie di TPUs, mediante l'ausilio di un reometro capillare. A tal proposito lo scopo del progetto è stato quello di incrementare la conoscenza dei fenomeni reologici che avvengono in un fuso polimerico in fase di lavorazione per ottenere un determinato prodotto finito e commercializzabile e che sanciscono l'effettiva realizzazione del processo in funzione delle caratteristiche del TPU in questione. Con l’utilizzo del reometro capillare si ha la possibilità di simulare le condizioni termiche e di stress meccanico delle più comuni tecnologie di formatura dei materiali polimerici: dall’estrusione allo stampaggio ad iniezione, passando per lo stampaggio a compressione. Questa importante caratteristica strumentale risulta utile in fase di assistenza al cliente, in modo da proporre una tipologia di materiale adatta alla tecnologia disponibile e, in alcuni casi, suggerire le condizioni più opportune per la lavorazione dello stesso.
Resumo:
Augmented Reality (AR) is currently gaining popularity in multiple different fields. However, the technology for AR still requires development in both hardware and software when considering industrial use. In order to create immersive AR applications, more accurate pose estimation techniques to define virtual camera location are required. The algorithms for pose estimation often require a lot of processing power, which makes robust pose estimation a difficult task when using mobile devices or designated AR tools. The difficulties are even larger in outdoor scenarios where the environment can vary a lot and is often unprepared for AR. This thesis aims to research different possibilities for creating AR applications for outdoor environments. Both hardware and software solutions are considered, but the focus is more on software. The majority of the thesis focuses on different visual pose estimation and tracking techniques for natural features. During the thesis, multiple different solutions were tested for outdoor AR. One commercial AR SDK was tested, and three different custom software solutions were developed for an Android tablet. The custom software solutions were an algorithm for combining data from magnetometer and a gyroscope, a natural feature tracker and a tracker based on panorama images. The tracker based on panorama images was implemented based on an existing scientific publication, and the presented tracker was further developed by integrating it to Unity 3D and adding a possibility for augmenting content. This thesis concludes that AR is very close to becoming a usable tool for professional use. The commercial solutions currently available are not yet ready for creating tools for professional use, but especially for different visualization tasks some custom solutions are capable of achieving a required robustness. The panorama tracker implemented in this thesis seems like a promising tool for robust pose estimation in unprepared outdoor environments.
Resumo:
Työssä arvioidaan ja verifioidaan puheluiden luokitteluun suunniteltu Call Sequence Analysing Algorithm (CSA-algoritmi). Algoritmin tavoitteena on luokitella riittävän samankaltaiset puhelut ryhmiksi tarkempaa vika-analyysia varten. Työssä esitellään eri koneoppimisalgoritmien pääluokitukset ja niiden tyypilliset eroavaisuudet, eri luokitteluprosesseille ominaiset datatyypit, sekä toimintaympäristöt, joissa kyseinen toteutus on suunniteltu toimivaksi. CSA-algoritmille syötetään verkon ylläpitoviesteistä koostuvia viestisarjoja, joiden sisällön perusteella samankaltaiset sarjat ryhmitellään kokonaisuuksiksi. Algoritmin suorituskykyä arvioidaan 94 käsin luokitellun verrokkisarjan avulla. Sarjat on kerätty toimivasta 3G-verkon kontrollerista. Kahta sarjaa vertailemalla sarjaparille muodostetaan keskinäinen tunnusluku: sarjojen samanlaisuutta kuvaava etäisyys. Tässä työssä keskitytään erityisesti Hamming-etäisyyteen. Etäisyyden avulla sarjat koostetaan ryhmiksi. Muuttamalla hyväksyttävää maksimietäisyyttä, jonka perusteella kaksi sarjaa lasketaan kuuluvaksi samaan ryhmään, saadaan aikaiseksi alaryhmiä, joihin kuuluu ainoastaan samankaltaisia sarjoja. Hyväksyttävän etäisyyden kasvaessa, myös virheluokitusten määrä kasvaa. Oikeiden lajittelutulosten vertailukohteena toimii käsin luokiteltu ryhmittely. CSA-algoritmin luokittelutuloksen tarkkuus esitetään prosentuaalisena osuutena tavoiteryhmittelystä maksimietäisyyden funktiona. Työssä osoitetaan, miten etäisyysattribuutiksi valittu Hamming-etäisyys ei sovellu tämän datan luokitteluun. Työn lopussa ehdotetaan menetelmää ja työkalua, joiden avulla useampaa eri lajittelija-algoritmia voidaan testata nopealla kehityssyklillä.
Resumo:
Scopo del presente lavoro è la presentazione del codice di calcolo semplificato adoperato nella sezione “Simulatore fotovoltaico” presente sul portale www.energia.cnr.it del progetto CNR ENERGY+. Utilizzando i valori reali di radiazione solare misurati dalle stazioni meteorologiche installate presso alcune sedi del CNR il codice, con appropriati algoritmi, generala scomposizione della radiazione sul piano orizzontale e su superfici inclinate e variamente orientate, in modo da pervenire alla potenza prodotta da un ipotetico impianto fotovoltaico posto sullo stesso sito di ubicazione della stazione.
Resumo:
Negli ultimi anni, lo scenario di crescente competizione su cui si affaccia il mercato ha spinto le aziende a interessarsi sempre più frequentemente all’ingegneria della manutenzione, allo scopo di avvalersi di tecniche che permettano di pianificare strategie di manutenzione per i sistemi produttivi che siano efficaci nel minimizzare i costi di gestione garantendo prestazioni e livelli di sicurezza elevati. Le tecniche analitiche tipiche dell’ingegneria della manutenzione sono nate in settori industriali che richiedono elevati livelli di progresso tecnologico (aeronautico, nucleare), e si basano su ipotesi specifiche stringenti, che risultano limitanti nel panorama sempre più vasto ed eterogeneo in cui ne si richiede l’applicazione. D’altra parte, la rimozione di tali ipotesi rende necessario il ricorso a tecniche di risoluzione numeriche. In questa tesi si definisce un nuovo modello che permetta di caratterizzare un sistema di produzione tenendo conto di tutti i possibili aspetti di interesse nell’ambito dell’ingegneria della manutenzione. Inoltre, sono descritti gli algoritmi definiti per la risoluzione di tale modello.