302 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica
Resumo:
L'elaborato considera il ruolo dell'empatia nella mediazione linguistica: ne analizza l'importanza per la decodifica dei messaggi non verbali, si sofferma sulla necessità di combinarla con il principio di neutralità e fornisce alcune linee guida per la didattica della mediazione interculturale.
Resumo:
Lo scopo di questa trattazione è quindi di illustrare il lavoro svolto nel tentativo di classificare le reazioni emozionali ad immagini con una forte carica emozionale, sia positiva che negativa. A tale scopo sono stati acquisiti i segnali EEG di diversi soggetti durante l’esposizione ad immagini di vario contenuto, insieme alla loro reazione dichiarata alle immagini stesse. Queste sono state immagazzinate, elaborate utilizzando diversi metodi di estrazione delle informazioni, ed infine si è tentato di effettuare un riconoscimento di pattern sui segnali tramite algoritmi di apprendimento supervisionato; i dati sono stati quindi divisi tra dati di “training”, utilizzati per la strutturazione dell’algoritmo, e dati di test, necessari per la verifica dell’affidabilità dell’algoritmo.
Resumo:
L’obiettivo di questa tesi è di descrivere e implementare via software un modello di rover autonomo per uso in ambito agricolo. La scelta di questo argomento deriva dal fatto che al laboratorio CASY dell’Università di Bologna è stato commissionato un robot che possa aiutare piccoli imprenditori agricoli a essere competitivi con i più grandi. Le funzionalità che il robot avrà, una volta ultimato, andranno dal tagliare l’erba allo spruzzare fertilizzante sugli alberi da frutto. Questa tesi si interessa del progetto del sistema di navigazione. Inizialmente viene introdotto il modello cinematico e in particolare la configurazione differential drive in cui il rover rientra. Successivamente viene elaborato un sistema di controllo basato sulla linearizzazione statica del feedback. Una volta completati il modello e il sistema di controllo si procede con la generazione di traiettoria: vengono analizzati e confrontati alcuni algoritmi per l’inseguimento di una traiettoria definita tramite waypoint. Infine è presentato un algoritmo per la navigazione all’interno di un campo di filari di alberi da frutto. Le uniche informazioni esterne disponibili in questo contesto sono le rilevazioni di sensori di distanza frontali e laterali, in quanto un GPS sarebbe troppo impreciso per gli scopi. Questa tesi costituisce la base per ulteriori sviluppi del progetto. In particolare la realizzazione di un programma di supervisione che stabilisca la modalità di moto da attuare e programmi specifici per le varie funzionalità agricole del rover.
Resumo:
Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.
Resumo:
In questa tesi viene elaborata un'applicazione ultra-low power (ULP) basata su microcontrollore, per implementare la procedura di controllo di diversi circuiti di un tag RFID. Il tag preso in considerazione è pensato per lavorare in assenza di batteria, da cui la necessita' di ridurre i consumi di potenza. La sua attivazione deve essere inoltre comandata attraverso un'architettura Wake up Radio (WuR), in cui un segnale di controllo radio indirizza e attiva il circuito. Nello specifico, la rete di decodifica dell'indirizzo è stata realizzata mediante il modulo di comunicazione seriale del microcontrollore. Nel Capitolo 1 verrà introdotto il tema dell'Energy Harvesting. Nel Capitolo 2 verrà illustrata l'architettura del sistema nel suo complesso. Nel Capitolo 3 verrà spiegato dettagliatamente il funzionamento del microcontrollore scelto. Il Capitolo 4 sarà dedicato al firmware implementato per svolgere le operazioni fondamentali imputate al micro per i compiti di controllo. Verrà inoltre introdotto il codice VHDL sviluppato per emulare l'output del modulo WuR mediante un FPGA della famiglia Cyclone II. Nel Capitolo 5 verrà presentata una stima dei consumi del microcontrollore in funzione dei parametri di configurazione del sistema. Verrà inoltre effettuato un confronto con un altro microcontrollore che in alcune condizioni potrebbe rappresentare iun'alternativa valida di progetto. Nei Capitoli 6 e 7 saranno descritti possibili sviluppi futuri e conclusioni del progetto. Le specifiche di progetto rilevanti della tesi sono: 1. minimo consumo energetico possibile del microcontrollore ULP 2. elevata rapidità di risposta per la ricezione dei tag, per garantire la ricezione di un numero maggiore possibile di indirizzi (almeno 20 letture al secondo), in un range di tempo limitato 3. generazione di un segnale PWM a 100KHz di frequenza di commutazione con duty cycle 50% su cui basare una modulazione in back-scattering.
Resumo:
Durante i trattamenti radioterapici dei pazienti oncologici testa-collo, le ghiandole parotidee (PGs) possono essere indebitamente irradiate a seguito di modificazioni volumetriche-spaziali inter/intra-frazione causate da fattori quali il dimagrimento, l’esposizione a radiazioni ionizzanti ed il morphing anatomico degli organi coinvolti nelle aree d’irraggiamento. Il presente lavoro svolto presso la struttura di Fisica Medica e di Radioterapia Oncologica dell’A.O.U di Modena, quale parte del progetto di ricerca del Ministero della Salute (MoH2010, GR-2010-2318757) “ Dose warping methods for IGRT and Adaptive RT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments ”, sviluppa un modello biomeccanico in grado di rappresentare il processo di deformazione delle PGs, considerandone la geometria, le proprietà elastiche e l'evoluzione durante il ciclo terapeutico. Il modello di deformazione d’organo è stato realizzato attraverso l’utilizzo di un software agli elementi finiti (FEM). Molteplici superfici mesh, rappresentanti la geometria e l’evoluzione delle parotidi durante le sedute di trattamento, sono state create a partire dai contorni dell’organo definiti dal medico radioterapista sull’immagine tomografica di pianificazione e generati automaticamente sulle immagini di setup e re-positioning giornaliere mediante algoritmi di registrazione rigida/deformabile. I constraints anatomici e il campo di forze del modello sono stati definiti sulla base di ipotesi semplificative considerando l’alterazione strutturale (perdita di cellule acinari) e le barriere anatomiche dovute a strutture circostanti. L’analisi delle mesh ha consentito di studiare la dinamica della deformazione e di individuare le regioni maggiormente soggette a cambiamento. Le previsioni di morphing prodotte dal modello proposto potrebbero essere integrate in un treatment planning system per metodiche di Adaptive Radiation Therapy.
Resumo:
Il presente lavoro di tesi è finalizzato all'ottimizzazione della formulazione iniziale e delle condizioni di stagionatura per ottenere un materiale utilizzabile come refrattario in applicazioni che richiedono elevate temperature di esposizione. L’interesse della ricerca scientifica verso questa nuova classe di materiali nasce dai vantaggi ambientali ed economici che essi possono fornire. Inoltre, le buone proprietà di resistenza e stabilità termica evidenziate dagli studi condotti negli ultimi anni inducono a sperimentare l’impiego dei materiali geopolimerici in sostituzione dei materiali refrattari o cementiferi attualmente in commercio. A tal fine sono state determinate le caratteristiche fisico-meccaniche, microstrutturali e termiche di matrici geopolimeriche additivate con scarti refrattari. Lo studio svolto, si può suddividere in tre fasi successive. Inizialmente sono state ottimizzazione le formulazioni geopolimeriche. Successivamente i prodotti ottenuti sono stati oggetto di caratterizzazione fisico-meccanica, microstrutturale e termica. Tali caratterizzazioni sono state eseguite attraverso: analisi al microscopio ottico, assorbimento di acqua, determinazione della densità geometrica, prove ultrasoniche per la determinazione dell’omogeneità del materiale, resistenza meccanica a compressione, diffrattometria ai raggi X (XRD), microscopio riscaldante, ciclo termico in muffola e analisi dilatometriche. Nella terza fase sono stati analizzati ed elaborati i risultati ottenuti, evidenziando le soddisfacenti proprietà di stabilità e resistenza termica. È stata inoltre effettuata una analisi economica preliminare evidenziando la competitività nel marcato del sistema geopolimerico studiato. Se a questo si aggiungono i considerevoli benefici ambientali dovuti al fatto che il prodotto è ottenuto con sostanze di recupero, non sarebbe sorprendente che in un futuro prossimo i geopolimeri possano essere largamente prodotti e commercializzati.
Resumo:
Lo scopo della tesi è creare un’architettura in FPGA in grado di ricavare informazioni 3D da una coppia di sensori stereo. La pipeline è stata realizzata utilizzando il System-on-Chip Zynq, che permette una stretta interazione tra la parte hardware realizzata in FPGA e la CPU. Dopo uno studio preliminare degli strumenti hardware e software, è stata realizzata l’architettura base per la scrittura e la lettura di immagini nella memoria DDR dello Zynq. In seguito l’attenzione si è spostata sull’implementazione di algoritmi stereo (rettificazione e stereo matching) su FPGA e nella realizzazione di una pipeline in grado di ricavare accurate mappe di disparità in tempo reale acquisendo le immagini da una camera stereo.
Resumo:
Questa tesi si occupa dell’estensione di un framework software finalizzato all'individuazione e al tracciamento di persone in una scena ripresa da telecamera stereoscopica. In primo luogo è rimossa la necessità di una calibrazione manuale offline del sistema sfruttando algoritmi che consentono di individuare, a partire da un fotogramma acquisito dalla camera, il piano su cui i soggetti tracciati si muovono. Inoltre, è introdotto un modulo software basato su deep learning con lo scopo di migliorare la precisione del tracciamento. Questo componente, che è in grado di individuare le teste presenti in un fotogramma, consente ridurre i dati analizzati al solo intorno della posizione effettiva di una persona, escludendo oggetti che l’algoritmo di tracciamento sarebbe portato a individuare come persone.
Resumo:
L'ambiente di questa tesi è quello del Delay and Disruption Tolerant Networks (DTN), un'architettura di rete di telecomunicazioni avente come obiettivo le comunicazioni tra nodi di reti dette “challenged”, le quali devono affrontare problemi come tempi di propagazione elevati, alto tasso di errore e periodi di perdita delle connessioni. Il Bunde layer, un nuovo livello inserito tra trasporto e applicazione nell’architettura ISO/OSI, ed il protocollo ad esso associato, il Bundle Protocol (BP), sono stati progettati per rendere possibili le comunicazioni in queste reti. A volte fra la ricezione e l’invio può trascorrere un lungo periodo di tempo, a causa della indisponibilità del collegamento successivo; in questo periodo il bundle resta memorizzato in un database locale. Esistono varie implementazioni dell'architettura DTN come DTN2, implementazione di riferimento, e ION (Interplanetary Overlay Network), sviluppata da NASA JPL, per utilizzo in applicazioni spaziali; in esse i contatti tra i nodi sono deterministici, a differenza delle reti terrestri nelle quali i contatti sono generalmente opportunistici (non noti a priori). Per questo motivo all’interno di ION è presente un algoritmo di routing, detto CGR (Contact Graph Routing), progettato per operare in ambienti con connettività deterministica. È in fase di ricerca un algoritmo che opera in ambienti non deterministici, OCGR (Opportunistic Contact Graph Routing), che estende CGR. L’obiettivo di questa tesi è quello di fornire una descrizione dettagliata del funzionamento di OCGR, partendo necessariamente da CGR sul quale è basato, eseguire dei test preliminari, richiesti da NASA JPL, ed analizzarne i risultati per verificare la possibilità di utilizzo e miglioramento dell’algoritmo. Sarà inoltre descritto l’ambiente DTN e i principali algoritmi di routing per ambienti opportunistici. Nella parte conclusiva sarà presentato il simulatore DTN “The ONE” e l’integrazione di CGR e OCGR al suo interno.
Resumo:
Questa tesi riguarda l'implementazione e la verifica di alcuni algoritmi di determinazione d'assetto, con l'obiettivo di verificarne le prestazioni e valutarne la possibilità di utilizzo sul ADS del satellite DustCube, operante nel sistema binario Didymos. I filtri si basano sulla combinazione delle misure di diversi sensori, tra i quali star tracker, sensori di Sole, camera a infrarossi e giroscopio. I sensori in questione sono stati modellizzati all'interno di un simulatore implementato in MATLAB/Simulink. L'approccio utilizzato per la determinazione dell'assetto è quelllo di impiegare due differenti filtri: il primo per la calibrazione del giroscopio, il secondo che utilizza i parametri di calibrazione calcolati dal primo per correggere la velocità angolare misurata da giroscopio e determinare l'assetto con un maggiore accuratezza. Le prestazioni dei vari filtri sono state caratterizzate attraverso un'analisi statistica: le simulazioni Monte Carlo. I risultati, nei limiti delle ipotesi fatte, hanno confermato la validità dell'approccio. Per la determinazione effettiva delle prestazioni di questo sistema sull'ADS del DustCube si rimanda ad uno studio di maggior dettaglio.
Resumo:
Progettazione di dettaglio di un banco di prova per testare sistemi ADCS per CubeSat: Alma Test-Bed. Ci si è concentrati sul progetto di un primo nucleo di AlmaTB in grado di testare il controllo di tipo magnetico. Fanno parte di AlmaTB una gabbia di Helmholtz, un air-bearing system, un CubeSat di test, un metrology system. La gabbia di Helmholtz è un apparato costituito da tre coppie di bobine, una per ogni asse spaziale, che serve ad annullare il campo magnetico locale e simulare quello che si troverà in orbita attorno alla Terra. Un software ricava i dati del campo magnetico terrestre da modello IGRF a determinate coordinate e quota e fornisce agli alimentatori del set di bobine l'indicazione della corrente da distribuire. L'air-bearing system è un cuscinetto d'aria generato da un compressore che serve a ricreare le caratteristiche condizioni dell'ambiente spaziale di microgravità e attrito quasi-zero. Il CubeSat di test sarà montato su questo sistema. Il CubeSat di test, nella prima versione di AlmaTB, contiene i sensori e gli attuatori di tipo magnetico per determinare e controllare l'assetto di un nanosatellite. Il magnetometro presente all'interno è utilizzato anche come controllo del funzionamento della gabbia di Helmholtz. Il metrology system traccia i movimenti e l'inclinazione del CubeSat. Questo fornisce il riferimento di assetto vero, in modo da capire se il sistema ADCS lavora correttamente. Una volta che il banco di prova sarà completato e operativo sarà possibile testare algoritmi di determinazione e controllo di assetto che utilizzano diversi dispositivi tra sensori e attuatori disponibili nel mock-up. Su una workstation sono installati i software di controllo ed elaborazione dati. Si è scelto di procedere con un approccio di tipo "chiavi in mano", cioè scegliendo, quando disponibile, sistemi già completi e disponibili sul mercato. La prima versione di AlmaTB nasce dall'importante, vasto lavoro di matching tra i diversi apparati.
Resumo:
Nel presente lavoro è affrontato lo studio delle curve ellittiche viste come curve algebriche piane, più precisamente come cubiche lisce nel piano proiettivo complesso. Dopo aver introdotto nella prima parte le nozioni di Superfici compatte e orientabili e curve algebriche, tramite il teorema di classificazione delle Superfici compatte, se ne fornisce una preliminare classificazione basata sul genere della superficie e della curva, rispettivamente. Da qui, segue la definizione di curve ellittiche e uno studio più dettagliato delle loro pricipali proprietà, quali la possibilità di definirle tramite un'equazione affine nota come equazione di Weierstrass e la loro struttura intrinseca di gruppo abeliano. Si fornisce quindi un'ulteriore classificazione delle cubiche lisce, totalmente differente da quella precedente, che si basa invece sul modulo della cubica, invariante per trasformazioni proiettive. Infine, si considera un aspetto computazionale delle curve ellittiche, ovvero la loro applicazione nel campo della Crittografia. Grazie alla struttura che esse assumono sui campi finiti, sotto opportune ipotesi, i crittosistemi a chiave pubblica basati sul problema del logaritmo discreto definiti sulle curve ellittiche, a parità di sicurezza rispetto ai crittosistemi classici, permettono l'utilizzo di chiavi più corte, e quindi meno costose computazionalmente. Si forniscono quindi le definizioni di problema del logaritmo discreto classico e sulle curve ellittiche, ed alcuni esempi di algoritmi crittografici classici definiti su quest'ultime.
Resumo:
Questo elaborato si pone l’obiettivo principale di formulare una metodologia volta alla misura sperimentale della risposta impulsiva di ambienti indoor in ambito acustico. Lo studio della risposta impulsiva di una stanza trova diverse applicazioni nell’ambito dell’ingegneria acustica. Essa contiene infatti informazioni sulla geometria della stanza stessa, che può essere ricostruita con appositi algoritmi. È sovente impiegata anche in campo architettonico per progettare interventi di correzione o ottimizzazione acustica. In questo elaborato si darà spazio ad una terza applicazione: si utilizzerà la risposta impulsiva misurata in una determinata stanza per aggiungere effetti ambientali a suoni registrati in camere anecoiche. Per perseguire quest’obiettivo, nel capitolo 1 si richiamano i concetti di base riguardo i sistemi LTI, funzioni di trasferimento e risposta impulsiva, approfondendo gli aspetti legati alle tecniche tradizionalmente usate per la misura della risposta impulsiva in ambito acustico. Si pone poi la base teorica del metodo sperimentale che sarà sviluppato nel corso dell’elaborato, fondato sulla stima numerica dello spettro di segnali ad energia finita. Nel secondo capitolo s’illustra l’impostazione della catena di misura, chiarendo le scelte hardware intraprese, le motivazioni di tali scelte, il funzionamento generale dei dispositivi impiegati e le condizioni ottimali di misura. Il capitolo 3 rappresenta il cuore di questo elaborato, nel quale viene illustrata l’implementazione vera e propria della metodologia della misura della risposta impulsiva, a partire dal settaggio degli strumenti utilizzati, alla realizzazione del codice MATLAB per l’elaborazione dei dati, per giungere infine all’analisi dei risultati sperimentali ottenuti. Con il quarto ed ultimo capitolo si introduce il concetto di equalizzazione e si implementa una prima e grossolana soluzione al problema degli effetti distorcenti introdotti dai dispositivi non ideali.
Studio sperimentale del coefficiente di compressibilità secondaria al variare del contenuto organico
Resumo:
Questa tesi svolta nell’ambito della geotecnica ha L’obiettivo di porre l’attenzione sul comportamento dei cedimenti secondari, quindi sul coefficiente di consolidazione secondaria Cα mediante l’esecuzione di una prova edometrica su di una sezione di campione estratto in sito, dove si evidenzia una percentuale di contenuto organico molto alta (torba).Si introduce il concetto di terreno organico a partire dalla genesi fino ad una classificazione atta a distinguere terreni con percentuali di componente organica differenti. Si spiega la teoria della consolidazione monodimensionale, quindi la prova edometrica, riportando in maniera grafica e analitica tutti i coefficienti che da essa si possono ricavare a partire dai parametri di compressione volumetrica fino alla consolidazione primaria e secondaria (o creep)si descrivono dettagliatamente la strumentazione e la procedura di prova. Descrivendo l’edometro utilizzato in laboratorio e tutti gli accessori ad esso collegati, il campione da analizzare, la procedura di preparazione del campione alla prova edometrica, trovando alcune proprietà fisiche del campione, come il contenuto d’acqua e il contenuto organico, ed in fine riportando i passaggi della prova edometrica in modo tale da poter essere riprodotta.Si analizzano tutti i risultati ottenuti durante la prova in maniera analitica e grafica, osservando e commentando la forma dei grafici ottenuti in relazione al materiale che compone il campione ed i tempi impiegati per eseguire la prova.