928 resultados para ricorsività macchina di Turing algoritmi di Markov
Resumo:
I sistemi di localizzazione, negli ultimi anni, sono stati oggetto di numerose ricerche a livello internazionale.Gli sviluppi più importanti hanno avuto inizio nell’ambito stradale con sistemi di navigazione e localizzazione, possibili grazie alle forti capacità del GPS.Infatti il GPS indica l’intero apparato che permette il funzionamento della maggior parte dei navigatori disponibili in commercio, che, però, non sono utilizzabili in ambito indoor, in quanto la ricezione del segnale proveniente dai satelliti GPS diventa scarsa o pressoché nulla. In questo senso, la localizzazione risulta rilevante nel caso di indoor positioning, ossia quando utenti hanno bisogno di conoscere la propria posizione e quella degli altri membri della squadra di soccorso all’interno di un edificio come, ad esempio, i vigili del fuoco durante un’operazione di salvataggio. Sono questi fattori che portano all’idea della creazione di un sistema di localizzazione indoor basato su smartphone o una qualsiasi altra piattaforma disponibile. Tra le diverse tecnologie e architetture legate al posizionamento indoor/outdoor e inerziale, con questa tesi, si vuole esporre la foot-mounted inertial navigation, un sistema che permette di conoscere la propria posizione, sia all’interno di edifici,sia in campi aperti, tramite l’utilizzo di una rete wireless o GPS e l’aiuto di sensori a basso costo.Tuttavia per conoscere la stima ottimale della posizione, della velocità e dell’orientamento corrente di un utente dotato di sensori sarà necessaria l’integrazione di diversi algoritmi, che permettono di modellare e stimare errori o di conoscere e predire la posizione futura dello stesso. Gli scopi principali di questo lavoro sono: 1)Tracciare i movimenti di un utente usando diversi sensori per ottenere una stima ottimale della posizione dello stesso; 2)Localizzare l’utente in 3 dimensioni con precisione; 3)Ottenere una transizione senza interruzioni per un posizionamento continuo tra aree indoor e outdoor;
Resumo:
Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.
Resumo:
Questo progetto di tesi è parte di un programma più ampio chiamato TIME (Tecnologia Integrata per Mobilità Elettrica) sviluppato tra diversi gruppi di ricerca afferenti al settore meccanico, termofluidodinamico e informatico. TIME si pone l'obiettivo di migliorare la qualità dei componenti di un sistema powertrain presenti oggi sul mercato progettando un sistema general purpose adatto ad essere installato su veicoli di prima fornitura ma soprattutto su retrofit, quindi permettendo il ricondizionamento di veicoli con motore a combustione esistenti ma troppo datati. Lo studio svolto si pone l'obiettivo di identificare tutti gli aspetti di innovazione tecnologica che possono essere installati all'interno del sistema di interazione uomo-macchina. All'interno di questo progetto sarà effettuata una pianificazione di tutto il lavoro del gruppo di ricerca CIRI-ICT, partendo dallo studio normativo ed ergonomico delle interfacce dei veicoli analizzando tutti gli elementi di innovazione che potranno far parte del sistema TIME e quindi programmare tutte le attività previste al fine di raggiungere gli obiettivi prefissati, documentando opportunamente tutto il processo. Nello specifico saranno analizzate e definite le tecniche da utilizzare per poi procedere alla progettazione e implementazione di un primo sistema sperimentale di Machine Learning e Gamification con lo scopo di predire lo stato della batteria in base allo stile di guida dell'utente e incentivare quest'ultimo tramite sistemi di Gamification installati sul cruscotto ad una guida più consapevole dei consumi. Questo sistema sarà testato su dati simulati con l'obiettivo di avere un prodotto configurabile da installare sul veicolo.
Resumo:
Il riconoscimento delle gesture è un tema di ricerca che sta acquisendo sempre più popolarità, specialmente negli ultimi anni, grazie ai progressi tecnologici dei dispositivi embedded e dei sensori. Lo scopo di questa tesi è quello di utilizzare alcune tecniche di machine learning per realizzare un sistema in grado di riconoscere e classificare in tempo reale i gesti delle mani, a partire dai segnali mioelettrici (EMG) prodotti dai muscoli. Inoltre, per consentire il riconoscimento di movimenti spaziali complessi, verranno elaborati anche segnali di tipo inerziale, provenienti da una Inertial Measurement Unit (IMU) provvista di accelerometro, giroscopio e magnetometro. La prima parte della tesi, oltre ad offrire una panoramica sui dispositivi wearable e sui sensori, si occuperà di analizzare alcune tecniche per la classificazione di sequenze temporali, evidenziandone vantaggi e svantaggi. In particolare, verranno considerati approcci basati su Dynamic Time Warping (DTW), Hidden Markov Models (HMM), e reti neurali ricorrenti (RNN) di tipo Long Short-Term Memory (LSTM), che rappresentano una delle ultime evoluzioni nel campo del deep learning. La seconda parte, invece, riguarderà il progetto vero e proprio. Verrà impiegato il dispositivo wearable Myo di Thalmic Labs come caso di studio, e saranno applicate nel dettaglio le tecniche basate su DTW e HMM per progettare e realizzare un framework in grado di eseguire il riconoscimento real-time di gesture. Il capitolo finale mostrerà i risultati ottenuti (fornendo anche un confronto tra le tecniche analizzate), sia per la classificazione di gesture isolate che per il riconoscimento in tempo reale.
Resumo:
Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.
Resumo:
Lo scopo della tesi è creare un’architettura in FPGA in grado di ricavare informazioni 3D da una coppia di sensori stereo. La pipeline è stata realizzata utilizzando il System-on-Chip Zynq, che permette una stretta interazione tra la parte hardware realizzata in FPGA e la CPU. Dopo uno studio preliminare degli strumenti hardware e software, è stata realizzata l’architettura base per la scrittura e la lettura di immagini nella memoria DDR dello Zynq. In seguito l’attenzione si è spostata sull’implementazione di algoritmi stereo (rettificazione e stereo matching) su FPGA e nella realizzazione di una pipeline in grado di ricavare accurate mappe di disparità in tempo reale acquisendo le immagini da una camera stereo.
Resumo:
Il termine pervasive computing incarna l’idea di andare oltre il paradigma dei personal computers: è l’idea che qualsiasi device possa essere tecnologizzato ed interconnesso con un network distribuito, costituendo un nuovo modello di interazione uomo-macchina. All’interno di questo paradigma gioca un ruolo fondamentale il concetto di context-awareness, che fa riferimento all’idea che i computer possano raccogliere dati dall’ambiente circostante e reagire in maniera intelligente e proattiva basandosi su di essi. Un sistema siffatto necessita da un lato di una infrastruttura per la raccolta dei dati dall’ambiente, dall'altro di un supporto per la componente intelligente e reattiva. In tale scenario, questa tesi ha l'obiettivo di progettare e realizzare una libreria per l'interfacciamento di un sistema distribuito di sensori Java-based con l’interprete tuProlog, un sistema Prolog leggero e configurabile, scritto anch'esso in Java ma disponibile per una pluralità di piattaforme, in modo da porre le basi per la costruzione di sistemi context-aware in questo ambiente.
Resumo:
Questa tesi riguarda l'implementazione e la verifica di alcuni algoritmi di determinazione d'assetto, con l'obiettivo di verificarne le prestazioni e valutarne la possibilità di utilizzo sul ADS del satellite DustCube, operante nel sistema binario Didymos. I filtri si basano sulla combinazione delle misure di diversi sensori, tra i quali star tracker, sensori di Sole, camera a infrarossi e giroscopio. I sensori in questione sono stati modellizzati all'interno di un simulatore implementato in MATLAB/Simulink. L'approccio utilizzato per la determinazione dell'assetto è quelllo di impiegare due differenti filtri: il primo per la calibrazione del giroscopio, il secondo che utilizza i parametri di calibrazione calcolati dal primo per correggere la velocità angolare misurata da giroscopio e determinare l'assetto con un maggiore accuratezza. Le prestazioni dei vari filtri sono state caratterizzate attraverso un'analisi statistica: le simulazioni Monte Carlo. I risultati, nei limiti delle ipotesi fatte, hanno confermato la validità dell'approccio. Per la determinazione effettiva delle prestazioni di questo sistema sull'ADS del DustCube si rimanda ad uno studio di maggior dettaglio.
Resumo:
Progettazione di dettaglio di un banco di prova per testare sistemi ADCS per CubeSat: Alma Test-Bed. Ci si è concentrati sul progetto di un primo nucleo di AlmaTB in grado di testare il controllo di tipo magnetico. Fanno parte di AlmaTB una gabbia di Helmholtz, un air-bearing system, un CubeSat di test, un metrology system. La gabbia di Helmholtz è un apparato costituito da tre coppie di bobine, una per ogni asse spaziale, che serve ad annullare il campo magnetico locale e simulare quello che si troverà in orbita attorno alla Terra. Un software ricava i dati del campo magnetico terrestre da modello IGRF a determinate coordinate e quota e fornisce agli alimentatori del set di bobine l'indicazione della corrente da distribuire. L'air-bearing system è un cuscinetto d'aria generato da un compressore che serve a ricreare le caratteristiche condizioni dell'ambiente spaziale di microgravità e attrito quasi-zero. Il CubeSat di test sarà montato su questo sistema. Il CubeSat di test, nella prima versione di AlmaTB, contiene i sensori e gli attuatori di tipo magnetico per determinare e controllare l'assetto di un nanosatellite. Il magnetometro presente all'interno è utilizzato anche come controllo del funzionamento della gabbia di Helmholtz. Il metrology system traccia i movimenti e l'inclinazione del CubeSat. Questo fornisce il riferimento di assetto vero, in modo da capire se il sistema ADCS lavora correttamente. Una volta che il banco di prova sarà completato e operativo sarà possibile testare algoritmi di determinazione e controllo di assetto che utilizzano diversi dispositivi tra sensori e attuatori disponibili nel mock-up. Su una workstation sono installati i software di controllo ed elaborazione dati. Si è scelto di procedere con un approccio di tipo "chiavi in mano", cioè scegliendo, quando disponibile, sistemi già completi e disponibili sul mercato. La prima versione di AlmaTB nasce dall'importante, vasto lavoro di matching tra i diversi apparati.
Resumo:
Questo elaborato riguarda il dimensionamento di un motore brushless lineare utilizzato in un piano vibrante per l’alimentazione di fiale, flaconi e carpule in macchine per il packaging farmaceutico: in particolare con questo piano vibrante si alimentano macchine astucciatrici e termoformatrici. Con packaging farmaceutico si intente tutto ciò che comporta il confezionamento di prodotti legati al mercato farmaceutico, ma macchinari simili soddisfano anche il mercato per il confezionamento di prodotti alimentari e cosmetici. Il piano vibrante descritto nella trattazione, svolge sia la funzione di alimentazione del prodotto nella macchina, sia quella di buffer. La tesi è stata svolta all’interno di Marchesini Group S.p.a., gruppo industriale fondato nel 1974 che vanta una posizione di livello mondiale nel settore delle macchine automatiche: in particolare si occupa dell’automazione per packaging nel settore farmaceutico, cosmetico e alimentare. Avendo dovuto fare un intervento di sostituzione di un motore su un gruppo già in funzione, nella riprogettazione dei particolari si è cercato di apportare il minor numero di modifiche possibile, per minimizzare il numero di pezzi da sostituire qualora un motore in funzione si rompa o venga danneggiato. Questo studio mi ha dato la possibilità di approfondire diversi aspetti della progettazione meccanica: in particolare ho avuto la possibilità di utilizzare Creo Parametric, il programma di disegno 3D usato in Marchesini, e quindi approfondire molteplici aspetti e regole del disegno e della messa in tavola. Insieme a questo, oltre a studiare le diverse tipologie di motori lineari ho potuto approfondire i metodi di scelta di un motore lineare, consultando anche i fornitori.
Resumo:
Questo elaborato si pone l’obiettivo principale di formulare una metodologia volta alla misura sperimentale della risposta impulsiva di ambienti indoor in ambito acustico. Lo studio della risposta impulsiva di una stanza trova diverse applicazioni nell’ambito dell’ingegneria acustica. Essa contiene infatti informazioni sulla geometria della stanza stessa, che può essere ricostruita con appositi algoritmi. È sovente impiegata anche in campo architettonico per progettare interventi di correzione o ottimizzazione acustica. In questo elaborato si darà spazio ad una terza applicazione: si utilizzerà la risposta impulsiva misurata in una determinata stanza per aggiungere effetti ambientali a suoni registrati in camere anecoiche. Per perseguire quest’obiettivo, nel capitolo 1 si richiamano i concetti di base riguardo i sistemi LTI, funzioni di trasferimento e risposta impulsiva, approfondendo gli aspetti legati alle tecniche tradizionalmente usate per la misura della risposta impulsiva in ambito acustico. Si pone poi la base teorica del metodo sperimentale che sarà sviluppato nel corso dell’elaborato, fondato sulla stima numerica dello spettro di segnali ad energia finita. Nel secondo capitolo s’illustra l’impostazione della catena di misura, chiarendo le scelte hardware intraprese, le motivazioni di tali scelte, il funzionamento generale dei dispositivi impiegati e le condizioni ottimali di misura. Il capitolo 3 rappresenta il cuore di questo elaborato, nel quale viene illustrata l’implementazione vera e propria della metodologia della misura della risposta impulsiva, a partire dal settaggio degli strumenti utilizzati, alla realizzazione del codice MATLAB per l’elaborazione dei dati, per giungere infine all’analisi dei risultati sperimentali ottenuti. Con il quarto ed ultimo capitolo si introduce il concetto di equalizzazione e si implementa una prima e grossolana soluzione al problema degli effetti distorcenti introdotti dai dispositivi non ideali.
Resumo:
La chirurgia refrattiva è una delle branche della medicina con il più alto bacino di potenziali pazienti, a causa dell’enorme incidenza nella popolazione dei difetti visivi, in particolare la miopia. E’ infatti stato stimato che il 20% della popolazione mondiale ne sia affetto, e solo in Italia gioverebbero di un intervento più di 8.000.000 di persone. L’obiettivo di questa tesi è mostrare i principi fisici, le caratteristiche e il funzionamento dei principali strumenti usati per la cura di questi difetti, ovvero il laser ad eccimeri e il laser a femtosecondi; oltre alle diverse operazioni chirurgiche in cui vengono utilizzati, le quali sono tutt’ora in continua evoluzione. Nel primo capitolo viene effettuata una breve presentazione dell’anatomia oculare,in particolare della cornea e dei difetti refrattivi; nel secondo vengono invece trattati i principi fisici su cui si basa la creazione di un raggio laser e si presentano le principali famiglie di laser chirurgici. Nel terzo capitolo ci si focalizzerà sul laser ad eccimeri, partendo da una trattazione degli eccimeri per poi passare alla struttura e caratteristiche della macchina e alle operazioni chirurgiche in cui viene usata. Infine nel quarto capitolo viene presentato il laser a femtosecondi, partendo dalla creazione di impulsi ultracorti per poi analizzare le operazioni chirurgiche che sfruttano questa tecnologia.
Resumo:
Il presente lavoro di tesi si propone di analizzare l’influenza dei parametri caratteristici di una macchina laser temprante. Il materiale su cui sono state effettuate le prove è un acciaio C48 . Il lavoro è suddiviso nelle seguenti fasi : Studio delle sorgenti laser Prove in laboratorio Preparazione e studio metallografico dei campioni Analisi dei risultati Nei primi tre capitoli verranno esposte, in maniera più o meno dettagliata, le nozioni teoriche riguardanti le sorgenti laser, sul quale verte il lavoro di tesi. Nel dettaglio verranno descritte: la natura fisica delle sorgenti laser, ossia delle onde elettromagnetiche, le loro proprietà, la sorgente più comune dal punto di vista industriale, i sistemi di trasporto e di focalizzazione del fascio in fibra ottica e l’interazione laser-materia, che rappresenta il punto di partenza delle lavorazioni mediante laser. Successivamente, nel capitolo 4, l’esposizione verterà sul particolare impiego del laser nelle operazioni di tempra. nel capitolo 5, verrà descritta l’attività svolta: le specifiche della macchina, i parametri dell’impulso utilizzati, i risultati numerici delle misurazioni e le foto delle zone temprate. Per rendere più chiaro il seguito, passerò ad una piccola parte introduttiva, che verrà poi approfondita nel dettaglio successivamente, sui principali campi d’impiego della tecnologia laser, le applicazioni industriali ed i componenti di una generica stazione di lavorazione mediante laser.
Resumo:
La dialisi, le cui basi sono state fondate a metà ottocento dal chimico Thomas Graham, è la terapia, alternativa al trapianto, utilizzata su pazienti affetti da insufficienza renale. Ad oggi tale terapia ha un numero sempre maggiore di utilizzatori, più di 2,5 milioni di persone al mondo, ragione per cui ha un impatto sempre più grande sul sistema sanitario. La terapia, ha come scopo principale quello ripristinare gli equilibri idro-elettrolitico e acido-base del sangue del paziente utilizzando principi quali ultrafiltrazione, convezione e diffusione. Per raggiungere questo obiettivo, il sangue del paziente viene fatto scorrere controcorrente al liquido di dialisi, di composizione nota, ai capi di una membrana semipermeabile. Nel caso dell’emodialisi tutto il processo si svolge in circolazione extracorporea. La dialisi viene eseguita quando i reni del paziente non riescono più a espletare la loro funzione, con conseguente accumulo di tossine e di liquidi, che nel giro di pochi giorni porterebbe alla morte se non si interviene. Data la sua funzione, una parte importante della macchina che esegue l’emodialisi, è il sistema di controllo dell’ultrafiltrazione, che permette di rimuovere in maniera controllata i liquidi che il paziente non riesce a smaltire in maniera autonoma. La rimozione di liquidi avviene mediante la creazione di un gradiente pressorio tra il lato sangue e il lato dializzato, che causa il passaggio di liquidi da una parte all’altra della membrana semipermeabile. Esistono vari metodi che permettono di realizzare questo processo, che si differenziano per la strategia utilizzata per creare i gradienti pressori; ognuno dei quali permette di ottenere una determinata accuratezza. Scopo del mio lavoro di tesi è stato quello di studiare e validare un nuovo sistema di realizzazione e controllo dell’ultrafiltrazione.
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).