349 resultados para GPGPU RaspberryPi OpenGL Algoritmi Paralleli SeamCarving StreamProcessing
Resumo:
Background L’identificazione degli eventi temporali permette nell’analisi del movimento di valutare la qualità del gesto motorio e si offre in aiuto alla formulazione di diagnosi cliniche, valutazioni di un percorso riabilitativo e in ambito ortopedico per la creazione di protesi. L’uso sempre più diffuso dei sensori inerziali nell’analisi del movimento ha portato alla nascita di numerosi algoritmi per identificare gli eventi temporali; tuttavia, molti di questi sono stati sviluppati per la ricerca dei gate event sull’analisi del cammino, mentre non sono molti quelli dedicati allo studio dell’arto superiore, dove il reaching è il task motorio più studiato. Obiettivo tesi Proporre un metodo per l’identificazione degli eventi temporali su movimento di reaching con l’uso di soli sensori inerziali. Metodo All’interno del progetto Neurograsp, che è uno studio di analisi del movimento di reaching condotto presso il Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione Guglielmo Marconi sono stati considerati i dati relativi alla stereofotogrammetria e ai sensori inerziali. L’analisi ha riguardato tre soggetti sani destrorsi. È stato considerato il sistema di stereofotogrammetria come gold standard con cui si sono rilevati gli eventi temporali ricercati del task motorio e successivamente si è implementato un metodo per identificare gli stessi eventi temporali tramite l’uso dei soli sensori inerziali. L’analisi è terminata con il confronto dei risultati. Risultati Si sono effettuate le analisi dei risultati in termini di classificazione dei times individuati dall’algoritmo come corretti, falsi positivi o falsi negativi e sulla quantificazione dell’errore assoluto sui valori identificati correttamente.
Resumo:
Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.
Resumo:
L'insufficienza cardiaca è una delle malattie cardiovascolari più comuni, nonché quella con maggiori tassi di riospedalizzazione. Nonostante numerosi pazienti siano sottoposti a impianto di defibrillatori cardiaci, come pacemaker e ICD, questo non è sufficiente a diminuire i casi di ricovero. L'innovazione tecnologica dei dispositivi impiantabili li ha resi compatibili con l'utilizzo del monitoraggio remoto che avviene attraverso la trasmissione di un enorme quantità di dati eterogenei, noti come Big Data. Questi offrono la possibilità di rilevare numerosi parametri da cui è possibile valutare il funzionamento del dispositivo e implementare algoritmi di medicina predittiva. In questo elaborato sono analizzati quattro casi studio (cardioMEMS, TRIAGE-HF, SELENE HF, multiSENSE), con lo scopo di confrontare gli algoritmi predittivi in essi sviluppati. Da questi studi, condotti su un insieme ristretto di campioni, è emerso che lo scompenso è predetto correttamente, ma con una previsione di riospedalizzazione a seguito di intervento che differisce in ogni studio clinico. Nello studio MultiSENSE, l'algoritmo ha previsto il 70% delle ospedalizzazioni, con un tempo medio di rilevamento di 34 giorni e 1,47 allarmi inspiegabili per anno-paziente. Questo rispetto al 65,5% e a un tempo medio di 42 giorni e rispetto a 0,63 allarmi inspiegabili per anno-paziente, nel SELENE HF. Nel caso del Triage-HF il tasso di ospedalizzazione è dello 0,2% per anno-paziente, in quanto lo studio è basato sull'associazione tra l'algoritmo e i sintomi che caratterizzano lo scompenso. Al contrario degli altri studi, lo studio cardioMEMS si è occupato di sviluppare una nuova tecnologia: un dispositivo wireless impiantabile; infatti, risulta l'unico studio con un monitoraggio remoto invasivo. Considerando la presenza di numerosi gradi di peggioramento dello scompenso e di differenti dispositivi impiantabili cardiaci è difficile creare un unico algoritmo che includa tutte le tipologie di pazienti.
Resumo:
Questo elaborato illustra quattro modelli di controlli automatici che vengono impiegati in due applicazioni neuro-ingegneristiche. In particolare, i primi due modelli, H-Infinito e LPV, sono messi a confronto per valutare quale fra questi può essere utilizzato per il controllo del sistema limbico umano, mentre gli altri due metodi, LQR e controllo adattivo, vengono combinati per presentare un nuovo sistema di controllo per una mano robotica.
Resumo:
Il machine learning negli ultimi anni ha acquisito una crescente popolarità nell’ambito della ricerca scientifica e delle sue applicazioni. Lo scopo di questa tesi è stato quello di studiare il machine learning nei suoi aspetti generali e applicarlo a problemi di computer vision. La tesi ha affrontato le difficoltà del dover spiegare dal punto di vista teorico gli algoritmi alla base delle reti neurali convoluzionali e ha successivamente trattato due problemi concreti di riconoscimento immagini: il dataset MNIST (immagini di cifre scritte a mano) e un dataset che sarà chiamato ”MELANOMA dataset” (immagini di melanomi e nevi sani). Utilizzando le tecniche spiegate nella sezione teorica si sono riusciti ad ottenere risultati soddifacenti per entrambi i dataset ottenendo una precisione del 98% per il MNIST e del 76.8% per il MELANOMA dataset
Resumo:
“Viviamo in un periodo storico molto speciale, un periodo raro, un periodo in cui la confluenza di quattro campi sta fornendo ai designer strumenti che mai prima d’ora avevamo a disposizione.” Questo è ciò che Neri Oxman, designer e professoressa al MIT Media Lab, ha detto durante un Ted Talk tenutosi ormai sette anni fa. Il suo messaggio rimane così attuale e interessante, che continua ad ispirare ancora oggi tantissimi designer, scienziati e ingegneri, compreso me e questa tesi. Uno dei campi citati è il design computazionale. A seguito di una prima fase di ricerca è emerso che è già stato fatto molto in questo campo, ma c’è ancora tanto da esplorare. L’obiettivo di questa tesi è indagare l’uso di questa disciplina come booster creativo di cui il designer può avvalersi nelle diverse fasi del percorso progettuale. Per farlo, ho deciso di sperimentare tramite un esempio pratico: la progettazione di un gilet di idratazione per corridori. Inizialmente, sono stati studiati quali sono i requisiti che deve avere un progetto perché il designer possa sfruttare efficacemente il design computazionale durante tutta la progettazione. Nella fase di concept, è stato analizzato come l’approccio di questa disciplina aiuta il progettista nell’identificazione dei problemi e delle priorità progettuali. Sono poi stati usati e testati diversi strumenti del design computazionale, quali algoritmi e design generativo, per determinare alcune caratteristiche del prodotto definitivo. Il risultato di questo percorso di tesi è Aliqua, un gilet di idratazione per corridori più efficace e performante rispetto a quelli ora esistenti, progettato integrando il design intuitivo con quello computazionale. Sicuramente ci sono ancora molte cose che possono essere migliorate per rendere l’uso degli strumenti di questo campo più intuitivi e performanti, ma questa tesi dimostra che il design computazionale è fin da ora un valido alleato del designer durante tutte le fasi di progettazione.
Resumo:
Negli ultimi anni, la rete elettrica ha subito importanti cambiamenti dovuti principalmente al fatto che vi è stato un sensibile sviluppo di impianti di produzione da fonti rinnovabili. Questo aspetto ha però influenzato in modo considerevole il funzionamento della rete ed in particolare la risposta inerziale che essa ha a fronte di uno squilibrio della potenza attiva. In particolare, nella rete si è registrata una importante riduzione dell’inerzia disponibile in quanto molte delle fonti rinnovabili attualmente installate sono connesse tramite inverter, macchine statiche, che non sono in grado di fornire alcuna risposta inerziale in modo intrinseco. Si sta perciò rendendo sempre più necessario possedere degli strumenti volti a fornire una stima dell’inerzia a disposizione della rete, in modo tale da facilitare e migliorare la gestione del Sistema Elettrico. In tale contesto, in questa tesi ci si è concentrati sulla realizzazione di un modello EMTP della rete di distribuzione benchmark europea Cigrè, che permettesse di includere tutte le caratteristiche dinamiche della rete, dei generatori di produzione e in particolare, ci si è soffermati sulla modellizzazione dei carichi, eseguendo un’analisi e un confronto sulle possibili modalità di modellizzazione dei carichi in forma aggregata. Nella seconda parte, sono stati poi sviluppati degli algoritmi che permettessero dai dati raccolti attraverso le simulazioni di ricavare il valore della costante d’inerzia nei differenti scenari.
Resumo:
Il fine di questo elaborato riguarda lo studio di soluzioni per il contrasto di giocatori baranti controllati da algoritmi presenti nel videogioco online Team Fortress 2. Dopo una breve introduzione alla storia degli sparatutto online, si descriverà il funzionamento di tutti i componenti che sviluppano l'ambiente di gioco, oltre a definire termini e sistemi vitali per la comprensione dell'elaborato ed una breve introduzione a Team Fortress 2. Si procederà alla discussione del cheat e dei software e/o environment sfruttati dagli attacanti in partita, andando a cercare di spiegare il meccanismo e l'origine di questi elementi, nonché introdurre il concetto dei bot baranti implementati usando il programma open source cathook. Una volta spiegata la minaccia si andrà a spiegare la difesa da parte del gioco e degli sviluppatori attraverso il software di anticheat Valve Anti-Cheat (VAC) presente sul gioco, definendo le terminologie e alcune caratteristiche comuni rispetto agli altri, per poi introdurre le nuove tecnologie di contrasto sviluppati per Counter Strike: Global Offensive, ovvero Overwatch, Trust Factor e l'anticheat con deep learning VACNET. Infine, dopo aver definito più approfonditamente il funzionamento degli algoritmi baranti, verranno suggerite delle possibili soluzioni implementabili e del motivo per cui non riescono a risolvere completamente il problema. Concluderemo spiegando cosa stanno facendo i sviluppatori, per poi descrivere come effettivamente il problema possiede come l'unica soluzione di evitare di giocare nei server ufficiali di gioco, mantenendo comunque gli algoritmi liberi nei server ufficiali.
Resumo:
In questo lavoro di tesi si analizzerà un metodo per risolvere il problema del PageRank alternativo rispetto al tradizionale metodo delle potenze. Verso la fine degli anni '90, con l’avvento del World Wide Web, fu necessario sviluppare degli algoritmi di classificazione in grado di ordinare i siti web in base alla loro rilevanza. Davanti a questa sfida i due matematici A.N.Langville e C.D.Meyer svilupparono il metodo SIAD, "special iterative aggregation/disaggregation method". Lo scopo di questa tesi è in primo luogo di ricostruire il metodo SIAD e analizzarne le proprietà. Seguendo le analisi in un articolo di I.C.Ipsen e S.Kirkland, si ricostruirà nel dettaglio il metodo SIAD, così da esplicitare la convergenza asintotica del metodo in relazione al complemento stocastico scelto. In secondo luogo si analizzerà il metodo SIAD applicato ad una matrice di Google che rispetta ipotesi determinate, le matrici di Google sono solitamente utilizzate per rappresentare il problema del PageRank. Successivamente, si dimostrerà un importante teorema che prova come per ogni matrice di Google si possa individuare un complemento stocastico per cui il metodo SIAD converge più velocemente del metodo delle potenze. Infine, nell’ultimo capitolo si implementerà con il inguaggio di programmazione Matlab il metodo SIAD per una matrice generica e per una matrice di Google. In particolare, si sfrutterà la struttura della matrice di Google per ridurre sensibilmente il costo computazionale del metodo quando applicato applicato ad una tale matrice.
Resumo:
La presenti tesi ha come obiettivo lo studio di due algoritmi per il rilevamento di anomalie all' interno di grafi random. Per entrambi gli algoritmi sono stati creati dei modelli generativi di grafi dinamici in modo da eseguire dei test sintetici. La tesi si compone in una parte iniziale teorica e di una seconda parte sperimentale. Il secondo capitolo introduce la teoria dei grafi. Il terzo capitolo presenta il problema del rilevamento di comunità. Il quarto capitolo introduce possibili definizioni del concetto di anomalie dinamiche e il problema del loro rilevamento. Il quinto capitolo propone l' introduzione di un punteggio di outlierness associato ad ogni nodo sulla base del confronto tra la sua dinamica e quella della comunità a cui appartiene. L' ultimo capitolo si incentra sul problema della ricerca di una descrizione della rete in termini di gruppi o ruoli sulla base della quale incentrare la ricerca delle anomalie dinamiche.
Resumo:
Un ambiente sempre più interconnesso per facilitare la condivisione di dati, lo sviluppo di strumenti sempre più ricettivi, l’utilizzo di algoritmi sempre più mirati ed efficaci nel selezionare le giuste informazioni sono alcuni dei fattori chiave che hanno consentito e tuttora consentono la crescita, la gestione, il riutilizzo e la diffusione del patrimonio conoscitivo a disposizione delle organizzazioni. Il continuo aumento di risorse informatiche ha indotto le organizzazioni a rivedere il ruolo svolto dalla Business Intelligence, arricchendolo di strumenti e procedure nuove e creando ulteriori figure professionali. L’obiettivo di questo elaborato è fornire una panoramica della business intelligence, della sua origine e della rilevanza e utilità in ambito aziendale. Nel primo capitolo si tratta della disciplina della Business Intelligence, in particolare definizione, cenni storici e differenza con la Business Analytics. Si descrivono successivamente i sistemi informativi e i loro componenti per finire con l’architettura di una soluzione di BI. Nel secondo capitolo, si effettua una panoramica sui software di Business Intelligence sul mercato, dopo di che si presenta Microsoft Power BI di Microsoft, in particolare funzionalità e caratteristiche. Il terzo capitolo è relativo al progetto effettuato durante il periodo di tirocinio: l’implementazione di nuove funzionalità e analisi su un software BI sviluppato dall’azienda ospitante.
Resumo:
Lo sviluppo dei dispositivi mobili negli ultimi anni ha permesso la creazione di pedometri efficienti. Uno dei problemi principali nella realizzazione dei contapassi `e l’accuratezza e la precisione nei risultati. Il seguente elaborato fornisce un’analisi dettagliata dei vari studi presenti in rete a riguardo. La ricerca ha avuto scopo di riassumere le diverse scelte implementative, confrontandole tra di loro e di risaltare i punti in comune fornendo un’analisi sull’effettiva efficacia di ognuna di esse. Il focus di questo studio si concentrer`a sull’analisi di algoritmi per la rilevazione di passi calcolati non in tempo reale. L’elaborato `e stato diviso in quattro differenti fasi. Durante la prima fase vengono esposti i principali studi e le principali metodologie relative all’argomento appena descritto. Nella seconda fase viene presentata la Tassonomia, cio`e una classificazione ordinata di concetti secondo determinati criteri. Nella terza fase `e stata quindi sviluppata una applicazione Android in cui vengono implementanti gli algoritmi descritti nelle fasi precedenti. Nell’ultima fase viene testata l’applicazione attraverso l’uso di specifici test confrontando tra loro i diversi algoritmi proposti.
Resumo:
L'erogazione dei servizi informatici tramite cloud è ormai una delle soluzioni più in voga nel mercato odierno, tant'è che, analizzando le statistiche fornite dalle piattaforme principali, anche il futuro sembra andare proprio in quella direzione. Quest'evoluzione avrà un forte impatto persino nelle telecomunicazioni, dove le tecniche di virtualizzazione e softwarizzazione vengono già oggi impiegate per facilitare la gestione delle infrastrutture di rete, creando le cosiddette SDN (Software Defined Network). I provider che scelgono di adottare queste soluzioni ottengono un elevato grado di flessibilità dei propri servizi, facilitando notevolmente lo sviluppo di nuove funzionalità, grazie alla presenza di controller esterni a cui vengono demandati gli aspetti di gestione della rete stessa. In uno scenario di questo tipo è fondamentale che gli strumenti volti allo studio e alla sperimentazione di reti software-based siano in grado di stare al passo con i tempi, utilizzando tecnologie all'avanguardia ed accessibili anche agli utenti che si interfacciano per la prima volta con queste metodologie. Perché questo sia possibile è necessario che telecomunicazioni e sviluppo software, aspetti storicamente appartenenti a due mondi dell'informatica paralleli, si uniscano. Ad oggi gli strumenti che permettono di operare su SDN sono innumerevoli, ma spesso accomunati dalla mancanza di qualsivoglia interfaccia grafica, restringendo l'utenza di riferimento ad un gruppo ancor più di nicchia, escludendo gli utilizzatori alle prime armi. L'obiettivo di questo progetto è proporre uno strumento alternativo, basato su Ryu, che permetta all’utente di creare, configurare e gestire secondo le proprie esigenze una rete virtuale, attraverso un’interfaccia grafica e un simulatore interattivo per controllare e visualizzare lo stato dei dispositivi connessi. Infine, verranno analizzati i vantaggi didattici ottenuti dall'impiego dell'applicativo rispetto alle metodologie classiche.
Resumo:
Obiettivo dello studio condotto è l’implementazione di cicli di operazioni per l’assemblaggio automatizzato di componenti che costituiscono un sistema di trasporto a catena presente in alcune macchine automatiche. L’automazione del processo, fino ad oggi svolto manualmente, prevede l’utilizzo di un robot e, per il controllo di quest’ultimo, di un sistema di visione artificiale. L’attività di tirocinio associata alla tesi di laurea, che ha incluso una parte sperimentale oltre alla scrittura degli algoritmi di controllo del robot, è stata svolta all’interno del laboratorio TAILOR (Technology and Automation for Industry LabORatory) presso Siropack Italia S.r.l dove è presente una cella dotata di robot antropomorfo (Mitsubishi Electric) e di sistema di visione artificiale con camere 2D (Omron). La presenza di quest’ultimo è risultata strategica in termini di possibilità di adattare il montaggio anche a diversi posizionamenti degli oggetti all’interno dello spazio di lavoro, fermo restando che gli stessi risultassero appoggiati su una superficie piana. In primo luogo, affinché fosse garantita la ripetibilità del processo, sono state testate le prestazioni del sistema di visione tramite opportuna calibrazione della camera e del sistema di illuminazione ad esso collegata, al fine di ottenere un’acquisizione delle immagini che fosse sufficientemente robusta e risoluta mediante lo sfruttamento del software di elaborazione Omron FH Vision System. Un’opportuna programmazione della traiettoria del robot in ambiente di simulazione RT Toolbox 3, software integrato nel sistema di controllo del robot Mitsubishi Electric, ha infine consentito le regolari operazioni di assemblaggio, garantendo un processo affidabile ed, allo stesso tempo, adattabile ad ambienti eventualmente non strutturati in cui esso si trova ad operare.
Resumo:
Recentemente è stato stimato che si trovino circa 150 milioni di tonnellate di plastica nei mari di tutto il mondo, con conseguente aumento annuo di 8 milioni di tonnellate: si dice anche che entro il 2050 sarà presente, in termini di peso, nei mari e negli oceani più plastica che pesci. Inoltre, non solo le macro plastiche sono un serio problema ambientale, ma anche la loro frammentazione e decomposizione a causa della prolungata esposizione al sole, acqua e aria porta a microplastiche (dimensione minore di 5 mm): questi piccoli rifiuti che si vanno a depositare nei fondali rappresentano una seria problematica per la salute umana, poiché questi ultimi potrebbero essere ingeriti da pesci, provocandogli anche ridotta riproduttività e infiammazioni, entrando dunque nella nostra catena alimentare. L’idea di questo elaborato sviluppato mediante la collaborazione con il centro di ricerca VTT in Finlandia è quella di sviluppare soluzioni innovative e nuovi metodi per la rilevazione di rifiuti in plastica galleggianti. In sintesi, in questo elaborato sarà presente una parte di ricerca bibliografica, in cui vengono illustrati i principali articoli che spiegano i progetti più attinenti al Remote Sensing di rifiuti di plastica galleggianti trovati in letteratura, successivamente sarà presente la parte più pratica svolta al VTT, in particolare verrà spiegato il Radar MIMO a 60 GHz (prodotto dal VTT) utilizzato per le misurazioni di test su una piccola piscina circolare con i relativi dati ottenuti, infine si descriverà la campagna di misure tramite telecamere iperspettrali, sensori RGB e termo-infrarossi ad Oulu con, anche in tale caso, i dati spettrali di risalto che sono stati ricavati. Infine, in aggiunta ai risultati della campagna iperspettrale, si vuole cercare di applicare degli algoritmi di Machine Learning per cercare di classificare e dunque di identificare i vari campioni di plastica visualizzati nelle varie immagini spettrali acquisite.