257 resultados para piqle apprendimento per rinforzo ExTras algoritmi profilazione utente


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il lavoro svolto in questa tesi si colloca nell’area della robotica aerea e della visione artificiale attraverso l’integrazione di algoritmi di visione per il controllo di un velivolo senza pilota. Questo lavoro intende dare un contributo al progetto europeo SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), coordinato dall’università di Bologna e con la compartecipazione delle università di Brema, Zurigo, Twente, Leuven, Linkopings, del CREATE (Consorzio di Ricerca per l’Energia e le Applicazioni Tecnologiche dell’Elettromagnetismo), di alcune piccole e medie imprese e del club alpino italiano, che consiste nel realizzare un team di robots eterogenei in grado di collaborare con l’uomo per soccorrere i dispersi nell’ambiente alpino. L’obiettivo di SHERPA consiste nel progettare e integrare l’autopilota all’interno del team. In tale contesto andranno gestiti problemi di grande complessità, come il controllo della stabilità del velivolo a fronte di incertezze dovute alla presenza di vento, l’individuazione di ostacoli presenti nella traiettoria di volo, la gestione del volo in prossimità di ostacoli, ecc. Inoltre tutte queste operazioni devono essere svolte in tempo reale. La tesi è stata svolta presso il CASY (Center for Research on Complex Automated Systems) dell’università di Bologna, utilizzando per le prove sperimentali una PX4FLOW Smart Camera. Inizialmente è stato studiato un autopilota, il PIXHAWK, sul quale è possibile interfacciare la PX4FLOW, in seguito sono stati studiati e simulati in MATLAB alcuni algoritmi di visione basati su flusso ottico. Infine è stata studiata la PX4FLOW Smart Camera, con la quale sono state svolte le prove sperimentali. La PX4FLOW viene utilizzata come interfaccia alla PIXHAWK, in modo da eseguire il controllo del velivolo con la massima efficienza. E’ composta da una telecamera per la ripresa della scena, un giroscopio per la misura della velocità angolare, e da un sonar per le misure di distanza. E’ in grado di fornire la velocità di traslazione del velivolo, e quest’ultima, integrata, consente di ricostruire la traiettoria percorsa dal velivolo.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La tesi analizza gli algoritmi per risolvere il problema dell'assegnamento generalizzato, e valuta in particolare le prestazioni dell'algoritmo di Posta ed altri.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di presentare alcuni degli algoritmi di ricostruzione utilizzati nei sistemi a microonde per l'imaging della mammella. Sebbene, la mammografia a raggi X sia la tecnica che a oggi presenta le migliori caratteristiche per la rilevazione di lesioni tumorali ai tessuti del seno, la compressione necessaria nel processo di imaging e la probabilità non trascurabile di falsi negativi hanno portato alla ricerca e allo sviluppo di metodi alternativi di imaging alla mammella. Tra questi, l'imaging attraverso microonde sfrutta la differenza delle proprietà dielettriche tra tessuto sano e tumorale. Nel seguente elaborato verrà descritto come è ottenuta l'immagine dell'interno della mammella attraverso gli algoritmi di ricostruzione utilizzati da vari prototipi di sistemi di imaging. Successivamente verranno riportati degli esempi che mostrano i risultati ottenuti attraverso simulazioni o, quando possibile, in ambiente clinico.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Università di Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilità di lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'assistenza sanitaria in Italia e nel mondo è caratterizzata da bisogni elevati in continua crescita, ad essi si contrappone l'attuale crisi delle risorse economiche determinando per il Sistema una valutazione di scelte quali la riduzione o la rimodulazione dell'offerta sanitaria pubblica. L'idea di questo lavoro, nata all'interno dell'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (IRST) IRCCS, è di approcciare questo problema in ottica di miglioramento delle performance anziché riduzione dei servizi, nella convinzione che vi siano importanti margini di perfezionamento. Per questi motivi si è valutata la necessità di sviluppare un metodo e un'applicazione software per l'identificazione dei percorsi diagnostici terapeutici assistenziali (PDTA), per la raccolta di dati dalle strutture coinvolte, per l'analisi dei costi e dei risultati, mirando ad una analisi di tipo costi - efficacia e di benchmarking in ottica di presa in carico dei bisogni di salute. La tesi descrive la fase di raccolta e analisi dei requisiti comprensiva della profilazione utenti e descrizione di alcuni aspetti dinamici salienti, la fase di progettazione concettuale (schema Entity/Relationship, glossario e volumi dei dati), la fase di progettazione logica e la prototipazione dell'interfaccia utente. Riporta inoltre una valutazione dei tempi di sviluppo realizzata tramite metodologia di calcolo dei punti per caso d'uso. L'applicazione progettata è oggetto di valutazione di fattibilità presso l'IRST, che ha utilizzato alcune delle metodologie descritte nella tesi per descrivere il percorso di patologia mammaria e presentarne i primi risultati all'interno di un progetto di ricerca in collaborazione con l'Agenzia Nazionale per i Servizi Sanitari Regionali (Agenas).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

I sistemi di raccomandazione sono una tipologia di sistemi di filtraggio delle informazioni che cercano di prevedere la valutazione o la preferenza che l'utente potrebbe dare ad un elemento. Sono diventati molto comuni in questi ultimi anni e sono utilizzati da una vasta gamma di applicazioni, le più popolari riguardano film, musica, notizie, libri, articoli di ricerca e tag di social networking. Tuttavia, ci sono anche sistemi di raccomandazione per i ristoranti, servizi finanziari, assicurazioni sulla vita e persone (siti di appuntamenti online, seguaci di Twitter). Questi sistemi, tuttora oggetto di studi, sono già applicati in un'ampia gamma di settori, come ad esempio le piattaforme di scoperta dei contenuti, utilizzate on-line per aiutare gli utenti nella ricerca di trasmissioni televisive; oppure i sistemi di supporto alle decisioni che utilizzano sistemi di raccomandazione avanzati, basati sull'apprendimento delle conoscenze, per aiutare i fruitori del servizio nella soluzioni di problemi complessi. Inoltre, i sistemi di raccomandazione sono una valida alternativa agli algoritmi di ricerca in quanto aiutano gli utenti a scoprire elementi che potrebbero non aver trovato da soli. Infatti, sono spesso implementati utilizzando motori di ricerca che indicizzano dati non tradizionali.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il lavoro ha riguardato l’elaborazione di segnali EEG registrati durante compiti di apprendimento associativo. In particolare, durante tali compiti, i soggetti imparavano ad associare ad una certa immagine un evento neutro e ad una diversa immagine un evento avverso; la tempistica dell’evento associato a ciascuna immagine era segnalata dalla comparsa di una cornice colorata attorno all’immagine. Mentre l’evento associato a ciascuna immagine era certo, la tempistica dell’evento poteva variare da prova a prova pur verificandosi nella maggior parte dei trial (80%) dopo un tempo T0 dalla comparsa dell’immagine e, nel 20% dei trial, dopo un tempo T1 dalla comparsa dell’immagine, con T1 < T0. Ciò generava nei soggetti le condizioni di EXPECTED TIMING dell’evento (associata alla tempistica più frequente) e la condizione di UNEXPECTED TIMING dell’evento (associata alla tempistica meno frequente). Ciascuna delle due condizioni poteva riguardare l’evento neutro (privo di una particolare valenza per il soggetto) e l’evento avverso (con una valenza negativa per il soggetto). Nel presente lavoro è stata eseguita un’analisi approfondita dei segnali EEG, sia a livello di potenziali evocati sullo scalpo che a livello di segnali ricostruiti sulla corteccia. Lo scopo è quello di chiarire le possibili attivazioni corticali che generano i potenziali osservati sullo scalpo e, quindi, quali aree della corteccia sono maggiormente implicate nella detezione degli errori di predizione. In particolare, si è indagato se tali errori sono influenzati dalla valenza dell’evento inatteso (nel nostro caso avverso rispetto a neutro). La ricostruzione delle sorgenti è stata effettuata utilizzando l’algoritmo sLORETA. In base ai risultati ottenuti, la tempistica di arrivo della cornice ha effetto soltanto quando l’evento ha una valenza (negativa) per il soggetto e le ROI maggiormente coinvolte sono quelle del cingolo e quelle somato-sensoriali.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La necessità di indagine sul fronte dell’insufficienza cardiaca deriva dall’elevato impatto sociale della patologia, non soltanto per l’effetto invalidante sulla condizione del paziente che ne è affetto, bensì anche per la notevole incidenza sui servizi sanitari nazionali, per l’importante valore di mortalità e morbilità che ne è associato. Il numero di ospedalizzazioni per scompenso cardiaco è consistente; ciò rende ragione dell’elevato assorbimento di risorse dovuto a questa patologia. Il razionale dell’impiego della Terapia di Resincronizzazione Cardiaca (CRT) consiste nella correzione della dissincronia cardiaca come causa di disfunzione meccanica atriale e ventricolare. Il metodo analitico sviluppato origina dalle indagini sugli spostamenti dell’elettrocatetere posizionato in Seno Coronarico, sulla base del fatto che il sito di stimolazione risulta un fattore determinante per la buona risposta alla terapia. Dovendo studiare le posizioni nel tempo del catetere, si è pensato di valutarne le variazioni nel periodo pre e post attivazione della CRT ricostruendone la traiettoria in 3D. Lo studio parametrico di quest’ultima ha permesso di individuare un indice predittore della risposta alla CRT al follow-up a sei mesi. La prosecuzione della ricerca presentata ha l’intento di migliorare gli algoritmi di elaborazione dei dati per rendere più robuste le misure, sfruttando tecniche che possano aumentare riproducibilità, ripetibilità, e ininfluenza rispetto alla variabilità delle condizioni analitiche. Sviluppando nuovi modelli si è eliminata l'interazione dell'operatore nelle fasi d'indagine, rendendo le analisi completamente automatiche. I metodi sono stati testati e applicati.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Modellazione di un impianto fotovoltaico connesso alla rete. Simulazione con software Simulink del funzionamento dell'intero sistema fotovoltaico e confronto delle prestazioni legate all'utilizzo degli algoritmi MPPT più comuni, quali Hill Climbing e Incremental Conductance.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In un sistema radar è fondamentale rilevare, riconoscere e cercare di seguire il percorso di un eventuale intruso presente in un’area di osservazione al fine ultimo della sicurezza, sia che si consideri l’ambito militare, che anche quello civile. A questo proposito sono stati fatti passi avanti notevoli nella creazione e sviluppo di sistemi di localizzazione passiva che possano rilevare un target (il quale ha come unica proprietà quella di riflettere un segnale inviato dal trasmettitore), in modo che esso sia nettamente distinto rispetto al caso di assenza dell’intruso stesso dall’area di sorveglianza. In particolare l’ultilizzo di Radar Multistatico (ossia un trasmettitore e più ricevitori) permette una maggior precisione nel controllo dell’area d’osservazione. Tra le migliori tecnologie a supporto di questa analisi vi è l’UWB (Ultra Wide-Band), che permette di sfruttare una banda molto grande con il riscontro di una precisione che può arrivare anche al centimetro per scenari in-door. L’UWB utilizza segnali ad impulso molto brevi, a banda larga e che quindi permettono una risoluzione elevata, tanto da consentire, in alcune applicazioni, di superare i muri, rimuovendo facilmente gli elementi presenti nell’ambiente, ossia il clutter. Quindi è fondamentale conoscere algoritmi che permettano la detection ed il tracking del percorso compiuto dal target nell’area. In particolare in questa tesi vengono elaborati nuovi algoritmi di Clustering del segnale ricevuto dalla riflessione sull’intruso, utilizzati al fine di migliorare la visualizzazione dello stesso in post-processing. Infine questi algoritmi sono stati anche implementati su misure sperimentali attuate tramite nodi PulsOn 410 Time Domain, al fine ultimo della rilevazione della presenza di un target nell’area di osservazione dei nodi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La malattia di Parkinson è un disturbo neurodegenerativo con eziologia sconosciuta che colpisce in particolare le aree del cervello che sono coinvolte nel controllo del movimento. Tale disturbo neurologico causa anomalie sull’andatura del soggetto portandolo ad esempio a strisciare i piedi e flettere il busto più del necessario; anomalie che causano una camminata insicura che può sfociare in inciampi e cadute. Lo scopo di questo studio è disegnare e sviluppare algoritmi in grado di stimare la clearance dei piedi e l’inclinazione del tronco, al fine di essere inseriti nel progetto CuPiD, il quale fornisce un feedback vocale ogni volta in cui il soggetto parkinsoniano presenti valori dei parametri monitorati al di fuori di un range fisiologico. Sono stati reclutati 20 soggetti, 10 a cui è stata diagnosticata la malattia di Parkinson idiopatica e 10 asintomatici.
Nella valutazione sperimentale si è acquisita la camminata dei soggetti coinvolti nell’esperimento, utilizzando un sistema inerziale ed un sistema stereofotogrammetrico come gold standard. Ogni soggetto ha eseguito 4 camminate, ciascuna della durata di 2 minuti, nelle seguenti diverse condizioni: camminata normale, focus sui piedi, focus sul tronco, audio stroop. Inoltre si è valutata l’entità delle differenze cliniche dei due parametri stimati, tra il gruppo dei soggetti malati di Parkinson ed il gruppo dei soggetti sani. Dallo studio effettuato si propone un algoritmo per la stima della clearance che presenta un errore relativamente alto

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Tesi sulla creazione di un'app che adotta i princìpi di gamification e micro-learning

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In questa tesi viene effettuata una panoramica sull'apprendimento di alberi di decisione (un particolare metodo di apprendimento supervisionato) e sulle varie tecniche per poterne migliorare le prestazioni. Vengono poi descritti alcuni algoritmi e ne vengono confrontate le prestazioni.