664 resultados para TDP, Travelling Deliveryman Problem, Algoritmi di ottimizzazione
Resumo:
TARO (Tons of Articles Ready to Outline) è un progetto che ha come scopo quello di realizzare un sistema per la raccolta, l'analisi e il confronto di articoli di giornali online. Sono state scelte come fonti testate giornalistiche internazionali e i loro canali di pubblicazione, come ad esempio i Feed RSS e le Homepage. Gli articoli vengono quindi analizzati attraverso NER e Sentiment Analysis per poi individuare quali argomenti siano trattati da più testate e quali invece risultino esclusivi di una sola, sfruttando algoritmi di similarità. Il progetto è sviluppato in Python e sono utilizzate diverse librerie, tra cui Scrapy, per la raccolta di articoli, Argos, per la traduzione delle notizie al fine di allinearle linguisticamente, SpaCy, per le analisi semantiche, e Pandas per la visualizzazione dei risultati ottenuti. Uno degli obiettivi è sfruttare questa pipeline al fine di effettuare analisi socio-culturali interessanti utilizzando le informazioni date dagli articoli giornalistici stessi, oltre che osservare le potenzialità delle analisi semantiche fatte su notiziari.
Resumo:
Il seguente elaborato affronta l'implementazione di un algoritmo che affronta un problema di controllo di processo in ambito industriale utilizzando algoritmi di object detection. Infatti, il progetto concordato con il professore Di Stefano si è svolto in collaborazione con l’azienda Pirelli, nell’ambito della produzione di pneumatici. Lo scopo dell'algoritmo implementato è di verificare il preciso orientamento di elementi grafici della copertura, utilizzati dalle case automobilistiche per equipaggiare correttamente le vetture. In particolare, si devono individuare delle scritte sul battistrada della copertura e identificarne la posizione rispetto ad altri elementi fissati su di essa. La tesi affronta questo task in due parti distinte: la prima consiste nel training di algoritmi di deep learning per il riconoscimento degli elementi grafici e del battistrada, la seconda è un decisore che opera a valle del primo sistema utilizzando gli output delle reti allenate.
Resumo:
La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.
Resumo:
Il fenomeno noto come Internet of Things costituisce oggi il motore principale dell'espansione della rete Internet globale, essendo artefice del collegamento di miliardi di nuovi dispositivi. A causa delle limitate capacità energetiche e di elaborazione di questi dispositivi è necessario riprogettare molti dei protocolli Internet standard. Un esempio lampante è costituito dalla definizione del Constrained Application Protocol (CoAP), protocollo di comunicazione client-server pensato per sostituire HTTP in reti IoT. Per consentire la compatibilità tra reti IoT e rete Internet sono state definite delle linee guida per la mappatura di messaggi CoAP in messaggi HTTP e viceversa, consentendo così l'implementazione di proxies in grado di connettere una rete IoT ad Internet. Tuttavia, questa mappatura è circoscritta ai soli campi e messaggi che permettono di implementare un'architettura REST, rendendo dunque impossibile l'uso di protocolli di livello applicazione basati su HTTP.La soluzione proposta consiste nella definizione di un protocollo di compressione adattiva dei messaggi HTTP, in modo che soluzioni valide fuori dagli scenari IoT, come ad esempio scambio di messaggi generici, possano essere implementate anche in reti IoT. I risultati ottenuti mostrano inoltre che nello scenario di riferimento la compressione adattiva di messaggi HTTP raggiunge prestazioni inferiori rispetto ad altri algoritmi di compressione di intestazioni (in particolare HPACK), ma più che valide perchè le uniche applicabili attualmente in scenari IoT.
Resumo:
L’applicazione degli algoritmi di Intelligenza Artificiale (AI) al settore dell’imaging medico potrebbe apportare numerosi miglioramenti alla qualità delle cure erogate ai pazienti. Tuttavia, per poterla mettere a frutto si devono ancora superare alcuni limiti legati alla necessità di grandi quantità di immagini acquisite su pazienti reali, utili nell’addestramento degli stessi algoritmi. Il principale limite è costituito dalle norme che tutelano la privacy di dati sensibili, tra cui sono incluse le immagini mediche. La generazione di grandi dataset di immagini sintetiche, ottenute con algoritmi di Deep Learning (DL), sembra essere la soluzione a questi problemi.
Resumo:
In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.
Resumo:
Lo scopo delle reti mobili è fornire ai dispositivi wireless accesso a una grande varietà di servizi dati, in un’ampia area geografica. Nonostante le reti cellulari odierne, basate sulla tecnologia Massive MIMO, possano raggiungere elevate performance in condizioni favorevoli (centro cella) esse, presentano all’interno dell’area di copertura, zone soggette a data-rate notevolmente ridotti. In questo elaborato, viene brevemente descritta la rete cell-free; una nuova architettura di rete pensata per superare i vecchi limiti delle reti cellulari tradizionali. Successivamente, vengono presentati attraverso simulazioni i due principali vantaggi che queste nuove reti cell-free offrono. Inoltre, viene analizzato uno schema random access in grado di gestire l’accesso multiplo per queste nuove architetture di rete. Questo schema rappresenta un’estensione di un protocollo già presente in letteratura e perfettamente funzionante per reti Massive MIMO, appartenente alla famiglia dei protocolli Coded Slotted ALOHA. Infine, un'analisi delle prestazioni e alcuni possibili scenari sono stati presentati, con lo scopo di valutare l'effetto che algoritmi di tipo SIC possono avere su queste reti.
Resumo:
Lo scopo dell’elaborato è quello di valutare una prima applicazione di intelligenza artificiale per svolgere manutenzione predittiva sui giunti installati nella rete di distribuzione, al fine di prevenirne i guasti. L’estensione delle reti in cavo è infatti in costante aumento per supportare lo sviluppo della rete elettrica e, per l’installazione di nuove linee o nella manutenzione di cavi, si fa uso di giunti, spesso soggetti a guasti e di difficile manutenzione. Risulta quindi importante svolgere manutenzione predittiva su questi componenti, al fine di prevenirne i guasti ed ottenere un risparmio in termini di tempo e denaro. A seguito un’attenta analisi della struttura dei giunti, dei loro modi di guasto e dei parametri caratteristici, si è proceduto alla generazione sintetica di un dataset contenente misure sui giunti e, sulla base di specifici criteri applicati a questi valori, l’informazione sulla presenza o sull’assenza di un guasto. Il dataset è stato poi utilizzato per la fase di apprendimento e di test di sei algoritmi di machine learning, selezionati a partire da considerazioni sullo stato dell’arte, valutato tramite una Revisione Sistematica della Letteratura (SLR). I risultati così ottenuti sono stati analizzati tramite specifiche metriche e da questo caso di studio sono emerse le elevate potenzialità delle tecnologie di intelligenza artificiale ai fini della prevenzione dei guasti nelle reti di distribuzione, soprattutto se considerata la semplicità implementativa degli algoritmi.
Resumo:
Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.
Resumo:
L'avanzamento dell'e-commerce e l'aumento della densità abitativa nel centro città sono elementi che incentivano l'incremento della richiesta merci all'interno dei centri urbani. L'attenzione all'impatto ambientale derivante da queste attività operative è un punto focale oggetto di sempre maggiore interesse. Attraverso il seguente studio, l'obiettivo è definire attuali e potenziali soluzioni nell'ambito della logistica urbana, con particolare interesse alle consegne dell'ultimo miglio. Una soluzione proposta riguarda la possibilità di sfruttare la capacità disponibile nei flussi generati dalla folla per movimentare merce, pratica nota sotto il nome di Crowd-shipping. L'idea consiste nella saturazione di mezzi già presenti nella rete urbana al fine di ridurre il numero di veicoli commerciali e minimizzare le esternalità negative annesse. A supporto di questa iniziativa, nell'analisi verranno considerati veicoli autonomi elettrici a guida autonoma. La tesi è incentrata sulla definizione di un modello di ottimizzazione matematica, che mira a designare un network logistico-distributivo efficiente per le consegne dell'ultimo miglio e a minimizzare le distanze degli attori coinvolti. Il problema proposto rappresenta una variante del Vehicle Routing Problem con time windows e multi depots. Il problema è NP-hard, quindi computazionalmente complesso per cui sarà necessario, in fase di analisi, definire un approccio euristico che permetterà di ottenere una soluzione sub-ottima in un tempo di calcolo ragionevole per istanze maggiori. L'analisi è stata sviluppata nell'ambiente di sviluppo Eclipse, attraverso il risolutore Cplex, in linguaggio Java. Per poterne comprendere la validità, è prevista un'ultima fase in cui gli output del modello ottimo e dell'euristica vengono confrontati tra loro su parametri caratteristici. Bisogna tuttavia considerare che l' utilizzo di sistemi cyber-fisici a supporto della logistica non può prescindere da un costante sguardo verso il progresso.
Resumo:
In questa tesi viene descritto uno studio preliminare su un velivolo ad ala rotante UAV (Unmanned Aerial Veichle) per supportare l'agricoltura di precisione. E' stato implementato in ambiente Matlab un semplice modello matematico per stimare la trazione del rotore principale in un elicottero. Successivamente, è stata presa in considerazone una meccanica commerciale per modellismo che potrebbe essere adottata per sveltire i tempi di sviluppo di questo UAV: la Graupner UNI-Mechanics 2000. E' stato, quindi, modellato al CAD un prototipo di struttura da realizzare tramite tecniche di Additive Manufacturing: questa parte è stata concepita per essere collegata alla meccanica dell'elicottero e può ospitare due taniche contenenti le sostanze da irrorare sulle colture. A livello di sviluppo futuro, si propone di applicare tecniche di ottimizzazione topologica alla struttura di collegamento per ottenere uno sfruttamento ottimale del materiale e ridurre le masse di questo componente.
Resumo:
A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.
Resumo:
Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare l’accuratezza della modellazione classica di materiali, è un procedimento dispendioso. L’accuratezza dei campi di forza è tuttavia la chiave per la predizione affidabile di proprietà chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante l’inclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello dell’oscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed è implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica è resa dall’introduzione di una particella carica e di massa ridotta, ancorata all’atomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: l’acetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune proprietà molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilità. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilità atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilità molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densità sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacità di riprodurre alcune proprietà di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.
Resumo:
Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.
Resumo:
Il neuroblastoma è un tumore solido pediatrico che si sviluppa nel sistema nervoso e risulta una significativa causa di morte infantile. Per avanzare nella conoscenza della sua patogenesi, l’ingegneria dei tessuti biologici, e più nello specifico la microfabbricazione dei biomateriali, ha favorito lo sviluppo di piattaforme microfluidiche utili per riprodurre il sistema neurovascolare umano. Piattaforme di questo tipo, chiamate chip, prevedono spesso l’utilizzo di idrogel. Nel mio elaborato viene presentato un lavoro recentemente pubblicato da Sokullu et al., nel quale gli autori presentano le prorietà del GelMA, un idrogel che mostra caratteristiche molto simili a quelle della matrice extracellulare naturale. Nel lavoro presentato, l’idrogel viene posto all’interno del microchip come base per la co-coltura di due linee cellulari umane, cellule di neuroblastoma e cellule endoteliali di vena ombelicale. Tramite test specifici si riscontra che il GelMA mostra appropriate proprietà biomeccaniche e determina nelle cellule in coltura una vitalità superiore all’80%. Il GelMA si rivela dunque una piattaforma utile per gli studi di colture cellulari 3D per lunghi periodi. Il lavoro analizzato prova inoltre che questa struttura permette di valutare eventi di invasione e migrazione di cellule tumorali suggerendo che il chip microfluidico possa essere impiegato per studi di ottimizzazione del dosaggio e delle modalità di somministrazione di farmaci chemioterapici.