933 resultados para Sistema di feedback,Sostenibilità,Machine learning,Agenda 2030,SDI
Resumo:
La dissertazione ha riguardato l’analisi di sostenibilità di un sistema agronomico per la produzione di olio vegetale a fini energetici in terreni resi marginali dall’infestazione di nematodi. Il processo indagato ha previsto il sovescio di una coltura con proprietà biofumiganti (brassicacea) coltivata in precessione alla specie oleosa (soia e tabacco) al fine di contrastare il proliferare dell’infestazione nel terreno. Tale sistema agronomico è stato confrontato attraverso una analisi di ciclo di vita (LCA) ad uno scenario di coltivazione della stessa specie oleosa senza precessione di brassica ma con l’utilizzo di 1-3-dicloropropene come sistema di lotta ai nematodi. Allo scopo di completare l’analisi LCA con una valutazione dell’impatto sull’uso del suolo (Land use Impact) generato dai due scenari a confronto, sono stati costruiti due modelli nel software per il calcolo del Soil Conditioning Index (SCI), un indicatore quali-quantitativo della qualità del terreno definito dal Dipartimento per l’Agricoltura degli Stati Uniti d’America (USDA).
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Resumo:
Nel documento vengono trattate le principali tecniche di geolocalizzazione basate sull'elaborazione dei segnali elettromagnetici ricevuti. E' altresì introdotto un sistema di remote positioning basato su test di prossimità rafforzato tramite machine learning tramite un approccio simulativo ed una implementazione reale.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
Il Diabete, modello paradigmatico delle malattie croniche, sta assumendo negli ultimi anni le proporzioni di una pandemia, che non ha intenzione di arrestarsi, ma del quale, con l’aumento dei fattori di rischio, aumentano prevalenza e incidenza. Secondo stime autorevoli il numero delle persone con diabete nel 2035 aumenterà fino a raggiungere i 382 milioni di casi. Una patologia complessa che richiede lo sforzo di una vasta gamma di professionisti, per ridurre in futuro in maniera significativa i costi legati a questa patologia e nel contempo mantenere e addirittura migliorare gli standard di cura. Una soluzione è rappresentata dall'impiego delle ICT, Information and Communication Technologies. La continua innovazione tecnologica dei medical device per diabetici lascia ben sperare, dietro la spinta di capitali sempre più ingenti che iniziano a muoversi in questo mercato del futuro. Sempre più device tecnologicamente avanzati, all’avanguardia e performanti, sono a disposizione del paziente diabetico, che può migliorare tutti processi della cura, contenendo le spese. Di fondamentale importanza sono le BAN reti di sensori e wearable device, i cui dati diventano parte di un sistema di gestione delle cure più ampio. A questo proposito METABO è un progetto ICT europeo dedicato allo studio ed al supporto di gestione metabolica del diabete. Si concentra sul miglioramento della gestione della malattia, fornendo a pazienti e medici una piattaforma software tecnologicamente avanzata semplice e intuitiva, per aiutarli a gestire tutte le informazioni relative al trattamento del diabete. Innovativo il Clinical Pathway, che a partire da un modello Standard con procedimenti semplici e l’utilizzo di feedback del paziente, viene progressivamente personalizzato con le progressive modificazioni dello stato patologico, psicologico e non solo. La possibilità di e-prescribing per farmaci e device, e-learning per educare il paziente, tenerlo sotto stretto monitoraggio anche alla guida della propria auto, la rendono uno strumento utile e accattivante.
Resumo:
Il progetto si propone di dotare la realta fisica di un estensione digitale. Sensori, attuatori e tecnologie embedded hanno cambiato il nostro modo di lavorare, allenarci e seguire i nostri interessi. Il mondo del commercio non e rimasto a guardare ed ha dovuto adattarsi alla metamorfosi high-tech del settore dei servizi. Il sistema proposto costituisce un promotore per acquisti ed un raccoglitore intelligente di abitudini sullo shopping e si compone di applicazione mobile, microcontroller e web server. Caratteristica prima e principale del progetto e sicuramente la pervasivita. All'utente ed utilizzatore dell'app dello shopping center deve essere certamente resa nota la collaborazione al fine di raccogliere dati statistici sulle sue abitudini, tuttavia sono le modalita di tale operazione a dover rimanere velate, in modo da non appesantire il cliente con tediose operazioni di invio di feedback e valutazioni ed allo stesso tempo permettere una raccolta capillare delle informazioni. Parallelamente alla raccolta di dati funzionali al producer, sono state implementate features per il consumatore, come notifiche promozionali place-triggered e pubblicita mirata. Tra tutte le tecnologie adibite allo scambio di informazioni, si e scelto l'utilizzo del Bluetooth e del piu recente Bluetooth Low Energy (BLE) per permettere ai dispositivi di comunicare tra loro.
Resumo:
In questo lavoro di tesi si è analizzato il problema di creare un sistema di assistenza allo shopping integrabile in applicazioni e-commerce web e mobile sviluppate con le tecnologie messe a disposizione da Marketcloud, ovvero un progetto che punta a fornire strumenti per la realizzazione, la manutenzione, la gestione, la diffusione e la pubblicizzazione di tali applicazioni limitando i costi e le problematiche di sviluppo a carico delle aziende che intendono fornire servizi di e-commerce. Dopo aver discusso gli aspetti principali del progetto Marketcloud, sono state analizzate le necessità delle aziende interessate allo sviluppo del sistema di assistenza in esame, così come le aspettative degli utenti (i clienti) finali, ed è stato discusso perché fosse necessario e preferibile, nel caso in esame, non utilizzare soluzioni già presenti sul mercato. Infine, è stata progettata ed implementata un’applicazione web che includesse tale sistema e che fosse immediatamente integrabile tra i servizi già sviluppati da Marketcloud, testandone risultati, prestazioni, problemi e possibili sviluppi futuri. Al termine del lavoro di implementazione, il sistema e l'applicazione garantiscono all'utente finale l'utilizzo di tre funzioni: ricerca per categoria, ricerca libera, recommendation di prodotti. Per gestire la ricerca libera, è stato implementato un sistema di filtri successivi, ed una rete neurale multi-livello dotata di un opportuno algoritmo di machine learning per poter apprendere dalle scelte degli utenti; per la recommendation di prodotti, è stato utilizzato un sistema di ranking (classificazione). Le prestazioni della rete neurale sono state oggetto di attenta analisi.
Resumo:
L'image captioning è un task di machine learning che consiste nella generazione di una didascalia, o caption, che descriva le caratteristiche di un'immagine data in input. Questo può essere applicato, ad esempio, per descrivere in dettaglio i prodotti in vendita su un sito di e-commerce, migliorando l'accessibilità del sito web e permettendo un acquisto più consapevole ai clienti con difficoltà visive. La generazione di descrizioni accurate per gli articoli di moda online è importante non solo per migliorare le esperienze di acquisto dei clienti, ma anche per aumentare le vendite online. Oltre alla necessità di presentare correttamente gli attributi degli articoli, infatti, descrivere i propri prodotti con il giusto linguaggio può contribuire a catturare l'attenzione dei clienti. In questa tesi, ci poniamo l'obiettivo di sviluppare un sistema in grado di generare una caption che descriva in modo dettagliato l'immagine di un prodotto dell'industria della moda dato in input, sia esso un capo di vestiario o un qualche tipo di accessorio. A questo proposito, negli ultimi anni molti studi hanno proposto soluzioni basate su reti convoluzionali e LSTM. In questo progetto proponiamo invece un'architettura encoder-decoder, che utilizza il modello Vision Transformer per la codifica delle immagini e GPT-2 per la generazione dei testi. Studiamo inoltre come tecniche di deep metric learning applicate in end-to-end durante l'addestramento influenzino le metriche e la qualità delle caption generate dal nostro modello.
Resumo:
Although the debate of what data science is has a long history and has not reached a complete consensus yet, Data Science can be summarized as the process of learning from data. Guided by the above vision, this thesis presents two independent data science projects developed in the scope of multidisciplinary applied research. The first part analyzes fluorescence microscopy images typically produced in life science experiments, where the objective is to count how many marked neuronal cells are present in each image. Aiming to automate the task for supporting research in the area, we propose a neural network architecture tuned specifically for this use case, cell ResUnet (c-ResUnet), and discuss the impact of alternative training strategies in overcoming particular challenges of our data. The approach provides good results in terms of both detection and counting, showing performance comparable to the interpretation of human operators. As a meaningful addition, we release the pre-trained model and the Fluorescent Neuronal Cells dataset collecting pixel-level annotations of where neuronal cells are located. In this way, we hope to help future research in the area and foster innovative methodologies for tackling similar problems. The second part deals with the problem of distributed data management in the context of LHC experiments, with a focus on supporting ATLAS operations concerning data transfer failures. In particular, we analyze error messages produced by failed transfers and propose a Machine Learning pipeline that leverages the word2vec language model and K-means clustering. This provides groups of similar errors that are presented to human operators as suggestions of potential issues to investigate. The approach is demonstrated on one full day of data, showing promising ability in understanding the message content and providing meaningful groupings, in line with previously reported incidents by human operators.
Resumo:
Il ruolo dell’informatica è diventato chiave del funzionamento del mondo moderno, ormai sempre più in progressiva digitalizzazione di ogni singolo aspetto della vita dell’individuo. Con l’aumentare della complessità e delle dimensioni dei programmi, il rilevamento di errori diventa sempre di più un’attività difficile e che necessita l’impiego di tempo e risorse. Meccanismi di analisi del codice sorgente tradizionali sono esistiti fin dalla nascita dell’informatica stessa e il loro ruolo all’interno della catena produttiva di un team di programmatori non è mai stato cosi fondamentale come lo è tuttora. Questi meccanismi di analisi, però, non sono esenti da problematiche: il tempo di esecuzione su progetti di grandi dimensioni e la percentuale di falsi positivi possono, infatti, diventare un importante problema. Per questi motivi, meccanismi fondati su Machine Learning, e più in particolare Deep Learning, sono stati sviluppati negli ultimi anni. Questo lavoro di tesi si pone l’obbiettivo di esplorare e sviluppare un modello di Deep Learning per il riconoscimento di errori in un qualsiasi file sorgente scritto in linguaggio C e C++.
Resumo:
Con il crescente utilizzo delle reti wireless la sicurezza e l'affidabilità del servizio stanno diventando requisiti fondamentali da garantire. Questo studio ha come obiettivi il rilevamento di un attacco jammer e la classificazione della tipologia dell'attacco (reattivo, random e periodico) in una rete wireless in cui gli utenti comunicano con un access point tramite il protocollo random access slotted Aloha. La classificazione degli attacchi è infatti fondamentale per attuare le dovute contromisure ed evitare cali di performance nella rete. Le metriche estratte, fra cui la packet delivery ratio (PDR) e la rispettiva analisi spettrale, il rapporto segnale rumore medio e la varianza dell'rapporto segnale rumore, sono risultate essere efficaci nella classificazione dei jammers. In questo elaborato è stato implementato un sistema di detection e classificazione di jammer basato su machine learning, che ha permesso di ottenere una accuratezza complessiva del 92.5% nella classificazione ed una probabilità di detection superiore al 95% per valori di PDR inferiori o uguali al 70%.
Resumo:
L’intelligenza artificiale è senza dubbio uno degli argomenti attualmente più in voga nel mondo dell’informatica, sempre in costante evoluzione ed espansione in nuovi settori. In questa elaborato progettuale viene combinato l’argomento sopracitato con il mondo dei social network, che ormai sono parte integrante della quotidianità di tutti. Viene infatti analizzato lo stato dell’arte attuale delle reti neurali, in particolare delle reti generative avversarie, e vengono esaminate le principali tipologie di social network. Su questa base, infatti, verrà realizzato un sistema di rete sociale completo nel quale una GAN sarà proprio la protagonista, sfruttando le più interessanti tecnologie attualmente disponibili. Il sistema sarà disponibile sia come applicativo per dispositivi mobile che come sito web e introdurrà elementi di gamification per aumentare l’interazione con l’utente.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
In questo lavoro di tesi viene presentata un’analisi di sostenibilità economica, ambientale e sociale di un sistema di cattura e purificazione della CO2 post-combustione. Al fine di ottenere i dati utili al calcolo di indici significativi di sostenibilità, si è scelto di modellare, attraverso il software Aspen Plus®, un processo di assorbimento chimico con ammine, tecnologia matura e spesso impiegata a questo scopo per settori industriali di taglie superiori. Al sistema di assorbimento viene poi fatta seguire un’unità di compressione e purificazione, finalizzata al raggiungimento di specifiche condizioni della corrente in uscita, legate alla successiva tipologia di trasporto considerata: gas pressurizzato via pipeline o gas liquefatto via nave. L’analisi economica si è basata sul calcolo di costi operativi, costi variabili, costo della CO2 evitata e consumo specifico di energia (SPECCA). La simulazione ha infatti consentito di ottenere un dimensionamento di massima delle apparecchiature e il consumo di utenze, valori necessari alla stima degli indici. Gli indici economici calcolati sono poi stati utilizzati per comprendere quale parte del processo fosse la più critica e che impatto avessero le unità di compressione e purificazione rispetto alla presenza del solo impianto di cattura. Analisi simili sono state svolte anche in termini di sostenibilità ambientale e sociale. La prima è stata svolta calcolando l’effettiva rimozione di CO2 del sistema, tenendo in considerazione le emissioni dirette e indirette connesse al funzionamento degli apparati. L’analisi sociale è stata ridotta a un’analisi qualitativa della sicurezza, attuata attraverso il calcolo dell’Indice di sicurezza intrinseca.
Resumo:
L'inquinamento è un pensiero costante nel ventunesimo secolo. Ogni anno, i ricercatori cercano di trovare nuove metodologie e tecnologie per controllarlo e ridurlo. Per questo motivo l’Università di Bologna ha avviato svariati progetti per contrastare le problematiche ambientali. Una delle iniziative è AlmaBike. Sono biciclette che vengono assegnate nella forma di comodato gratuito al personale universitario e agli studenti. Nell'ultimo periodo, 50 AlmaBike sono state dotate di un pacchetto sensori in grado di rilevare posizione GPS, la qualità dell’aria, il rumore e alcuni parametri ambientali. Gli obiettivi perseguiti sono: sperimentare un sistema che permetta la misurazione di dati in merito alla qualità ambientale del comune di Bologna e misurare la rilevanza della consapevolezza della qualità dell’aria nella scelta di percorsi da parte di un utente, ad esempio casa-lavoro. L’obiettivo di questa tesi è quello di creare un applicativo che permetta la fruizione dei dati raccolti dai vari sensori attraverso l’uso di tecniche di Data Visualization. I dati vengono elaborati e organizzati con lo scopo di permetterne la comprensione anche ad utenti inesperti. La tesi è suddivisa in tre capitoli: nel primo capitolo sono stati approfonditi i concetti inerenti alla sostenibilità riprendendo quanto detto a proposito degli obiettivi dell'Agenda 2030, facendo anche una breve introduzione sul concetto di IoT e sensori; nel secondo capitolo vengono presentate le tecnologie utilizzate per la realizzazione dell’applicativo tra cui: Docker, MySQL, Angular, Typescript, Golang; nel terzo capitolo viene mostrata nel dettaglio l'applicazione creata: dalle scelte progettuali, fino ad arrivare al risultato finale.