144 resultados para IDENTIFICACION AUTOMATICA
Resumo:
Il seguente lavoro di tesi è nato durante un’attività di stage della durata di 7 mesi svolto all’interno della divisione Tea&Coffe di IMA S.p.A., azienda leader mondiale nella produzione di macchine automatiche per il confezionamento di prodotti farmaceutici, cosmetici, alimentari, tè e caffè. Le attività svolte si collocano all’interno di un progetto avviato da IMA per promuovere il passaggio ad un modello di industria necessariamente più evoluta, facendo leva sull’attitudine ad integrare e sviluppare nuove conoscenze e nuove tecnologie interdisciplinari e, allo stesso tempo, di massimizzare la sinergia tra le dimensioni tecnica ed economica, comportando una reale riduzione di sprechi nella filiera produttiva, commerciale ed ambientale. I moderni impianti di produzione devono infatti affrontare una sfida che li vede alla continua ricerca della produttività, ovvero di una produzione che remuneri velocemente e con ampi margini gli investimenti effettuati, della qualità dei prodotti e dei processi di produzione, ovvero della garanzia di soddisfacimento delle aspettative espresse ed inespresse del cliente, e della sicurezza per la salvaguardia della collettività e dell’ambiente. L’obiettivo di questo elaborato è stato quello di effettuare lo studio affidabilistico di una macchina automatica per la produzione di bustine di tè al fine di poterne studiare il suo comportamento al guasto e di elaborare in un secondo momento le politiche manutentive ottimizzate che ne permettano una gestione più efficiente. In questo ambito la macchina è stata scomposta in gruppi e sono stati esaminati tutti i pezzi di ricambio che sono stati richiesti in un arco temporale di durata pari a dieci anni, il fine è quello di poter individuare ed effettuare un’analisi affidabilistica dei componenti critici per poi procedere, attraverso l’uso di piattaforme software quali Weibull++ e Blocksim, col modellarne le distribuzioni statistiche e simulare il funzionamento del sistema nel suo complesso.
Resumo:
Questo lavoro di Tesi ha come obiettivo quello di automatizzare il più possibile la comprensione automatica degli Open Data. Ciò è stato realizzato mediante la progettazione e lo sviluppo del “Semantic Detector”, una soluzione che si interpone tra il dato grezzo, quindi il dataset, e qualsiasi software ad alto livello che sfrutta questi dati per poterli effettivamente riutilizzare o riorganizzare opportunamente in un formato aggregabile.
Resumo:
Al giorno d’oggi, il primo obiettivo dell’industria automotive è quello di ridurre il consumo di carburante e migliorare la qualità del processo di combustione, al fine di soddisfare i limiti di emissioni imposti, senza penalizzare le performance dei motori. In questo scenario, il comportamento dinamico dello spray gioca un ruolo cruciale, ed è risaputo che esso dipenda anche dal processo di cavitazione all’interno di ogni singolo foro iniettore. L’appropriata predizione dello sviluppo di tale fenomeno è fondamentale per comprendere e controllare le caratteristiche delle spray nei canali iniettori e consentire una più accurata progettazione degli iniettori. In questo meccanismo, le simulazioni CFD ricoprono un ruolo di grande importanza, a causa delle dimensioni ridotte caratteristiche dei fori iniettori. Questi infatti non risultano spesso adatti ad un’analisi sperimentale dettagliata e precisa, e nel caso lo fossero, la valutazione è limitata a pochi casi, essendo le attività sperimentali complesse ed onerose. L’analisi computazionale presenta quindi vantaggi come una sostanziale riduzione del tempo e dei costi impiegati, non richiedendo infatti la costruzione e l’utilizzo di impianti appositi o prototipi. Lo scopo principale di questo progetto consiste nella validazione di un codice CFD capace di modellare la cavitazione, al fine di applicarlo successivamente ad un iniettore reale. Tale modello è stato validato tramite confronto con dati sperimentali su un flusso cavitante attraverso un ugello ideale. Tra tutti i software commerciali disponibili, è stato scelto CONVERGE poiché innovativo nella generazione automatica della griglia e dettagliato nell’analisi chimica, permettendo di gestire geometrie di motori molto complesse. È stato quindi ritenuto appropriato valutare la validità di tale codice nella modellazione della cavitazione, poiché potrebbe dimostrarsi rilevante nello studio futuro dei motori a combustione interna.
Resumo:
Il progetto di tesi consiste nella progettazione e nell'implementazione di una applicazione mobile Android nativa per la generazione automatica di itinerari di viaggio in base ad alcuni dati inseriti in input dall'utente. La app è costituita da una serie di activity di raccolta dati in cui viene chiesto all'utente di inserire le sue preferenze in quanto a destinazione, periodo, modalità di viaggio ed altre informazioni. Completata questa fase viene attivato l'algoritmo che genera gli itinerari elaborando i dati raccolti. L'itinerario, che rappresenta il risultato ottenuto dall'algoritmo, è diviso in giorni ed ogni giorno di viaggio contiene i luoghi da visitare in ordine ottimizzato, con la possibilità di usufruire di ulteriori servizi di indicazioni stradali e visualizzazione su mappe. L'intero progetto è stato implementato in Java con l'ambiente di sviluppo Android Studio.
Resumo:
In questo elaborato ci siamo occupati della legge di Zipf sia da un punto di vista applicativo che teorico. Tale legge empirica afferma che il rango in frequenza (RF) delle parole di un testo seguono una legge a potenza con esponente -1. Per quanto riguarda l'approccio teorico abbiamo trattato due classi di modelli in grado di ricreare leggi a potenza nella loro distribuzione di probabilità. In particolare, abbiamo considerato delle generalizzazioni delle urne di Polya e i processi SSR (Sample Space Reducing). Di questi ultimi abbiamo dato una formalizzazione in termini di catene di Markov. Infine abbiamo proposto un modello di dinamica delle popolazioni capace di unificare e riprodurre i risultati dei tre SSR presenti in letteratura. Successivamente siamo passati all'analisi quantitativa dell'andamento del RF sulle parole di un corpus di testi. Infatti in questo caso si osserva che la RF non segue una pura legge a potenza ma ha un duplice andamento che può essere rappresentato da una legge a potenza che cambia esponente. Abbiamo cercato di capire se fosse possibile legare l'analisi dell'andamento del RF con le proprietà topologiche di un grafo. In particolare, a partire da un corpus di testi abbiamo costruito una rete di adiacenza dove ogni parola era collegata tramite un link alla parola successiva. Svolgendo un'analisi topologica della struttura del grafo abbiamo trovato alcuni risultati che sembrano confermare l'ipotesi che la sua struttura sia legata al cambiamento di pendenza della RF. Questo risultato può portare ad alcuni sviluppi nell'ambito dello studio del linguaggio e della mente umana. Inoltre, siccome la struttura del grafo presenterebbe alcune componenti che raggruppano parole in base al loro significato, un approfondimento di questo studio potrebbe condurre ad alcuni sviluppi nell'ambito della comprensione automatica del testo (text mining).
Resumo:
L’Intelligenza Artificiale è un campo dell’informatica che da tempo si afferma come valido strumento alternativo per la risoluzione di problemi tipicamente riservati esclusivamente all’intelletto umano. Se in principio gli algoritmi sfruttati nel campo dell’Intelligenza Artificiale erano basati su insiemi di regole codificate da esperti del dominio di applicazione dell’algoritmo, con l’arrivo del secondo millennio questo approccio è stato superato in favore di algoritmi che sfruttano grandi quantità di dati ed elevata potenza di calcolo per fare scelte ottimali. Un esempio di questo approccio può essere Deep Blue, che nel 1996, anche grazie ad un database di 4mila aperture e un’architettura che permetteva 11 GFLOPS fu la prima macchina a vincere una partita a scacchi contro un grande maestro. Col passare degli anni, l’aumentare degli investimenti e della ricerca, questo approccio ha portato alla strutturazione del campo dell’Apprendimento Automatico (Machine Learning, in inglese) dal quale sono scaturiti numerosi avanzamenti che hanno influenzato una moltitudine di ambiti: dall’agricoltura di precisione alla traduzione automatica, dal riconoscimento di frodi con carte di credito alla farmaceutica, dal marketing alla visione artificiale e molti altri, inclusa la medicina. Questo lavoro si concentra su proprio questioni relative al campo della medicina. In particolare si occupa di provare a riconoscere se le stenosi coronariche di un paziente sono gravi o meno attraverso l’uso di angiografie coronariche invasive e tomografie coronariche angiografiche; in maniera da diminuire delle angiografie coronariche invasive effettuate su pazienti che non ne hanno davvero bisogno.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.
Resumo:
L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.
Resumo:
In questo elaborato di tesi si affronta uno studio inerente alla Manutenzione su Condizione (CBM), applicata ad una macchina automatica adibita alla produzione di capsule in plastica, in collaborazione con il gruppo SACMI S.C. di Imola. Nel Capitolo 1 viene fornita una introduzione sul tema della manutenzione e sulla sua evoluzione dalla prima rivoluzione industriale ad oggi. Nel Capitolo 2 vengono descritti i principi teorici della manutenzione predittiva e se ne analizza lo stato dell’arte. Nel Capitolo 3 viene fornita una introduzione sull’azienda SACMI S.C. e in seguito vengono descritte nel dettaglio le macchine sulle quali si sono concentrate le successive analisi. Nel Capitolo 4 viene approfondito l’estrusore, uno dei componenti principali delle macchine analizzate. Nel Capitolo 5 viene presentato un esempio di valutazione dell’efficienza di alcune macchine collegate in serie attraverso il calcolo di un indicatore chiamato Overall Equipment Effectiveness (OEE). Il Capitolo 6 rappresenta il cuore della tesi e contiene tutte le analisi di CBM effettuate durante il periodo di tirocinio. Vengono analizzati i principali gruppi funzionali della macchina a partire da quelli più critici per tempi o costi di manutenzione. Le analisi sono state condotte ricercando all’interno di tutto il parco macchine quelle che presentavano delle condizioni di funzionamento sospette. Nel Capitolo 7 vengono presentate alcune analisi relative ai tempi di fermo macchina dovuti alle manutenzioni preventive e ai costi dei ricambi previsti dal manuale di manutenzione. Queste analisi vengono poi declinate su un caso reale nel quale si calcola il costo dei ricambi negli ultimi cinque anni distinguendo tra costi dovuti ad azioni preventive o correttive. Nel Capitolo 8 vengono presentate le conclusioni, mentre nel Capitolo 9 sono presentati gli sviluppi futuri di questo lavoro.
Resumo:
Questa tesi di laurea si pone l’obiettivo di investigare alcune delle nuove frontiere offerte dalla crescita sincretica e multidisciplinare dei linguaggi digitali applicati all’architettura e ai beni culturali. Si approfondiranno i concetti teorici fondamentali dell’informazione digitale: il web semantico come ambiente di scambio, i metadata come informazioni sui dati, i LOD (Link Open Data) come standard e fine. Per l’ambito dei beni culturali verranno presentati i temi di ricerca e sviluppo nel campo della catalogazione e fruizione digitali: ontologie, dizionari normalizzati aperti, database (Catalogo Digitale), etc. Per l’ambito edilizio-architettonico verrà introdotto l’Heritage Building Information Modeling (HBIM) semantico come metodologia multidisciplinare focalizzata su rilievo geometrico, modellazione, archiviazione e scambio di tutte le informazioni utili alla conoscenza e conservazione dei beni storici. Il punto d’incontro tra i due mondi è individuato nella possibilità di arricchire le geometrie attraverso la definizione di una semantica (parametri-metadati) relazionata alle informazioni (valori-dati) presenti nei cataloghi digitali, creando di fatto un modello 3D per architetture storiche con funzione di database multidisciplinare. Sarà presentata la piattaforma web-based Inception, sviluppata dall’omonima startup incubata come spinoff dall’Università di Ferrara, che, tra le diverse applicazioni e potenzialità, verrà utilizzata come strumento per la condivisione e fruizione, garantendo la possibilità di interrogare geometrie e metadati in continuità con i principi LOD. Verrà definito un workflow generale (procedure Scan2BIM, modellazione geometrica, definizione script per l’estrazione automatica dei dati dal Catalogo Digitale, associazione dati-geometrie e caricamento in piattaforma) successivamente applicato e adattato alle precise necessità del caso studio: la Chiesa di S. Maria delle Vergini (MC), su commissione dell’ICCD referente al MiBACT.
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.
Resumo:
L’obiettivo della tesi è quello di realizzare un progetto basato sull’interazione tra Raspberry Pi e NanoVNA, allo scopo di rendere automatico il processo di acquisizione dei dati di questo strumento di misura. A tal fine è stato sviluppato un programma in linguaggio Python, eseguibile dal terminale del Raspberry Pi, che permette all’utente di inserire agevolmente i parametri essenziali, come l’orario di inizio e termine delle misurazioni e l'intervallo di tempo tra una rilevazione e l’altra.
Resumo:
Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.
Resumo:
Nel corso dell’elaborato verranno utilizzate tecniche e strumenti di analisi automatica di dati aventi carattere testuale. Lo scopo del lavoro di tesi consisterà nel condurre text mining e sentiment analysis su dei messaggi al fine di comprenderne il significato, con interesse particolare sulle emozioni ed i sentimenti in essi contenuti per riuscire ad estrapolare informazioni di interesse.