202 resultados para segmentazione automatica atrio fibrosi atriale
Resumo:
L’Intelligenza Artificiale è un campo dell’informatica che da tempo si afferma come valido strumento alternativo per la risoluzione di problemi tipicamente riservati esclusivamente all’intelletto umano. Se in principio gli algoritmi sfruttati nel campo dell’Intelligenza Artificiale erano basati su insiemi di regole codificate da esperti del dominio di applicazione dell’algoritmo, con l’arrivo del secondo millennio questo approccio è stato superato in favore di algoritmi che sfruttano grandi quantità di dati ed elevata potenza di calcolo per fare scelte ottimali. Un esempio di questo approccio può essere Deep Blue, che nel 1996, anche grazie ad un database di 4mila aperture e un’architettura che permetteva 11 GFLOPS fu la prima macchina a vincere una partita a scacchi contro un grande maestro. Col passare degli anni, l’aumentare degli investimenti e della ricerca, questo approccio ha portato alla strutturazione del campo dell’Apprendimento Automatico (Machine Learning, in inglese) dal quale sono scaturiti numerosi avanzamenti che hanno influenzato una moltitudine di ambiti: dall’agricoltura di precisione alla traduzione automatica, dal riconoscimento di frodi con carte di credito alla farmaceutica, dal marketing alla visione artificiale e molti altri, inclusa la medicina. Questo lavoro si concentra su proprio questioni relative al campo della medicina. In particolare si occupa di provare a riconoscere se le stenosi coronariche di un paziente sono gravi o meno attraverso l’uso di angiografie coronariche invasive e tomografie coronariche angiografiche; in maniera da diminuire delle angiografie coronariche invasive effettuate su pazienti che non ne hanno davvero bisogno.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.
Resumo:
L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.
Resumo:
In questo elaborato di tesi si affronta uno studio inerente alla Manutenzione su Condizione (CBM), applicata ad una macchina automatica adibita alla produzione di capsule in plastica, in collaborazione con il gruppo SACMI S.C. di Imola. Nel Capitolo 1 viene fornita una introduzione sul tema della manutenzione e sulla sua evoluzione dalla prima rivoluzione industriale ad oggi. Nel Capitolo 2 vengono descritti i principi teorici della manutenzione predittiva e se ne analizza lo stato dell’arte. Nel Capitolo 3 viene fornita una introduzione sull’azienda SACMI S.C. e in seguito vengono descritte nel dettaglio le macchine sulle quali si sono concentrate le successive analisi. Nel Capitolo 4 viene approfondito l’estrusore, uno dei componenti principali delle macchine analizzate. Nel Capitolo 5 viene presentato un esempio di valutazione dell’efficienza di alcune macchine collegate in serie attraverso il calcolo di un indicatore chiamato Overall Equipment Effectiveness (OEE). Il Capitolo 6 rappresenta il cuore della tesi e contiene tutte le analisi di CBM effettuate durante il periodo di tirocinio. Vengono analizzati i principali gruppi funzionali della macchina a partire da quelli più critici per tempi o costi di manutenzione. Le analisi sono state condotte ricercando all’interno di tutto il parco macchine quelle che presentavano delle condizioni di funzionamento sospette. Nel Capitolo 7 vengono presentate alcune analisi relative ai tempi di fermo macchina dovuti alle manutenzioni preventive e ai costi dei ricambi previsti dal manuale di manutenzione. Queste analisi vengono poi declinate su un caso reale nel quale si calcola il costo dei ricambi negli ultimi cinque anni distinguendo tra costi dovuti ad azioni preventive o correttive. Nel Capitolo 8 vengono presentate le conclusioni, mentre nel Capitolo 9 sono presentati gli sviluppi futuri di questo lavoro.
Resumo:
Questa tesi di laurea si pone l’obiettivo di investigare alcune delle nuove frontiere offerte dalla crescita sincretica e multidisciplinare dei linguaggi digitali applicati all’architettura e ai beni culturali. Si approfondiranno i concetti teorici fondamentali dell’informazione digitale: il web semantico come ambiente di scambio, i metadata come informazioni sui dati, i LOD (Link Open Data) come standard e fine. Per l’ambito dei beni culturali verranno presentati i temi di ricerca e sviluppo nel campo della catalogazione e fruizione digitali: ontologie, dizionari normalizzati aperti, database (Catalogo Digitale), etc. Per l’ambito edilizio-architettonico verrà introdotto l’Heritage Building Information Modeling (HBIM) semantico come metodologia multidisciplinare focalizzata su rilievo geometrico, modellazione, archiviazione e scambio di tutte le informazioni utili alla conoscenza e conservazione dei beni storici. Il punto d’incontro tra i due mondi è individuato nella possibilità di arricchire le geometrie attraverso la definizione di una semantica (parametri-metadati) relazionata alle informazioni (valori-dati) presenti nei cataloghi digitali, creando di fatto un modello 3D per architetture storiche con funzione di database multidisciplinare. Sarà presentata la piattaforma web-based Inception, sviluppata dall’omonima startup incubata come spinoff dall’Università di Ferrara, che, tra le diverse applicazioni e potenzialità, verrà utilizzata come strumento per la condivisione e fruizione, garantendo la possibilità di interrogare geometrie e metadati in continuità con i principi LOD. Verrà definito un workflow generale (procedure Scan2BIM, modellazione geometrica, definizione script per l’estrazione automatica dei dati dal Catalogo Digitale, associazione dati-geometrie e caricamento in piattaforma) successivamente applicato e adattato alle precise necessità del caso studio: la Chiesa di S. Maria delle Vergini (MC), su commissione dell’ICCD referente al MiBACT.
Resumo:
La tesi si occupa di delineare una panoramica sul sistema dell'industria dei media e in particolare delle tendenze contemporanee produttive e di marketing volte ad attirare il maggior numero di consumatori. Si prende in esame il prodotto cinematografico dal punto di vista economico e di marketing delineandone i diversi processi: dal marketing mix alle tecniche di segmentazione, targeting e posizionamento fino alle diverse componenti del prodotto stesso che influenzano le scelte dei fruitori. Quest'ultimi esprimono esigenze diverse ed è per questo che è importante che si conosca la domanda a cui rivolgersi e saper comunicare nel modo più adeguato possibile. Nella contemporaneità lo spettatore è sempre più attivo e coinvolto poiché con la sovrabbondanza di offerta si cerca di produrre contenuti più complessi, serializzati e high concept proprio con l'obiettivo di attrarre. Nell'era della convergenza, come definita da Henry Jenkins, si parla di prosumer, ovvero di soggetti che partecipano attivamente al consumo dei prodotti producendo a loro volta contenuti. A queste dinamiche, il marketing contemporaneo risponde a sua volta con forme esperienziali e a forme virali che possano attirare l'attenzione. Analizzo a tal proposito la campagna marketing della serie tv Mr. Robot in quanto si inserisce all'interno della complessità produttiva e della transmedialità e il caso cinematografico della campagna di No Time to Die, l'ultimo film del franchise di 007, in era pandemica.
Resumo:
Il sistema muscolo scheletrico è costituito dall’insieme di ossa, cartilagini e tessuti molli come muscoli, tendini e legamenti, che presentano una diversa struttura e differenti proprietà meccaniche tra loro. La sua principale funzione è quella di fornire supporto, forma e garantire il movimento fisiologico del corpo. Per questa ragione, il sistema muscolo scheletrico e continuamente sollecitato e di conseguenza molto soggetto a traumi o infortuni. Un’alternativa all’approccio chirurgico tradizionale è l’ingegneria tissutale che permette di creare scaffold in grado di promuovere la rigenerazione dei tessuti naturali. Negli ultimi decenni si è riscontrato un forte incremento dell’utilizzo della stampa 3D e dell’elettrofilatura come tecniche di fabbricazione di questi scaffold grazie ai loro diversi vantaggi. La stampa 3D presenta diversi benefici, tra cui la possibilità di creare costrutti personalizzati in grado di riprodurre similmente la geometria del tessuto nativo con efficienza dei costi e tempi di produzione ridotti rispetto alle tecniche tradizionali. Tuttavia, questa tecnica presenta ancora una limitata risoluzione sufficiente, ad esempio, per riprodurre la struttura e le proprietà del tessuto osseo, ma non idonea al raggiungimento della scala nanometrica, tipica dei tessuti fibrosi muscolo scheletrici. Al contrario, l’elettrofilatura è in grado di produrre fibre nanometriche che riescono a mimare la matrice extracellulare di questi tessuti. Tuttavia, si riscontrano ancora alcune difficoltà nel controllare la struttura tridimensionale e le proprietà meccaniche di questi scaffold nella scala micro e macrometrica. Lo scopo di questa tesi è quello di analizzare gli studi che utilizzano un approccio combinato tra stampa 3D ed elettrofilatura per la produzione di scaffold per la rigenerazione del tessuto muscolo scheletrico, definendo lo stato dell’arte dei vari processi di produzione e le possibili prospettive future.
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.
Resumo:
Nell’ambito della Stereo Vision, settore della Computer Vision, partendo da coppie di immagini RGB, si cerca di ricostruire la profondità della scena. La maggior parte degli algoritmi utilizzati per questo compito ipotizzano che tutte le superfici presenti nella scena siano lambertiane. Quando sono presenti superfici non lambertiane (riflettenti o trasparenti), gli algoritmi stereo esistenti sbagliano la predizione della profondità. Per risolvere questo problema, durante l’esperienza di tirocinio, si è realizzato un dataset contenente oggetti trasparenti e riflettenti che sono la base per l’allenamento della rete. Agli oggetti presenti nelle scene sono associate annotazioni 3D usate per allenare la rete. Invece, nel seguente lavoro di tesi, utilizzando l’algoritmo RAFT-Stereo [1], rete allo stato dell’arte per la stereo vision, si analizza come la rete modifica le sue prestazioni (predizione della disparità) se al suo interno viene inserito un modulo per la segmentazione semantica degli oggetti. Si introduce questo layer aggiuntivo perché, trovare la corrispondenza tra due punti appartenenti a superfici lambertiane, risulta essere molto complesso per una normale rete. Si vuole utilizzare l’informazione semantica per riconoscere questi tipi di superfici e così migliorarne la disparità. È stata scelta questa architettura neurale in quanto, durante l’esperienza di tirocinio riguardante la creazione del dataset Booster [2], è risultata la migliore su questo dataset. L’obiettivo ultimo di questo lavoro è vedere se il riconoscimento di superfici non lambertiane, da parte del modulo semantico, influenza la predizione della disparità migliorandola. Nell’ambito della stereo vision, gli elementi riflettenti e trasparenti risultano estremamente complessi da analizzare, ma restano tuttora oggetto di studio dati gli svariati settori di applicazione come la guida autonoma e la robotica.
Resumo:
L’obiettivo della tesi è quello di realizzare un progetto basato sull’interazione tra Raspberry Pi e NanoVNA, allo scopo di rendere automatico il processo di acquisizione dei dati di questo strumento di misura. A tal fine è stato sviluppato un programma in linguaggio Python, eseguibile dal terminale del Raspberry Pi, che permette all’utente di inserire agevolmente i parametri essenziali, come l’orario di inizio e termine delle misurazioni e l'intervallo di tempo tra una rilevazione e l’altra.
Resumo:
L'avanzamento nel campo della long document summarization dipende interamente dalla disponibilità di dataset pubblici di alta qualità e con testi di lunghezza considerevole. Risulta pertanto problematico il fatto che tali dataset risultino spesso solo in lingua inglese, comportandone una limitazione notevole se ci si rivolge a linguaggi le cui risorse sono limitate. A tal scopo, si propone LAWSU-IT, un nuovo dataset giudiziario per long document summarization italiana. LAWSU-IT è il primo dataset italiano di summarization ad avere documenti di grandi dimensioni e a trattare il dominio giudiziario, ed è stato costruito attuando procedure di cleaning dei dati e selezione mirata delle istanze, con lo scopo di ottenere un dataset di long document summarization di alta qualità. Inoltre, sono proposte molteplici baseline sperimentali di natura estrattiva e astrattiva con modelli stato dell'arte e approcci di segmentazione del testo. Si spera che tale risultato possa portare a ulteriori ricerche e sviluppi nell'ambito della long document summarization italiana.
Resumo:
Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.
Resumo:
Nel corso dell’elaborato verranno utilizzate tecniche e strumenti di analisi automatica di dati aventi carattere testuale. Lo scopo del lavoro di tesi consisterà nel condurre text mining e sentiment analysis su dei messaggi al fine di comprenderne il significato, con interesse particolare sulle emozioni ed i sentimenti in essi contenuti per riuscire ad estrapolare informazioni di interesse.
Resumo:
Il piede è la struttura anatomica multi-articolare che media il contatto dell’apparato muscoloscheletrico con il suolo ed è, quindi, fondamentale per la locomozione e per la maggioranza dei task motori. Per questo, l’analisi cinematica intrarticolare in-vivo del complesso piede-caviglia risulta essere di grande interesse in ambito biomeccanico e in ambito clinico. La quantificazione del moto relativo è, però, complessa a causa del numero di ossa presenti nel piede, ben 26, e alla loro distribuzione. Tali limitazioni possono essere superate ricorrendo a misure in risonanza magnetica dinamica (DMRI). Questo elaborato presenta un primo approccio esplorativo per determinare la cinematica del piede. In particolare l’analisi si è concentrata, per semplicità, sullo studio del retropiede, quindi sul moto relativo tra tibia, talo e calcagno, nel caso di flessione plantare libera, ovvero senza alcun carico applicato. Il complesso piede-caviglia è stato scansionato suddividendo il range di movimento in 13 pose statiche. Da ognuna delle 13 acquisizioni di tipo volumetrico sono state simulate delle scansioni dinamiche, in modo da ottenere una cinematica certa di riferimento, per poter valutare la precisione dell’algoritmo utilizzato. La ricostruzione della cinematica tridimensionale del complesso esaminato si è basata su un algoritmo di registrazione, composto da un primo processo di inizializzazione semiautomatico ed una successiva registrazione 2D/3D automatica basata sull’intensità dei voxel. Di particolare interesse in questa indagine è la ricostruzione dei tre moti relativi: tibia-talo, tibia-calcagno e talo-calcagno. Per valutare la precisione dell’algoritmo nella ricostruzione della cinematica è stato calcolato l’errore medio in valore assoluto tra le coordinate dei modelli nelle pose di riferimento e le coordinate fornite dal codice. I risultati ottenuti sono di notevole interesse visto il carattere esplorativo dello studio.