628 resultados para studio implementazione modelli continui deflusso
Resumo:
Il presente lavoro di tesi si inserisce all'interno di uno studio dal titolo: "Strategia di posizionamento multi-step come approccio pragmatico per ridurre il rischio di encefalopatia epatica post-TIPS (shunt trans-giugulare porto-sistemico intraepatico) in pazienti cirrotici con ascite refrattaria". Il progetto di tesi si è concentrato sull'analisi dei segnali ottenuti tramite DCE MRI, con lo scopo di implementare in ambiente MatLab due modelli differenti (Dual input - Mono compartment e Dual input - Dual compartment) che descrivono la cinetica del tracciante all'interno del sistema vascolare epatico e valutare l'efficacia dei parametri di perfusione associati nella descrizione delle variazioni in termini di microcircolazione introdotte dall'inserimento del TIPS. Inizialmente si sono voluti valutare, tramite simulazione, gli effetti in termini di amplificazione del rumore e stima dei parametri perfusionali dell'approssimazione lineare nella conversione da intensità di segnale MR a concentrazione di mezzo di contrasto. Successivamente, sempre attraverso simulazioni, per entrambi i modelli considerati è stato scelto uno schema di model-fitting e quindi testata l'affidabilità in termini di accuratezza e precisione delle stime dei parametri ottenute in funzione del livello di rumore associato alle curve di intensità di segnale. Parallelamente all'implementazione dei modelli per la stima di parametri di perfusione, sono stati realizzati dei phantom con l'obiettivo di simulare il parenchima epatico prima e dopo l'arrivo del mezzo di contrasto e poter testare la sequenza utilizzata durante l'acquisizione dei dati su paziente. Infine sono stati considerati gli esami di DCE MRI effettuati su un campione di nove pazienti pre e post-TIPS, utilizzando per l'analisi dei segnali entrambi i modelli implementati in fase di simulazione e successivamente valutando le variazioni nel valori associati ai parametri di perfusione introdotte dall'inserimento del TIPS.
Resumo:
Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.
Resumo:
In questa tesi inizialmente ci si è occupati di definire ed approfondire le caratteristiche della tecnologia Wi-Fi Direct, illustrandone il funzionamento, l’architettura e gli scenari di utilizzo. Successivamente è stata sviluppata un’applicazione basata su tale tecnologia, con lo scopo di fornire un servizio di disseminazione di messaggi d’aiuto in situazioni di emergenza o di catastrofi naturali, nelle quali la rete cellulare viene inevitabilmente meno. In queste occasioni c’è il bisogno di avere uno strumento che permetta di comunicare in maniera facile, veloce e che sia alla portata di tutti. Caratteristiche e qualità proprie di uno smartphone, dispositivo che oggigiorno è presente nelle tasche di ognuno di noi. L’obiettivo finale infatti, sarebbe quello di creare un applicativo che possa idealmente essere preinstallato in ogni nostro dispositivo, un servizio che sia diffuso, compreso ed utilizzabile istantaneamente da tutti, in modo tale da essere una sicurezza e un aiuto di vitale importanza in situazioni di pericolo. Per lo sviluppo di una tale applicazione ci si è basati sul sistema operativo Android, che è il più diffuso tra gli utenti di tutto il mondo. Nel primo capitolo ci si è occupati di di presentare ed approfondire la tecnologia Wi-Fi Direct, definendone gli ambiti generali di utilizzo e le problematiche che vengono affrontate. Nel secondo capitolo si prosegue con la presentazione della tecnologia in ambiente Android, descrivendo le API fornite da Google per l’utilizzo del servizio in questione. Nel terzo capitolo, dopo un’analisi dei progetti che coinvolgono tale tecnologia, viene illustrata l’applicazione creata, le sue funzionalità e caratteristiche ed eventuali casi d’uso. Nel quarto capitolo è stata inserita la parte più tecnica, dove illustro i problemi incontrati e le modalità di risoluzione degli stessi, insieme alle strutture ed agli oggetti messi a disposizione da Java che sono stati utilizzati. Infine nel capitolo conclusivo è stato fatto un riepilogo del lavoro svolto, indicando le difficoltà incontrate ed eventuali possibili miglioramenti e sviluppi futuri del mio progetto.
Resumo:
La tesi indaga il problema di calibrazione Hand Eye, ovvero la trasformazione geometrica fra i diversi sistemi di riferimento della camera e dell'attuatore del robot, presentando il problema ed analizzando le varie soluzioni proposte in letteratura. Viene infine presentata una implementazione realizzata in collaborazione con l'azienda SpecialVideo, implementata utilizzando l'algoritmo proposto da Konstantinos Daniilidis, il quale propone una formulazione del problema sfruttando l'utilizzo di quaternioni duali, risolvendo simultaneamente la parte rotatoria e traslatoria della trasformazione. Si conclude il lavoro con una analisi dell'efficacia del metodo implementato su dati simulati e proponendo eventuali estensioni, allo scopo di poter riutilizzare in futuro il lavoro svolto nel software aziendale, con dati reali e con diversi tipi di telecamere, principalmente camere lineari o laser.
Resumo:
L’Image Labeling è una tecnica che si occupa di assegnare ad ogni pixel di un’immagine un valore, chiamato label (etichetta), in base a determinate caratteristiche dei punti vicini. Lo scopo del labeling è di semplificare e/o modificare la rappresentazione delle immagini al fine di ottenere qualcosa di più significativo e facile da analizzare.
Resumo:
Nell'ambito dei motori ad accensione comandata, la comprensione del processo di accensione e delle prime fasi di sviluppo del kernel è di primaria importanza per lo studio dell'intero processo di combustione, dal momento che questi determinano lo sviluppo successivo del fronte di fiamma. Dal punto di vista fisico, l'accensione coinvolge un vasto numero di fenomeni di natura molto complessa, come processi di ionizzazione e passaggio di corrente nei gas: molti di questi avvengono con tempi caratteristici che ne impediscono la simulazione tramite le attuali tecniche CFD. Si rende pertanto necessario sviluppare modelli semplificati che possano descrivere correttamente il fenomeno, a fronte di tempi di calcolo brevi. In quest'ottica, il presente lavoro di tesi punta a fornire una descrizione accurata degli aspetti fisici dell'accensione, cercando di metterne in evidenza gli aspetti principali e le criticità. A questa prima parte di carattere prettamente teorico, segue la presentazione del modello di accensione sviluppato presso il DIN dell'Università di Bologna dal Prof. Bianche e dall'Ing. Falfari e la relativa implementazione tramite il nuovo codice CONVERGE CFD: la validazione è infine condotta riproducendo un caso test ben noto il letteratura, che mostrerà un buon accordo tra valori numerici e sperimentali a conferma della validità del modello.
Resumo:
L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
Caviro Extra è un’azienda con sede a Faenza, impegnata nella lavorazione dei sottoprodotti derivanti dalla vinificazione e nella produzione di energia sostenibile ottenuta sia dai propri scarti di lavorazione che da rifiuti agroalimentari di aziende terze. Lo stabilimento svolge autonomamente il trattamento dei reflui abbattendo le sostanze inquinanti e permettendo così lo scarico in pubblica fognatura. Lo scopo della tesi è quello di studiare la fattibilità, tramite lo studio bibliografico, dell’implementazione di un bioreattore aerobico a membrana (MBR) come soluzione impiantistica atta a fronteggiare l’alto carico idraulico ed ammoniacale gestito durante il periodo della campagna di vinificazione. In un’ottica di sostenibilità ambientale si è presentato un secondo scopo , cioè quello di andare a recuperare le acque reflue tramite osmosi inversa. Dallo studio di letteratura scientifica riguardo la capacità di nitrificazione del bioreattore a membrana si hanno risultati favorevoli. Indicando tale sistema come una soluzione efficiente e stabile che può essere applicata nella nitrificazione di acque reflue contenenti un’alta concentrazione di azoto ammoniacale. L’integrazione di un sistema MBR con un’osmosi inversa ha, altresì, dimostrato miglioramenti ulteriori della qualità dell'acqua trattata; dimostrando di fornire un’alta reiezione di nitrato come di cloruri e di solfati ad alta concentrazione iniziale come nel caso in esame e di poter essere la soluzione impiantistica per alleggerire il carico ammoniacale al settore biologico e allo stesso tempo recuperare acqua riducendo la necessità di emungimento da pozzi artesiani. L’azienda verificherà mediante l’attività di testing la reale fattibilità in termini di potenziale miglioramento di depurazione, costi operativi e semplicità di gestione attraverso l’implementazione di impianti pilota sia sulla tecnologia analizzata (MBR+RO) sia su un processo MBBR di tipo ibrido fango attivo/biomassa adesa.
Resumo:
Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.
Resumo:
La quantificazione non invasiva delle caratteristiche microstrutturali del cervello, utilizzando la diffusion MRI (dMRI), è diventato un campo sempre più interessante e complesso negli ultimi due decenni. Attualmente la dMRI è l’unica tecnica che permette di sondare le proprietà diffusive dell’acqua, in vivo, grazie alla quale è possibile inferire informazioni su scala mesoscopica, scala in cui si manifestano le prime alterazioni di malattie neurodegenerative, da tale tipo di dettaglio è potenzialmente possibile sviluppare dei biomarcatori specifici per le fasi iniziali di malattie neurodegenerative. L’evoluzione hardware degli scanner clinici, hanno permesso lo sviluppo di modelli di dMRI avanzati basati su acquisizioni multi shell, i quali permettono di ovviare alle limitazioni della Diffusion Tensor Imaging, in particolare tali modelli permettono una migliore ricostruzione trattografica dei fasci di sostanza bianca, grazie ad un’accurata stima della Orientation Distribution Function e la stima quantitativa di parametri che hanno permesso di raggiungere una miglior comprensione della microstruttura della sostanza bianca e delle sue eventuali deviazioni dalla norma. L’identificazione di biomarcatori sensibili alle prime alterazioni microstrutturali delle malattie neurodegenerative è uno degli obbiettivi principali di tali modelli, in quanto consentirebbero una diagnosi precoce e di conseguenza un trattamento terapeutico tempestivo prima di una significante perdità cellulare. La trattazione è suddivisa in una prima parte di descrizione delle nozioni fisiche di base della dMRI, dell’imaging del tensore di diffusione e le relative limitazioni, ed in una seconda parte dove sono analizzati tre modelli avanzati di dMRI: Diffusion Kurtosis Imaging, Neurite Orientation Dispersion and Density Imaging e Multi Shell Multi Tissue Constrained Spherical Deconvolution. L'obiettivo della trattazione è quello di offrire una panoramica sulle potenzialità di tali modelli.
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Le tempistiche e le richieste industriali obbligano sempre di più i progettisti ad uno studio predittivo delle problematiche che si possono incontrare in fare produttiva. In ambito strutturale questo è già da diversi anni la norma per componenti realizzati con tecnologia tradizionale. In ambito termico, invece, si procede ancora troppo spesso per tentativi seguendo l’esperienza del singolo. Per questo motivo, è necessario uno studio approfondito e un metodo per caratterizzare i transitori termici. Per fare ciò è necessario introdurre un modello semplificativo attraverso l’uso su un provino cilindrico. Questa semplice geometria permette di mettere in relazione la soluzione analitica, la soluzione approssimata agli elementi finiti e la soluzione sperimentale. Una volta ottenuti questi risultati sarà poi possibile, mantenendo invariati il ciclo termico e le caratteristiche termo-strutturali del materiale, modificare a piacimento la geometria per analizzare un qualsiasi componente. Questo approccio permette quindi di realizzare delle analisi FEM sui componenti da stampare e di predirne i gradienti termici e le deformazioni a partire dalle caratteristiche del materiale, della geometria e del ciclo termico a cui sono sottoposti. Permettendo così di valutare in modo preventivo e predittivo problematiche di stabilità geometrica e strutturale.
Resumo:
Descrizione, implementazione in Python e valutazione di modelli di Machine Learning e di tutte le sue fasi di Preprocessing, EDA, Training, Test e Evaluation, per valutare la qualità del vino attraverso le sue caratteristiche fisico-chimiche.
Resumo:
L’elaborato presenta lo sviluppo di un’applicazione web che unisce il con- cetto di crowdsourcing, ovvero un paradigma in cui una colletività esegue una mansione per il raggiungimento di un obiettivo; e il concetto di crowd- sensing, paradigma nel quale un gruppo di persone, utilizzando il proprio dispositivo mobile, condivide dati, che possono essere successivamente stu- diati. SmartCrowd si pone come intermediario tra questi due modelli, e la sua implementazione permette di raccogliere dati da una “folla” che faccia uso dei dispositivi mobili, usufruendo di una piattaforma di crowdsourcing. Con SmartCrowd vengono create le campagne, ovvero insieme di attività svol- te dagli utenti finali; esiste un sistema di interazione con la piattaforma di crowdsourcing di Microworkers, volta al reclutamento delle persone; la con- divisione dei dati tramite smartphone, usando il sensore GPS, eseguita dagli utenti ed infine, tramite SmartCrowd è possibile analizzare i dati ricevuti e fare una valutazione positiva o negativa.
Resumo:
L’utilizzo di reti neurali, applicate a immagini iperspettrali, direttamente a bordo di un satellite, permetterebbe una stima tempestiva ed aggiornata di alcuni parametri del suolo, necessari per ottimizzare il processo di fertilizzazione in agricoltura. Questo elaborato confronta due modelli derivati dalle reti EfficientNet-Lite0 ed EdgeNeXt per la stima del valore di pH del terreno e delle concentrazioni di Potassio (K), Pentossido di Fosforo (P2O5) e Magnesio (Mg) da immagini iperspettrali raffiguranti campi agricoli. Sono stati inoltre testati due metodi di riduzione delle bande: l’Analisi delle Componenti Principali (PCA) e un algoritmo di selezione basato sull’Orthogonal Subspace Projection (OSP). Lo scopo è ridurre le dimensioni delle immagini al fine di limitare le risorse necessarie all’inferenza delle reti, pur preservandone l’accuratezza. L’esecuzione in tempo reale (23.6 fps) della migliore soluzione ottenuta sul sistema embedded Dev Board Mini ne dimostra l’applicabilità a bordo di nanosatelliti.