614 resultados para modelli istereticiopensees
Resumo:
Le normative antinquinamento sempre più stringenti in termini di emissioni prodotte da un MCI hanno reso necessario lo studio e lo sviluppo di modelli predittivi in grado quindi di simulare tutto ciò che avviene all’interno della camera di combustione; allo scopo di ottimizzare quello che è un prodotto industriale e che pertanto va venduto. Il presente elaborato di tesi si è quindi incentrato sull’impatto che uno spray di combustibile, iniettato ad alta pressione, ha su pareti calde e fredde, analizzando tutto ciò che concerne l’eventuale sviluppo di wall-film prodotto come la relativa massa, area, spessore e raffreddamento della parete per via della propria interazione con il film a parete. Sono stati prima di tutto studiati i fenomeni fisici in atto e successivamente analizzati i modelli implementati nel codice di calcolo commerciale utilizzato STAR-CD, in particolare il modello di boiling, il modulo 1D-CHT ed il modello di impatto Bai-ONERA; il tutto facendo riferimento a esperimenti, già condotti, presenti in letteratura.
Resumo:
In questa tesi abbiamo presentato/analizzato metodi variazionali allo stato dell’arte per la ricostruzione – ovvero, rimozione di sfocamento e rumore - di una classe specifica di segnali/immagini caratterizzati dal fatto di essere costanti a tratti e bilivello. Tali metodi ottengono la ricostruzione tramite la minimizzazione di un funzionale formato da due parti: un termine di fedeltà ai dati, la cui forma dipende dal tipo di rumore considerato, e un termine di regolarizzazione che codifica l’informazione a priori disponibile sul segnale da ricostruire (ad esempio, la sua regolarità). Per segnali costanti a tratti, è ben noto che il regolarizzatore deve avere la proprietà di promuovere la sparsità delle derivate prime del segnale. In particolare, molte proposte allo stato dell’arte sfruttano la pseudo-norma l0 o la norma l1 del gradiente, ossia la Variazione Totale (TV). La prima scelta è ottimale in linea teorica poiché promuove al meglio la sparsità, ma il funzionale è fortemente non convesso e i metodi numerici di minimizzazione possono convergere a soluzioni locali. Nel caso di TV si ha invece un problema convesso che garantisce la convergenza a minimi globali ma la qualità della soluzione è sub-ottima. Motivati da vantaggi/svantaggi di l0 ed l1, in questa tesi si è deciso di investigare (teoricamente e sperimentalmente) l’uso di modelli variazionali di tipo Convesso-NonConvesso (CNC). Questi utilizzano particolari regolarizzatori non convessi e parametrici che consentono da un lato di sparsificare meglio di l1, dall’altro di mantenere la convessità del funzionale così da presentare un unico punto di minimo. Tra i metodi CNC investigati, quello denominato GME-TV basato sul concetto di inviluppo di Moreau generalizzato ha prodotto ricostruzioni di qualità sempre migliore di TV e a volte, diremmo sorprendentemente, anche di l0. Questo rappresenta un risultato di particolare rilevanza scientifica nel campo della ricostruzione di segnali/immagini.
Resumo:
Il seguente lavoro è uno studio di iniezione (strategia, timing, spray pattern) svolto con la simulazione numerica, alle quali oggi si richiede dettaglio e accuratezza. Il lavoro si concentra sullo studio di spray multi componente, tramite la scrittura di una UDF (user define function) proprietaria, valutazione sensibilità dell'impatto a parete, film boiling a parametri modellistici influenzati dal multicomponente e scrittura di un codice per l'elaborazione delle immagini sia sperimentali che numeriche per rendere più esteso il confronto tra CFD e sperimentale, per migliorare le tarature e i modelli e comprendere meglio la fenomenologia.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
Trattamento dati, modellazione e calibrazione di un motore da competizione
Resumo:
Lo studio di modelli teorici e matematici della memoria semantica ricopre un ruolo importante nelle neuroscienze cognitive. I modelli neuro-computazionali sviluppati negli ultimi decenni vengono impiegati per spiegare e simulare come le informazioni recepite dall’esterno vengono memorizzate e successivamente utilizzate. In questo elaborato si sviluppa un modello di rete semantica per il riconoscimento di concetti, definiti come insieme di caratteristiche. Fondamentale è il ruolo assunto dalle diverse proprietà, che sono state suddivise fra salienti e marginali, distintive e condivise. I concetti presi in considerazione con le rispettive feature, fanno parte di un ampio data set fornito dalla Dott.ssa Catricalà. La rete sviluppata rientra tra i modelli di massa neuronale che considera quattro popolazioni di neuroni: piramidali, inter-neuroni eccitatori, inter-neuroni inibitori lenti e inter-neuroni inibitori veloci. Il modello sviluppato si basa sullo studio del professor Ursino et al. e utilizza oscillatori in banda gamma. Tramite sincronizzazione di queste oscillazioni è possibile memorizzare concetti e successivamente recuperarli, mantenendoli in memoria simultaneamente. Il richiamo di più concetti contemporaneamente avviene tramite desincronizzazione delle oscillazioni ad opera di un inibitore globale, modellato tramite funzione a gradino. Per modellare l’apprendimento della rete è stata utilizzata la regola di Hebb, sfruttando soglie pre e post-sinaptiche differenti così da costruire sinapsi asimmetriche che permettono una differenziazione delle feature.
Resumo:
Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.
Resumo:
La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.
Resumo:
La malattia COVID-19 associata alla sindrome respiratoria acuta grave da coronavirus 2 (SARS-CoV-2) ha rappresentato una grave minaccia per la salute pubblica e l’economia globale sin dalla sua scoperta in Cina, nel dicembre del 2019. Gli studiosi hanno effettuato numerosi studi ed in particolar modo l’applicazione di modelli epidemiologici costruiti a partire dai dati raccolti, ha permesso la previsione di diversi scenari sullo sviluppo della malattia, nel breve-medio termine. Gli obiettivi di questa tesi ruotano attorno a tre aspetti: i dati disponibili sulla malattia COVID-19, i modelli matematici compartimentali, con particolare riguardo al modello SEIJDHR che include le vaccinazioni, e l’utilizzo di reti neurali ”physics-informed” (PINNs), un nuovo approccio basato sul deep learning che mette insieme i primi due aspetti. I tre aspetti sono stati dapprima approfonditi singolarmente nei primi tre capitoli di questo lavoro e si sono poi applicate le PINNs al modello SEIJDHR. Infine, nel quarto capitolo vengono riportati frammenti rilevanti dei codici Python utilizzati e i risultati numerici ottenuti. In particolare vengono mostrati i grafici sulle previsioni nel breve-medio termine, ottenuti dando in input dati sul numero di positivi, ospedalizzati e deceduti giornalieri prima riguardanti la città di New York e poi l’Italia. Inoltre, nell’indagine della parte predittiva riguardante i dati italiani, si è individuato un punto critico legato alla funzione che modella la percentuale di ricoveri; sono stati quindi eseguiti numerosi esperimenti per il controllo di tali previsioni.
Resumo:
Questo lavoro è incentrato sulla pianificazione delle acquizioni e scaricamento del satellite PLATiNO. Le operazioni permesse a questo satellite sono vincolate da varie attività tra cui acquisizioni, manovre e scaricamento di dati. L'obiettivo finale è quello di soddisfare più richieste possibili massimizzando le operazioni del satellite senza però violare i vincoli imposti. A questo scopo, è stato sviluppato un modello in formulazione MILP per una versione rilassata del problema. In questa Tesi vengono innanzitutto trattati i principali argomenti di programmazione lineare e intera in modo da poter affrontare il modello matematico inerente al problema di downlink di PLATiNO. Successivamente viene descritto nel dettaglio il problema da modellizzare, con particolare attenzione alla strategia di downlink, che costituisce l'aspetto più problematico nella costruzione del modello. Si opta, infatti, per una formulazione mista rilassando i vincoli inerenti allo scaricamento dei dati. Infine, vengono valutate le prestazioni del modello rilassato confrontandolo con la sua versione esatta.
Resumo:
Il presente lavoro di tesi è stato svolto presso Marr S.p.A.: azienda italiana leader nella distribuzione di prodotti alimentari alla ristorazione extra domestica. Il fulcro dell'attività di MARR S.p.A risiede nell'approvvigionamento dei prodotti ai clientii. Per assicurare un servizio efficiente e redditizio è necessaria un'attenta pianificazione logistica, perciò, il lavoro di questa tesi si è concentrato su due aspetti centrali dell'operazione di riordino merce: la predizione della domanda futura dei prodotti, sulla base di dati riferiti al passato e l'individuazione della quantità effettiva da riordinare all'interno dei magazzini dell'azienda. Si è quindi svolta un'attenta analisi dell'attuale gestione dell'approvvigionamento da parte dell'azienda, quindi, ne sono state messe in luce le principali criticità, le quali risiedono nel fatto che il processo di riordino viene eseguito in maniera manuale sulla base dell'esperienza del Responsabile Acquisti. quindi, sono state sviluppate delle proposte di miglioramento delle attività di riordino: attraverso l’applicazione di modelli previsionali, è stato calcolato, per un campione ristretto di prodotti, il loro fabbisogno mensile, successivamente, questi risultati sono stati integrati con i vincoli di tempo di copertura e minimo d’ordine. Sono stati definiti e calcolati alcuni indici che potessero esprimere il grado di miglioramento della performance aziendale. I risultati avuti attraverso il lavoro di tesi cosa dimostrano quanto l’utilizzo di metodi basati sulle serie storiche forniscano una stima dei volumi di vendita futura più affidabili confronto a quelli ottenuti utilizzando i dati di vendita del mese corrente come stima delle vendite future. Attraverso l’utilizzo dei metodi di Media Mobile, Smorzamento Esponenziale e di Holt-Winters si può arrivare ad un livello di precisione maggiore di quello in uso in MARR S.p.A. ed è possibile giungere ad un’ottimizzazione dei magazzini, riducendone la giacenza del 10%.
Resumo:
Il Web 3.0 è un'estensione del web come lo conosciamo oggi basata sulla blockchain e che ha permesso negli ultimi anni lo sviluppo della Token Economy. I token e gli smart contract sono gli strumenti che permettono di creare nuovi modelli di business tokenizzati. Questa tesi ha lo scopo di capire quale sia il legame tra lo sviluppo delle tecnologie del Web 3.0 e i modelli di business che ne derivano, andando a individuare i modelli imprenditoriali più noti, la loro value proposition e le complicazioni ad essi associate.
Resumo:
A partire dagli anni ’50 furono sviluppati numerosi modelli con l’intento di studiare i fenomeni connessi al traffico. Alcuni di essi riuscirono non solo a spiegare i fenomeni per i quali erano stati ideati ma misero in evidenza altre caratteristiche tipiche dei sistemi dinamici, come la presenza di cicli di isteresi e cambiamenti nella distribuzione dei tempi di percorrenza in situazioni di congestione. Questo lavoro si propone di verificare la validità di un modello semplificato ideato per mettere in luce i comportamenti tipici di un sistema di traffico, in particolare le congestioni che si vengono a creare sulla rete stradale. Tale modello è stato implementato per mezzo della libreria C++ Traffic Flow Dynamics Model, reperibile al link https://github.com/Grufoony/TrafficFlowDynamicsModel. Ai fini dello studio sono stati utilizzati i Diagrammi Fondamentali Macroscopici, particolari diagrammi che mettono in relazione gli osservabili principali di un network stradale quali velocità, densità e flusso. Variando il carico immesso nella rete stradale è stato possibile studiare il sistema in diversi regimi: carico costante, carico piccato e carico periodico. Mediante questi studi sono emerse diverse proprietà tipiche di ogni regime e, per alcuni di essi, è stata verificate e giustificate la presenza di uno o più cicli di isteresi. In ultimo è stata effettuata una breve analisi ad-hoc volta a evidenziare i cambiamenti nella distribuzione dei tempi di percorrenza in relazione al regime di traffico considerato.
Resumo:
La quantificazione non invasiva delle caratteristiche microstrutturali del cervello, utilizzando la diffusion MRI (dMRI), è diventato un campo sempre più interessante e complesso negli ultimi due decenni. Attualmente la dMRI è l’unica tecnica che permette di sondare le proprietà diffusive dell’acqua, in vivo, grazie alla quale è possibile inferire informazioni su scala mesoscopica, scala in cui si manifestano le prime alterazioni di malattie neurodegenerative, da tale tipo di dettaglio è potenzialmente possibile sviluppare dei biomarcatori specifici per le fasi iniziali di malattie neurodegenerative. L’evoluzione hardware degli scanner clinici, hanno permesso lo sviluppo di modelli di dMRI avanzati basati su acquisizioni multi shell, i quali permettono di ovviare alle limitazioni della Diffusion Tensor Imaging, in particolare tali modelli permettono una migliore ricostruzione trattografica dei fasci di sostanza bianca, grazie ad un’accurata stima della Orientation Distribution Function e la stima quantitativa di parametri che hanno permesso di raggiungere una miglior comprensione della microstruttura della sostanza bianca e delle sue eventuali deviazioni dalla norma. L’identificazione di biomarcatori sensibili alle prime alterazioni microstrutturali delle malattie neurodegenerative è uno degli obbiettivi principali di tali modelli, in quanto consentirebbero una diagnosi precoce e di conseguenza un trattamento terapeutico tempestivo prima di una significante perdità cellulare. La trattazione è suddivisa in una prima parte di descrizione delle nozioni fisiche di base della dMRI, dell’imaging del tensore di diffusione e le relative limitazioni, ed in una seconda parte dove sono analizzati tre modelli avanzati di dMRI: Diffusion Kurtosis Imaging, Neurite Orientation Dispersion and Density Imaging e Multi Shell Multi Tissue Constrained Spherical Deconvolution. L'obiettivo della trattazione è quello di offrire una panoramica sulle potenzialità di tali modelli.
Resumo:
Questa tesi tratta di alcuni semplici modelli matematici, formulati in termini di equazioni differenziali ordinarie, riguardanti la crescita dei tumori e possibili trattamenti per contrastarla. Nel primo capitolo viene data un'introduzione sulla stabilità dei punti di equilibrio di sistemi di equazioni differenziali ordinarie, mentre nel secondo capitolo vengono affrontati e confrontati tre modelli ad una equazione: il modello esponenziale, il modello logistico e il modello di Gompertz. Si introducono poi due modelli a due equazioni differenziali: uno riguardante l'angiogenesi a due compartimenti e l'altro riguardante un modello lineare-quadratico applicato alla radiobiologia. Viene fatto poi un accenno ad un modello con equazioni alle derivate parziali. Infine, nell'ultimo capitolo, viene introdotto un modello a tre equazioni differenziali ordinarie a tre compartimenti in cui viene studiata l'interazione tra tre popolazioni di cellule: cellule immunitarie effettrici, cellule ospiti e cellule tumorali.