594 resultados para Modelli termici IGBT
Resumo:
Lo scopo di questa tesi è la trattazione della materia oscura partendo dalle evidenze sperimentali, ripercorrendo i possibili costituenti e riportando dati relativi a rivelazioni dirette ed indirette. Il primo capitolo è dedicato alla discussione delle due più importanti evidenze della presenza di materia oscura, ossia le curve di rotazione ed il Bullet Cluster, che risultano entrambe interazioni di tipo gravitazionale. Si provvede inoltre a fornire le due più plausibili soluzioni in grado di spiegare i risultati ottenuti dalle osservazioni sperimentali e a discutere la loro validità come modello per la descrizione di tali fenomeni. Il capitolo successivo è volto all'esposizione delle possibili particelle che compongono la materia oscura, discutendo quali siano le più probabili, e alla spiegazione della loro creazione nell'Universo primordiale. La terza parte è dedicata alle rilevazioni dirette, consistenti nello scattering fra particelle di materia oscura e nuclei, ed in particolare all'analisi del modello dei neutralini. Vengono poi riportati nello stesso capitolo i risultati di tali rilevazioni, con riferimento agli esperimenti CDMS II, XENON100 e LUX. Nel quarto capitolo si tratteranno i risultati delle rilevazioni indirette, ossia osservazioni di processi derivanti dall'annichilazione di materia oscura, e verranno riportati i risultati degli esperimenti più importanti, fra cui i più recenti sono Fermi-LAT e CTA (ancora in sviluppo). L'ultimo paragrafo è riservato ad un breve riassunto dei risultati e delle ipotesi trattate, per raccogliere i dati più importanti e fornire una visione generale della materia oscura.
Resumo:
Questa tesi introduce le basi del geomagnetismo partendo da un approccio ai modelli fluidi e alle equazioni MHS, accennando alle numerose difficoltà che portano in materia di simulazioni e calcoli. In seguito si introducono i modelli a disco con uno studio approfondito della dinamica che, pur partendo da equazioni molto più semplici e approssimate della trattazione fluida, trova riscontro con i punti fondamentali del geomagnetismo e con i comportamenti dei modelli fluidi.
Resumo:
La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.
Resumo:
Il tumore non è altro che una massa abnorme di tessuto che cresce in eccesso ed in modo scoordinato rispetto ai tessuti normali, e che persiste in questo stato dopo la cessazione degli stimoli che hanno indotto il processo. Questa patologia può presentarsi all’interno del corpo umano in svariate posizioni e forme; la più diffusa forma di tumore è quello epatico, particolarmente discusso in questo studio. Dato il continuo sviluppo di questa malattia, la ricerca ha richiesto un altrettanto miglioramento della tecnologia per eliminarla. Gli studi hanno portato a sviluppare quello che viene definito “trattamento termico dei tumori”, che consiste nell’applicazione di elevate o basse temperature nella posizione desirata per creare necrosi e quindi l’eliminazione della neoplasia. L’obiettivo di questo lavoro è presentare i diversi trattamenti termici utilizzati nella pratica clinica, i modelli matematici utilizzati dalla tecnologia attuale per predire la distribuzione di temperatura nel tessuto e quindi l’efficacia di una determinata tecnologia; infine verranno presentate le ricerche che si pensa potrebbero migliorare l’efficienza della terapia. Per ogni tecnica sono state presentate le dinamiche di utilizzo, i macchinari, i limiti e i vantaggi che la caratterizzano. Ci si è soffermati anche sulla presentazione dell’equazioni matematiche che regolano gli scambi di calore, nonché sui danni provocati ai tessuti da fattori ipertermici o ipotermici, con un particolare esempio sui fattori ipertermici generati da campi elettromagnetici vicini e lontani. Si è cercato, quindi, di fare un quadro generale di questo trattamento toccando i diversi aspetti che lo distinguono dalle altre terapie.
Resumo:
Le normative antinquinamento sempre più stringenti in termini di emissioni prodotte da un MCI hanno reso necessario lo studio e lo sviluppo di modelli predittivi in grado quindi di simulare tutto ciò che avviene all’interno della camera di combustione; allo scopo di ottimizzare quello che è un prodotto industriale e che pertanto va venduto. Il presente elaborato di tesi si è quindi incentrato sull’impatto che uno spray di combustibile, iniettato ad alta pressione, ha su pareti calde e fredde, analizzando tutto ciò che concerne l’eventuale sviluppo di wall-film prodotto come la relativa massa, area, spessore e raffreddamento della parete per via della propria interazione con il film a parete. Sono stati prima di tutto studiati i fenomeni fisici in atto e successivamente analizzati i modelli implementati nel codice di calcolo commerciale utilizzato STAR-CD, in particolare il modello di boiling, il modulo 1D-CHT ed il modello di impatto Bai-ONERA; il tutto facendo riferimento a esperimenti, già condotti, presenti in letteratura.
Resumo:
In questa tesi abbiamo presentato/analizzato metodi variazionali allo stato dell’arte per la ricostruzione – ovvero, rimozione di sfocamento e rumore - di una classe specifica di segnali/immagini caratterizzati dal fatto di essere costanti a tratti e bilivello. Tali metodi ottengono la ricostruzione tramite la minimizzazione di un funzionale formato da due parti: un termine di fedeltà ai dati, la cui forma dipende dal tipo di rumore considerato, e un termine di regolarizzazione che codifica l’informazione a priori disponibile sul segnale da ricostruire (ad esempio, la sua regolarità). Per segnali costanti a tratti, è ben noto che il regolarizzatore deve avere la proprietà di promuovere la sparsità delle derivate prime del segnale. In particolare, molte proposte allo stato dell’arte sfruttano la pseudo-norma l0 o la norma l1 del gradiente, ossia la Variazione Totale (TV). La prima scelta è ottimale in linea teorica poiché promuove al meglio la sparsità, ma il funzionale è fortemente non convesso e i metodi numerici di minimizzazione possono convergere a soluzioni locali. Nel caso di TV si ha invece un problema convesso che garantisce la convergenza a minimi globali ma la qualità della soluzione è sub-ottima. Motivati da vantaggi/svantaggi di l0 ed l1, in questa tesi si è deciso di investigare (teoricamente e sperimentalmente) l’uso di modelli variazionali di tipo Convesso-NonConvesso (CNC). Questi utilizzano particolari regolarizzatori non convessi e parametrici che consentono da un lato di sparsificare meglio di l1, dall’altro di mantenere la convessità del funzionale così da presentare un unico punto di minimo. Tra i metodi CNC investigati, quello denominato GME-TV basato sul concetto di inviluppo di Moreau generalizzato ha prodotto ricostruzioni di qualità sempre migliore di TV e a volte, diremmo sorprendentemente, anche di l0. Questo rappresenta un risultato di particolare rilevanza scientifica nel campo della ricostruzione di segnali/immagini.
Resumo:
Il seguente lavoro è uno studio di iniezione (strategia, timing, spray pattern) svolto con la simulazione numerica, alle quali oggi si richiede dettaglio e accuratezza. Il lavoro si concentra sullo studio di spray multi componente, tramite la scrittura di una UDF (user define function) proprietaria, valutazione sensibilità dell'impatto a parete, film boiling a parametri modellistici influenzati dal multicomponente e scrittura di un codice per l'elaborazione delle immagini sia sperimentali che numeriche per rendere più esteso il confronto tra CFD e sperimentale, per migliorare le tarature e i modelli e comprendere meglio la fenomenologia.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
Trattamento dati, modellazione e calibrazione di un motore da competizione
Resumo:
Lo studio di modelli teorici e matematici della memoria semantica ricopre un ruolo importante nelle neuroscienze cognitive. I modelli neuro-computazionali sviluppati negli ultimi decenni vengono impiegati per spiegare e simulare come le informazioni recepite dall’esterno vengono memorizzate e successivamente utilizzate. In questo elaborato si sviluppa un modello di rete semantica per il riconoscimento di concetti, definiti come insieme di caratteristiche. Fondamentale è il ruolo assunto dalle diverse proprietà, che sono state suddivise fra salienti e marginali, distintive e condivise. I concetti presi in considerazione con le rispettive feature, fanno parte di un ampio data set fornito dalla Dott.ssa Catricalà. La rete sviluppata rientra tra i modelli di massa neuronale che considera quattro popolazioni di neuroni: piramidali, inter-neuroni eccitatori, inter-neuroni inibitori lenti e inter-neuroni inibitori veloci. Il modello sviluppato si basa sullo studio del professor Ursino et al. e utilizza oscillatori in banda gamma. Tramite sincronizzazione di queste oscillazioni è possibile memorizzare concetti e successivamente recuperarli, mantenendoli in memoria simultaneamente. Il richiamo di più concetti contemporaneamente avviene tramite desincronizzazione delle oscillazioni ad opera di un inibitore globale, modellato tramite funzione a gradino. Per modellare l’apprendimento della rete è stata utilizzata la regola di Hebb, sfruttando soglie pre e post-sinaptiche differenti così da costruire sinapsi asimmetriche che permettono una differenziazione delle feature.
Resumo:
Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.
Resumo:
La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.
Resumo:
La malattia COVID-19 associata alla sindrome respiratoria acuta grave da coronavirus 2 (SARS-CoV-2) ha rappresentato una grave minaccia per la salute pubblica e l’economia globale sin dalla sua scoperta in Cina, nel dicembre del 2019. Gli studiosi hanno effettuato numerosi studi ed in particolar modo l’applicazione di modelli epidemiologici costruiti a partire dai dati raccolti, ha permesso la previsione di diversi scenari sullo sviluppo della malattia, nel breve-medio termine. Gli obiettivi di questa tesi ruotano attorno a tre aspetti: i dati disponibili sulla malattia COVID-19, i modelli matematici compartimentali, con particolare riguardo al modello SEIJDHR che include le vaccinazioni, e l’utilizzo di reti neurali ”physics-informed” (PINNs), un nuovo approccio basato sul deep learning che mette insieme i primi due aspetti. I tre aspetti sono stati dapprima approfonditi singolarmente nei primi tre capitoli di questo lavoro e si sono poi applicate le PINNs al modello SEIJDHR. Infine, nel quarto capitolo vengono riportati frammenti rilevanti dei codici Python utilizzati e i risultati numerici ottenuti. In particolare vengono mostrati i grafici sulle previsioni nel breve-medio termine, ottenuti dando in input dati sul numero di positivi, ospedalizzati e deceduti giornalieri prima riguardanti la città di New York e poi l’Italia. Inoltre, nell’indagine della parte predittiva riguardante i dati italiani, si è individuato un punto critico legato alla funzione che modella la percentuale di ricoveri; sono stati quindi eseguiti numerosi esperimenti per il controllo di tali previsioni.
Resumo:
Questo lavoro è incentrato sulla pianificazione delle acquizioni e scaricamento del satellite PLATiNO. Le operazioni permesse a questo satellite sono vincolate da varie attività tra cui acquisizioni, manovre e scaricamento di dati. L'obiettivo finale è quello di soddisfare più richieste possibili massimizzando le operazioni del satellite senza però violare i vincoli imposti. A questo scopo, è stato sviluppato un modello in formulazione MILP per una versione rilassata del problema. In questa Tesi vengono innanzitutto trattati i principali argomenti di programmazione lineare e intera in modo da poter affrontare il modello matematico inerente al problema di downlink di PLATiNO. Successivamente viene descritto nel dettaglio il problema da modellizzare, con particolare attenzione alla strategia di downlink, che costituisce l'aspetto più problematico nella costruzione del modello. Si opta, infatti, per una formulazione mista rilassando i vincoli inerenti allo scaricamento dei dati. Infine, vengono valutate le prestazioni del modello rilassato confrontandolo con la sua versione esatta.
Resumo:
Il presente lavoro di tesi è stato svolto presso Marr S.p.A.: azienda italiana leader nella distribuzione di prodotti alimentari alla ristorazione extra domestica. Il fulcro dell'attività di MARR S.p.A risiede nell'approvvigionamento dei prodotti ai clientii. Per assicurare un servizio efficiente e redditizio è necessaria un'attenta pianificazione logistica, perciò, il lavoro di questa tesi si è concentrato su due aspetti centrali dell'operazione di riordino merce: la predizione della domanda futura dei prodotti, sulla base di dati riferiti al passato e l'individuazione della quantità effettiva da riordinare all'interno dei magazzini dell'azienda. Si è quindi svolta un'attenta analisi dell'attuale gestione dell'approvvigionamento da parte dell'azienda, quindi, ne sono state messe in luce le principali criticità, le quali risiedono nel fatto che il processo di riordino viene eseguito in maniera manuale sulla base dell'esperienza del Responsabile Acquisti. quindi, sono state sviluppate delle proposte di miglioramento delle attività di riordino: attraverso l’applicazione di modelli previsionali, è stato calcolato, per un campione ristretto di prodotti, il loro fabbisogno mensile, successivamente, questi risultati sono stati integrati con i vincoli di tempo di copertura e minimo d’ordine. Sono stati definiti e calcolati alcuni indici che potessero esprimere il grado di miglioramento della performance aziendale. I risultati avuti attraverso il lavoro di tesi cosa dimostrano quanto l’utilizzo di metodi basati sulle serie storiche forniscano una stima dei volumi di vendita futura più affidabili confronto a quelli ottenuti utilizzando i dati di vendita del mese corrente come stima delle vendite future. Attraverso l’utilizzo dei metodi di Media Mobile, Smorzamento Esponenziale e di Holt-Winters si può arrivare ad un livello di precisione maggiore di quello in uso in MARR S.p.A. ed è possibile giungere ad un’ottimizzazione dei magazzini, riducendone la giacenza del 10%.