999 resultados para lineare Programmierung, zertifizierte Lösbarkeit, sichere Zielfunktionswertschranke, SMT Löser, ICP
Resumo:
Questa tesi tratta di alcuni semplici modelli matematici, formulati in termini di equazioni differenziali ordinarie, riguardanti la crescita dei tumori e possibili trattamenti per contrastarla. Nel primo capitolo viene data un'introduzione sulla stabilità dei punti di equilibrio di sistemi di equazioni differenziali ordinarie, mentre nel secondo capitolo vengono affrontati e confrontati tre modelli ad una equazione: il modello esponenziale, il modello logistico e il modello di Gompertz. Si introducono poi due modelli a due equazioni differenziali: uno riguardante l'angiogenesi a due compartimenti e l'altro riguardante un modello lineare-quadratico applicato alla radiobiologia. Viene fatto poi un accenno ad un modello con equazioni alle derivate parziali. Infine, nell'ultimo capitolo, viene introdotto un modello a tre equazioni differenziali ordinarie a tre compartimenti in cui viene studiata l'interazione tra tre popolazioni di cellule: cellule immunitarie effettrici, cellule ospiti e cellule tumorali.
Resumo:
La ventilazione meccanica è un utile strumento per far fronte a patologie respiratorie, ma per avere un risultato ottimale è necessario impostare il ventilatore in modo personalizzato, al fine di rispettare la meccanica respiratoria di ogni paziente. Per far questo si possono utilizzare modelli della meccanica respiratoria dello specifico paziente, i cui parametri devono essere identificati a partire dalla conoscenza di variabili misurabili al letto del paziente. Schranz et al. hanno proposto l’utilizzo di un nuovo metodo, il Metodo Integrale Iterativo, la cui efficacia è stata valutata confrontandone le prestazioni con quelle di altre tecniche consolidate di identificazione parametrica: regressione lineare multipla, algoritmi iterativi e metodo integrale. Tutti questi metodi sono stati applicati ad un modello viscoelastico del secondo ordine della meccanica respiratoria utilizzando sia dati simulati sia dati clinici. Da questa analisi comparata è emerso che nel caso di simulazioni prive di rumore quasi tutti i metodi sono risultati efficaci, seppur con tempi di calcolo diversi; mentre nel caso più realistico con la sovrapposizione del disturbo l’affidabilità ha subito un ridimensionamento notevole in quasi tutti i casi, fatta eccezione per il metodo Simplex Search (SSM) e il Metodo Integrale Iterativo (IIM). Entrambi hanno fornito approssimazioni soddisfacenti con errori minimi, ma la prestazione di IIM è stata decisamente superiore in termini di velocità (fino a 50 volte più rapido) e di indipendenza dai parametri iniziali. Il metodo SSM, infatti, per dare buoni risultati necessita di una stima iniziale dei parametri, dalla quale far partire l’iterazione. Data la sua natura iterativa, IIM ha invece dimostrato di poter arrivare a valori realistici dei parametri anche in caso di condizioni iniziali addirittura fuori dal range fisiologico. Per questo motivo il Metodo IIM si pone come un utile strumento di supporto alla ventilazione meccanica controllata.
Resumo:
Il tema centrale di questa Tesi è il cosiddetto "Teorema di Rappresentazione di Riesz" per i funzionali positivi su alcuni spazi di funzione continue. Questo Teorema, caposaldo dell'Analisi Funzionale, è inscindibilmente legato alla Teoria della Misura. Esso, infatti, stabilisce un'importante legame tra funzionali lineari positivi e misure positive di Radon. Dopo un'ampia disamina di questo Teorema, la Tesi si concentra su alcune delle sue Applicazioni in Analisi Reale e in Teoria del Potenziale. Nello specifico, viene provato un notevole risultato di Analisi Reale: la differenziabilità quasi dappertutto delle funzioni monotone su un intervallo reale. Nella dimostrazione di questo fatto, risulta cruciale anche un interessantissimo argomento di "continuità dalla positività", attraverso cui passiamo varie volte nella Tesi. Infatti, esso è determinante anche nelle Applicazioni in Teoria del Potenziale per la costruzione della misura armonica di un aperto regolare e della cosiddetta "misura di Riesz di una funzione subarmonica".
Resumo:
L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.
Resumo:
L’attuale sistema produttivo prevede un processo lineare: si prelevano materie prime, si utilizzano per realizzare il proprio prodotto e si generano scarti. Questo ha inevitabilmente portato allo sfruttamento eccessivo delle risorse del pianeta e alle problematiche relative allo smaltimento di quantità sproporzionate di rifiuti. Il sistema è evidentemente in crisi e questo non è affatto d’aiuto all’economia, tantomeno all’emergenza climatica alla quale semmai contribuisce. La simbiosi industriale si presenta come una soluzione in grado di ridurre le emissioni inquinanti e ottenere un’economia redditizia e sostenibile. La sua implementazione richiede che ci siano le giuste condizioni per riuscire a creare una vera e propria rete di aziende in connessione tra loro. L’elaborato prevede nella parte iniziale un excursus sulle pratiche di simbiosi industriale e i loro esempi, per poi concentrarsi sull’area di interesse, analizzando il tessuto imprenditoriale e sezionandolo tramite criteri di scelta, al fine di evidenziare possibili situazioni favorevoli a questa metodologia. Il lavoro è stato realizzato durante l’attività di tirocinio presso Enea, nell’ambito del progetto Marlic per la regione Marche. Lo studio si propone tuttavia di ricercare soluzioni replicabili in luoghi e contesti anche diversi da quello preso in esame; l’obiettivo è dimostrare ulteriormente l’efficacia e l’efficienza della metodologia offrendo alternative verosimili.
Resumo:
Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.
Resumo:
Il Raytracing è una delle tecniche più utilizzate per generare immagini fotorealistiche. Introdotto nel mondo del rendering da più di 40 anni, col tempo si è evoluto, e ad oggi è considerato la tecnica standard in industrie come VFX e film d'animazione. Il problema del Raytracing risiede nel fatto che per essere applicato, bisogna effettuare dei test d'intersezione, raggio-primitiva, con tutti gli oggetti presenti nella scena da renderizzare. Sebbene queste operazioni siano tutto sommato semplici, tipicamente il numero degli oggetti su cui vanno effettuate è talmente elevato che l'applicazione di questa tecnica diventa impraticabile. Per questo si è pensato di raggruppare le primitive in speciali strutture dati chiamate Strutture di accelerazione spaziale. Esse hanno il compito di ridurre il numero di test da effettuare, abbassando il costo asintotico della ricerca da lineare a sub-lineare (o logaritmico) nel numero di primitive. Nel corso degli anni sono state introdotte diverse strutture di accelerazione spaziale per il Raytracing, ognuna con le sue peculiarità, i suoi vantaggi ed i suoi svantaggi. In questa tesi verranno studiate alcune delle principali strutture di accelerazione spaziale (BVH, Uniform Grid ed Octree), concentrandosi in particolare sulle tecniche di costruzione ed attraversamento di ognuna di esse. Per farlo, verrà anche trattato tutto il background necessario sul Raytracing e Le strutture di accelerazione verranno anche implementate e messe a confronto su diverse scene. Il confronto permetterà di evidenziare come ognuna di esse porti dei vantaggi, e che non esiste una struttura di accelerazione assolutamente migliore delle altre.
Resumo:
Il mio progetto di tesi ha come obiettivo quello di creare un modello in grado di predire il rating delle applicazioni presenti all’interno del Play Store, uno dei più grandi servizi di distribuzione digitale Android. A tale scopo ho utilizzato il linguaggio Python, che grazie alle sue librerie, alla sua semplicità e alla sua versatilità è certamen- te uno dei linguaggi più usati nel campo dell’intelligenza artificiale. Il punto di partenza del mio studio è stato il Dataset (Insieme di dati strutturati in forma relazionale) “Google Play Store Apps” reperibile su Kaggle al seguente indirizzo: https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamen- to, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applica- to quattro di↵erenti tecniche di Machine Learning per la stima del rating delle applicazioni. In particolare, sono state utilizzate:https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamento, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applicato quattro differenti tecniche di Machine Learning per la stima del rating delle applicazioni: Ridje, Regressione Lineare, Random Forest e SVR. Tali algoritmi sono stati applicati attuando due tipi diversi di trasformazioni (Label Encoding e One Hot Encoding) sulla variabile ‘Category’, con lo scopo di analizzare come le suddette trasformazioni riescano a influire sulla bontà del modello. Ho confrontato poi l’errore quadratico medio (MSE), l’errore medio as- soluto (MAE) e l’errore mediano assoluto (MdAE) con il fine di capire quale sia l’algoritmo più efficiente.
Resumo:
Nel presente documento si discute la progettazione di una guida lineare curva allo scopo di permettere la movimentazione di un simulatore di Sole per nanosatelliti. Vengono presentati i nanosatelliti e vengono introdotti alcuni metodi di rappresentazione d’assetto, per proseguire con una descrizione dei sensori di Sole per la determinazione d’assetto. Si descrive, poi, il banco di prova per il controllo e la determinazione d’assetto presente nel Laboratorio di Microsatelliti e Microsistemi Spaziali e, di seguito, il progetto delle guide con il confronto tra le opzioni commerciali disponibili. Infine, si descrive la progettazione degli elementi di collegamento tra il simulatore e i cursori.
Resumo:
Gli Appennini sono una regione tettonicamente attiva che è stata luogo di forti terremoti storici in passato, tra i quali il recente L’Aquila (2009) e le sequenze di Amatrice-Visso-Norcia (2016-2017). Una densità di stazioni GPS sempre maggiore permette di stimare il tasso di deformazione orizzontale con più risoluzione spaziale che in passato. In questa tesi studio la correlazione tra tassi di deformazione geodetica orizzontale e tassi di sismicità negli Appennini, esaminando possibili implicazioni per valutazioni del potenziale sismogenico. Uso un nuovo dataset di velocità GPS analizzando lo stato di deformazione attraverso il calcolo dello strain rate geodetico. Per questo calcolo utilizzo tre algoritmi, tra quelli presenti in letteratura scientifica, e discuto punti di forza e limitazioni di ciascuno. Seleziono poi una mappa di strain rate tra le altre e sviluppo un’analisi seguendo l’approccio di uno studio recente per investigare la relazione tra tassi di sismicità e tassi di deformazione lungo la catena Appenninica. Per farlo, verifico se le ipotesi che sostengono l’approccio sono verificate. Calcolo la sismicità di background a partire da un nuovo catalogo sismico per l’Italia e testo se gli eventi indipendenti seguono un processo di Poisson nel tempo. Infine, divido la regione di studio in aree a diversa deformazione sulla base dei tassi di deformazionee analizzado la distribuzione della sismicità di background in questi eventi e analizzando la relazione tra tassi di deformazione e tassi sismicità. Mostro che vi è una relazione è approssimativamente lineare ma con una dipendenza importante dalla risoluzione della mappa di strain rate. Descrivo poi alcune implicazioni che questa relazione avrebbe su stime di due quantità che concorrono a definire il potenziale sismogenico analizzando quali sono i parametri all’interno dell’approccio che possono influenzare maggiormente dette stime.
Resumo:
Questo elaborato si pone come obiettivo l’introduzione e lo studio di due strumenti estremamente interessanti in Analisi Stocastica per le loro applicazioni nell’ambito del controllo ottimo stocastico e, soprattutto (per i fini di questo lavoro), della finanza matematica: le equazioni differenziali stocastiche backward (BSDEs) e le equazioni differenziali stocastiche forward-backward (FBSDEs). Innanzitutto, la trattazione verterà sull’analisi delle BSDEs. Partendo dal caso lineare, perfettamente esplicativo dei problemi di adattabilità che si riscontrano nella definizione di soluzione, si passerà allo studio delle BSDEs non lineari con coefficienti Lipschitziani, giungendo, in entrambe le situazioni, alla prova di risultati di esistenza e unicità della soluzione. Tale analisi sarà completata con un’indagine sulle relazioni che persistono con le PDEs, che porterà all’introduzione di una generalizzazione della formula di Feynman-Kac e si concluderà, dopo aver introdotto le FBSDEs, con la definizione di un metodo risolutivo per queste ultime, noto come Schema a quattro fasi. Tali strumenti troveranno applicazione nel quinto e ultimo capitolo come modelli teorici alla base della Formula di Black-Scholes per problemi di prezzatura e copertura di opzioni.
Resumo:
In questa tesi si affronta analiticamente il problema della stabilità di modelli a più specie interagenti, in campo epidemiologico, per la diffusione ed il controllo di infezioni da virus. Vengono considerati non solo modelli governati da Sistemi Dinamici, ma anche modelli parabolici del tipo Diffusione e Reazione. Partendo dal modello pioneristico SIR di Kermak-McKendrick si affrontano in modo approfondito tutti gli aspetti matematici che permettono di prevenire e controllare la formazione e la gravità di una possibile epidemia. Il modello viene poi articolato con l'aggiunta di considerazioni sulla variazione demografica della popolazione, indicato per questo motivo con il termine endemico. Si generalizza poi questo modello a due possibili applicazioni, includendo nella prima gli effetti della vaccinazione, ottenendo così il nuovo sistema dinamico SIRV. La seconda rappresenta invece uno studio avvenuto agli inizi dell'epidemia da COVID-19, quando i vaccini non erano ancora disponibili. Successivamente viene presentato il recente studio di Bellomo, estensione del modello prototipo per la diffusione di virus, un sistema di tipo Diffusione-Reazione con equazione di tipo diffusione-drift, in cui vengono connessi due aspetti importanti: la propagazione di virus e la chemotassi, in forte analogia con il modello SIR e derivante dalla logica del modello pioneristico di Keller-Segel. Infine, a completamento dello studio analitico, vengono proposti alcuni strumenti dell'analisi numerica, utilizzando l'ambiente MATLAB sul classico modello SIR e su altri due modelli che lo generalizzano per tener conto in un primo tempo della diffusione spaziale della coppia SI e poi solo di S, ma con effetto drift, guidato da I.
Resumo:
Ad oggi, l’attuale gold standard per il trattamento di amputazioni transfemorali è rappresentato dall’utilizzo di protesi con invaso (socket). Tuttavia, si rileva un elevato grado di insoddisfazione in questo tipo di protesi, dovuto a numerose complicazioni. Per questo sono state sviluppate le protesi osteointegrate. Queste protesi hanno numerosi vantaggi rispetto alla tipologia socket ma presentano anch’esse dei problemi, in particolare complicazioni meccaniche, di mobilizzazione e di infezione. Per questo, lo scopo di questo elaborato di tesi è stato quello di sviluppare ed ottimizzare un metodo per caratterizzare il comportamento biomeccanico di una protesi osteointegrata per amputati transfemorali, tramite Digital Image Correlation (DIC). In particolare, sono state valutate le condizioni e i metodi sperimentali utili a simulare una reale situazione fisiologica di distribuzione delle deformazioni sulla superficie dell’osso una volta impiantata la protesi. Per le analisi è stato utilizzato un provino di femore in composito nel quale è stata impiantata una protesi osteointegrata. È stata effettuata un’ottimizzazione dei parametri della DIC per consentire una misura precisa e affidabile. In seguito, sono state svolte due tipologie di test di presso-flessione sul provino per valutare la ripetibilità dell’esperimento e l’intensità delle deformazioni superficiali al variare del carico in range fisiologico. Il metodo sviluppato è risultato ripetibile, con un errore al di sotto della soglia stabilita. All’aumentare del carico è stato possibile osservare un aumento lineare delle deformazioni, oltre che un’espansione dell’area sottoposta a deformazioni più elevate. I valori di deformazioni ottenuti rientrano nei range fisiologici e sono confrontabili con quelli ottenuti in letteratura. L’applicazione del metodo sviluppato a provini di femore provenienti da donatore umano permetterà la generalizzazione dei risultati ottenuti in questo studio.
Resumo:
La colonna vertebrale è uno dei principali siti per lo sviluppo delle metastasi ossee. Esse modificano le proprietà meccaniche della vertebra indebolendo la struttura e inducendo l’instabilità spinale. La medicina in silico e i modelli agli elementi finiti (FE) hanno trovato spazio nello studio del comportamento meccanico delle vertebre, permettendo una valutazione delle loro proprietà meccaniche anche in presenza di metastasi. In questo studio ho validato i campi di spostamento predetti da modelli microFE di vertebre umane, con e senza metastasi, rispetto agli spostamenti misurati mediante Digital Volume Correlation (DVC). Sono stati utilizzati 4 provini da donatore umano, ognuno composto da una vertebra sana e da una vertebra con metastasi litica. Per ogni vertebra è stato sviluppato un modello microFE omogeneo, lineare e isotropo basato su sequenze di immagini ad alta risoluzione ottenute con microCT (voxel size = 39 μm). Sono state imposte come condizioni al contorno gli spostamenti ottenuti con la DVC nelle fette prossimali e distali di ogni vertebra. I modelli microFE hanno mostrato buone capacità predittive degli spostamenti interni sia per le vertebre di controllo che per quelle metastatiche. Per range di spostamento superiori a 100 μm, il valore di R2 è risultato compreso tra 0.70 e 0.99 e il valore di RMSE% tra 1.01% e 21.88%. Dalle analisi dei campi di deformazione predetti dai modelli microFE sono state evidenziate regioni a maggior deformazione nelle vertebre metastatiche, in particolare in prossimità delle lesioni. Questi risultati sono in accordo con le misure sperimentali effettuate con la DVC. Si può assumere quindi che il modello microFE lineare omogeneo isotropo in campo elastico produca risultati attendibili sia per le vertebre sane sia per le vertebre metastatiche. La procedura di validazione implementata potrebbe essere utilizzata per approfondire lo studio delle proprietà meccaniche delle lesioni blastiche.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito degli studi finalizzati al miglioramento delle condizioni di stabilità degli esoscheletri attivi per gli arti inferiori. L’obiettivo principale di questa tesi è la stima in tempo reale dell’orientamento degli arti superiori a partire dalle grandezze in uscita dall’esoscheletro e da un sistema di sensori inerziali indossabili. Il primo capitolo descrive lo stato dell’arte degli esoscheletri per gli arti inferiori seguita da una breve analisi degli studi compiuti dalla ricerca per il controllo dell’equilibrio del sistema uomo-macchina con l’impiego di metodi diversi. Nel secondo capitolo viene presentato il modello biomeccanico uomo-esoscheletro-stampelle, le strategie utilizzate per il controllo dell’equilibrio del sistema, ed i metodi impiegati per la stima dell’orientamento delle braccia del soggetto. Nel terzo capitolo vengono riportati e discussi i risultati dell’applicazione dei metodi di stima della cinematica degli arti superiori che vengono ripresi nelle conclusioni nel quarto capitolo.