316 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale
Resumo:
In questo lavoro di tesi si è realizzato un modello matematico con l’intento di fornire uno strumento per lo studio della risposta cardiovascolare alla contropulsazione esterna. L’ EECP (Enhanced External Counterpulsation) è un metodo non invasivo di assistenza cardiaca basato sull’applicazione di pressioni sincronizzate col ritmo cardiaco su determinate superfici corporee. I benefici della terapia su pazienti con sofferenze cardiache sono confermati dalle tabelle cliniche; rimane tuttavia non chiaro il legame diretto tra questi e la EECP. La base del lavoro è un modello della circolazione sanguigna adattato allo studio della situazione in esame e riprodotto mediante il software di calcolo Matlab. Il modello proposto e la relativa simulazione numerica permettono la visualizzazione istantanea delle modifiche che l’azione di contropulsazione apporta al flusso e alla pressione sanguigna, al fine di offrire un aiuto nella ricerca di un legame diretto tra la EECP e i benefici che questa terapia ha sul paziente.
Resumo:
Questa tesi tratta di alcuni semplici modelli matematici, formulati in termini di equazioni differenziali ordinarie, riguardanti la crescita dei tumori e possibili trattamenti per contrastarla. Nel primo capitolo viene data un'introduzione sulla stabilità dei punti di equilibrio di sistemi di equazioni differenziali ordinarie, mentre nel secondo capitolo vengono affrontati e confrontati tre modelli ad una equazione: il modello esponenziale, il modello logistico e il modello di Gompertz. Si introducono poi due modelli a due equazioni differenziali: uno riguardante l'angiogenesi a due compartimenti e l'altro riguardante un modello lineare-quadratico applicato alla radiobiologia. Viene fatto poi un accenno ad un modello con equazioni alle derivate parziali. Infine, nell'ultimo capitolo, viene introdotto un modello a tre equazioni differenziali ordinarie a tre compartimenti in cui viene studiata l'interazione tra tre popolazioni di cellule: cellule immunitarie effettrici, cellule ospiti e cellule tumorali.
Resumo:
In questa tesi si affronta analiticamente il problema della stabilità di modelli a più specie interagenti, in campo epidemiologico, per la diffusione ed il controllo di infezioni da virus. Vengono considerati non solo modelli governati da Sistemi Dinamici, ma anche modelli parabolici del tipo Diffusione e Reazione. Partendo dal modello pioneristico SIR di Kermak-McKendrick si affrontano in modo approfondito tutti gli aspetti matematici che permettono di prevenire e controllare la formazione e la gravità di una possibile epidemia. Il modello viene poi articolato con l'aggiunta di considerazioni sulla variazione demografica della popolazione, indicato per questo motivo con il termine endemico. Si generalizza poi questo modello a due possibili applicazioni, includendo nella prima gli effetti della vaccinazione, ottenendo così il nuovo sistema dinamico SIRV. La seconda rappresenta invece uno studio avvenuto agli inizi dell'epidemia da COVID-19, quando i vaccini non erano ancora disponibili. Successivamente viene presentato il recente studio di Bellomo, estensione del modello prototipo per la diffusione di virus, un sistema di tipo Diffusione-Reazione con equazione di tipo diffusione-drift, in cui vengono connessi due aspetti importanti: la propagazione di virus e la chemotassi, in forte analogia con il modello SIR e derivante dalla logica del modello pioneristico di Keller-Segel. Infine, a completamento dello studio analitico, vengono proposti alcuni strumenti dell'analisi numerica, utilizzando l'ambiente MATLAB sul classico modello SIR e su altri due modelli che lo generalizzano per tener conto in un primo tempo della diffusione spaziale della coppia SI e poi solo di S, ma con effetto drift, guidato da I.
Resumo:
Il mio elaborato di tesi è basato sull'analisi generale dei modelli matematici alla base delle epidemie e lo studio dei punti di equilibrio dei sistemi che descrivono tali modelli. Il primo capitolo fornisce una descrizione degli elementi di base per lo studio che verrà poi affrontato nei capitoli successivi; nel capitolo in questione ci si riduce a introdurre nomenclatura, parametri e assunzioni di base. Nei capitoli secondo e terzo vengono esposti due tipi di modelli SIR diversi (epidemico e endemico), modelli alla base dell'epidemiologia che spiegano, sotto determinate ipotesi, il comportamento degli individui all'esplodere di una epidemia e il loro cambiamento di compartimento (suscettibile, infetto o rimosso) nel tempo. Di essi viene costruito il sistema di equazioni differenziali e analizzato il comportamento asintotico, per poi studiare i punti di equilibrio e la loro stabilità. Nel capitolo quarto viene analizzato allo stesso modo il modello SEIR, interessante perché fornisce una visione leggermente più sofisticata e vicina alla realtà, poiché tra i compartimenti possibili si suppone esistere anche un compartimento degli esposti, cioè di coloro che sono stati infettati ma che ancora non sono in grado di trasmettere la malattia. L'appendice finale illustra l'apparato matematico utile allo studio di questi modelli: le Equazioni Differenziali infatti sono uno strumento necessario per la descrizione dei fenomeni naturali e per lo studio della stabilità dei punti di equilibrio.
Resumo:
Sviluppo di un modello per la simulazione della Risposta Cardiovascolare alla Contropulsazione Esterna.
Resumo:
Il presente lavoro di tesi si pone come obiettivo l’individuazione di modelli matematici che possano essere utilizzati per la configurazione di simulatori di volo aerei elettrici dell’aviazione generale. In particolare, sono state trovate in letteratura delle formule da utlizzare per modellare eliche, motori elettrici di varie tipologie e batterie. Per meglio comprendere l’impatto dell’adozione dei motori elettrici sui velivoli dell’aviazione generale sono stati effettuati dei confronti di dati, in cui si è preso come riferimento il motore a combustione interna Continental O-300 montato sui Cessna C172. Successivamente, sono stati implementati i modelli dinamici in Simulink di motori elettrici che potrebbero sostituire il motore a combustione interna sopra citato. Sono, poi, state eseguite alcune comparazioni tra i risultati ottenuti in termini di spinte ottenibili, potenze e autonomie, e numero di giri di rotazione dell’elica per diversi motori elettrici. Per effettuare le simulazioni è stato utilizzato il software Simulink: ambiente in cui sono stati sviluppati modelli dinamici di propulsione sia tradizionale che elettrica. Nella parte conclusiva della tesi, sono riportate alcune considerazioni volte a stimare l'autonomia di un velivolo simile al Cessna C172, in cui si sotituisce il motore a combustione interna con un motore elettrico a parità di peso massimo al decollo e l’andamento di quest'ultimo in funzione dell’autonomia per un velivolo elettrico. I risultati ottenuti da queste ultime simulazioni suggeriscono che la conversione ad elettrico è attualmente critica in quanto la ridotta densità di energia delle batterie porta ad un significativo decadimento dell'autonomia generale.
Resumo:
Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.
Resumo:
Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.
Resumo:
Il presente lavoro di tesi ha portato a caratterizzare e validare un modello bicompartimentale per la cinetica del sodio. Si discutono gli aspetti fondamentali del trattamento di dialisi e si evidenzia come un approccio modellistico possa essere seguito ai fini di una maggiore comprensione dei fenomeni non direttamente osservabili determinati dalla terapia e dell’adeguatezza dei parametri. La validazione del modello è stata effettuata su 144 sedute dialitiche in HD e HDF integrate con HC e su 7 sedute in HD e dai risultati si evince che il modello è in grado di riprodurre i dati sperimentali con un errore dello stesso ordine di grandezza dell’accuratezza degli strumenti utilizzati per la rilevazione della concentrazione plasmatica di sodio.
Resumo:
Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.
Resumo:
I depositi di liquidi infiammabili sono stabilimenti industriali in cui avvengono spesso incendi di grandi dimensioni a causa degli ingenti quantitativi di sostanze infiammabili detenute. Gli incendi tipici dei liquidi infiammabili sono gli incendi di pozza in caso di rilascio del liquido al suolo e gli incendi di serbatoio in caso di ignizione del liquido all’interno del serbatoio stesso. Tali incendi hanno la potenzialità di danneggiare le apparecchiature limitrofe, determinandone il cedimento e dunque l’incremento delle dimensioni dell’incendio e dell’area di danno; tale fenomeno è detto effetto domino. Per la modellazione degli incendi sono disponibili diversi strumenti, divisibili essenzialmente in due categorie: modelli semplici, ovvero basati su correlazioni semi-empiriche e modelli avanzati, costituiti dai codici CFD. L’obiettivo principale del presente lavoro di tesi è il confronto tra le diverse tipologie di strumenti disponibili per la modellazione degli incendi di liquidi infiammabili. In particolare sono stati confrontati tra loro il codice FDS (Fire Dynamics Simulator), il metodo del TNO ed il modello per gli incendi di pozza incorporato nel software ALOHA. Il codice FDS è un modello avanzato, mentre il metodo del TNO ed il modello implementato nel software ALOHA sono modelli semplici appartenenti alla famiglia dei Solid Flame Models. La prima parte del presente lavoro di tesi è dedicata all’analisi delle caratteristiche e delle problematiche di sicurezza dei depositi di liquidi infiammabili, con specifico riferimento all’analisi storica. Nella seconda parte invece i tre metodi sopra citati sono applicati ad un parco serbatoi di liquidi infiammabili ed è effettuato il confronto dei risultati, anche ai fini di una valutazione preliminare dell’effetto domino. La tesi è articolata in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono richiamati i principali concetti riguardanti gli incendi e vengono analizzate le caratteristiche e le problematiche di sicurezza dei depositi di liquidi infiammabili. Il Capitolo 3 è dedicato alla discussione delle caratteristiche degli incendi di pozza, alla presentazione delle tipologie di strumenti a disposizione per la loro modellazione ed alla descrizione di dettaglio dei modelli utilizzati nel presente lavoro di tesi. Il Capitolo 4 contiene la presentazione del caso di studio. Nel Capitolo 5, che costituisce il cuore del lavoro, i modelli descritti sono applicati al caso di studio, con un’approfondita discussione dei risultati e una valutazione preliminare dell’effetto domino. Nel Capitolo 6 infine sono riportate alcune considerazioni conclusive.
Resumo:
La malattia COVID-19 associata alla sindrome respiratoria acuta grave da coronavirus 2 (SARS-CoV-2) ha rappresentato una grave minaccia per la salute pubblica e l’economia globale sin dalla sua scoperta in Cina, nel dicembre del 2019. Gli studiosi hanno effettuato numerosi studi ed in particolar modo l’applicazione di modelli epidemiologici costruiti a partire dai dati raccolti, ha permesso la previsione di diversi scenari sullo sviluppo della malattia, nel breve-medio termine. Gli obiettivi di questa tesi ruotano attorno a tre aspetti: i dati disponibili sulla malattia COVID-19, i modelli matematici compartimentali, con particolare riguardo al modello SEIJDHR che include le vaccinazioni, e l’utilizzo di reti neurali ”physics-informed” (PINNs), un nuovo approccio basato sul deep learning che mette insieme i primi due aspetti. I tre aspetti sono stati dapprima approfonditi singolarmente nei primi tre capitoli di questo lavoro e si sono poi applicate le PINNs al modello SEIJDHR. Infine, nel quarto capitolo vengono riportati frammenti rilevanti dei codici Python utilizzati e i risultati numerici ottenuti. In particolare vengono mostrati i grafici sulle previsioni nel breve-medio termine, ottenuti dando in input dati sul numero di positivi, ospedalizzati e deceduti giornalieri prima riguardanti la città di New York e poi l’Italia. Inoltre, nell’indagine della parte predittiva riguardante i dati italiani, si è individuato un punto critico legato alla funzione che modella la percentuale di ricoveri; sono stati quindi eseguiti numerosi esperimenti per il controllo di tali previsioni.
Resumo:
Il moto browniano è un argomento estremamente importante nella teoria della probabilità ed è alla base di molti modelli matematici che studiano fenomeni aleatori, in ambiti come la biologia, l'economia e la fisica. In questa tesi si affronta il problema dell'esistenza del moto browniano con un approccio differente rispetto a quello più tradizionale che utilizza il Teorema di estensione di Kolmogorov e il Teorema di continuità di Kolmogorov-Chentsov. Verranno presentate due costruzioni diverse. Con la prima, detta di Lévy-Ciesielski, si otterrà il moto browniano come limite di una successione di processi stocastici continui definiti ricorsivamente. Con la seconda, il moto browniano verrà costruito tramite la convergenza in legge di passeggiate aleatorie interpolate e riscalate, mediante il cosiddetto principio di invarianza di Donsker. Grazie a quest'ultima costruzione si potrà in particolare definire la misura di Wiener.
Resumo:
I fattori che, nei primi anni dell'aviazione, contribuivano al verificarsi o meno di una sciagura aerea erano principalmente di natura meccanica, mentre oggi la maggior parte degli incidenti è attribuibile all’errore umano. Nel corso del tempo sono stati sviluppati modelli per l’analisi del fattore umano ed ha assunto un ruolo fondamentale lo studio del crashworthiness allo scopo di sviluppare tecnologie che contribuiscano alla riduzione di incidenti aerei e del tasso di mortalità. In questo studio è stata analizzata la resistenza della fusoliera di un aliante DG-100G Elan nelle principali tipologie di impatto. Le statistiche evidenziano, come cause principali di incidente, la caduta in vite e lo stallo in prossimità del suolo. Dall’analisi dei risultati ottenuti con la configurazione di base dell’aliante è stata delineata una possibile modifica per migliorarne la resistenza ad impatto. Obiettivo dello studio è la verifica in prima approssimazione della bontà o meno dei risultati ottenuti attraverso l’introduzione delle modifiche, valutando la differenza di quest’ultimi fra le due configurazioni.
Resumo:
La Tomografia Computerizzata (TC) perfusionale rappresenta attualmente una importante tecnica di imaging radiologico in grado di fornire indicatori funzionali di natura emodinamica relativi alla vascolarizzazione dei tessuti investigati. Le moderne macchine TC consentono di effettuare analisi funzionali ad una elevata risoluzione spaziale e temporale, provvedendo ad una caratterizzazione più accurata di zone di interesse clinico attraverso l’analisi dinamica della concentrazione di un mezzo di contrasto, con dosi contenute per il paziente. Tale tecnica permette potenzialmente di effettuare una valutazione precoce dell’efficacia di trattamenti antitumorali, prima ancora che vengano osservate variazioni morfologiche delle masse tumorali, con evidenti benefici prognostici. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, al fine di una validazione accurata e consistente degli indicatori funzionali nella pratica clinica. Differenti modelli matematici sono proposti in letteratura al fine di determinare parametri di interesse funzionale a partire dall’analisi del profilo dinamico del mezzo di contrasto in differenti tessuti. Questa tesi si propone di studiare, attraverso l’analisi e l’elaborazione di sequenze di immagini derivanti da TC assiale perfusionale, due importanti modelli matematici di stima della perfusione. In particolare, vengono presentati ed analizzati il modello del massimo gradiente ed il modello deconvoluzionale, evidenziandone tramite opportune simulazioni le particolarità e le criticità con riferimento agli artefatti più importanti che influenzano il protocollo perfusionale. Inoltre, i risultati ottenuti dall’analisi di casi reali riguardanti esami perfusionali epatici e polmonari sono discussi al fine di valutare la consistenza delle misure quantitative ottenute tramite i due metodi con le considerazioni di natura clinica proposte dal radiologo.