962 resultados para cinetica, sodio, modelli matematici, emodialisi


Relevância:

100.00% 100.00%

Publicador:

Resumo:

I cardiomiociti derivanti da cellule staminali pluripotenti indotte (hiPSC-CMs) costituiscono un nuovo approccio per lo studio delle proprietà delle cellule cardiache sia degli individui sani che di quelli affetti da malattie ereditarie e possono rappresentare inoltre una piattaforma in vitro per la scoperta di nuovi farmaci e terapie rigenerative. Il grande impatto delle hiPSC-CMs nell’ambito della ricerca si deve soprattutto alle loro proprietà elettrofisiologiche: queste cellule non solo esprimono fenotipi genici e proprietà delle correnti ioniche tipiche delle cellule cardiache, ma sono anche in grado di riprodurre fenomeni aritmici, come le EAD, a seguito della somministrazione di farmaci. Grazie anche alla grande potenza di calcolo oggi disponibile è possibile supportare la pratica in vitro con modelli in silico, abbattendo sia i costi che i tempi richiesti dagli esperimenti in laboratorio. Lo scopo di questo lavoro è quello di simulare il comportamento delle hiPSC-CMs di tipo ventricolare in risposta alla somministrazione di farmaci che interagiscono con la corrente di potassio IKr, principale responsabile della ripolarizzazione cardiaca. L’assunzione di certi farmaci può comportare infatti una riduzione della IKr, con conseguente prolungamento della fase di ripolarizzazione del potenziale d’azione cardiaco. Questo meccanismo è causa dell’insorgenza della sindrome del QT lungo di tipo 2, che in casi estremi può degenerare in aritmie gravi. Ciò suggerisce che queste cellule rappresentano un importante strumento per la valutazione del rischio pro-aritmico che può essere facilitata da simulazioni in silico effettuate utilizzando modelli computazionali basati su dati fisiologici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modello su AMPL per ottimizzare la scelta del trasporto in base al tragitto, all'orario di partenza e all'intervallo di tempo considerato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Utilizzo di un modello matematico monocompartimentale per simulare la cinetica del sodio in sedute di dialisi (HD e HDF on-line) che prevedono l'utilizzo del sistema Hemocontrol, quindi quantificare le prestazioni di tale modello per evidenziarne limiti ed adeguatezza in alternativa all'utilizzo di modelli bicompartimentali più complessi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi si è posto i seguenti obiettivi: - Analizzare come i singoli parametri infuenzano le prestazioni del modello, in maniera tale da capire su quali di essi il modello risulta essere più sensibile, al fine di ottimizzare le sue prestazioni; - Fare in modo che l'intervallo di confidenza del modello sia il più vicino possibile a quello dello strumento di misura utilizzato durante lo studio clinico \Socrathe(3 mmol/l). Riuscire a portare, infatti, la deviazione standard sull'errore globale ottenuta dal modello da 1,83 mmol/l a 1,50 mmol/l significa avere un IC95% uguale a quello dello strumento di misura; - Migliorare la predizione del modello negli istanti temporali in cui esso si discosta di più dal valore vero. Una volta messi in evidenza i parametri più significativi, grazie all'analisi di sensitività, si andrà ad effettuare una procedura di ottimizzazione di tali parametri al fine di minimizzare una funzione costo rappresentante il grado di scarto tra modello e realtà. La struttura della tesi consta di tre capitoli: il primo rigurda una introduzione alle funzioni del rene e alle terapie dialitiche, il secondo rigurda gli strumenti e i metodi utilizzato in questo lavoro, mentre il terzo capitolo illustra i risultati ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The cardiomyocyte is a complex biological system where many mechanisms interact non-linearly to regulate the coupling between electrical excitation and mechanical contraction. For this reason, the development of mathematical models is fundamental in the field of cardiac electrophysiology, where the use of computational tools has become complementary to the classical experimentation. My doctoral research has been focusing on the development of such models for investigating the regulation of ventricular excitation-contraction coupling at the single cell level. In particular, the following researches are presented in this thesis: 1) Study of the unexpected deleterious effect of a Na channel blocker on a long QT syndrome type 3 patient. Experimental results were used to tune a Na current model that recapitulates the effect of the mutation and the treatment, in order to investigate how these influence the human action potential. Our research suggested that the analysis of the clinical phenotype is not sufficient for recommending drugs to patients carrying mutations with undefined electrophysiological properties. 2) Development of a model of L-type Ca channel inactivation in rabbit myocytes to faithfully reproduce the relative roles of voltage- and Ca-dependent inactivation. The model was applied to the analysis of Ca current inactivation kinetics during normal and abnormal repolarization, and predicts arrhythmogenic activity when inhibiting Ca-dependent inactivation, which is the predominant mechanism in physiological conditions. 3) Analysis of the arrhythmogenic consequences of the crosstalk between β-adrenergic and Ca-calmodulin dependent protein kinase signaling pathways. The descriptions of the two regulatory mechanisms, both enhanced in heart failure, were integrated into a novel murine action potential model to investigate how they concur to the development of cardiac arrhythmias. These studies show how mathematical modeling is suitable to provide new insights into the mechanisms underlying cardiac excitation-contraction coupling and arrhythmogenesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I tumori, detti anche ''la malattia del secolo'', portano ogni anno alla morte di oltre 7 milioni di persone al mondo. Attualmente è una malattia molto diffusa che colpisce soprattutto persone anziane e non solo; tuttavia ancora non esiste una cura ''esatta'' che riesca a guarire la totalità delle persone: anzi si è ben lontani da questo risultato. La difficoltà nel curare queste malattie sta nel fatto che, oltre ad esservi una grande varietà di tipologie (è quindi difficile trovare una cura unica), spesse volte la malattie viene diagnosticata molto tempo dopo la comparsa per via dei sintomi che compaiono in ritardo: si intende quindi che si parla di una malattia molto subdola che spesse volte lascia poche speranze di vita. Uno strumento, utilizzato assieme alla terapie mediche, è quello della modellizzazione matematica: essa cerca di descrivere e prevedere, tramite equazioni, lo sviluppo di questo processo e, come ben si intenderà, poter conoscere in anticipo quel che accadrà al paziente è sicuramente un fattore molto rilevante per la sua cura. E' interessante vedere come una materia spesso definita come "noiosa" ed ''inutile'', la matematica, possa essere utilizzata per i più svariati, come -nel caso specifico- quello nobile della cura di un malato: questo è un aspetto di tale materia che mi ha sempre affascinato ed è anche una delle ragioni che mi ha spinto a scrivere questo elaborato. La tesi, dopo una descrizione delle basi oncologiche, si proporrà di descrivere le neoplasie da un punto di vista matematico e di trovare un algoritmo che possa prevedere l'effetto di una determinata cura. La descrizione verrà fatta secondo vari step, in modo da poter rendere la trattazione più semplice ed esaustiva per il lettore, sia egli esperto o meno dell'argomento trattato. Inizialmente si terrano distinti i modelli di dinamica tumorale da quelli di cinetica farmacologica, ma poi verrano uniti ed utilizzati assieme ad un algoritmo che permetta di determinare l'effetto della cura e i suoi effetti collaterali. Infine, nella lettura dell'elaborato il lettore deve tenere sempre a mente che si parla di modelli matematici ovvero di descrizioni che, per quanto possano essere precise, sono pur sempre delle approssimazioni della realtà: non per questo però bisogna disdegnare uno strumento così bello ed interessante -la matematica- che la natura ci ha donato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'analisi accurata del processo di combustione è un aspetto sempre più influente nello sviluppo di un motore a combustione interna. In particolare il fenomeno della detonazione pone dei limiti sull'efficienza dei motori ad accensione comandata. Il rapporto di compressione è limitato in fase di progettazione dello sviluppo motore, lasciando al controllo dell'anticipo di accensione il compito di ridurre le problematiche di una combustione anomala. Nella seguente tesi si vuole implementare una metodologia per la valutazione dell'insorgere e dello sviluppo della detonazione in base alle condizioni di funzionamento del motore per differenti miscele di combustibili. Il metodo consiste nell'affiancare la cinetica chimica tabulata al risolutore CFD, \textsc{KIVA-3}. La cinetica chimica permette di determinare la velocità di reazione per differenti specie durante l'ossidazione a partire da precise condizioni ambiente. Il solutore CFD potrebbe risolvere questo tipo di problema ma utilizzare dei modelli con più reazioni chimiche richiede dei tempi di simulazioni troppo elevati. La cinetica chimica tabulata consiste nella determinazione ed estrapolazione dei dati relativi all'evoluzione della detonazione utilizzando schemi cinetici con centinaia o migliaia di reazioni. In seguito alla determinazione della miscela desiderata sono state eseguite delle simulazioni utilizzando il solutore Cantera per la determinazione dell'evoluzione dell'ossigeno. E' stata scelta questa grandezza come indicatore del progresso della detonazione poiché fornisce un'indicazione sullo stato di avanzamento delle reazioni. Successivamente i dati ricavati sono stati forniti al solutore CFD, tramite il quale sono state effettuate delle simulazioni per verificare i risultati ottenuti nella valutazione del comportamento di un motore ad alte prestazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tomografia Computerizzata (TC) perfusionale rappresenta attualmente una importante tecnica di imaging radiologico in grado di fornire indicatori funzionali di natura emodinamica relativi alla vascolarizzazione dei tessuti investigati. Le moderne macchine TC consentono di effettuare analisi funzionali ad una elevata risoluzione spaziale e temporale, provvedendo ad una caratterizzazione più accurata di zone di interesse clinico attraverso l’analisi dinamica della concentrazione di un mezzo di contrasto, con dosi contenute per il paziente. Tale tecnica permette potenzialmente di effettuare una valutazione precoce dell’efficacia di trattamenti antitumorali, prima ancora che vengano osservate variazioni morfologiche delle masse tumorali, con evidenti benefici prognostici. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, al fine di una validazione accurata e consistente degli indicatori funzionali nella pratica clinica. Differenti modelli matematici sono proposti in letteratura al fine di determinare parametri di interesse funzionale a partire dall’analisi del profilo dinamico del mezzo di contrasto in differenti tessuti. Questa tesi si propone di studiare, attraverso l’analisi e l’elaborazione di sequenze di immagini derivanti da TC assiale perfusionale, due importanti modelli matematici di stima della perfusione. In particolare, vengono presentati ed analizzati il modello del massimo gradiente ed il modello deconvoluzionale, evidenziandone tramite opportune simulazioni le particolarità e le criticità con riferimento agli artefatti più importanti che influenzano il protocollo perfusionale. Inoltre, i risultati ottenuti dall’analisi di casi reali riguardanti esami perfusionali epatici e polmonari sono discussi al fine di valutare la consistenza delle misure quantitative ottenute tramite i due metodi con le considerazioni di natura clinica proposte dal radiologo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi di drenaggio urbano meritano particolare attenzione per l’importante compito che devono garantire all’interno della società. L’allontanamento delle acque reflue dalle zone urbanizzate infatti è indispensabile per non creare problemi ed interferenze con attività sociali ed economiche che in esse si svolgono; inoltre un corretto funzionamento del sistema di drenaggio assicura anche un basso impatto ambientale in termini di qualità e quantità. La disponibilità di nuove tecnologie costruttive e materiali in continua evoluzione devono fare fronte alla crescente complessità idraulica, geotecnica e urbanistica delle strutture componenti i sistemi di drenaggio; in tale elaborato si vuole porre l’accento sul problema dello smaltimento delle acque meteoriche nelle zone densamente urbanizzate, la cui soluzione è costituita dall'adozione delle cosiddette BMP (Best Management Practices). Le BMP sono definite come strategie, pratiche o metodi per la rimozione, la riduzione, il ritardo o la prevenzione della quantità di costituenti inquinanti e contaminanti delle acque di pioggia, prima che giungano nei corpi idrici ricettori. Tra esse ricordiamo le cisterne o rain barrels, i pozzi asciutti, i sistemi drywell, le vasche verdi filtranti, i tetti verdi, i canali infiltranti, i fossi di infiltrazione, i pozzi perdenti, i planting container, i canali inerbiti, i bacini di infiltrazione, le gross pullutant traps (gpts), gli stagni, i sistemi di fitodepurazione estensiva (sfe), le pavimentazioni drenanti. In Italia esse risultano ancora scarsamente studiate ed applicate, mentre trovano più ampio sviluppo in realtà estere come in Inghilterra ed in Australia. Per comprendere la efficacia di tali tecniche BMP è necessario analizzarle e, soprattutto, analizzare il loro effetto sul territorio in cui esse vengono inserite e sul regime idrogeologico dell’ambiente. Questa analisi può essere svolta con prove sperimentali su aree di controllo (soluzione economicamente gravosa) o attraverso modelli matematici tramite l’utilizzo di software di calcolo che simulino il comportamento delle portate, dei tiranti idrici e degli inquinanti nei canali e nelle strutture accessorie costituenti la rete fognaria, in conseguenza ad eventi di pioggia dei quali sia nota la distribuzione spaziale e temporale. In questo elaborato si modellizza attraverso il programma Matlab un unico elemento BMP e si osservano i suoi effetti; si procede cioè alla analisi del funzionamento di un ipotetico brown roof installato nella zona di Rimini e si osservano i benefici effetti che ne derivano in termini di volumi di pioggia trattenuti dal sistema considerando diverse tipologie di pioggia e diversi parametri progettuali per il tetto (i fori dello strato inferiore del tetto, la altezza dello strato di terreno, la sua permeabilità e la sua porosità). Si procede poi con la analisi di una ipotetica zona commerciale che sorge sulle sponde di un fiume. Tali analisi vengono svolte con il software HEC-RAS per quanto riguarda la analisi dei livelli del fiume e delle zone a rischio di inondazione. I risultati forniti da questo studio preliminare vengono poi utilizzati come condizioni al contorno per una successiva analisi effettuata con il software InfoWorks in cui si valutano i benefici che derivano dalla installazione di diverse BMP nella zona commerciale oggetto di studio. Tale modello esamina un verosimile scenario inglese, la cittadina infatti si ipotizza situata in Inghilterra e anche gli eventi pluviometrici a cui ci si riferisce sono tipici eventi di pioggia inglesi. Tutti i dati di input elaborati nelle simulazioni sono stati forniti all’interno di un progetto universitario svolto presso l’università di Bradford con la supervisione dei professori Simon Tait ed Alma Schellart. Infine la parte conclusiva dell’elaborato è stata sviluppata in collaborazione con Hera S.p.a. di Rimini all’interno di un percorso di tirocinio curriculare che ha previsto la analisi delle tecnologie BMP adatte per l’ambiente cittadino di Rimini e la osservazione delle performance garantite da tecnologie esistenti sul territorio: i parcheggi permeabili. La realtà riminese infatti deve far fronte a diversi problemi che si innescano durante i periodi di pioggia ed una mitigazione dei volumi di acqua in arrivo alla fognatura grazie a questo tipo di tecnologie, senza quindi ricorrere agli usuali sistemi puntuali, porterebbe sicuramente a notevoli vantaggi. Tali tecnologie però non devono solo essere progettate e costruite in modo corretto, ma devono essere sottoposte a periodici controlli ed adeguate operazioni di manutenzione per non perdere la loro efficacia. Per studiare tale aspetto si procede quindi alla misura della permeabilità di parcheggi drenanti presenti all’interno dei comuni di Cattolica e Rimini ricercando i fattori che influenzano tale caratteristica fondamentale dei parcheggi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fornisce una breve trattazione di due tipi di modelli matematici applicabili nel campo dell'epidemologia, prendendo spunto da un articolo del biologo matematico A. Korobeinikov, "Lyapunov function and global properties for SEIR and SEIS epidemic models".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Perfusion CT imaging of the liver has potential to improve evaluation of tumour angiogenesis. Quantitative parameters can be obtained applying mathematical models to Time Attenuation Curve (TAC). However, there are still some difficulties for an accurate quantification of perfusion parameters due, for example, to algorithms employed, to mathematical model, to patient’s weight and cardiac output and to the acquisition system. In this thesis, new parameters and alternative methodologies about liver perfusion CT are presented in order to investigate the cause of variability of this technique. Firstly analysis were made to assess the variability related to the mathematical model used to compute arterial Blood Flow (BFa) values. Results were obtained implementing algorithms based on “ maximum slope method” and “Dual input one compartment model” . Statistical analysis on simulated data demonstrated that the two methods are not interchangeable. Anyway slope method is always applicable in clinical context. Then variability related to TAC processing in the application of slope method is analyzed. Results compared with manual selection allow to identify the best automatic algorithm to compute BFa. The consistency of a Standardized Perfusion Index (SPV) was evaluated and a simplified calibration procedure was proposed. At the end the quantitative value of perfusion map was analyzed. ROI approach and map approach provide related values of BFa and this means that pixel by pixel algorithm give reliable quantitative results. Also in pixel by pixel approach slope method give better results. In conclusion the development of new automatic algorithms for a consistent computation of BFa and the analysis and definition of simplified technique to compute SPV parameter, represent an improvement in the field of liver perfusion CT analysis.