855 resultados para parametri cosmologici
Resumo:
La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.
Resumo:
Il lavoro di tesi consiste nella caratterizzazione, nell’analisi a ritroso e di stabilità attuale di un fenomeno franoso avvenuto a Casola Valsenio, in provincia di Ravenna. La caratterizzazione è comprensiva di analisi geomorfologica dell’area, indagine sismo-stratigrafica e indagine geotecnica di laboratorio. Quindi è stato definito il meccanismo di rottura della frana e sono stati cartografati gli elementi morfologici costituenti l’area di frana. L’indagine geofisica si basa su tecniche ad onde di superficie e include misure tromografiche di rumore sismico ambientale e misure attive multicanale. Queste forniscono, rispettivamente, le curve H/V e gli spettri di velocità di fase e di gruppo, dalle quali è possibile ricavare informazioni di carattere stratigrafico. La caratterizzazione fisico meccanica del materiale pelitico marnoso, prelevato sul piano di scorrimento basale, include analisi granulometrica, determinazione dei limiti di consistenza e test di taglio anulare per ottenere il valore di angolo di attrito residuo. Le informazioni ottenute dalle indagini hanno consentito di definire il modello geologico tecnico del fenomeno, che viene rappresentato rispetto a quattro sezioni, tre relative alla situazione attuale e una relativa al versante prefrana. Sulla base di questi sono state condotte delle analisi a ritroso, che hanno consentito di ricavare le condizioni idrauliche del versante al momento della rottura, per differenti combinazioni di geometria del cuneo e diagramma di spinta dell’acqua. Grazie ai risultati ottenuti in modalità backward, sono state effettuate le analisi di stabilità della scarpata attuale, aventi lo scopo di determinare la distanza orizzontale tra scarpata e frattura di trazione che determinerebbe una situazione di instabilità. Infine sono state condotte analisi di sensitività rispetto ai parametri geometrici del cuneo, di resistenza del materiale e di riempimento idraulico della frattura dii trazione.
Resumo:
L'obiettivo di questo lavoro di tesi è stato studiare le caratteristiche, le proprietà, le applicazioni con conseguenti vantaggi e svantaggi di un particolare tipo di smart materials: i materiali a memoria di forma. Il capitolo 1 tratterà delle leghe metalliche a memoria di forma, il successivo si concentrerà invece sui polimeri a memoria di forma. In ognuno di questi, relativamente al materiale affrontato, si presterà particolare attenzione agli “effetti” che contraddistinguono tali materiali da quelli più comuni, come l’effetto memoria di forma o la superelasticità. Successivamente, nei vari sottoparagrafi, l’attenzione si sposterà sulle tecniche di caratterizzazione, utili per capire le proprietà di una lega o di un polimero rispetto ad un altro, e sulle conseguenti classificazioni di entrambi. Per quanto riguarda i polimeri, si accenneranno certi parametri fondamentali di cui è necessario tener conto per conoscere bene il polimero considerato. La trattazione, in ambedue i casi, terminerà con un focus sulle applicazioni più diffuse e su quelle più interessanti di tali materiali, fornendo dettagli sulle tecnologie utilizzate e sugli stimoli dettati per eccitare i sistemi.
Resumo:
La Chemical Vapor Deposition (CVD) permette la crescita di sottili strati di grafene con aree di decine di centimetri quadrati in maniera continua ed uniforme. Questa tecnica utilizza un substrato metallico, solitamente rame, riscaldato oltre i 1000 °C, sulla cui superficie il carbonio cristallizza sotto forma di grafene in un’atmosfera attiva di metano ed idrogeno. Durante la crescita, sulla superficie del rame si decompone il metano utilizzato come sorgente di carbonio. La morfologia e la composizione della superficie del rame diventano quindi elementi critici del processo per garantire la sintesi di grafene di alta qualità e purezza. In questo manoscritto si documenta l’attività sperimentale svolta presso i laboratori dell’Istituto per la Microelettronica e i Microsistemi del CNR di Bologna sulla caratterizzazione della superficie del substrato di rame utilizzato per la sintesi del grafene per CVD. L’obiettivo di questa attività è stato la caratterizzazione della morfologia superficiale del foglio metallico con misure di rugosità e di dimensione dei grani cristallini, seguendo l’evoluzione di queste caratteristiche durante i passaggi del processo di sintesi. Le misure di rugosità sono state effettuate utilizzando tecniche di profilometria ottica interferometrica, che hanno permesso di misurare l’effetto di livellamento successivo all' introduzione di un etching chimico nel processo consolidato utilizzato presso i laboratori dell’IMM di Bologna. Nell'ultima parte di questo manoscritto si è invece studiato, con tecniche di microscopia ottica ed elettronica a scansione, l’effetto di diverse concentrazioni di argon e idrogeno durante il trattamento termico di annealing del rame sulla riorganizzazione dei suoi grani cristallini. L’analisi preliminare effettuata ha permesso di individuare un intervallo ottimale dei parametri di annealing e di crescita del grafene, suggerendo importanti direzioni per migliorare il processo di sintesi attualmente utilizzato.
Resumo:
Lo scopo di questo elaborato è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole lupino. I dati relativi a campioni raccolti nel periodo 2008-2015 nella zona tra Cervia e Fano sono stati messi in relazione con alcuni parametri quali salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Marecchia. Sono stati presi in considerazione oltre 350 campioni, in cui i conteggi di E. coli mediante tecnica MPN sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); cariche intermedie (50-230 MPN/100g); cariche alte, ossia non conformi al regolamento europeo (>230 MPN/100g). L’eventuale significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test chi-quadrato e il test di Kruskal-Wallis. Per quanto riguarda il test chi-quadrato, eseguito in relazione ad anno, mese e stagione, si è visto che i campioni più inquinati derivano dagli anni 2010 e 2012, dai mesi novembre/dicembre e in generale dalla stagione autunnale. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che le frequenze dei campioni nelle tre categorie non sono significative in relazione alla salinità. Al contrario, per i parametri temperatura e livello del fiume Marecchia sono stati ottenuti risultati significativi: infatti, le cariche microbiche più alte corrispondono a temperature più basse delle acque e a periodi di maggiore portata del fiume. Questo episodio riflette sicuramente un aspetto biologico legato al ciclo vitale di Chamelea gallina, che vive la sua fase riproduttiva nella stagione più calda, diminuendo quindi la sua attività filtrante, fonte di contaminazione. Al contempo questo andamento è anche spiegabile dall’apporto di contaminanti dalle precipitazioni e dai fiumi che trascinano sostanze organiche inquinanti di natura antropica, che costituiscono fonte di nutrimento per le specie microbiche come E. coli ed altri enterobatteri.
Resumo:
Il segnale elettrico si propaga nel tessuto cardiaco attraverso gap-junctions che si trovano tra i miociti cardiaci e in ciascuno di essi si avvia un processo chiamato potenziale d'azione (PA). In questa tesi prenderò in considerazione il modello Luo-Rudy 1991 e il difetto oggetto di studio sono le Early Afterdepolarizations (EADs). Si analizzerà la propagazione del potenziale d’azione in un cavo di 300 cellule. Dopo alcune simulazioni preliminari è emersa l’utilità di trovare una soluzione che permettesse di ridurre i tempi di calcolo, il modello è stato quindi implementato in CUDA. Il lavoro è stato sviluppato nei seguenti step: 1) l’impiego dell’ambiente di calcolo MATLAB per implementare il modello, descrivendo ogni cellula attraverso il modello Luo-Rudy 1991 e l’interazione elettrica inter-cellulare, considerando un cavo di 300 cellule; 2) individuazione dei parametri che, adeguatamente modificati, sono in grado di indurre EADs a livello single cell; 3) implementazione del modello in CUDA, creando uno strumento che potrà essere utilizzato per aumentare notevolmente il numero delle simulazioni nell’unità di tempo; 4) messa a punto di un criterio per valutare in modo conciso la bontà (safety factor) della relazione source-sink. L’utilità di un simile criterio è quella di valutare, sia nel caso di propagazione di AP che in quello di eventuale propagazione di EADs, la propensione alla propagazione in un tessuto. Il primo capitolo descriverà il potenziale d’azione, il modello usato e la teoria del cavo. Il secondo capitolo discuterà l’implementazione del modello usato, descriverà CUDA e come il modello sia stato implementato. Il terzo capitolo riguarderà i primi risultati ottenuti dalle simulazioni e come la variazione dei parametri influisce sulla forma delle EADs. L’ultimo capitolo approfondirà i requisiti necessari per far avvenire una propagazione in un cavo.
Resumo:
L'elaborato si inserisce in un progetto sviluppato presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) di Meldola che riguarda la valutazione di parametri cardiologici che possano risultare indici predittivi di uno scompenso cardiaco in pazienti affetti da linfoma. Tutti i soggetti considerati nel progetto sono stati sottoposti a trattamenti chemioterapici facenti uso di antracicline e la cui funzionalità cardiaca è stata controllata periodicamente tramite ecografia bidimensionale e volumetrica, utilizzando il sistema VividE9 della GE Healthcare. L'obiettivo dell'analisi è quello di ricercare se oltre alla frazione di eiezione esistono parametri più predittivi di una eventuale cardiotossicità come gli strain, calcolati attraverso l'ausilio della tecnica ecografica.
Resumo:
I Gangli della Base svolgono un ruolo molto importante nel movimento volontario, ovvero nel meccanismo di azione-selezione, e la loro influenza è evidente soprattutto in alcune patologie che ancora ad oggi sono in fase di studio: una di queste è il Morbo di Parkinson. I Gangli della Base comprendono quattro formazioni nervose: lo striato, il globus pallidus, la substantia nigra e il nucleo subtalamico: essi ricevono le principali afferenze dalla corteccia cerebrale ed inviano le principali efferenze al tronco dell’encefalo, e, per mezzo del talamo, alle corteccia prefrontale, premotoria e motrice. A differenza della maggior parte delle altre componenti dei sistemi motori, i Gangli della Base non stabiliscono direttamente né connessioni afferenti, né efferenti con il midollo spinale. Il compito principale svolto dai Gangli dDella Base è la selezione di un’azione: esso permette ad un’azione di essere selezionata rispetto ad un’altra, che in questo modo viene inibita. La descrizione dell’anatomia, dei meccanismi fisiologici e del Morbo di Parkinson è trattata nel Capitolo 1. In questo elaborato è utilizzato il modello computazionale di Mauro Ursino e Chiara Baston, che sarà illustrato dettagliatamente nel Capitolo 2, riguardante il meccanismo di azione-selezione svolto dai Gangli della Base. E’ descritto un sistema di valutazione di un paziente parkinsoniano, il tapping test: esso consiste in un movimento alternato del dito e ad oggi risulta essere uno dei metodi più semplici per ottenere informazioni sulla gravità della bradicinesia. L’obiettivo di questo lavoro è quello di comprendere, tramite l’analisi di simulazioni effettuate per mezzo del modello computazionale di Mauro Ursino e Chiara Baston, come la frequenza di tapping dipenda dal variare di alcuni parametri delle equazioni del modello: gli effetti dovuti alla variazione di un singolo parametro o più di uno, saranno mostrati nel Capitolo 3.
Resumo:
Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.
Resumo:
Il processo di localizzazione risponde all'esigenza dell'uomo di avere una percezione sempre più dettagliata e precisa del contesto in cui si trova, con l'intento di migliorare e semplificare l'interazione con oggetti e cose ivi presenti. L'idea attuale è quella di progettare sistemi di posizionamento con particolare riguardo agli ambienti indoor, caratterizzati da proprietà e densità di elementi che limitano fortemente le prestazioni dei consolidati sistemi di tracking, particolarmente efficienti in spazi aperti. Consapevole di questa necessità, il seguente elaborato analizza le prestazioni di un sistema di localizzazione sviluppato dall'Università di Bologna funzionante in tecnologia Ultra-Wide Bandwidth (UWB) e installato nei laboratori DEI dell'Alma Mater Studiorum con sede a Cesena. L'obiettivo è quello di caratterizzare l'accuratezza di localizzazione del sistema, suggerendo nuovi approcci operativi e de�finendo il ruolo dei principali parametri che giocano nel meccanismo di stima della posizione, sia in riferimento a scenari marcatamente statici sia in contesti in cui si ha una interazione dinamica degli oggetti con lo spazio circostante. Una caratteristica della tecnologia UWB è, infatti, quella di limitare l'errore di posizionamento nel caso di localizzazione indoor, grazie alle caratteristiche fisiche ed elettriche dei segnali, aprendo nuovi scenari applicativi favorevoli in termini economici, energetici e di minore complessità dei dispositivi impiegati.
Resumo:
Tra le patologie ossee attualmente riconosciute, l’osteoporosi ricopre il ruolo di protagonista data le sua diffusione globale e la multifattorialità delle cause che ne provocano la comparsa. Essa è caratterizzata da una diminuzione quantitativa della massa ossea e da alterazioni qualitative della micro-architettura del tessuto osseo con conseguente aumento della fragilità di quest’ultimo e relativo rischio di frattura. In campo medico-scientifico l’imaging con raggi X, in particolare quello tomografico, da decenni offre un ottimo supporto per la caratterizzazione ossea; nello specifico la microtomografia, definita attualmente come “gold-standard” data la sua elevata risoluzione spaziale, fornisce preziose indicazioni sulla struttura trabecolare e corticale del tessuto. Tuttavia la micro-CT è applicabile solo in-vitro, per cui l’obiettivo di questo lavoro di tesi è quello di verificare se e in che modo una diversa metodica di imaging, quale la cone-beam CT (applicabile invece in-vivo), possa fornire analoghi risultati, pur essendo caratterizzata da risoluzioni spaziali più basse. L’elaborazione delle immagini tomografiche, finalizzata all’analisi dei più importanti parametri morfostrutturali del tessuto osseo, prevede la segmentazione delle stesse con la definizione di una soglia ad hoc. I risultati ottenuti nel corso della tesi, svolta presso il Laboratorio di Tecnologia Medica dell’Istituto Ortopedico Rizzoli di Bologna, mostrano una buona correlazione tra le due metodiche quando si analizzano campioni definiti “ideali”, poiché caratterizzati da piccole porzioni di tessuto osseo di un solo tipo (trabecolare o corticale), incluso in PMMA, e si utilizza una soglia fissa per la segmentazione delle immagini. Diversamente, in casi “reali” (vertebre umane scansionate in aria) la stessa correlazione non è definita e in particolare è da escludere l’utilizzo di una soglia fissa per la segmentazione delle immagini.
Resumo:
Lo scopo di questa attività è approfondire le conoscenze sul processo di riempimento a caldo noto come nitro-hot-fill (NHF) utilizzato per contenitori in PET. Il nostro obiettivo è quello di simulare su scala di laboratorio il processo industriale al fine di ottimizzarne i parametri e aumentare la stabilità dei contenitori anche attraverso l’utilizzo di materie prime con caratteristiche migliorate utilizzando formulazioni adatte ai trattamenti a caldo. Il processo consiste nel riempimento della bottiglia ad una temperatura tra gli 80°/85°C, successivo al quale vi è l’iniezione di azoto al fine di evitare l’implosione durante il raffreddamento fino a temperatura ambiente. Questo settore del mercato è in forte crescita, molte bevande infatti hanno la necessità di un contenitore asettico; il processo di NHF ha il vantaggio di utilizzare il calore del prodotto stesso al fine di rendere la bottiglia sterile. Da qui nascono le criticità legate al processo, occorre prendere diversi accorgimenti al fine di rendere processabile in questo modo una bottiglia, infatti l’aumento di pressione interna dovuto all’iniezione di azoto si accompagna una temperatura vicina alla temperatura di transizione vetrosa. La nostra attività di ricerca ha focalizzato la propria attenzione sul design della bottiglia, sul processo di stiro-soffiaggio, sull’influenza dell’umidità assorbita nel PET, sul materiale utilizzato e su altri parametri di processo al fine di produrre contenitori in grado di resistere al riempimento NHF.
Resumo:
In questa tesi viene elaborata un'applicazione ultra-low power (ULP) basata su microcontrollore, per implementare la procedura di controllo di diversi circuiti di un tag RFID. Il tag preso in considerazione è pensato per lavorare in assenza di batteria, da cui la necessita' di ridurre i consumi di potenza. La sua attivazione deve essere inoltre comandata attraverso un'architettura Wake up Radio (WuR), in cui un segnale di controllo radio indirizza e attiva il circuito. Nello specifico, la rete di decodifica dell'indirizzo è stata realizzata mediante il modulo di comunicazione seriale del microcontrollore. Nel Capitolo 1 verrà introdotto il tema dell'Energy Harvesting. Nel Capitolo 2 verrà illustrata l'architettura del sistema nel suo complesso. Nel Capitolo 3 verrà spiegato dettagliatamente il funzionamento del microcontrollore scelto. Il Capitolo 4 sarà dedicato al firmware implementato per svolgere le operazioni fondamentali imputate al micro per i compiti di controllo. Verrà inoltre introdotto il codice VHDL sviluppato per emulare l'output del modulo WuR mediante un FPGA della famiglia Cyclone II. Nel Capitolo 5 verrà presentata una stima dei consumi del microcontrollore in funzione dei parametri di configurazione del sistema. Verrà inoltre effettuato un confronto con un altro microcontrollore che in alcune condizioni potrebbe rappresentare iun'alternativa valida di progetto. Nei Capitoli 6 e 7 saranno descritti possibili sviluppi futuri e conclusioni del progetto. Le specifiche di progetto rilevanti della tesi sono: 1. minimo consumo energetico possibile del microcontrollore ULP 2. elevata rapidità di risposta per la ricezione dei tag, per garantire la ricezione di un numero maggiore possibile di indirizzi (almeno 20 letture al secondo), in un range di tempo limitato 3. generazione di un segnale PWM a 100KHz di frequenza di commutazione con duty cycle 50% su cui basare una modulazione in back-scattering.
Resumo:
Il lavoro presentato in questa tesi è stato svolto presso il Department of Computer Science, University of Oxford, durante il mio periodo all’estero nel Computational Biology Group. Scopo del presente lavoro è stato lo sviluppo di un modello matematico del potenziale d’azione per cellule umane cardiache di Purkinje. Tali cellule appartengono al sistema di conduzione elettrico del cuore, e sono considerate molto importanti nella genesi di aritmie. Il modello, elaborato in linguaggio Matlab, è stato progettato utilizzando la tecnica delle Popolazione di Modelli, un innovativo approccio alla modellazione cellulare sviluppato recentemente proprio dal Computational Biology Group. Tale modello è stato sviluppato in 3 fasi: • Inizialmente è stato sviluppato un nuovo modello matematico di cellula umana del Purkinje cardiaco, tenendo in considerazione i modelli precedenti disponibili in letteratura e le più recenti pubblicazioni in merito alle caratteristiche elettrofisiologiche proprie della cellula cardiaca umana di Purkinje. Tale modello è stato costruito a partire dall’attuale gold standard della modellazione cardiaca ventricolare umana, il modello pubblicato da T. O’Hara e Y. Rudy nel 2011, modificandone sia le specifiche correnti ioniche che la struttura interna cellulare. • Il modello così progettato è stato, poi, utilizzato come “modello di base” per la costruzione di una popolazione di 3000 modelli, tramite la variazione di alcuni parametri del modello all’interno di uno specifico range. La popolazione così generata è stata calibrata sui dati sperimentali di cellule umane del Purkinje. A valle del processo di calibrazione si è ottenuta una popolazione di 76 modelli. • A partire dalla popolazione rimanente, è stato ricavato un nuovo modello ai valori medi, che riproduce le principali caratteristiche del potenziale d’azione di una cellula di Purkinje cardiaca umana, e che rappresenta il dataset sperimentale utilizzato nel processo di calibrazione.
Resumo:
Nel presente lavoro, ho studiato e trovato le soluzioni esatte di un modello matematico applicato ai recettori cellulari della famiglia delle integrine. Nel modello le integrine sono considerate come un sistema a due livelli, attivo e non attivo. Quando le integrine si trovano nello stato inattivo possono diffondere nella membrana, mentre quando si trovano nello stato attivo risultano cristallizzate nella membrana, incapaci di diffondere. La variazione di concentrazione nella superficie cellulare di una sostanza chiamata attivatore dà luogo all’attivazione delle integrine. Inoltre, questi eterodimeri possono legare una molecola inibitrice con funzioni di controllo e regolazione, che chiameremo v, la quale, legandosi al recettore, fa aumentare la produzione della sostanza attizzatrice, che chiameremo u. In questo modo si innesca un meccanismo di retroazione positiva. L’inibitore v regola il meccanismo di produzione di u, ed assume, pertanto, il ruolo di modulatore. Infatti, grazie a questo sistema di fine regolazione il meccanismo di feedback positivo è in grado di autolimitarsi. Si costruisce poi un modello di equazioni differenziali partendo dalle semplici reazioni chimiche coinvolte. Una volta che il sistema di equazioni è impostato, si possono desumere le soluzioni per le concentrazioni dell’inibitore e dell’attivatore per un caso particolare dei parametri. Infine, si può eseguire un test per vedere cosa predice il modello in termini di integrine. Per farlo, ho utilizzato un’attivazione del tipo funzione gradino e l’ho inserita nel sistema, valutando la dinamica dei recettori. Si ottiene in questo modo un risultato in accordo con le previsioni: le integrine legate si trovano soprattutto ai limiti della zona attivata, mentre le integrine libere vengono a mancare nella zona attivata.