7 resultados para Bioingegneria, Modelli matematici, Sistema cardiovascolare, Modello di Guyton, Contropulsazione esterna
em Universita di Parma
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Resumo:
La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.
Resumo:
Background e scopi dello studio. Il carcinoma renale rappresenta circa il 3% delle neoplasie e la sua incidenza è in aumento nel mondo. Il principale approccio terapeutico alla malattia in stadio precoce è rappresentato dalla chirurgia (nefrectomia parziale o radicale), sebbene circa il 30-40% dei pazienti vada incontro a recidiva di malattia dopo tale trattamento. La probabilità di recidivare può essere stimata per mezzo di alcuni noti modelli prognostici sviluppati integrando sia parametri clinici che anatomo-patologici. Il limite principale all’impiego nella pratica clinica di questi modelli è legata alla loro complessità di calcolo che li rende di difficile fruizione. Inoltre la stratificazione prognostica dei pazienti in questo ambito ha un ruolo rilevante nella pianificazione ed interpretazione dei risultati degli studi di terapia adiuvante dopo il trattamento chirurgico del carcinoma renale in stadio iniziale. Da un' analisi non pre-pianificata condotta nell’ambito di uno studio prospettico e randomizzato multicentrico italiano di recente pubblicazione, è stato sviluppato un nuovo modello predittivo e prognostico (“score”) che utilizza quattro semplici parametri: l’età del paziente, il grading istologico, lo stadio patologico del tumore (pT) e della componente linfonodale (pN). Lo scopo del presente studio era quello di validare esternamente tale score. Pazienti e Metodi. La validazione è stata condotta su due coorti retrospettive italiane (141 e 246 pazienti) e su una prospettica americana (1943 pazienti). Lo score testato prevedeva il confronto tra due gruppi di pazienti, uno a prognosi favorevole (pazienti con almeno due parametri positivi tra i seguenti: età < 60 anni, pT1-T3a, pN0, grading 1-2) e uno a prognosi sfavorevole (pazienti con meno di due fattori positivi). La statistica descrittiva è stata utilizzata per mostrare la distribuzione dei diversi parametri. Le analisi di sopravvivenza [recurrence free survival (RFS) e overall survival (OS)] sono state eseguite il metodo di Kaplan-Meier e le comparazioni tra i vari gruppi di pazienti sono state condotte utilizzando il Mantel-Haenszel log-rank test e il modello di regressione di Cox. Il metodo di Greenwood è stato utilizzato per stimare la varianza e la costruzione degli intervalli di confidenza al 95% (95% CI), la “C-statistic” è stata utilizzata per descrivere l’ accuratezza dello score. Risultati. I risultati della validazione dello score condotta sulle due casistiche retrospettive italiane, seppur non mostrando una differenza statisticamente significativa tra i due gruppi di pazienti (gruppo favorevole versus sfavorevole), sono stati ritenuti incoraggianti e meritevoli di ulteriore validazione sulla casistica prospettica americana. Lo score ha dimostrato di performare bene sia nel determinare la prognosi in termini di RFS [hazard ratio (HR) 1.85, 95% CI 1.57-2.17, p < 0.001] che di OS [HR 2.58, 95% CI 1.98-3.35, p < 0.001]. Inoltre in questa casistica lo score ha realizzato risultati sovrapponibili a quelli dello University of California Los Angeles Integrated Staging System. Conclusioni. Questo nuovo e semplice score ha dimostrato la sua validità in altre casistiche, sia retrospettive che prospettiche, in termini di impatto prognostico su RFS e OS. Ulteriori validazioni su casistiche internazionali sono in corso per confermare i risultati qui presentati e per testare l’eventuale ruolo predittivo di questo nuovo score.
Resumo:
La ricerca di nuove strategie per la rigenerazione ossea rappresenta un focus di interesse centrale per migliorare la gestione di casi clinici complessi nell’ambito della chirurgia orale e maxillo-facciale. Uno degli approcci più utilizzati in tale contesto si basa sull’utilizzo di molecole con proprietà osteoinduttive e molte sostanze sono state fino ad oggi sperimentate. E’ noto in letteratura che gli androgeni svolgono un ruolo chiave nella regolazione della morfogenesi ossea e nel mantenimento della sua omeostasi durante il corso della vita. Questo lavoro di tesi nasce dall’ipotesi che la somministrazione locale di tali ormoni, eventualmente combinata a materiali da innesto, possa favorire la guarigione di difetti ossei. Stando a questa premessa, sono stati valutati gli effetti dello steroide sintetico Stanozololo sulla rigenerazione ossea in diversi settings sperimentali. La tesi è strutturata secondo un percorso che segue le fasi della ricerca, attraverso sperimentazioni in vitro e in vivo; ogni capitolo può essere approcciato come uno studio a sé stante, corrispondente ad una determinata tappa dell’iter sperimentale. Sulla base di questi intenti, viene fornito inizialmente un quadro d’insieme circa gli effetti degli androgeni sull’osso. A seguire, è presentata una sperimentazione in vitro nella linea cellulare SaOS-2. Infine, è proposta un’innovativa metodologia di analisi per lo studio della rigenerazione ossea nel modello di ratto, ove viene testata la somministrazione locale di Stanozololo combinato a materiale da innesto.
Resumo:
Il tema della ricerca sono i caratteri della grafica a pastello in area italiana nel XVI secolo. Il lavoro è articolato in tre parti. Il primo capitolo analizza l’uso e il significato del termine “pastello” nelle fonti Cinque-Seicentesche. Il secondo capitolo ricostruisce il dibattito critico multidisciplinare sull’argomento. Se da una parte l’attenzione riservata al pastello da specialisti di diversi settori ha portato a una feconda varietà di punti di vista, dall’altro ha avuto come risultato una serie di ricostruzioni frammentarie. All’interno del dibattito sulla tecnica è stato possibile distinguere posizioni differenziate, in parte conseguenza dei diversi approcci e specializzazioni, ed enucleare alcuni nodi critici meritevoli di approfondimento. In primo luogo è possibile distinguere varie opinioni sulla fondamentale questione della natura e dei criteri di identificazione del medium, in particolare per i disegni risalenti al XVI secolo ovvero alla fase “embrionale” dell’utilizzo della tecnica. Si è proceduto poi, sulla base di queste premesse, all’analisi dei disegni del XVI secolo tradizionalmente ritenuti o recentemente proposti dalla storiografia come opere a pastello in ambito milanese, nelle aree settentrionali e centro-italiane. Successivamente è stato quindi studiato il ruolo della tecnica all’interno della grafica di Federico Barocci e Jacopo Bassano , i due artisti che si dedicano con maggiore intensità all’esplorazione delle possibilità del medium. Sono state infine considerate opere di artisti appartenenti alle generazioni successive (sempre entro il XVI secolo) che sperimentano l’uso dei pastelli policromi sul modello di Barocci e Bassano.
Resumo:
La richiesta di allergeni puri è in continuo aumento per scopi diagnostici, come standard per metodi di rilevamento e di quantificazione, per l'immunoterapia e per lo studio a livello molecolare dei meccanismi delle reazioni allergiche, al fine di facilitare lo sviluppo di possibili cure. In questa tesi di dottorato sono descritte diverse strategie per l’ottenimento di forme pure di non-specific Lipid Transfer Proteins (nsLTPs), le quali sono state riconosciute essere rilevanti allergeni alimentari in molti frutti e verdure comunemente consumati e sono state definite come modello di veri allergeni alimentari. Una LTP potenzialmente allergenica, non nota in precedenza, è stata isolata dalle mandorle, mentre una LTP dall’allergenicità nota contenuta nelle noci è stata prodotta mediante tecniche di DNA ricombinante. Oltre a questi approcci classici, metodi per la sintesi chimica totale di proteine sono stati applicati per la prima volta alla produzione di un allergene, utilizzando Pru p 3, la LTP prototipica e principale allergene della pesca nell'area mediterranea, come modello. La sintesi chimica totale di proteinepermette di controllarne completamente la sequenza e di studiare la loro funzione a livello atomico. La sua applicazione alla produzione di allergeni costituisce perciò un importante passo avanti nel campo della ricerca sulle allergie alimentari. La proteina Pru p 3 è stata prodotta nella sua intera lunghezza e sono necessari solo due passaggi finali di deprotezione per ottenere il target nella sua forma nativa. Le condizioni sperimentali per tali deprotezioni sono state messe a punto durante la produzione dei peptidi sPru p 3 (1-37) e sPru p 3 (38-91), componenti insieme l'intera proteina. Tecniche avanzate di spettrometria di massa sono state usate per caratterizzare tutti i composti ottenuti, mentre la loro allergenicità è stata studiata attraverso test immunologici o approcci in silico.
Resumo:
L’atrofia ottica dominante (ADOA) è una malattia mitocondriale caratterizzata da difetti visivi, che si manifestano durante l’infanzia, causati da progressiva degenerazione delle cellule gangliari della retina (RGC). ADOA è una malattia genetica associata, nella maggior parte dei casi, a mutazioni nel gene OPA1 che codifica per la GTPasi mitocondriale OPA1, appartenente alla famiglia delle dinamine, principalmente coinvolta nel processo di fusione mitocondriale e nel mantenimento del mtDNA. Finora sono state identificate più di 300 mutazioni patologiche nel gene OPA1. Circa il 50% di queste sono mutazioni missenso, localizzate nel dominio GTPasico, che si pensa agiscano come dominanti negative. Questa classe di mutazioni è associata ad una sindrome più grave nota come “ADOA-plus”. Nel lievito Saccharomyces cerevisiae MGM1 è l’ortologo del gene OPA1: nonostante i due geni abbiano domini funzionali identici le sequenze amminoacidiche sono scarsamente conservate. Questo costituisce una limitazione all’uso del lievito per lo studio e la validazione di mutazioni patologiche nel gene OPA1, infatti solo poche sostituzioni possono essere introdotte e studiate nelle corrispettive posizioni del gene di lievito. Per superare questo ostacolo è stato pertanto costruito un nuovo modello di S. cerevisiae, contenente il gene chimerico MGM1/OPA1, in grado di complementare i difetti OXPHOS del mutante mgm1Δ. Questo gene di fusione contiene una larga parte di sequenza corrispondente al gene OPA1, nella quale è stato inserito un set di nuove mutazioni trovate in pazienti affetti da ADOA e ADOA-plus. La patogenicità di queste mutazioni è stata validata sia caratterizzando i difetti fenotipici associati agli alleli mutati, sia la loro dominanza/recessività nel modello di lievito. A tutt’oggi non è stato identificato alcun trattamento farmacologico per la cura di ADOA e ADOA-plus. Per questa ragione abbiamo utilizzato il nostro modello di lievito per la ricerca di molecole che agiscono come soppressori chimici, ossia composti in grado di ripristinare i difetti fenotipici indotti da mutazioni nel gene OPA1. Attraverso uno screening fenotipico high throughput sono state testate due differenti librerie di composti chimici. Questo approccio, noto con il nome di drug discovery, ha permesso l’identificazione di 23 potenziali molecole attive.