5 resultados para porosità, PME, termodinamica del non equilibrio, modello iperbolico e propagazione ondosa, secondo suono
em Universita di Parma
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Resumo:
Il tema della ricerca sono i caratteri della grafica a pastello in area italiana nel XVI secolo. Il lavoro è articolato in tre parti. Il primo capitolo analizza l’uso e il significato del termine “pastello” nelle fonti Cinque-Seicentesche. Il secondo capitolo ricostruisce il dibattito critico multidisciplinare sull’argomento. Se da una parte l’attenzione riservata al pastello da specialisti di diversi settori ha portato a una feconda varietà di punti di vista, dall’altro ha avuto come risultato una serie di ricostruzioni frammentarie. All’interno del dibattito sulla tecnica è stato possibile distinguere posizioni differenziate, in parte conseguenza dei diversi approcci e specializzazioni, ed enucleare alcuni nodi critici meritevoli di approfondimento. In primo luogo è possibile distinguere varie opinioni sulla fondamentale questione della natura e dei criteri di identificazione del medium, in particolare per i disegni risalenti al XVI secolo ovvero alla fase “embrionale” dell’utilizzo della tecnica. Si è proceduto poi, sulla base di queste premesse, all’analisi dei disegni del XVI secolo tradizionalmente ritenuti o recentemente proposti dalla storiografia come opere a pastello in ambito milanese, nelle aree settentrionali e centro-italiane. Successivamente è stato quindi studiato il ruolo della tecnica all’interno della grafica di Federico Barocci e Jacopo Bassano , i due artisti che si dedicano con maggiore intensità all’esplorazione delle possibilità del medium. Sono state infine considerate opere di artisti appartenenti alle generazioni successive (sempre entro il XVI secolo) che sperimentano l’uso dei pastelli policromi sul modello di Barocci e Bassano.
Resumo:
La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.
Resumo:
Clusterina (CLU) è una proteina ubiquitaria, presente nella maggior parte dei fluidi corporei e implicata in svariati processi fisiologici. Dalla sua scoperta fino ad oggi, CLU è risultata essere una proteina enigmatica, la cui funzione non è ancora stata compresa appieno. Il gene codifica per 3 varianti trascrizionali identificate nel database NCBI con i codici: NM_001831 (CLU 1 in questo lavoro di tesi), NR_038335 (CLU 2 in questo lavoro di tesi) e NR_045494 (CLU 3 in questo lavoro di tesi). Tutte le varianti sono trascritte come pre-mRNA contenenti 9 esoni e 8 introni e si differenziano per l’esone 1, la cui sequenza è unica e caratteristica di ogni variante. Sebbene in NCBI sia annotato che le varianti CLU 2 e CLU 3 non sono codificanti, tramite analisi bioinformatica è stato predetto che da tutti e tre i trascritti possono generarsi proteine di differente lunghezza e localizzazione cellulare. Tra tutte le forme proteiche ipotizzate, l’unica a essere stata isolata e sequenziata è quella tradotta dall’AUG presente sull’esone 2 che dà origine a una proteina di 449 aminoacidi. Il processo di maturazione prevede la formazione di un precursore citoplasmatico (psCLU) che subisce modificazioni post-traduzionali tra cui formazione di ponti disolfuro, glicosilazioni, taglio in due catene denominate β e α prima di essere secreta come eterodimero βα (sCLU) nell’ambiente extracellulare, dove esercita la sua funzione di chaperone ATP-indipendente. Oltre alla forma extracellulare, è possibile osservare una forma intracellulare con localizzazione citosolica la cui funzione non è stata ancora completamente chiarita. Questo lavoro di tesi si è prefissato lo scopo di incrementare le conoscenze in merito ai trascritti CLU 1 e CLU 2 e alla loro regolazione, oltre ad approfondire il ruolo della forma citosolica della proteina in relazione al signaling di NF-kB che svolge un ruolo importante nel processo di sviluppo e metastatizzazione del tumore. Nella prima parte, uno screening di differenti linee cellulari, quali cellule epiteliali di prostata e di mammella, sia normali sia tumorali, fibroblasti di origine polmonare e linfociti di tumore non-Hodgkin, ha permesso di caratterizzare i trascritti CLU 1 e CLU 2. Dall’analisi è emerso che la sequenza di CLU 1 è più corta al 5’ rispetto a quella depositata in NCBI con l’identificativo NM_001831 e il primo AUG disponibile per l’inizio della traduzione è localizzato sull’esone 2. È stato dimostrato che CLU 2, al contrario di quanto riportato in NCBI, è tradotto in proteina a partire dall’AUG presente sull’esone 2, allo stesso modo in cui viene tradotto CLU 1. Inoltre, è stato osservato che i livelli d’espressione dei trascritti variano notevolmente tra le diverse linee cellulari e nelle cellule epiteliali CLU 2 è espressa sempre a bassi livelli. In queste cellule, l’espressione di CLU 2 è silenziata per via epigenetica e la somministrazione di farmaci capaci di rendere la cromatina più accessibile, quali tricostatina A e 5-aza-2’-deossicitidina, è in grado di incrementarne l’espressione. Nella seconda parte, un’analisi bioinformatica seguita da saggi di attività in vitro in cellule epiteliali prostatiche trattate con farmaci epigenetici, hanno permesso di identificare, per la prima volta in uomo, una seconda regione regolatrice denominata P2, capace di controllare l’espressione di CLU 2. Rispetto a P1, il classico promotore di CLU già ampiamente studiato da altri gruppi di ricerca, P2 è un promotore debole, privo di TATA box, che nelle cellule epiteliali prostatiche è silente in condizioni basali e la cui attività incrementa in seguito alla somministrazione di farmaci epigenetici capaci di alterare le modificazioni post-traduzionali delle code istoniche nell’intorno di P2. Ne consegue un rilassamento della cromatina e un successivo aumento di trascrizione di CLU 2. La presenza di un’isola CpG differentemente metilata nell’intorno di P1 spiegherebbe, almeno in parte, i differenti livelli di espressione di CLU che si osservano tra le diverse linee cellulari. Nella terza parte, l’analisi del pathway di NF-kB in un modello sperimentale di tumore prostatico in cui CLU è stata silenziata o sovraespressa, ha permesso di capire come la forma citosolica di CLU abbia un ruolo inibitorio nei confronti dell’attività del fattore trascrizionale NF-kB. CLU inibisce la fosforilazione e l’attivazione di p65, il membro più rappresentativo della famiglia NF-kB, con conseguente riduzione della trascrizione di alcuni geni da esso regolati e coinvolti nel rimodellamento della matrice extracellulare, quali l’urochinasi attivatrice del plasminogeno, la catepsina B e la metallo proteinasi 9. È stato dimostrato che tale inibizione non è dovuta a un’interazione fisica diretta tra CLU e p65, per cui si suppone che CLU interagisca con uno dei componenti più a monte della via di segnalazione responsabile della fosforilazione ed attivazione di p65.
Resumo:
Nel Capitolo I abbiamo osservato come la legittimazione abbia per oggetto la fonte di produzione del diritto, mentre la legalità l’atto emanato dalla fonte nell’esercizio del potere. La legittimazione è fondamento del potere, attiene alla sua titolarità e giustifica l’obbedienza e l’uso della forza. La legalità si riferisce all’esercizio del potere, regolandolo. Si è visto come «quando si esige la legittimazione del potere, si chiede che colui che lo detiene abbia il diritto di averlo. Quando si invoca la legalità del potere, si domanda che chi lo detiene lo eserciti non secondo il proprio capriccio ma in conformità di regole stabilite ed entro i limiti di queste. Il contrario del potere legittimo è il potere di fatto, il contrario del potere legale è il potere arbitrario» . Si è poi precisato che legittimazione e legalità sono i fondamenti alla base dello Stato democratico: laddove non v’è legittimazione non vi può essere neppure democrazia, distinguendo la legittimazione formale, che riguarda chi è legittimato ad agire, ad esercitare il potere, compiendo atti giuridici prescrittivi; dalla legittimazione sostanziale, che riguarda invece che cosa non può e che cosa non può non essere deciso, ossia i limiti e i vincoli imposti all’esercizio del potere . La legittimazione è però presente in tutte le forme di Stato, tanto in quelli autoritari, quanto in quelli democratici. Ciò che distingue tra autoritarietà e democraticità dello Stato è il tipo di atto attraverso il quale si manifesta la legittimazione del potere. Il potere autoritario riceve la propria legittimazione attraverso atti di fede, quello democratico con atti di fiducia. Gli atti di fede possono solo essere spezzati, rotti. Al contrario, gli atti di fiducia possono essere rinnovati o revocati, e pertanto hanno bisogno di norme legali che ne regolino il funzionamento. In tal senso, modelli autoritari e democratici differiscono ulteriormente: nei primi, legittimato il potere, è legittimo tutto ciò che di esso è manifestazione; si può dire che la legittimazione resta tutta assorbita nella legalità. Diversamente, nei modelli democratici, è necessario vi siano norme che disciplinano quell’atto di fiducia legittimante il potere, ma non solo, ve ne devono anche essere altre che regolino l’esercizio del potere stesso. Non solo, ma la legittimazione per essere democratica deve avvenire periodicamente e ha bisogno di un pubblico attivo, informato, consapevole dei suoi diritti, perché è la democrazia ad aver bisogno di un pubblico, di un consenso sociale, che attraverso la propria legittimazione del potere controlli chi quel potere è chiamato ad esercitarlo. Si comprende, allora, perché il principio di legalità in sé e per sé non può garantire la democrazia. Esso garantisce la conformità alla legge, la non arbitrarietà nell’esercizio del potere, ma nulla dice su chi quella legge ha il potere di emanarla, e infatti l’art. 1 del Codice Rocco, durante il fascismo, non garantiva certo le libertà democratiche. Allo stesso modo, la legittimazione sociale in sé e per sé non garantisce la democrazia, perché anche forme di Stato autoritarie, plebiscitarie, hanno un consenso sociale che le sorregge e legittima tutto ciò che chi esercita il potere decide di fare, almeno fino a quando continuano ad avervi fede. Nel Capitolo II abbiamo mostrato come, attraverso la riserva di legge, la Costituzione garantisca entrambi i fondamenti democratici: quello della legalità nell’esercizio della potestà punitiva e quello della legittimazione del Parlamento che la esercita. Dunque, legalità e legittimazione periodica sono un binomio indissolubile, perché possa aversi uno Stato democratico; inoltre è necessario che l’esercizio del potere avvenga “in pubblico” e che l’opinione pubblica abbia una coscienza critica che le consenta di valutare e orientare le proprie scelte. È stato poi sostenuto nel Capitolo III come lo stesso Parlamento non possa – in democrazia – essere libero di sanzionare con pena tutto ciò che vuole, ma sia vincolato direttamente dalla Costituzione rigida e almeno indirettamente dal consenso sociale, che dovrebbe impedire che sia trasformato in illecito penale tutto ciò per la collettività non dovrebbe essere sanzionato come tale. In questo l’informazione, attraverso i mezzi di comunicazione, rappresenta un postulato necessario per ogni modello democratico in grado di influenzare i cittadini nella percezione della realtà. In quest’ultimo Capitolo IV, infine, abbiamo messo in luce come una distorta percezione della realtà, da parte del consenso sociale, alteri “patologicamente” la legittimazione democratica, facendole perdere ogni sua funzione di garanzia nel delimitare il potere politico.