908 resultados para analisi non lineari
Resumo:
Nella Tesi viene riportata l’analisi genetica di un campione di 128 famiglie con Disturbo dello Spettro Autistico, tramite il sistema di SNP array “PsychArray” (Illumina ), contenente oltre 500.000 sonde sull’intero genoma. Questi dati sono stati utilizzati per individuare Copy Number Variants (CNVs) rari e rilevanti da un punto di vista clinico. Sono stati quindi selezionati tre CNVs per un ulteriore approfondimento: due microdelezioni già descritte come patologiche (rispettivamente nella regione 1p36.32 e 22q13.33 comprendente il gene SHANK3) sono risultate essere “de novo”, mentre una terza microdelezione nel gene CTNNA3 è ereditata dalla madre. Tutti e tre i CNV sono stati validati tramite Real Time-PCR, definendone i confini. Per quanto riguarda la microdelezione in CTNNA3, poiché difetti di questo gene sono stati implicati nell’autismo con un meccanismo recessivo, è stata anche condotta un’analisi di sequenza di tutti gli esoni del gene negli individui della famiglia interessata, al fine di ricercare eventuali mutazioni puntiformi sull’allele non deleto. Questa analisi non ha individuato nessuna variante potenzialmente dannosa, pertanto il difetto in CTNNA3 non risulta essere la causa principale del fenotipo autistico in questa famiglia, anche se potrebbe avere un ruolo come fattore di suscettibilità.
Resumo:
Nel sistema nervoso centrale i neuroni comunicano l'uno con l'altro attraverso le connessioni sinaptiche e sono soggetti a centinaia di stimoli, ma hanno la capacità di distinguerli l'uno dall'altro. L'abilità delle sinapsi di interpretare questi cambiamenti morfologici e biochimici è detta \textit{plasticità sinaptica} e l'obiettivo di questa tesi è proprio studiare un modello per le dinamiche di questo affascinante processo, da un punto di vista prima deterministico e poi stocastico. Infatti le reazioni che inducono la plasticità sinaptica sono ben approssimate da equazioni differenziali non lineari, ma nel caso di poche molecole bisogna tener conto delle fluttuazioni e quindi sono necessari dei metodi di analisi stocastici. Nel primo capitolo, dopo aver introdotto gli aspetti fondamentali del sistema biochimico coinvolto e dopo aver accennato ai diversi studi che hanno approcciato l'argomento, viene illustrato il modello basato sull'aggregazione delle proteine (PADP) volto a spiegare la plasticità sinaptica. Con il secondo capitolo si introducono i concetti matematici che stanno alla base dei processi stocastici, strumenti utili per studiare e descrivere la dinamica dei sistemi biochimici. Il terzo capitolo introduce una giustificazione matematica riguardo la modellizzazione in campo medio e vede una prima trattazione del modello, con relativa applicazione, sui moscerini. Successivamente si applica il modello di cui sopra ai mammiferi e se ne studia nel dettaglio la dinamica del sistema e la dipendenza dai parametri di soglia che portano alle varie transizioni di fase che coinvolgono le proteine. Infine si è voluto osservare questo sistema da un punto di vista stocastico inserendo il rumore di Wiener per poi confrontare i risultati con quelli ottenuti dall'approccio deterministico.
Resumo:
In questo inizio di secolo, la nuova organizzazione sociale del lavoro pone una serie di domande e di sfide ai ricercatori che intendono aiutare le persone a progettare la loro vita lavorativa. Nell'era della globalizzazione anche per quanto riguarda il career counseling, abbiamo deciso di affrontare queste problematiche e di dare delle risposte che si caratterizzassero come innovative attraverso la costituzione di un forum di discussione internazionale. Si è proceduto in questo modo per evitare le difficoltà che generalmente si incontrano quando si mettono a punto dei modelli e dei metodi in un Paese e poi si esportano in altre culture con l'intento di adattarli alle stesse. Questo articolo presenta i primi risultati della collaborazione che si è registrata - un modello e dei metodi per la consulenza di orientamento. Il modello per l'intervento nell'ambito dell'approccio Life Design si caratterizza per cinque presupposti relativi al modo di vedere le persone e la loro vita lavorativa. Essi riguardano le possibilità contestuali, i processi dinamici, i progressi non-lineari, le molteplici prospettive e la presenza di pattern personali. Partendo da questi cinque presupposti abbiamo messo a punto un modello basato sull'epistemologia del costruzionismo sociale, che sostiene che la conoscenza e l'identità di un individuo sono i prodotti dell'interazione sociale e che il significato è costruito attraverso il discorso. Questo approccio fa riferimento anche alla teoria della costruzione di sé di Guichard (2005) e della costruzione della vita professionale di Savickas (2005), che descrivono le azioni utili a facilitare la progettazione del proprio futuro. Particolare attenzione viene data agli interventi nel corso dell'arco di vita, olistici, contestuali e preventivi.
Resumo:
Il presente contributo prende le mosse dalla consapevolezza che i modelli lineari tradizionali sulle carriere (Super, 1980) hanno lasciato il passo a concettualizzazioni più complesse e non lineari (Cohen, Duberley & Mallon, 2004; Pryor & Bright, 2007; Richardson, 2002), argomento tra l’altro approfondito operando una disanima delle principali transizioni di carriera e dei fenomeni psicosociali ad esse correlate (Schlossberg, Waters & Goodman, 1995). Vengono affrontati temi attuali quali quelli della Globalizzazione riflessiva (Beck, 1999), della complessità e delle Flessibilità (Sennett, 1998) e se ne mette in luce le interrelazioni con il fenomeno delle carriere, ed in particolare delle dinamiche che ne hanno modificato progressivamente e radicalmente la natura nel corso degli ultimi trent’anni (Hall, 1976, 1996). È stato approfondito il tema dei nuovi percorsi di carriera, con particolare attenzione ai costrutti teorici della Protean Career (Carriera Versatile) e della Boundaryless Career (Carriera senza confini). Sono stati condotti due studi, mediante il metodo dell’inchiesta, proponendo dei questionari autosomministrabili a due gruppi di lavoratori dipendenti. La selezione degli strumenti da inserire nel protocollo, e quindi delle ipotesi da verificare è stata operata in funzione delle caratteristiche intrinseche dei due gruppi coinvolti, cercando comunque di valorizzare sempre il ruolo dei nuovi orientamenti di carriera all’interno del disegno di ricerca. Lo studio 1 è stato condotto su un gruppo di 540 lavoratori dipendenti provenienti da Sardegna e Sicilia. Facendo riferimento agli studi tradizionali sull’insicurezza lavorativa (Sverke & Hellgren, 2002), si è cercato di valutare l’eventuale effetto moderante dei nuovi orientamenti di carriera (Briscoe, Hall & Frautschy De Muth, 2006) circa gli effetti dell’insicurezza su benessere psicofisico (Goldberg, 1972) e coinvolgimento lavorativo (Schaufeli, Bakker & Salanova, 2006; Scaufeli, Salanova, Gonzalez-Romá & Bakker, 2002). I risultati hanno mostrato alcuni effetti parziali, ma d’altro canto è emerso che i medesimi orientamenti di carriera risultano significativamente e direttamente associati a variabili quali l’Autoefficacia, la Proattività, il benessere e il Coinvolgimento. Lo studio 2, riguardante un gruppo di 79 neolaureati di Palermo e provincia al primo inserimento lavorativo, è stato condotto nell’arco di 8 mesi con tre rilevazioni dati. In questo caso si è cercato di evidenziare eventuali effetti causali longitudinali degli orientamenti di carriera sulle variabili dipendenti già incluse nello studio 2. Le ipotesi espresse hanno trovato soltanto parziale conferma nei risultati.
Resumo:
La tesi affronta le problematiche relative ai nuovi scenari educativi nella cosiddetta Società della Conoscenza e alle sfide che essa richiede alla didattica nei nuovi “ambienti” formativi. Partendo dall’analisi della definizione della stessa come Società della Conoscenza si cerca di darne una lettura che ne metta in luce gli elementi principali che la caratterizzano aprendo alla riflessione sullo sguardo che essa dà al suo futuro e agli scenari verso i quali si orientano le sue sfide cognitive ed educative. In tale analisi non può mancare una riflessione sul legame tra la società contemporanea e le cosiddette nuove tecnologie (ICT: Information and Comunication Technologies). Le ICT, infatti, in misura sempre maggiore, hanno invaso la società e influenzato l’evoluzione della stessa assumendo un ruolo significativo nella vita quotidiana e nell’affermarsi della società della conoscenza. Il percorso di ricerca prende il via da questi interrogativi per ampliare la riflessione sulle nuove frontiere dell’educazione nella società della conoscenza. Quest’ultima, infatti, così come si caratterizza e come si evolve, identificando la sua priorità non solo nella diffusione dell’informazione, ma anche e soprattutto nella “costruzione” di conoscenza, impone un nuovo modo di pensare e approcciarsi all’educazione e alla formazione. Il longlife learning diventa l’elemento centrale ma non va inteso solo come possibilità date all’individuo adulto di riprendere percorsi formativi lasciati o intraprenderne di nuovi. Quello che cambia è la finalità stessa della formazione: è il concetto dell’apprendimento come potenzialità individuale (empowerment). Non basta avere accesso e acquisire un numero sempre maggiore di informazioni ma occorre sviluppare la capacità di acquisire strategicamente le informazioni per essere capaci di affrontare i continui cambiamenti e costruire nuove forme di sapere condiviso. Sul piano operativo le ICT permettono numerose nuove possibilità per la formazione, sia come strumenti a supporto della didattica, sia come mezzi di trasmissione delle informazioni e costruzione di conoscenza. L’e-learning si afferma con una sua impostazione e una sua metodologia, nonché con i suoi “oggetti” e i suoi “ambienti”. Nella tesi vengono illustrate le principali problematiche da considerare per la costruzione di percorsi formativi in rete (strumenti, contenuti, ruoli, comunicazione, valutazione) per presentare, infine, i materiali prodotti dall’autrice per l’erogazione on line di moduli didattici in due Unità Formative.
Resumo:
Fin dalle prime riflessioni effettuate sulle zone industriali oggetto di indagine è apparso evidente come l’area di Sassa non abbia trovato, nella vocazione industriale conferitagli dagli strumenti urbanistici, la sua miglior definizione. Le successive analisi non hanno fatto altro che confermare questa primitiva intuizione, soprattutto se si considera l’esiguo numero di attività operanti e la presenza, ad oggi decisamente importante , dell’attiguo Progetto C.A.S.E. di Sassa NSI. L’intuizione seguita per rispondere alle reali esigenze del luogo e del tempo è stata quella di coniugare il tema dello sviluppo industriale a piccola scala con il tema dell’abitare gli spazi, non solo quelli pieni, ma anche e soprattutto quelli vuoti. Il Rio Forcella, che scorre da Ovest ad Est lungo l’area, diventa l’elemento utile a raccordare tutti i temi: un parco fluviale che si sviluppa trasversalmente e che, come una spina dorsale, regge l’intero sistema. Il parco, quindi, accoglie un’area legata alle produzioni locali, una legata ai servizi al turismo, ed una dedicata ai servizi alla residenza.
Resumo:
Scopo della tesi è studiare la co-evoluzione nei mercati finanziari tra agenti eterogenei, analizzare l’andamento dei prezzi delle azioni e la ricchezza individuale di ciascun agente dopo un periodo di tempo non specificato. Il mercato finanziario è costituito da un numero arbitrario di agenti eterogenei che investono sui titoli parte della loro ricchezza adottando strategie che vadano ad ottimizzare il ritorno economico dopo ogni periodo di tempo. Consideriamo un sistema dinamico con uno scheletro deterministico. Il sistema che descrive questo modello è un sistema di equazioni non lineari e studiamo le condizioni di stabilità per ciascun stato di equilibrio. Consideriamo in particolare due tipologie di agenti; Il primo, cosiddetto cartista ed il secondo, cosiddetto fondamentalista. Ci riferiamo poi alla teoria delle biforcazioni, cioè allo studio del cambio di stabilità del sistema rispetto ad un parametro. Chi tra i due agenti avrà la meglio?? A quali condizioni sopravviverà l’uno o l’altro?
Resumo:
Nell’ultimo decenno si è assisitito ad una frenetica evoluzione delle tecnologie di connessione e trasferimento dati, dagli impianti di fibra ottica sempre più diffusi e performanti, alle varie tecnologie mobile UMTS e LTE. Tutto ciò ha permesso a sempre più persone di poter spendere una maggiore fetta del proprio tempo sulla rete sia per svago che per lavoro. Questo ha portato col tempo l’utente interattivo alla ricerca di servizi remoti che prima usufruiva in locale, sia per motivi di portabilità e di interconnessione, sia per una semplice questione di sincronizzazione fra i vari dispositivi posseduti. Il presente progetto di tesi si pone come obiettivo di indagare con occhio ingegneristico all’evoluzione della struttura del web fino ad identificare e analizzare l’attuale necessità di poter avere in rete tutti quei servizi anche completi e strutturalmente complessi che prima si aveva sul proprio desktop; tutto ciò attraverso l’esempio di un nuovo linguaggio di sviluppo per applicazioni web strutturate proposto da Google: DART. In questa analisi non si potrà prescindere dallo studio attento della tecnologia che sin dagli inizi della rete ha fatto da struttura al web ovvero l’Html e il suo ultimo standard Hmtl5. Nella prima parte verrà mostrata, attraverso un breve percorso, la nascita e lo sviluppo del web, sino ai giorni nostri. Si effettuerà quindi una panoramica, rivisitando tutti più importanti passi che hanno portato la rete internet ad essere ciò che oggi utilizziamo, ponendo una particolare attenzione alle attuali esigenze di progettazione della struttura dei servizi web. Nel secondo capitolo viene introdotta la tecnologia a base del web, l’Html; attraverso una breve analisi dell’evoluzione di quest’ultima si arriverà sino all’attuale HTML5 e alle funzionalità offerte nell’ottica della programmazione web strutturata. Nel terzo capitolo si analizzerà in maniera più approfondita la necessità di un web strutturato e le potenzialità del progetto Dart attraverso alcuni esempi esplicativi. Infine si trarranno alcune conclusioni sull’attuale situazione del web, sulla necessità di un web strutturato e sulla possibilità di riuscita del progetto Dart.
Resumo:
Il dibattito sullo sviluppo delle culture dell’età del Bronzo nel territorio dell’Emilia-Romagna sta portando una rinnovata attenzione sull’area romagnola. Le indagini si sono concentrate sull’area compresa tra il fiume Panaro e il Mare Adriatico, riconoscibile nell’odierna Romagna ed in parte della bassa pianura emiliana. Si trattava un territorio strategico, un vero e proprio crocevia socio-economico fra la cultura terramaricola e quelle centro italiche di Grotta Nuova. La presente ricerca di dottorato ha portato alla ricostruzione dei sistemi di gestione e di sfruttamento delle risorse animali in Emilia-Romagna durante l’Età del Bronzo, con particolare attenzione alla definizione della capacità portante ambientale dei diversi territori indagati e delle loro modalità di sfruttamento in relazione alla razionalizzazione della pratiche di allevamento. Sono state studiate in dettaglio le filiere di trasformazione dei prodotti animali primari e secondari definendo, quindi, i caratteri delle paleoeconomie locali nel processo di evoluzione della Romagna durante l’età del Bronzo. La ricerca si è basata sullo studio archeozoologico completo su 13 siti recentemente indagati, distribuiti nelle provincie di: Bologna, Ferrara, Ravenna, Forlì/Cesena e Rimini, e su una revisione completa delle evidenze archeozoologiche prodotte da studi pregressi. Le analisi non si sono limitate al riconoscimento delle specie, ma hanno teso all’individuazione ed alla valutazione di parametri complessi per ricostruire le strategie di abbattimento e le tecniche di sfruttamento e macellazione dei diversi gruppi animali. E’ stato possibile, quindi, valutare il peso ecologico di mandrie e greggi sul territorio e l’impatto economico ed ecologico di un allevamento sempre più sistematico e razionale, sia dal punto di vista dell’organizzazione territoriale degli insediamenti, sia per quanto riguarda le ripercussioni sulla gestione delle risorse agricole ed ambientali in generale.
Resumo:
In questa tesi viene presentata una scelta dei passaggi fondamentali per arrivare alla dimostrazione della congettura della double bubble, dovuta ad Hutchings, Morgan, Ritoré e Ros. Questa dimostrazione assicura l'esistenza e l'unicità della superficie minima che permette di racchiudere due volumi nello spazio reale tridimensionale; si tratta quindi di un caso particolare del problema delle bolle di sapone, che ha richiesto la messa a punto di strumenti sofisticati di teoria geometrica della misura, calcolo delle variazioni ed equazioni differenziali non lineari.
Resumo:
Negli ultimi anni sono stati sintetizzati numerosi oligomeri e polimeri del tiofene che, grazie alle loro proprietà di semiconduttori, hanno trovano largo impiego in molti campi di interesse tecnologico come, ad esempio, transistor ad effetto di campo, diodi elettroluminescenti, dispositivi ottici non lineari e celle fotovoltaiche. Più recentemente, oligomeri tiofenici ossidati allo zolfo hanno trovato applicazione sia in campo elettronico, come materiali accettori in blenda con il poli(3-esiltiofene) (P3HT) usato come materiale donatore, in celle solari di tipo Bulk Hetero Junction (BHJ), ma anche in campo biologico come marcatori fluorescenti di proteine e oligonucleotidi. Tuttavia la sintesi di queste specie richiede condizioni di reazione spinte e al contempo rischiose dovute all’utilizzo in largo eccesso di agenti ossidanti molto forti. Uno degli obiettivi di questa tesi è stato lo sviluppo di metodi più versatili per la mono e di-ossidazione selettiva allo zolfo del tiofene di building-blocks dibromurati di diversa natura. Successivamente i building-blocks S-monossido e S,S-diossido derivati sono stati impiegati per la sintesi di oligomeri e polimeri tramite reazioni di cross-coupling Palladio catalizzate. I composti finali sono stati caratterizzati sia dal punto di vista spettroscopico UV-Vis che elettrochimico, mettendo in evidenza le relazioni che esistono fra gli andamenti dei dati sperimentali ottenuti con il diverso stato di ossidazione dei composti tiofenici diversamente sostituiti. Infine i composti finali sono stati testati sia in campo fotovoltaico che biologico.
Resumo:
In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.
Resumo:
In this thesis I analyzed the microwave tomography method to recognize breast can- cer. I study how identify the dielectric permittivity, the Helmoltz equation parameter used to model the real physic problem. Through a non linear least squares method I solve a problem of parameters identification; I show the theoric approach and the devel- opment to reach the results. I use the Levenberg-Marquardt algorithm, applied on COMSOL software to multiphysic models; so I do numerical proofs on semplified test problems compared to the specific real problem to solve.
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.