1000 resultados para teoria dei giochi evoluzione moneta economie baratto


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Scopo di questo lavoro di tesi è la revisione della legislazione in materia di dispositivi medici nel mercato europeo, facendone un confronto con la normativa extra-europea. In particolare si sono studiate ed analizzate anche le regolamentazioni degli Stati Uniti e del Giappone, che insieme a quella dell’Unione Europea, rappresentano attualmente i tre maggiori mercati mondiali di dispositivi medici. L’obiettivo quindi è stato la ricerca, lo studio e l’analisi critica dei vari sistemi legislativi in vigore, la loro evoluzione e le prospettive future. Considerando il punto di vista del fabbricante di dispositivi medici, si sono illustrati percorsi normativi per poter immettere sul mercato un nuovo dispositivo medico nell’Unione Europea, negli Stati Uniti e in Giappone, evidenziando le procedure da seguire, le modalità di commercializzazione nei tre mercati, le certificazioni richieste, facendone un’analisi comparativa di un mercato rispetto agli altri. Sempre nella stessa ottica, si è inoltre effettuata una sintetica analisi del mercato dei dispositivi medici nei paesi emergenti, in quanto sono già, e lo diventeranno sempre più, una risorsa importante per una azienda con una visione internazionale del mercato. In questo elaborato di tesi sono stati ampiamente descritti ed analizzati i diversi sistemi di regolamentazione dei dispositivi medici e si è effettuata una valutazione comparativa tra i diversi sistemi legislativi e normativi che condizionano il mercato dei dispositivi medici. Un fabbricante con una visione internazionale della propria azienda deve conoscere perfettamente le legislazioni vigenti in materia di dispositivi medici. Per l'impresa, la conoscenza e la pratica della norma è indispensabile ma, ancor più, l'informazione e la consapevolezza dell'evoluzione della norma è determinante per la crescita competitiva. Il business mondiale dei dispositivi medici infatti ha subito profondi cambiamenti, con l'introduzione nei diversi paesi di complesse procedure di certificazione e autorizzazione, che sono in continua evoluzione. Tutto questo richiede una dimestichezza con le norme di settore e un continuo aggiornamento tecnico-normativo: sono indispensabili per le imprese competenze adeguate, in grado di affrontare tematiche tecnico-scientifiche e di adempiere a quanto prevedono le norme nazionali ed internazionali. Comprendere le opportunità, conoscere le regole e le barriere per l'ingresso in un determinato mercato, è sempre più importante per le imprese interessate ai processi di internazionalizzazione. Per meglio comprendere un mercato/paese, occorre la conoscenza dei peculiari aspetti regolatori, ma anche la conoscenza della specifica cultura, tradizione, società. In questo quadro, conoscere e praticare le norme non è sufficiente, sapere come evolvono le norme e le regole è per le imprese un fattore determinante per la competitività.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il castello di Coriano, in provincia di Rimini, per la sua complessità ci ha permesso di confrontarci con diversi temi, dal reinserimento del castello all’interno del contesto urbano alla conservazione e il restauro delle manufatto, dall’aspetto paesaggistico legato alle visuali, all'interazione della vegetazione con le strutture. L'evoluzione delle vicende storiche ha fatto sì che il ruolo del castello sia cambiato nel corso del tempo, attraversando una prima fase di forte importanza pubblica per poi essere rafforzato da opere difensive e infine subire un progressivo abbandono che lo ha privato della sua dimensione sociale, rendendolo un luogo isolato e privo d'identità. L'analisi del manufatto e del suo contesto storico e paesaggistico ha condotto ad un progetto di valorizzazione che mira a rendere nuovamente il castello fulcro di attività sociali e nuovo protagonista della realtà corianese, fornendone al tempo stesso una chiave di lettura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ai nostri giorni le aree costiere risultano particolarmente sensibili perché sottoposte ad alcune fonti di stress, quali la salinizzazione degli acquiferi e la naturale ed antropica modificazione del territorio costiero. Questo lavoro indaga gli effetti dell’incendio del 2012 nella Pineta costiera di Lido di Dante (Ravenna) sull’acquifero costiero superficiale. Sono stati effettuati i rilievi in campo della tavola d’acqua, della conduttitivà elettrica e del pH nei mesi di novembre 2014 e luglio 2015. I campioni di acqua sono stati prelevati grazie alla tecnologia dei minifiltri, un sistema di campionamento multilivello molto preciso e rapido. Il campionamento comprende 3 transetti di minifiltri ubicati nella zona bruciata della pineta e un transetto di controllo nella zona verde della pineta, dove la vegetazione è intatta. Dall’elaborazione grafica di questi valori sono state ottenute delle isolinee rappresentative di valori soglia per le acque dolci, salmastre, salate, a pH 7.5 tipico delle acque meteoriche e a pH 8 tipico dell’acqua di mare. I valori di conduttività elettrica rapportati alla topografia e alla tavola d’acqua mostrano la formazione di lenti di acqua dolce nella zona dove la vegetazione è scomparsa a causa dell’incendio. Acque dolci assenti nella zona verde a causa della vegetazione e della sua attività evapotraspirativa. Le isolinee ottenute dal pH spiegano invece l’effetto delle ceneri dell’incendio dilavate dalle acque meteoriche e le differenze con la zona ancora ricoperta da vegetazione. I parametri analizzati risultano determinanti nella valutazione dello stato di salute della risorsa acquifera della costiera romagnola minacciata dalla salinizzazione e dalla modificazione del pH.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha avuto lo scopo di valutare l’influenza della marinatura su alcuni aspetti microbiologici e chimico-fisici correlati alla qualità della carne di petto di pollo confezionata sottovuoto durante un periodo di stoccaggio di 14 giorni in condizioni refrigerate. Dalle analisi microbiologiche, è emerso che, nonostante l’aumento di pH dovuto all’azione alcalinizzante del bicarbonato, la shelf-life del prodotto marinato è rimasta invariata rispetto al gruppo di controllo non-marinato ed è stata pari a circa 14 giorni. Dal punto di vista tecnologico, gli ingredienti funzionali aggiunti nella soluzione di marinatura hanno consentito di ottenere livelli di perdite di cottura nel prodotto finito simili a quelli delle carni non-marinate durante tutto il periodo di conservazione. Ciò è riconducibile al notevole aumento della solubilità delle proteine miofibrillari determinato dall’effetto sinergico di cloruro di sodio e bicarbonato. Tuttavia, i prodotti marinati hanno mostrato maggiori perdite di liquido nelle confezioni e questo aspetto può condizionare negativamente la propensione all’acquisto da parte del consumatore. Gli effetti rilevati sul colore non costituiscono invece un elemento determinante nella scelta dei prodotti avicoli confezionati sottovuoto. Infine, è stato escluso qualsiasi effetto negativo della marinatura nei confronti della stabilità ossidativa dei lipidi. I risultati ottenuti in questo lavoro di tesi hanno pertanto dimostrato che è possibile realizzare un prodotto marinato a base di carne di petto di pollo stabile durante la conservazione offrendo così al consumatore un alimento con caratteristiche sensoriali di succulenza e tenerezza superiori e con una maggiore facilità d’uso. Restano da ottimizzare alcuni aspetti legati alla presentazione del prodotto soprattutto in relazione alla presenza di liquido nelle confezioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il litorale di Senigallia si sviluppa ai due lati del porto ed è caratterizzato da una costa bassa e sabbiosa, che già nei decenni passati ha risentito dell’influenza del porto nel tratto sottocorrente, in cui sono state installate delle opere di difesa. Nei primi anni del 2000 il porto ha subito ulteriori modifiche con possibili altri impatti sulla spiaggia emersa e sommersa. In tale ambito, la ditta Geomarine S.r.l. di Senigallia, su commissione del Comune di Senigallia, ha eseguito dei rilievi topo-batimetrici su un tratto del litorale del medesimo Comune dal 2009 al 2015. In questo lavoro di tesi ho partecipato personalmente alla campagna di misura del 2015. Per le indagini nella spiaggia sommersa è stata utilizzata una strumentazione Singlebeam e Multibeam mentre per i rilievi topografici è stato utilizzato un sistema GPS-NRTK. Con i dati acquisiti, elaborati e processati, è stato costruito un DTM con una carta delle isoipse e isobate dell’area. Allo scopo di integrare la ricostruzione morfologica ottenuta per l’area con informazioni sul sedimento presente, sono stati realizzati dei campionamenti lungo gli stessi transetti adottati in precedenti campagne sedimentologiche svolte dalla Regione Marche. I campioni sono stati successivamente sottoposti ad un’analisi granulometrica e i risultati confrontati tra loro e con quelli raccolti nei decenni precedenti. I risultati dei rilievi topo-batimetrici sono stati, infine, confrontati tra loro sui diversi intervalli temporali di acquisizione, per comprendere l’evoluzione del tratto di costa studiato nel breve termine e come i fattori naturali e antropici possano aver influito sui cambiamenti osservati. Per inquadrare l’evoluzione dell’area d’interesse su un arco temporale più ampio (1955-2015) si è poi effettuata un’analisi semi-qualitativa/quantitativa dell’andamento nel medio termine della linea di riva a partire da foto aeree.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’acquifero superficiale della Provincia di Ferrara è caratterizzato dalla presenza di una diffusa contaminazione da Arsenico. Per dare una risposta a questo fenomeno gli Enti della Provincia e del Comune hanno deciso di intraprendere uno studio volto alla determinazione dei valori di fondo del metalloide ed al miglioramento della comprensione del fenomeno. Il lavoro ha portato alla creazione di tre database con i dati presenti negli archivi provinciali inerenti: ubicazione e caratteristiche dei piezometri, dati idrochimici, concentrazione di Arsenico. L’acquifero superficiale è l’A0, olocenico, che si presenta eterogeneo per via della sua evoluzione geologica. Da uno studio stratigrafico ed idrogeologico si è visto come l’area sia costituita, andando da Ovest verso Est, da corpi alluvionali-deltizio-costieri olocenici in eteropia di facies. L’area centro-orientale è caratterizzata da un ciclo sedimentario trasgressivo-regressivo caratterizzato, nella parte superiore, dalla progradazione di un antico delta del Po. In tale ambiente si sono andati formando depositi ricchi in materia organica e in torba. Questi possono assumere una rilevante importanza nello spiegare il fenomeno, poiché possono svolgere sia il ruolo di sorgente dell’Arsenico che di redox driver attraverso la loro decomposizione. Elaborando i dati sono emersi elementi che sembrano confermare l’azione di un meccanismo di dissoluzione riduttiva che rilascia l’Arsenico, come mostrato dai cross plot tra Arsenico e Potenziale Redox, Ferro e Potenziale Redox, Arsenico e Ferro, Ferro e Manganese. L’area è stata suddivisa in tre zone, in cui la centrale corrisponde all’area ricca in materia organica. Sulla base delle tre aree individuate si è proceduto alla creazione di tre popolazioni di dati sottoposte ad analisi statistica. Quindi si è dimostrata l’assenza di contaminazione antropica, si sono esclusi i dati non significativi, si sono trattati i non detected e si sono individuati ed eliminati gli outlier. Infine si è proceduto alla determinazione della migliore distribuzione per ogni popolazione. Fatto ciò si è calcolato il 95° percentile, che è stato assunto come valore di fondo dell’area. Si è visto come tutti i tre valori di fondo superassero la CSC ed in particolare il valore di fondo dell’area centrale risultasse nettamente superiore agli altri due, superando la CSC di circa 10 volte. Questo ad ulteriore conferma della possibile azione della torba nel rilascio di Arsenico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Lago di Cavazzo (o dei Tre Comuni) è il più esteso lago naturale del Friuli Venezia Giulia. Situato nelle Prealpi Carniche, in provincia di Udine, è ubicato in un’antica valle scavata in epoca pre – glaciale dal fiume Tagliamento, che oggi scorre circa 3 km ad Est. A partire dagli anni ’40, la S.A.D.E. (ora Edipower) ottenne le concessioni per la costruzione di una serie di impianti idroelettrici in tutto il Friuli Venezia Giulia che nel 1954 portò alla realizzazione della Centrale idroelettrica di Somplago, costruita in caverna lungo la sponda Nord – occidentale del lago. La Centrale turbina le acque di scarico provenienti dai bacini di accumulo superiori («Lumiei», «Ambiesta») e da altre prese minori sul Tagliamento, immettendo a sua volta le acque turbinate all’interno del lago di Cavazzo tramite galleria. Dai dati disponibili in letteratura, dalle cronache e dai resoconti riportati dalla popolazione locale, l’attività della Centrale ha notevolmente influenzato l’equilibrio di questo ambiente, in termini geologici, biologici ed idrologici, soprattutto a causa dell’enorme volume di acqua fredda (e relativi sedimenti) scaricata, delle continue variazioni di livello dell’acqua per regolarne il volume di invaso e dello scavo del canale emissario, localizzato nell’estremità meridionale. Nel Maggio 2015 l’ISMAR – CNR di Bologna ha effettuato un rilievo geofisico del lago, tramite tecniche non distruttive di ecografia e sismica a riflessione, in grado di analizzare la stratigrafia superficiale e la distribuzione degli apporti sedimentari, con lo scopo di quantificare da questo punto di vista l’impatto della Centrale sul lago. I dati acquisiti, che comprendono profili sismici ad alta risoluzione, profili batimetrici single/multi – beam ed immagini side – scan sonar, sono stati successivamente elaborati per realizzare varie mappe tematiche (morfobatimetria, riflettività, gradiente topografico e spessore dei sedimenti penetrabili dal segnale sismico) che hanno permesso di descrivere l’attuale assetto deposizionale del lago. Sono stati inoltre effettuati alcuni carotaggi in vari punti della conca lacustre, al fine di quantificare il tasso di sedimentazione e le caratteristiche fisiche dei depositi. Scopo di questo lavoro di Tesi è stato analizzare, interpretare e discutere in una prospettiva di evoluzione ambientale del lago i dati geofisici e geologici raccolti nell’ambito della campagna del Maggio 2015 e reperiti in bibliografia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Argomento della presente tesi è il calcolo integrale. Nella prima parte dell'elaborato viene descritta l'evoluzione storica delle idee presenti già nella matematica antica, che conducono infine alla creazione del calcolo integrale vero e proprio, nei fondamentali lavori di Newton e Leibniz. Segue una sintetica descrizione delle sistematizzazioni formali della teoria dell'integrazione, ad opera di Riemann e successivamente Lebesgue, oltre alla generalizzazione dell'integrale di Riemann ideata da Sieltjes, di grande importanza, fra l'altro, nel calcolo delle probabilità. Si dà poi conto degli spazi funzionali con norme integrali (L^p, spazi di Sobolev). L'ultimo capitolo è dedicato all'insegnamento del calcolo integrale nella scuola secondaria in Italia, e alla sua evoluzione dall'inizio del XX secolo a oggi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Elaborato che si propone di evidenziare come i veicoli a benzina e a diesel possano soddisfare la normativa Euro 6. Si analizza il funzionamento dei principali sistemi di after-treatment come: catalizzatore SCR e DeNOx, trappola LNT, filtri FAP e DPF, sistemi EGR, per i motori ad accensione per compressione e catalizzatore TWC per motori ad accensione comandata. Parallelamente, si spiega l'evoluzione della normativa da Euro 6b a Euro 6c in termini di riduzione del numero di particelle di particolato emesse per km e come rispondere a queste più restrittive condizioni; viene introdotto, in via ancora sperimentale, il filtro antiparticolato GPF e un sistema di misurazione di nano particelle di dimensioni inferiori a 23 nm cioè una rivalutazione del metodo PMP. Contestualmente si definisce il progetto CARS 2020, il quale aggiunge una limitazione anche sulla quantità di anidride carbonica emessa a 95 g/km e le eventuali possibili soluzioni per rispettarla: da un maggior uso di combustibili alternativi a miglioramenti tecnologici dei motori stessi. Infine si studiano gli sviluppi dei cicli di omologazione, dal 2017 infatti entreranno in gioco test su strada con dispositivi PEMS on-board e cicli armonizzati WLTC. Le procedure RDE e WLTP permetteranno di testare i vecioli in maniera più reale e globale, rispettivamente, riuscendo a fornire anche valori attendibili dei consumi registrati durante le prove.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel redarre la tesi si è perseguito l'intento di illustrare la teoria alla base delle onde gravitazionali e dei metodi che ne consentono la rivelazione. È bene tenere presente che con il seguente elaborato non si sta proponendo, in alcun modo, una lettura da sostituire ad un testo didattico. Pur tuttavia, si è cercato di presentare gli argomenti in maniera tale da emulare l'itinerario formativo di uno studente che, per la prima volta, si approcci alle nozioni, non immediatamente intuitive, ivi descritte. Quindi, ogni capitolo è da interpretarsi come un passo verso la comprensione dei meccanismi fisici che regolano produzione, propagazione ed infine rivelazione delle perturbazioni di gravità. Dopo una concisa introduzione, il primo capitolo si apre con il proposito di riepilogare i concetti basilari di geometria differenziale e relatività generale, gli stessi che hanno portato Einstein ad enunciare le famose equazioni di campo. Nel secondo si introduce, come ipotesi di lavoro standard, l'approssimazione di campo debole. Sotto questa condizione al contorno, per mezzo delle trasformazioni dello sfondo di Lorentz e di gauge, si manipolano le equazioni di Einstein, ottenendo la legge di gravitazione universale newtoniana. Il terzo capitolo sfrutta le analogie tra equazioni di campo elettromagnetiche ed einsteiniane, mostrando con quanta naturalezza sia possibile dedurre l'esistenza delle onde gravitazionali. Successivamente ad averne elencato le proprietà, si affronta il problema della loro propagazione e generazione, rimanendo sempre in condizioni di linearizzazione. È poi la volta del quarto ed ultimo capitolo. Qui si avvia una dissertazione sui processi che acconsentono alla misurazione delle ampiezze delle radiazioni di gravità, esibendo le idee chiave che hanno condotto alla costruzione di interferometri all'avanguardia come LIGO. Il testo termina con uno sguardo alle recenti scoperte e alle aspettative future.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel primo capitolo parleremo dell'accessibilità ai siti web siccome con la crescita dei contenuti multimediali e dei contenuti dinamici, non vengono sempre presi in causa le disabilità che una persona può avere nel visualizzare determinati contenuti. Si tratterà di crescita del web 2.0 e nascita del web 3.0. La transcodifica dei contenuti e i problemi che ogni persona in base alla sua disabilità può riscontrare usando apparecchi differenti per l'accesso ai dati. Parleremo dell'evoluzione dell'uso dei siti in versione mobile cosi da fare un paragono con l'usabilità tra desktop e mobile. Nel secondo capitolo andremo ad analizzare tutte le specifiche che siamo andati a prendere in considerazione per lo sviluppo di questa estensione. Guarderemo quali sono le motivazioni che ci hanno portato allo sviluppo di un'estensione di questo tipo. Verranno anche descritte tutte le scelte progettuali prese in via di sviluppo per migliorare l'usabilità e l'utilizzo dei dati raccolti, per fornire un servizio più efficiente all'utente. Nel terzo capitolo andremo a spiegare tutta l'implementazione effettuata per ExTraS con tutte le funzionalità considerate e scelte in base ai problemi più importanti di accessibilità attualmente riscontrati nel mondo del web da persone con diversi gradi di disabilità. Le principali disabilità che vengono prese in considerazione per l'utilizzo di questo addon sono persone che soffrono di ipovisione, daltonismo. L'ultimo paragrafo di questo capitolo descriverà test effettuati con utenti reali e con utenti simulati. Il test con utenti simulati è stato effettuato grazie al lavoro di tesi effettuato da Alberto Fariselli il quale ha integrato ExTraS creando un simulatore basato sul Q-learning.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel Capitolo I abbiamo osservato come la legittimazione abbia per oggetto la fonte di produzione del diritto, mentre la legalità l’atto emanato dalla fonte nell’esercizio del potere. La legittimazione è fondamento del potere, attiene alla sua titolarità e giustifica l’obbedienza e l’uso della forza. La legalità si riferisce all’esercizio del potere, regolandolo. Si è visto come «quando si esige la legittimazione del potere, si chiede che colui che lo detiene abbia il diritto di averlo. Quando si invoca la legalità del potere, si domanda che chi lo detiene lo eserciti non secondo il proprio capriccio ma in conformità di regole stabilite ed entro i limiti di queste. Il contrario del potere legittimo è il potere di fatto, il contrario del potere legale è il potere arbitrario» . Si è poi precisato che legittimazione e legalità sono i fondamenti alla base dello Stato democratico: laddove non v’è legittimazione non vi può essere neppure democrazia, distinguendo la legittimazione formale, che riguarda chi è legittimato ad agire, ad esercitare il potere, compiendo atti giuridici prescrittivi; dalla legittimazione sostanziale, che riguarda invece che cosa non può e che cosa non può non essere deciso, ossia i limiti e i vincoli imposti all’esercizio del potere . La legittimazione è però presente in tutte le forme di Stato, tanto in quelli autoritari, quanto in quelli democratici. Ciò che distingue tra autoritarietà e democraticità dello Stato è il tipo di atto attraverso il quale si manifesta la legittimazione del potere. Il potere autoritario riceve la propria legittimazione attraverso atti di fede, quello democratico con atti di fiducia. Gli atti di fede possono solo essere spezzati, rotti. Al contrario, gli atti di fiducia possono essere rinnovati o revocati, e pertanto hanno bisogno di norme legali che ne regolino il funzionamento. In tal senso, modelli autoritari e democratici differiscono ulteriormente: nei primi, legittimato il potere, è legittimo tutto ciò che di esso è manifestazione; si può dire che la legittimazione resta tutta assorbita nella legalità. Diversamente, nei modelli democratici, è necessario vi siano norme che disciplinano quell’atto di fiducia legittimante il potere, ma non solo, ve ne devono anche essere altre che regolino l’esercizio del potere stesso. Non solo, ma la legittimazione per essere democratica deve avvenire periodicamente e ha bisogno di un pubblico attivo, informato, consapevole dei suoi diritti, perché è la democrazia ad aver bisogno di un pubblico, di un consenso sociale, che attraverso la propria legittimazione del potere controlli chi quel potere è chiamato ad esercitarlo. Si comprende, allora, perché il principio di legalità in sé e per sé non può garantire la democrazia. Esso garantisce la conformità alla legge, la non arbitrarietà nell’esercizio del potere, ma nulla dice su chi quella legge ha il potere di emanarla, e infatti l’art. 1 del Codice Rocco, durante il fascismo, non garantiva certo le libertà democratiche. Allo stesso modo, la legittimazione sociale in sé e per sé non garantisce la democrazia, perché anche forme di Stato autoritarie, plebiscitarie, hanno un consenso sociale che le sorregge e legittima tutto ciò che chi esercita il potere decide di fare, almeno fino a quando continuano ad avervi fede. Nel Capitolo II abbiamo mostrato come, attraverso la riserva di legge, la Costituzione garantisca entrambi i fondamenti democratici: quello della legalità nell’esercizio della potestà punitiva e quello della legittimazione del Parlamento che la esercita. Dunque, legalità e legittimazione periodica sono un binomio indissolubile, perché possa aversi uno Stato democratico; inoltre è necessario che l’esercizio del potere avvenga “in pubblico” e che l’opinione pubblica abbia una coscienza critica che le consenta di valutare e orientare le proprie scelte. È stato poi sostenuto nel Capitolo III come lo stesso Parlamento non possa – in democrazia – essere libero di sanzionare con pena tutto ciò che vuole, ma sia vincolato direttamente dalla Costituzione rigida e almeno indirettamente dal consenso sociale, che dovrebbe impedire che sia trasformato in illecito penale tutto ciò per la collettività non dovrebbe essere sanzionato come tale. In questo l’informazione, attraverso i mezzi di comunicazione, rappresenta un postulato necessario per ogni modello democratico in grado di influenzare i cittadini nella percezione della realtà. In quest’ultimo Capitolo IV, infine, abbiamo messo in luce come una distorta percezione della realtà, da parte del consenso sociale, alteri “patologicamente” la legittimazione democratica, facendole perdere ogni sua funzione di garanzia nel delimitare il potere politico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro vuole sensibilizzare al problema socio-linguistico dell’insegnamento dell’italiano come lingua seconda: si mostra un panorama della situazione, partendo dall’insegnamento in sé, presentando le tecniche ed i metodi non finalizzati al mero insegnamento, ma anche all’accoglienza della famiglia e alla crescita serena del bambino appena arrivato; si passa, poi, alla descrizione del contesto in cui opera la didattica interculturale, un contesto che presenta varie problematicità, dal sofferto arrivo in una terra straniera, alla necessità di adattamento nel gruppo dei pari e nel sistema scolastico, sia dal punto sociale che dal punto di vista linguistico. Il soggetto di questa tesina sono i bambini, perché un mondo che funzioni bene deve saper ruotare attorno a loro. I protagonisti del "caso particolare" di cui si parla nel titolo sono due bambini cinesi arrivati in Italia da poco e dei quali viene raccontata la loro prima esperienza di studio dell'italiano nel loro nuovo Paese.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RIASSUNTO Premesse: Nonostante l’asma sia stata considerata per anni come un’unica malattia, studi recenti ne dimostrano l’eterogeneità. L’intento di caratterizzare tale eterogeneità ha condotto a studiare molteplici sottogruppi ovvero “fenotipi”. Nell’asma comune questo approccio è stato utilizzato da svariati anni, meno invece nell’asma occupazionale. Poco è noto anche riguardo alle caratteristiche della risposta infiammatoria nel corso dei test di provocazione bronchiale specifici (SIC) con isocianati valutata con metodiche non invasive; in particolare l’origine dell’incremento di ossido nitrico misurato ad un flusso espiratorio di 50 ml/s (FeNO50) precedentemente riscontrato, se sia alveolare o bronchiale, i livelli di dimetilarginina asimmetrica (ADMA) e la temperatura dell’aria espirata (EBT). Scopi dello studio: 1) verificare se anche per l’asma occupazionale (OA) da isocianati siano individuabili dei fenotipi o se essa ne rappresenti uno unico 2) studiare l’infiammazione delle vie aeree sperimentalmente indotta tramite:  la misurazione dell’NO frazionato mediante i parametri “flow-independent” che stimano sia la regione alveolare, ovvero la concentrazione di NO alveolare (CaNO), che la regione bronchiale ovvero il flusso di NO a livello bronchiale (JawNO), la concentrazione di NO a livello della parete bronchiale (CawNO) e la diffusione di NO all’interfaccia lume-parete bronchiale (DawNO);  la misurazione dell’ADMA nel condensato dell’aria esalata (EBC);  la misurazione dell’EBT. Materiali e metodi: Per lo studio sulla fenotipizzazione dell’asma da isocianati sono stati esaminati pazienti risultati positivi al test di provocazione bronchiale specifico con isocianati nel periodo compreso tra il 1988 e il 2013. Mediante l’utilizzo di un approccio multivariato dato dall’analisi gerarchica dei cluster e di un ampio pool di variabili appropriate abbiamo studiato se i soggetti affetti da asma professionale da isocianati rappresentino uno o più cluster. Mediante un altro approccio multivariato, dato dall’analisi delle k-medie, si sono individuate le caratteristiche che differenziano in maniera significativa i soggetti distribuiti nei diversi cluster. Per il secondo scopo dello studio dal 2012 al 2015 abbiamo reclutato soggetti afferiti presso il nostro centro per sospetta asma professionale. In questi pazienti in corso di sham-test e di SIC con isocianati fino a 24 post test sono stati monitorati e misurati: la funzionalità respiratoria incluso il test di provocazione bronchiale aspecifico con metacolina, l’NO frazionato, l’ADMA nell’EBC e l’EBT. Risultati: L’utilizzo dell’analisi gerarchica dei cluster ci ha portati a stabilire che i 187 pazienti studiati non costituiscono un unico gruppo omogeneo ma possono essere suddivisi in 3 cluster. L’applicazione poi del metodo multivariato delle k-medie, su tre cluster, ci ha consentito di individuare due cluster di pazienti sensibilizzati a TDI con prevalente risposta late al SIC e un cluster di pazienti sensibilizzati a MDI con prevalente risposta early al SIC. I soggetti appartenenti ai due cluster dei TDI differiscono fra di loro in maniera significativa per l’età alla diagnosi e all’esordio dei sintomi respiratori, la distribuzione per sesso, il BMI, la distribuzione in quanto abitudine al fumo, l’IT, il FEV1 basale % del predetto, l’età di inizio esposizione, gli anni di latenza e la durata dell’esposizione. Per quanto riguarda invece lo studio del profilo infiammatorio delle vie aeree abbiamo reclutato 25 pazienti, 18 maschi e 7 femmine. Nel gruppo dei SIC-positivi FeNO50 è aumentato significativamente a 24 ore dal test (mediana 111.8 ppb [IQR, 167.5]; p<0.05) se confrontato con lo sham (58.6 ppb [74.7]). I livelli di JawNO hanno manifestato il medesimo time-course con un incremento significativo post 24 ore dall’esposizione (6.6 nL/s [81]; p <0.05) se confrontato con lo sham (3.3 nL/s [3.7]). Non sono state riscontrate significative variazioni negli altri parametri. Non sono state riscontrate significative variazioni dell’ADMA nell’EBC e dell’EBT in entrambi i gruppi. Conclusioni: L’asma da isocianati è una patologia eterogenea come l’asma comune. Gli elementi principali che differenziano i cluster di asma professionale da isocianati sono l’agente sensibilizzante e il tipo di risposta al SIC (cluster 3 vs cluster 1 e 2). Anche nell’ambito dell’asma indotta dallo stesso agente (TDI) si sono evidenziati due cluster in cui quello con peggiore funzionalità respiratoria è rappresentato da soggetti più anziani alla diagnosi e con maggiore durata dell’esposizione. I motivi per cui l’asma occupazionale risulta essere eterogenea possono essere un differente meccanismo d’azione dei monomeri o una diversa suscettibilità degli individui appartenenti ai diversi cluster sia in termini di insorgenza della malattia sia in termini di evoluzione della stessa. L’assetto infiammatorio delle vie aeree nel corso del SIC non si caratterizza nei soggetti sensibilizzati ad isocianati né con un incremento dell’ADMA né con un incremento dell’EBT. Si riscontra invece un aumento di FeNO50 dovuto esclusivamente ad un aumentato flusso di NO dalla parete bronchiale al lume. Abbiamo perciò dimostrato che la misurazione del FeNO50 nel corso del SIC può fornire informazioni aggiuntive al monitoraggio funzionale spirometrico, anche perché la broncoostruzione e la risposta infiammatoria delle vie aeree si sono rivelate dissociate.