16 resultados para Struttura finanziaria

em Universita di Parma


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Questo lavoro analizza le imprese italiane uscite dal mercato tra il 2008 e il 2012 a seguito di una procedura fallimentare o di una liquidazione volontaria e individua le principali caratteristiche aziendali correlate a tale fenomeno. L’analisi econometrica condotta sui bilanci delle società di capitali indica che la probabilità di cessazione dell’attività produttiva è stata maggiore per le aziende più piccole e per quelle di più recente costituzione. A parità di altre caratteristiche delle imprese, come la dimensione, il settore produttivo o l’area in cui esse sono localizzate, l’apertura di una procedura fallimentare è risultata maggiormente correlata a squilibri nella struttura finanziaria, come un elevato leverage, mentre la probabilità di liquidazione è stata influenzata in misura superiore dai bassi livelli di redditività.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente lavoro si occupa del vincolo di destinazione nei suoi diversi aspetti : la genesi dell'art. 2645-ter del codice civile, la natura giuridica, la struttura, gli elementi essenziali, la casistica ed i soggetti coinvolti

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Metriti ed endometriti sono le patologie maggiormente responsabili delle perdite economiche negli allevamenti bovini da latte, specialmente nel periodo successivo al parto. Mentre le metriti coinvolgono e si sviluppano in tutto l’utero e sono caratterizzate dalla presenza di sintomi sistemici, le endometriti consistono in una infiammazione che riguarda il solo endometrio, con la presenza di perdite purulente, distruzione della superficie epiteliale, congestione vascolare, edema stromale ed accumulo di linfociti e plasmacellule. Queste patologie, inoltre, possono causare, disfunzione ovarica, con conseguente infertilità e riduzione sia dell’efficienza riproduttiva della vacca sia della produzione stessa di latte. Nonostante queste malattie siano, nella maggior parte dei casi, correlate all’instaurarsi di infezioni batteriche, che possono subentrare nell’utero direttamente durante il parto, il ruolo di alcuni virus nello sviluppo di queste patologie è stato recentemente approfondito e la correlazione tra l’ Herpesvirus Bovino 4 e l’insorgere di metriti ed endometriti è stata dimostrata. L’ Herpesvirus Bovino 4 (BoHV-4) è un gamma-herpesvirus ed il suo genoma è costituito da una molecola lineare di DNA a doppio filamento con una struttura genomica di tipo B, caratterizzata dalla presenza di un’unica lunga sequenza centrale (LUR) fiancheggiata da multiple sequenze poli-ripetute (prDNA). BoHV-4 è stato isolato sia da animali sani sia da animali con differenti patologie, tra cui malattie oculari e respiratorie, ma soprattutto da casi di metriti, endometriti, vaginiti o aborti. Generalmente, il ruolo svolto dal virus in questo tipo di patologie è associato alla compresenza di altri tipi di patogeni, che possono essere virus, come nel caso del Virus Della Diarrea Virale Bovina (BVDV), o più frequentemente batteri. Usualmente, l’iniziale difesa dell’endometrio bovino nei confronti dei microbi si fonda sul sistema immunitario innato e l’attivazione di specifici recettori cellulari determina la sintesi e la produzione di citochine e chemochine pro infiammatorie, che possono essere in grado di modulare la replicazione di BoHV-4. Il genoma di BoHV-4 possiede due principali trascritti per i geni Immediate Early (IE), trai quali ORF50/IE2 è il più importante ed il suo prodotto, Rta/ORF50, è fortemente conservato tra tutti gli Herpesvirus. Esso è responsabile della diretta trans-attivazione di numerosi geni virali e cellulari e può essere modulato da differenti stimoli extracellulari. Precedentemente è stato dimostrato come il TNF-, prodotto dalle cellule stromali e dai macrofagi all’interno dell’endometrio, in conseguenza ad infezione batterica, sia in grado di aumentare la replicazione di BoHV-4 attraverso l’attivazione del pathway di NFkB e direttamente agendo sul promotore di IE2. Per queste ragioni, è risultato di forte interesse investigare quali potessero essere, invece, i fattori limitanti la replicazione di BoHV-4. In questo lavoro è stata studiata la relazione tra cellule endometriali stromali bovine infettate con l’Herpesvirus Bovino 4 e l’interferon gamma (IFN-) ed è stata dimostrata la capacità di questa molecola di restringere la replicazione di BoHV-4 in maniera IDO1 indipendente ed IE2 dipendente. Inoltre, la presenza di alcuni elementi in grado di interagire con l’ IFN-γ, all’interno del promotore di IE2 di BoHV-4, ha confermato questa ipotesi. Basandoci su questi dati, abbiamo potuto supporre l’esistenza di uno stretto vincolo tra l’attivazione dell’asse dell’interferon gamma e la ridotta replicazione di BoHV-4, andando a porre le basi per una nuova efficiente cura e prevenzione per le patologie uterine. Poiché il meccanismo corretto attraverso il quale BoHV-4 infetta l’endometrio bovino non è ancora ben compreso, è stato interessante approfondire in maniera più accurata l’interazione presente tra il virus ed il substrato endometriale, analizzando le differenze esistenti tra cellule infettate e non, in termini di espressione genica. Basandoci su dati preliminari ottenuti attraverso analisi con RNA sequencing (RNAseq), abbiamo visto come numerosi geni risultino over-espressi in seguito ad infezione con BoHV-4 e come, tra questi, la Metalloproteasi 1 sia uno dei più interessanti, a causa delle sue possibili implicazioni nello sviluppo delle patologie dell’endometrio uterino bovino. Successive analisi, effettuate tramite westernblotting e real time PCR, sono state in grado di confermare tale dato, sottolineando l’efficacia di un nuovo approccio sperimentale, basato sul RNAseq, per lo studio dell’insorgenza delle patologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

CysK, uno degli isoenzimi di O-acetilserina sulfidrilasi (OASS) presenti in piante e batteri, è un enzima studiato da molto tempo ed il suo ruolo fisiologico nella sintesi della cisteina è stato ben definito. Recentemente sono state scoperte altre funzioni apparentemente non collegate alla sua funzione enzimatica (moonlighting). Una di queste è l’attivazione di una tossina ad attività tRNAsica, CdiA-CT, coinvolta nel sistema di inibizione della crescita da contatto (CDI) di ceppi patogeni di E. coli. In questo progetto abbiamo studiato il ruolo di CysK nel sistema CDI e la formazione di complessi con due differenti partner proteici: CdiA-CT e CysE (serina acetiltransferasi, l’enzima che catalizza la reazione precedente nella biosintesi della cisteina). I due complessi hanno le stesse caratteristiche spettrofluorimetriche e affinità molto simili, ma la cinetica di raggiungimento dell’equilibrio per il complesso tossina:CysK è più lenta che per il complesso CysE:CysK (cisteina sintasi). In entrambi i casi la formazione veloce di un complesso d’incontro è seguita da un riarrangiamento conformazionale che porta alla formazione di un complesso ad alta affinità. L’efficienza di formazione del complesso cisteina sintasi è circa 200 volte maggiore rispetto al complesso CysK:tossina. Una differenza importante, oltre alla cinetica di formazione dei complessi, è la stechiometria di legame. Infatti mentre CysE riesce a legare solo uno dei due siti attivi del dimero di CysK, nel complesso con CdiA-CT entrambi i siti attivi dell’enzima risultano essere occupati. Le cellule isogeniche esprimono un peptide inibitore della tossina (CdiI), e sono quindi resistenti all’azione tRNAsica. Tuttavia, siccome CdiI non altera la formazione del complesso CdiA-CT:CysK, CdiA-CT può esercitare comunque un ruolo nel metabolismo della cisteina e quindi nella fitness dei batteri isogenici, attraverso il legame e l'inibizione di CysK e la competizione con CysE. La via biosintetica della cisteina, un precursore di molecole riducenti, risulta essere molto importante per i batteri soprattutto in condizioni avverse come all’interno dei macrofagi nelle infezioni persistenti. Perciò questa via metabolica è di interesse per lo sviluppo di nuovi antibiotici, e in particolare le due isoforme dell’OASS negli enterobatteri, CysK e CysM, sono potenziali target per lo sviluppo di nuove molecole ad azione antibatterica. Partendo dall’analisi delle modalità di interazione con CysK del suo partner ed inibitore fisiologico, CysE, si è studiato dapprima l’interazione di pentapeptidi che mimassero la regione C-terminale di quest'ultimo, e in base ai dati ottenuti sono stati sviluppati piccoli ligandi sintetici. La struttura generale di questi composti è costituita da un gruppo acido ed un gruppo lipofilo, separati da un linker ciclopropanico che mantiene questi due gruppi in conformazione trans, ottimale per l’interazione col sito attivo dell’enzima. Sulla base di queste considerazioni, di docking in silico e di dati sperimentali ottenuti con la tecnica dell’STD-NMR e con saggi di binding spettrofluorimetrici, si è potuta realizzare una analisi di relazione struttura-attività che ha portato via via all’ottimizzazione dei ligandi. Il composto più affine che è stato finora ottenuto ha una costante di dissociazione nel range del nanomolare per entrambe le isoforme, ed è un ottimo punto di partenza per lo sviluppo di nuovi farmaci.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Helicobacter pylori è un batterio Gram-negativo in grado di colonizzare la mucosa gastrica umana e persistere per l'intero arco della vita dell'ospite. E' associato a patologie gastrointestinali, quali gastrite cronica, ulcere gastriche e duodenali, adenocarcinomi e linfomi gastrici. Si tratta di uno dei patogeni più diffusi, presente in circa metà della popolazione mondiale, e il solo che si è adattato a vivere nell'ambiente ostile dello stomaco umano. Molteplici sono i fattori di virulenza che permettono al batterio la colonizzazione della nicchia gastrica e contribuiscono, anche attraverso l' induzione di una risposta infiammatoria, a profonde modificazioni dell' omeostasi gastrica. Queste ultime si associano, ad esempio, all'iperproduzione di fattori proinfiammatori, ad alterazioni sia della regolazione della secrezione acida gastrica sia del ciclo cellulare e della morte cellulare programmata (apoptosi) delle cellule epiteliali gastriche, a disordini nel metabolismo del ferro e a carenze di elementi essenziali. Studi sulla diversità genetica di H. pylori osservata in ceppi isolati da varie regioni del mondo, dimostrano che tale batterio ha avuto una coevoluzione col genere umano attraverso la storia, ed è verosimile che H. pylori sia stato un costituente del microbiota gastrico per almeno 50.000 anni. Scopo della tesi è stato quello di identificare e caratterizzare proteine importanti per la colonizzazione e l'adattamento di H. pylori alla nicchia gastrica. In particolare gli sforzi si sono concentrati su due proteine periplasmatiche, la prima coinvolta nella difesa antiossidante (l'enzima catalasi-like, HP0485), e la seconda nel trasporto di nutrienti presenti nell'ambiente dello stomaco all'interno della cellula (la componente solubile di un ABC transporter, HP0298). La strategia utilizzata prevede un'analisi bioinformatica preliminare, l'ottenimento del gene per amplificazione, mediante PCR, dal genoma dell'organismo, la costruzione di un vettore per il clonaggio, l'espressione eterologa in E. coli e la successiva purificazione. La proteina così ottenuta viene caratterizzata mediante diverse tecniche, quali spettroscopia UV, dicroismo circolare, gel filtrazione analitica, spettrometria di massa. Il capitolo 1 contiene un'introduzione generale sul batterio, il capitolo 2 e il capitolo 3 descrivono gli studi relativi alle due proteine e sono entrambi suddivisi in un abstract iniziale, un'introduzione, la presentazione dei risultati, la discussione di questi ultimi, i materiali e i metodi utilizzati. La catalasi-like (HP0485) è una proteina periplasmatica con struttura monomerica, appartenente ad una famiglia di enzimi a funzione per la maggior parte sconosciuta, ma evolutivamente correlati alla ben nota catalasi, attore fondamentale nella difesa di H. pylori, grazie alla sua azione specifica di rimozione dell'acqua ossigenata. HP0485, pur conservando il fold catalasico e il legame al cofattore eme, non può compiere la reazione di dismutazione dell'acqua ossigenata; possiede invece un'attività perossidasica ad ampio spettro, essendo in grado di accoppiare la riduzione del perossido di idrogeno all'ossidazione di diversi substrati. Come la catalasi, lavora ad alte concentrazioni di aqua ossigenata e non arriva a saturazione a concentrazioni molto elevate di questo substrato (200 mM); la velocità di reazione catalizzata rimane lineare anche a questi valori, aspetto che la differenzia dalle perossidasi che vengono in genere inattivate da concentrazioni di perossido di idrogeno superiori a 10-50 mM. Queste caratteristiche di versatilità e robustezza suggeriscono che la catalasi-like abbia un ruolo di scavenger dell'acqua ossigenata e probabilmente anche un'altra funzione connessa al suo secondo substrato, ossia l'ossidazione di composti nello spazio periplasmatico cellulare. Oltre alla caratterizzazione dell'attività è descritta anche la presenza di un ponte disolfuro, conservato nelle catalasi-like periplasmatiche, con un ruolo nell'assemblaggio dell'eme per ottenere un enzima attivo e funzionale. La proteina periplasmatica HP0298, componente di un sistema di trasporto ABC, è classificata come trasportatore di dipeptidi e appartiene a una famiglia di proteine in grado di legare diversi substrati, tra cui di- e oligopeptidi, nichel, eme, glutatione. Benchè tutte associate a trasportatori di membrana batterici, queste proteine presentano un dominio di legame al substrato che risulta essere conservato nei domini extracellulari di recettori specifici di mammifero e uomo. Un esempio sono i recettori ionotropici e metabotropici del sistema nervoso. Per caratterizzare questa proteina è stato messo a punto un protocollo di ligand-fishing accoppiato alla spettrometria di massa. La proteina purificata, avente un tag di istidine, è stata incubata con un estratto cellulare di H. pylori per poter interagire con il suo substrato specifico all'interno dell'ambiente naturale in cui avviene il legame. Il complesso proteina-ligando è stato poi purificato per cromatografia di affinità e analizzato mediante HPLC-MS. L'identificazione dei picchi differenziali tra campioni con la proteina e 5 campioni di controllo ha portato alla caratterizzazione di pentapeptidi particolarmente ricchi in aminoacidi idrofobici e con almeno un residuo carico negativamente. Considerando che H. pylori necessita di alcuni aminoacidi essenziali, per la maggior parte idrofobici, e che lo stomaco umano è particolarmente ricco di peptidi prodotti dalla digestione delle proteine introdotte con il cibo, il ruolo fisiologico di HP0298 potrebbe essere l'internalizzazione di peptidi, con caratteristiche specifiche di lunghezza e composizione, che sono naturalmente presenti nella nicchia gastrica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tra il 2005 e il 2013 la disciplina italiana sulle crisi d’impresa è stata oggetto di varie riforme, che hanno cercato di rafforzare il concordato preventivo, in particolare nella sua funzione di istituto atto a favorire la continuità di aziende in crisi non irreversibile. Anche tenendo conto degli effetti della crisi economica, tali riforme hanno conseguito l’obiettivo di allargare il ricorso al concordato, in particolare a seguito dell’introduzione di quello “in bianco”, che consente di posticipare la presentazione del piano di risanamento. Le riforme hanno anche contribuito a un lieve miglioramento della continuità aziendale. Ciò nonostante, solo una quota limitata di aziende (circa il 4,5 per cento) sopravvive dopo il concordato, la cui funzione principale è rimasta quella di fornire uno strumento liquidatorio di tipo negoziale, alternativo al fallimento che vede un maggior ruolo degli organi giudiziari. Il ricorso al concordato risulta correlato, oltre che con caratteristiche strutturali dell’impresa (un maggior peso delle immobilizzazioni materiali) e delle relazioni creditizie (un minore peso dei crediti dotati di garanzie reali), anche con la durata temporale delle procedure fallimentari nel tribunale di riferimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro ha lo scopo di comprendere i processi sottesi ai pattern di coesistenza tra le specie di invertebrati sorgentizi, distinguendo tra dinamiche stocastiche e deterministiche. Le sorgenti sono ecosistemi complessi e alcune loro caratteristiche (ad esempio l’insularità, la stabilità termica, la struttura ecotonale “a mosaico”, la frequente presenza di specie rare ed endemiche, o l’elevata diversità in taxa) le rendono laboratori naturali utili allo studio dei processi ecologici, tra cui i processi di assembly. Al fine di studiare queste dinamiche è necessario un approccio multi-scala, per questo motivi sono state prese in considerazione tre scale spaziali. A scala locale è stato compiuto un campionamento stagionale su sette sorgenti (quattro temporanee e tre permanenti) del Monte Prinzera, un affioramento ofiolitico vicino alla città di Parma. In questa area sono stati valutati l’efficacia e l’impatto ambientale di diversi metodi di campionamento e sono stati analizzati i drivers ecologici che influenzano le comunità. A scala più ampia sono state campionate per due volte 15 sorgenti della regione Emilia Romagna, al fine di identificare il ruolo della dispersione e la possibile presenza di un effetto di niche-filtering. A scala continentale sono state raccolte informazioni di letteratura riguardanti sorgenti dell’area Paleartica occidentale, e sono stati studiati i pattern biogeografici e l’influenza dei fattori climatici sulle comunità. Sono stati presi in considerazione differenti taxa di invertebrati (macroinvertebrati, ostracodi, acari acquatici e copepodi), scegliendo tra quelli che si prestavano meglio allo studio dei diversi processi in base alle loro caratteristiche biologiche e all’approfondimento tassonomico raggiungibile. I campionamenti biologici in sorgente sono caratterizzati da diversi problemi metodologici e possono causare impatti sugli ambienti. In questo lavoro sono stati paragonati due diversi metodi: l’utilizzo del retino con un approccio multi-habitat proporzionale e l’uso combinato di trappole e lavaggio di campioni di vegetazione. Il retino fornisce dati più accurati e completi, ma anche significativi disturbi sulle componenti biotiche e abiotiche delle sorgenti. Questo metodo è quindi raccomandato solo se il campionamento ha come scopo un’approfondita analisi della biodiversità. D’altra parte l’uso delle trappole e il lavaggio della vegetazione sono metodi affidabili che presentano minori impatti sull’ecosistema, quindi sono adatti a studi ecologici finalizzati all’analisi della struttura delle comunità. Questo lavoro ha confermato che i processi niche-based sono determinanti nello strutturare le comunità di ambienti sorgentizi, e che i driver ambientali spiegano una rilevante percentuale della variabilità delle comunità. Infatti le comunità di invertebrati del Monte Prinzera sono influenzate da fattori legati al chimismo delle acque, alla composizione e all’eterogeneità dell’habitat, all’idroperiodo e alle fluttuazioni della portata. Le sorgenti permanenti mostrano variazioni stagionali per quanto riguarda le concentrazioni dei principali ioni, mentre la conduttività, il pH e la temperatura dell’acqua sono più stabili. È probabile che sia la stabilità termica di questi ambienti a spiegare l’assenza di variazioni stagionali nella struttura delle comunità di macroinvertebrati. L’azione di niche-filtering delle sorgenti è stata analizzata tramite lo studio della diversità funzionale delle comunità di ostracodi dell’Emilia-Romagna. Le sorgenti ospitano più del 50% del pool di specie regionale, e numerose specie sono state rinvenute esclusivamente in questi habitat. Questo è il primo studio che analizza la diversità funzionale degli ostracodi, è stato quindi necessario stilare una lista di tratti funzionali. Analizzando il pool di specie regionale, la diversità funzionale nelle sorgenti non è significativamente diversa da quella misurata in comunità assemblate in maniera casuale. Le sorgenti non limitano quindi la diversità funzionale tra specie coesistenti, ma si può concludere che, data la soddisfazione delle esigenze ecologiche delle diverse specie, i processi di assembly in sorgente potrebbero essere influenzati da fattori stocastici come la dispersione, la speciazione e le estinzioni locali. In aggiunta, tutte le comunità studiate presentano pattern spaziali riconoscibili, rivelando una limitazione della dispersione tra le sorgenti, almeno per alcuni taxa. Il caratteristico isolamento delle sorgenti potrebbe essere la causa di questa limitazione, influenzando maggiormente i taxa a dispersione passiva rispetto a quelli a dispersione attiva. In ogni caso nelle comunità emiliano-romagnole i fattori spaziali spiegano solo una ridotta percentuale della variabilità biologica totale, mentre tutte le comunità risultano influenzate maggiormente dalle variabili ambientali. Il controllo ambientale è quindi prevalente rispetto a quello attuato dai fattori spaziali. Questo risultato dimostra che, nonostante le dinamiche stocastiche siano importanti in tutte le comunità studiate, a questa scala spaziale i fattori deterministici ricoprono un ruolo prevalente. I processi stocastici diventano più influenti invece nei climi aridi, dove il disturbo collegato ai frequenti eventi di disseccamento delle sorgenti provoca una dinamica source-sink tra le diverse comunità. Si è infatti notato che la variabilità spiegata dai fattori ambientali diminuisce all’aumentare dell’aridità del clima. Disturbi frequenti potrebbero provocare estinzioni locali seguite da ricolonizzazioni di specie provenienti dai siti vicini, riducendo la corrispondenza tra gli organismi e le loro richieste ambientali e quindi diminuendo la quantità di variabilità spiegata dai fattori ambientali. Si può quindi concludere che processi deterministici e stocastici non si escludono mutualmente, ma contribuiscono contemporaneamente a strutturare le comunità di invertebrati sorgentizi. Infine, a scala continentale, le comunità di ostracodi sorgentizi mostrano chiari pattern biogeografici e sono organizzate lungo gradienti ambientali principalmente collegati altitudine, latitudine, temperatura dell’acqua e conducibilità. Anche la tipologia di sorgente (elocrena, reocrena o limnocrena) è influente sulla composizione delle comunità. La presenza di specie rare ed endemiche inoltre caratterizza specifiche regioni geografiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca intende analizzare l’efficacia della spesa pubblica, l’efficienza e le loro determinanti nei settori della Sanità, dell’Istruzione e della Ricerca per 33 paesi dell’area OCSE. L’analisi ha un duplice obiettivo: da un lato un confronto cross country e dall’altro un confronto temporale, prendendo in considerazione il periodo che va dal 1992 al 2011. Il tema della valutazione dell’efficacia e dell’efficienza della spesa pubblica è molto attuale, soprattutto in Europa, sia perché essa incide di quasi il 50% sul PIL, sia a causa della crisi finanziaria del 2008 che ha spinto i governi ad una riduzione dei bugdet e ad un loro uso più oculato. La scelta di concentrare il lavoro di analisi nei settori della Sanità, dell’Istruzione e della Ricerca e Sviluppo deriva da un lato dalla loro peculiarità di attività orientate al cliente (scuole, ospedali, tribunali) dall’altro dal ruolo strategico che essi rappresentano per lo sviluppo economico di un paese. Il lavoro è articolato in tre sezioni: 1. Rassegna dei principali strumenti metodologici utilizzati in letteratura per la misurazione della performance e dell’efficienza della spesa pubblica nei tre settori. 2. Valutazione e confronto dell’efficienza e della performance della spesa pubblica dal punto di vista sia temporale sia cross-country attraverso la costruzione di indicatori di performance e di efficienza della spesa pubblica (per approfondire l'indice dell'efficienza ho applicato la tecnica DEA "bootstrap output oriented" con indicatori di output ed input non simultanei mentre l’evoluzione dell’efficienza tra i periodi 2011-2002 e 2001-1992 è stata analizzata attraverso il calcolo dell’indice di Malmquist). 3. Analisi delle variabili esogene che influenzano l’efficienza della spesa pubblica nei settori Salute, Istruzione e Ricerca e Sviluppo attraverso una regressione Tobit avente come variabile dipendente i punteggi di efficienza DEA output oriented e come variabili esogene alcuni indicatori scelti tra quelli presenti in letteratura: l’Indicatore delle condizioni socioeconomiche delle famiglie (costruito e applicato da OCSE PISA per valutare l’impatto del background familiare nelle performance dell’apprendimento), l’Indicatore di fiducia nel sistema legislativo del paese, l’Indicatore di tutela dei diritti di proprietà, l’Indicatore delle azioni di controllo della corruzione, l’Indicatore di efficacia delle azioni di governo, l’Indicatore della qualità dei regolamenti, il PIL pro-capite. Da questo lavoro emergono risultati interessanti: non sempre alla quantità di risorse impiegate corrisponde il livello massimo di performance raggiungibile. I risultati della DEA evidenziano la media dei punteggi di efficienza corretti di 0,712 e quindi, impiegando la stessa quantità di risorse, si produrrebbe un potenziale miglioramento dell’output generato di circa il 29%. Svezia, Giappone, Finlandia e Germania risultano i paesi più efficienti, più vicini alla frontiera, mentre Slovacchia, Portogallo e Ungheria sono più distanti dalla frontiera con una misura di inefficienza di circa il 40%. Per quanto riguarda il confronto tra l’efficienza della spesa pubblica nei tre settori tra i periodi 1992-2001 e 2002-2011, l’indice di Malmquist mostra risultati interessanti: i paesi che hanno migliorato il loro livello di efficienza sono quelli dell’Est come l’Estonia, la Slovacchia, la Lituania mentre Paesi Bassi, Belgio e Stati Uniti hanno peggiorato la loro posizione. I paesi che risultano efficienti nella DEA come Finlandia, Germania e Svezia sono rimasti sostanzialmente fermi con un indice di Malmquist vicino al valore uno. In conclusione, i risultati della Tobit contengono indicazioni importanti per orientare le scelte dei Governi. Dall’analisi effettuata emerge che la fiducia nelle leggi, la lotta di contrasto alla corruzione, l’efficacia del governo, la tutela dei diritti di proprietà, le condizioni socioeconomiche delle famiglie degli studenti OECD PISA, influenzano positivamente l’efficienza della spesa pubblica nei tre settori indagati. Oltre alla spending review, per aumentare l’efficienza e migliorare la performance della spesa pubblica nei tre settori, è indispensabile per gli Stati la capacità di realizzare delle riforme che siano in grado di garantire il corretto funzionamento delle istituzioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La governance del settore alimentare si fonda su una struttura multilivello, ove poteri locali, nazionali, sovranazionali e globali interagiscono. In tale assetto, ogni regolatore è chiamato a proteggere interessi diversi tra loro, tra cui l'ambiente, la salute umana, il benessere animale e la libera concorrenza. La regolazione del settore alimentare, inoltre, impone la considerazione di aspetti etici e culturali, dotati di una forte matrice territoriale. In questo sistema, i valori che entrano in gioco non sono egualmente rappresentati, ma quelli considerati "minori" sono sovente sovrastati dalle esigenze di protezione di un unico interesse: la libera concorrenza su scala globale. Ne deriva che la regolazione del settore alimentare necessita di un nuovo equilibrio. Questo può richiedere sia l'adozione di nuove regole - soprattutto a livello sovranazionale - sia un'interpretazione maggiormente inclusiva dei principi e delle regole già esistenti da parte delle Corti. Tuttavia, risulta maggiormente urgente e di immediata efficacia permettere ai soggetti interessati, siano essi privati o pubblici, di partecipare alla formulazione delle politiche e delle decisioni inerenti il settore alimentare. La partecipazione procedurale è in grado di soddisfare esigenze differenti e talvolta opposte, pertanto essa è regolata dal legislatore a seconda dello scopo finale prefissato. Principalmente, essa è vista come una applicazione diretta dei principi di democrazia e trasparenza; tuttavia, il suo reale impatto sul risultato finale delle decisioni pubbliche può scostarsi considerevolemente da tale paradigma. Lo scopo di tale lavoro è analizzare i diversi modelli partecipativi implementati nei vari livelli di governo, al fine di determinarne il reale impatto sui soggetti interessati e sul bilanciamento degli interessi in gioco. La conclusione dimostra un certo livello di perplessità per ciò che riguarda l'assetto di tali garanzie nella regolazione del settore alimentare, dove lo sviluppo del concetto di democrazia partecipativa e di bilancio tra gli interessi rilevanti è ancora acerbo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Italia molti edifici sono stati costruiti senza tenere in considerazione l'azione sismica. La necessità di adeguare tali edifici in accordo con la normativa italiana vigente è stato il motivo scatenante di questa ricerca. Per l'adeguamento sismico, vengono qui proposti differenti approcci in base al tipo di struttura e, in particolare, in base alla loro deformabilità. Per le strutture flessibili come le scaffalature di acciaio adibite alla stagionatura del Parmigiano Reggiano, sono stati utilizzati dispositivi passivi di dissipazione energetica. Sono state condotte analisi di sensitività per determinare il coefficiente di smorzamento in grado di minimizzare lo stato tensionale nelle sezioni di interesse. I risultati delle analisi mostrano l'efficacia delle soluzioni proposte e potrebbero rappresentare un punto di partenza per la definizione di possibili contromisure standar per l'adeguamento sismico. Per le strutture rigide, come i ponti in muratura, sono stati definiti alcuni criteri per la modellazione e la verifica delle sezioni di interesse, utilizzando modelli semplificati ma dall'efficacia comprovata come termine di paragone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro tratta dei tassi e della rischiosità delle imprese. In particolare, si esamina il collegamento esistente fra i tassi a medio-lungo termine europei e quelli americani e come ad esempio i tassi d’interesse forward dell’Eurirs derivino dall’euro e dalla struttura a termine dei tassi IRS sul dollaro. Le tecniche econometriche applicate sono la cointegrazione, la causalità di Granger, il GMM, il metodo di Rigobon e Sack (2004). Nella seconda parte si introduce una relazione per la stima dell’EONIA prima e durante la politica di full allottment della BCE. Nell’analisi empirica si usano tre differenti stimatori: OLS, Tobit e NLS e si considera il fatto che l’EONIA si muove all’interno del corridoio dei tassi, (formato dal tasso sui deposit facilities e sui marginal lending). L’ultima parte è dedicata allo studio della rischiosità delle imprese per mezzo dei principali indicatori di rischio (le tre formulazioni dello Z score di Altman e l’indice di Ohlson) a livello italiano ed europeo. I metodi d’analisi statistica utilizzati sono la regressione quantile, il Logit e il Probit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della presente tesi è evidenziare l’importanza dell’approccio critico alla valutazione della vulnerabilità sismica di edifici in muratura e misti Il contributo della tesi sottolinea i diversi risultati ottenuti nella modellazione di tre edifici esistenti ed uno ipotetico usando due diversi programmi basati sul modello del telaio equivalente. La modellazione delle diverse ipotesi di vincolamento ed estensione delle zone rigide ha richiesto la formulazione di quattro modelli di calcolo in Aedes PCM ed un modello in 3muri. I dati ottenuti sono stati confrontati, inoltre, con l’analisi semplificata speditiva per la valutazione della vulnerabilità a scala territoriale prevista nelle “Linee Guida per la valutazione e riduzione del rischio sismico del Patrimonio Culturale”. Si può notare che i valori ottenuti sono piuttosto diversi e che la variabilità aumenta nel caso di edifici non regolari, inoltre le evidenze legate ai danni realmente rilevati sugli edifici mostrano un profondo iato tra la previsione di danno ottenuta tramite calcolatore e le lesioni rilevate; questo costituisce un campanello d’allarme nei confronti di un approccio acritico nei confronti del mero dato numerico ed un richiamo all’importanza del processo conoscitivo. I casi di studio analizzati sono stati scelti in funzione delle caratteristiche seguenti: il primo è una struttura semplice e simmetrica nelle due direzioni che ha avuto la funzione di permettere di testare in modo controllato le ipotesi di base. Gli altri sono edifici reali: il Padiglione Morselli è un edificio in muratura a pianta a forma di C, regolare in pianta ed in elevazione solamente per quanto concerne la direzione y: questo ha permesso di raffrontare il diverso comportamento dei modelli di calcolo nelle sue direzioni; il liceo Marconi è un edificio misto in cui elementi in conglomerato cementizio armato affiancano le pareti portanti in muratura, che presenta un piano di copertura piuttosto irregolare; il Corpo 4 dell’Ospedale di Castelfranco Emilia è un edificio in muratura, a pianta regolare che presenta le medesime irregolarità nel piano sommitale del precedente. I dati ottenuti hanno dimostrato un buon accordo per la quantificazione dell’indice di sicurezza per i modelli regolari e semplici con uno scarto di circa il 30% mentre il delta si incrementa per le strutture irregolari, in particolare quando le pareti portanti in muratura vengono sostituite da elementi puntuali nei piani di copertura arrivando a valori massimi del 60%. I confronti sono stati estesi per le tre strutture anche alla modellazione proposta dalle Linee Guida per la valutazione dell’indice di sicurezza sismica a scala territoriale LV1 mostrando differenze nell’ordine del 30% per il Padiglione Morselli e del 50% per il Liceo Marconi; il metodo semplificato risulta correttamente cautelativo. È, quindi, possibile affermare che tanto più gli edifici si mostrano regolari in riferimento a masse e rigidezze, tanto più la modellazione a telaio equivalente restituisce valori in accordo tra i programmi e di più immediata comprensione. Questa evidenza può essere estesa ad altri casi reali divenendo un vero e proprio criterio operativo che consiglia la suddivisione degli edifici esistenti in muratura, solitamente molto complessi poiché frutto di successive stratificazioni, in parti più semplici, ricorrendo alle informazioni acquisite attraverso il percorso della conoscenza che diviene in questo modo uno strumento utile e vitale. La complessità dell’edificato storico deve necessariamente essere approcciata in una maniera più semplice identificando sub unità regolari per percorso dei carichi, epoca e tecnologia costruttiva e comportamento strutturale dimostrato nel corso del tempo che siano più semplici da studiare. Una chiara comprensione del comportamento delle strutture permette di agire mediante interventi puntuali e meno invasivi, rispettosi dell’esistente riconducendo, ancora una volta, l’intervento di consolidamento ai principi propri del restauro che includono i principi di minimo intervento, di riconoscibilità dello stesso, di rispetto dei materiali esistenti e l’uso di nuovi compatibili con i precedenti. Il percorso della conoscenza diviene in questo modo la chiave per liberare la complessità degli edifici storici esistenti trasformando un mero tecnicismo in una concreta operazione culturale . Il presente percorso di dottorato è stato svolto in collaborazione tra l’Università di Parma, DICATeA e lo Studio di Ingegneria Melegari mediante un percorso di Apprendistato in Alta Formazione e Ricerca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Sequenza Sismica Emiliana del 2012 ha colpito la zona compresa tra Mirandola e Ferrara con notevoli manifestazioni cosismiche e post-sismiche secondarie, soprattutto legate al fenomeno della liquefazione delle sabbie e alla formazione di fratturazioni superficiali del terreno. A fronte del fatto che la deformazione principale, osservata tramite tecniche di remote-sensing, ha permesso di individuare la posizione della struttura generatrice, ci si è interrogati sul rapporto tra strutture profonde e manifestazioni secondarie superficiali. In questa tesi è stato svolto un lavoro di integrazione di dati a varia scala, dalla superficie al sottosuolo, fino profondità di alcuni chilometri, per analizzare il legame tra le strutture geologiche che hanno generato il sisma e gli effetti superficiali percepiti dagli osservatori. Questo, non solo in riferimento allo specifico del sisma emiliano del 2012, ma al fine di trarre utili informazioni in una prospettiva storica e geologica sugli effetti di un terremoto “tipico”, in una regione dove le strutture generatrici non affiorano in superficie. Gli elementi analizzati comprendono nuove acquisizioni e rielaborazioni di dati pregressi, e includono cartografie geomorfologiche, telerilevamenti, profili sismici a riflessione superficiale e profonda, stratigrafie e informazioni sulla caratterizzazione dell’area rispetto al rischio sismico. Parte dei dati di nuova acquisizione è il risultato dello sviluppo e la sperimentazione di metodologie innovative di prospezione sismica in corsi e specchi d’acqua continentali, che sono state utilizzate con successo lungo il Cavo Napoleonico, un canale artificiale che taglia ortogonalmente la zona di massima deformazione del sisma del 20 Maggio. Lo sviluppo della nuova metodologia di indagine geofisica, applicata ad un caso concreto, ha permesso di migliorare le tecniche di imaging del sottosuolo, oltre a segnalare nuove evidenze co-sismiche che rimanevano nascoste sotto le acque del canale, e a fornire elementi utili alla stratigrafia del terreno. Il confronto tra dati geofisici e dati geomorfologici ha permesso di cartografare con maggiore dettaglio i corpi e le forme sedimentarie superficiali legati alla divagazione fluviale dall’VIII sec a.C.. I dati geofisici, superficiali e profondi, hanno evidenziato il legame tra le strutture sismogeniche e le manifestazioni superficiali seguite al sisma emiliano. L’integrazione dei dati disponibili, sia nuovi che da letteratura, ha evidenziato il rapporto tra strutture profonde e sedimentazione, e ha permesso di calcolare i tassi geologici di sollevamento della struttura generatrice del sisma del 20 Maggio. I risultati di questo lavoro hanno implicazioni in vari ambiti, tra i quali la valutazione del rischio sismico e la microzonazione sismica, basata su una caratterizzazione geomorfologico-geologico-geofisica dettagliata dei primi 20 metri al di sotto della superficie topografica. Il sisma emiliano del 2012 ha infatti permesso di riconoscere l’importanza del substrato per lo sviluppo di fenomeni co- e post-sismici secondari, in un territorio fortemente eterogeneo come la Pianura Padana.