998 resultados para fibrillazione, atriale, mappe, analisi, fase, trasformata, hilbert
Resumo:
Il presente lavoro ha come obiettivo la descrizione dello studio del degassamento diffuso di CO2 (acquisizione dei dati e loro trattazione) effettuato nell'area vulcanica dei Campi Flegrei (NA), nello specifico nell'area della Solfatara di Pozzuoli. Questo infatti rappresenta attualmente il punto di massimo rilascio di fluidi ed energia dell'intero Distretto Vulcanico Flegreo attraverso attività quali fumarole e degassamento diffuso dal suolo, nonché deformazioni del terreno (bradisismo). Tramite l'acquisizione dei valori di flusso diffuso e delle temperature dei primi 10 cm di suolo, attraverso una trattazione dei dati statistica e geostatistica, è stato possibile distinguere e caratterizzare le sorgenti di CO2 (biologica o vulcanica), la realizzazione di sviluppo di mappe di probabilità e di flusso medio e la quantificazione dell'output totale giornaliero di CO2. Il lavoro è stato suddiviso in due fasi principali: 1. La prima fase ha riguardato l'acquisizione dei dati sul campo nei giorni 19 e 20 marzo 2015, tramite l'utilizzo di una camera d'accumulo ed un termometro munito di sonda, in 434 punti all'interno del cratere della Solfatara e nelle aree circostanti. 2. Nella seconda fase sono stati elaborati i dati, utilizzando il metodo statistico GSA (Graphical Statistic Approach) ed il metodo geostatistico della simulazione sequenziale Gaussiana (sGs). Tramite il GSA è stato possibile ripartire i dati in popolazioni e definire una media (con relativa varianza) per ognuna di esse. Con la sGs è stato possibile trattare i dati, considerando la loro distribuzione spaziale, per simulare valori per le aree prive di misurazioni; ciò ha permesso di generare delle mappe che mostrassero l'andamento dei flussi e la geometria della struttura del degassamento diffuso (Diffuse Degassing Structure, DDS; Chiodini et al., 2001). Infine i dati ottenuti sono stati confrontati con i risultati di precedenti studi e si è messo in relazione la geometria e l'intensità di degassamento con la geologia strutturale dell'area flegrea indagata.
Resumo:
L’introduzione della tomografia computerizzata nelle applicazioni oncologiche è stata rivoluzionaria per la diagnostica delle immagini di molti organi e apparati, superando i limiti della radiologia convenzionale. Questa tecnica rappresenta, infatti, un efficace strumento nella diagnosi e caratterizzazione di numerosi tumori, in quanto questo tipo di applicazione perfusionale amalgama informazioni di natura morfologica, tipiche della TC tradizionale, con studi funzionali sui tessuti in esame. Tuttavia, diversi problemi, tra cui la mancanza di un protocollo standard sia durante la fase di acquisizione dei dati, sia durante la fase di elaborazione dei dati, costituiscono un ostacolo per la trasposizione in clinica della TCp. In questo lavoro di Tesi si è trattato principalmente della modalità di analisi dei dati: ad oggi, infatti, non è ancora stato formulato un protocollo che stabilisca in modo univoco una tecnica di analisi delle mappe perfusionali risultanti dall’elaborazione delle immagini TCp. In particolare, si è tentato di affiancare ai classici metodi di analisi di immagini noti in letteratura un ulteriore tecnica che si basa sull’analisi voxel-by-voxel della regione d’interesse su più slice e non solo su quella di riferimento. Questo studio è stato fortemente motivato dall’elevato grado di eterogeneità che caratterizza molti tessuti neoplastici. A tal proposito, l’elaborato mira ad analizzare in modo qualitativo le mappe perfusionali di slice adiacenti a quella di riferimento e a verificare se queste possano restituire informazioni aggiuntive che risultino indispensabili ai fini della formulazione di una corretta diagnosi e scelta del piano terapeutico da applicare al paziente.
Resumo:
L’incremento dell’istallazione di collettori solari termici e panelli solari ibridi nell’ultimo decennio ha spinto il mercato settoriale alla ricerca di nuovi sistemi di accumulo termico da implementare a tali impianti, al fine di poter sfruttare l’energia derivante dal sole con una efficienza termica maggiore. I dispositivi oggigiorno in commercio, nonostante le tecnologie impiantistiche risultino essere state migliorate, non hanno subito un’evoluzione ed ancora oggi il principale materiale d’accumulo è l’acqua, ottenendo così dispositivi con efficienze molto ridotte, di dimensioni elevate e collocabili in zone interne abitabili. L’utilizzo di fluido a cambiamento di stato come mezzo di accumulo può essere una valida alternativa al fine di incrementare l’efficienza dal punto di vista energetico e la riduzione degli ingombri, data l’elevata energia interna posseduta dal materiale durante il cambiamento di fase. Nel seguente elaborato di tesi, si è posto come obbiettivo quello di effettuare uno studio sulla possibilità di accumulare energia termica mediante l’utilizzo di un fluido a cambiamento di fase a base organica, tramite un’analisi sperimentale ed energetica dei meccanismi di fusione attorno ad un ramo dello scambiatore di calore, al fine di valutare la conformazione migliore che permetta la sottrazione di energia termica latente durante la fase di solidificazione. Questo ha comportato, oltre alla scelta del PCM ottimale per l’accumulo, la progettazione e realizzazione del prototipo e l’attrezzatura sperimentale.
Analisi termiche sull'impiego di materiali a cambiamento di fase (PCM) nelle pavimentazioni stradali
Resumo:
Il presente lavoro di tesi mira a studiare l’utilizzo di aggregati artificiali (PLA) costituiti da aggregati leggeri (LWA) impregnati di materiali a cambiamento di fase (Phase-Change Materials, PCM) nei conglomerati bituminosi. L’obiettivo della tesi è quello di dimostrare che l’utilizzo di questi materiali nelle sovrastrutture stradali, grazie alla proprietà di cambiare fase (da solida a liquida e viceversa) in funzione della temperatura, induce una liberazione di calore. La conseguenza immediata dell’utilizzo di questi materiali è la ridotta necessità di manutenzione invernale, abbattendo i costi di ripristino della pavimentazione. Inoltre l’utilizzo di PLA non deve pregiudicare l’aspetto prestazionale e la vita utile dell’infrastruttura.
Resumo:
Per cercare di ridurre le emissioni inquinanti, soprattutto di CO2, si sta cercando di utilizzare sempre più fonti di energia rinnovabile. Queste non sono costanti, quindi, per ridurre il gap tra energia prodotta e richiesta, si utilizzano accumuli di energia termica, che immagazzinano l'energia quando è prodotta, per poi rilasciarla successivamente all'occorrenza. Gli accumuli termici si distinguono in sensibili, termochimici e latenti. Questa Tesi tratta l’analisi di un’innovativa tipologia di accumulo latente attraverso un materiale a cambiamento di fase (PCM) ed uno scambiatore di calore alettato. I materiali a cambiamento di fase sono in grado di immagazzinare e rilasciare energia sia con lo scambio sensibile, aumentando o diminuendo la propria temperatura, sia con lo scambio di calore latente, durante la propria transizione di fase da solido a liquido e viceversa. L’accumulo in questione è una tasca metallica con all’interno uno scambiatore di calore alettato immerso in un materiale a cambiamento di fase; il tutto è isolato dall’ambiente esterno e collegato con tubi ad un bagno termostatico caldo ed uno freddo. All'inizio l’accumulo è stato riempito con acqua, poi è stato inserito il PCM RT44HC, il cui range di temperatura di transizione di fase è 40-44°C. Nella fase di carica viene inviata acqua calda allo scambiatore per sciogliere il PCM. Nella fase di scarica, inviando acqua fredda si riprende l'energia accumulata e il PCM si solidifica. I set di prove sono stati eseguiti con temperature e portate in massa d'acqua diverse per la carica e per la scarica. I risultati mostrano che si recupera, in scarica, quasi tutta l’energia ceduta nella fase di carica e che la potenza scambiata ha un andamento decrescente nel tempo.
Resumo:
Durante il secolo scorso sono state individuate alcune mutazioni per il colore della buccia della varietà William che invece di essere giallo arriva a maturazione con diverse tonalità di colore rosso. L’intensità e la tipologia del fenotipo dovuto a questa mutazione mostra una variabilità all’interno dei diversi cloni rossi di questa cultivar: Max Red Bartlett, Rosired e Sensation. Questa mutazione è ereditabile e usando come genitore uno dei sopra-citati mutanti per il rosso sono state prodotte altre cultivar caratterizzate da buccia rossa come Cascade. Max Red Bartlett presenta una intensa colorazione rossa nelle prime fasi di maturazione per poi striarsi perdendo di lucentezza e non ricoprendo totalmente la superficie del frutto. Max Red Bartlett ha inoltre il problema di regressione del colore. Questa mutazione infatti non è stabile e dopo qualche anno può regredire e presentare il fenotipo di William. Diverso è invece lo sviluppo per esempio di Rosired che durante le prime fasi di accrescimento del frutto è identica a Williams (di colore verde con la parte del frutto rivolta verso il sole leggermente rossastra) per poi virare e mantenere un vivo colore rosso su tutta la superficie del frutto. Questa tesi si è proposta di caratterizzare questa mutazione che coinvolge in qualche modo la via biosintetica per la sintesi del colore. In particolare si è cercato di investigare sui probabili geni della via degli antociani coinvolti e in quale modo vengono espressi durante la maturazione del frutto, inoltre si è cercato di trovare quali specifiche molecole venissero diversamente sintetizzate. Le cultivar utilizzate sono state William e Max Red Bartlett. Di quest’ultima era già disponibile una mappa molecolare, ottenuta sulla popolazione di’incrocio di Abate Fetel (gialla) x MRB (rossa) con AFLP e SSR, quest’ultimi hanno permesso di denominare i diversi linkage group grazie alla sintenia con le altre mappe di pero e di melo. I semenzali appartenenti a questa popolazione, oltre a dimostrare l’ereditarietà del carattere, erano per il 50% gialli e 50% rossi. Questo ha permesso il mappaggio di questo carattere/mutazione che si è posizionato nel linkage group 4. Una ricerca in banca dati eseguita in parallelo ha permesso di trovare sequenze di melo dei geni coinvolti nella via biosintetica degli antociani (CHS, CHI, F3H, DFR, ANS e UFGT), sulle quali è stato possibile disegnare primer degenerati che amplificassero su DNA genomico di pero. Le amplificazioni hanno dato frammenti di lunghezza diversa. Infatti nel caso di F3H e DFR l’altissima omologia tra melo e pero ha permesso l’amplificazione quasi totale del gene, negli altri casi invece è stato necessario utilizzare primer sempre più vicini in modo da facilitare l’amplificazione. I frammenti ottenuti sono stati clonati sequenziati per confermare la specificità degli amplificati. Non sono stati evidenziati polimorfismi di sequenza in nessuna delle sei sequenze tra William e Max Red Bartlett e nessun polimorfismo con Abate, per questo motivo non è stato possibile mapparli e vedere se qualcuno di questi geni era localizzato nella medesima posizione in cui era stato mappato il “colore/mutazione”. Sulle le sequenze ottenute è stato possibile disegnare altri primer, questa volta specifici, sia per analisi d’espressione. Inizialmente è stato sintetizzato il cDNA dei geni suddetti per retrotrascrizione da RNA estratto sia da bucce sia da foglie appena germogliate (le quali presentano solo in questa fase una colorazione rossastra in MRB ma non in William). Al fine di osservare come varia l’espressione dei geni della via biosintetica delle antocianine durante la fase di maturazione dei frutti, sono stati fatti 4 campionamenti, il primo a 45gg dalla piena fioritura, poi a 60, 90, 120 giorni. Foglie e bucce sono state prelevate in campo e poste immediatamente in azoto liquido. Dai risultati con Real Time è emerso che vi è una maggiore espressione nelle prime fasi di sviluppo in Max Red Bartlett per poi calare enormemente in giugno. Si potrebbe ipotizzare che ci sia una reazione di feed back da parte della piante considerando che in questa fase il frutto non si accresce. I livelli di espressione poi aumentano verso la fase finale della maturazione del frutto. In agosto, con l’ultimo campionamento vi è una espressione assai maggiore in Max Red Bartlett per quei geni posti a valle della via biosintetica per la sintesi delle antocianine. Questo risultato è confermato anche dal livello di espressione che si riscontra nelle foglie. In cui i geni F3H, LDOX e UFGT hanno un livello di espressione nettamente maggiore in Max Red Bartlett rispetto a William. Recentemente Takos et al (2006) hanno pubblicato uno studio su un gene regolatore della famiglia Myb e ciò ha permesso di ampliare i nostri studi anche su questo gene. L’altissima omologia di sequenza, anche a livello di introni, non ha permesso di individuare polimorfismi tra le varietà Abate Fetel e Max Red Bartlett, per nessun gene ad eccezione proprio del gene regolatore Myb. I risultati ottenuti in questa tesi dimostrano che in pero l’espressione relativa del gene Myb codificante per una proteina regolatrice mostra una netta sovra-espressione nel primo stadio di maturazione del frutto, in Max Red Bartlett 25 volte maggiore che in William. All’interno della sequenza del gene un polimorfismo prodotto da un microsatellite ha permesso il mappaggio del gene nel linkage group 9 in Max Red Bartlett e in Abate Fetel. Confrontando questo dato di mappa con quello del carattere morfologico rosso, mappato nel linkage group 4, si deduce che la mutazione non agisce direttamente sulla sequenza di questo gene regolatore, benché sia espresso maggiormente in Max Red Bartlett rispetto a William ma agisca in un altro modo ancora da scoprire. Infine per entrambe le varietà (William e Max Red Bartlett) sono state effettuate analisi fenotipiche in diversi step. Innanzi tutto si è proceduto con una analisi preliminare in HPLC per osservare se vi fossero differenze nella produzione di composti con assorbenza specifica delle antocianine e dei flavonoidi in generale. Si è potuto quindi osservare la presenza di due picchi in Max Red Bartlett ma non in William. La mancanza di standard che coincidessero con i picchi rilevati dallo spettro non ha permesso in questa fase di fare alcuna ipotesi riguardo alla loro natura. Partendo da questo risultato l’investigazione è proceduta attraverso analisi di spettrometria di massa associate ad una cromatografia liquida identificando con una certa precisione due composti: la cianidina-3-0-glucoside e la quercitina-3-o-glucoside. In particolare la cianidina sembra essere la molecola responsabile della colorazione della buccia nei frutti di pero. Successive analisi sono state fatte sempre con lo spettrometro di massa ma collegato ad un gas cromatografo per verificare se vi fossero delle differenze anche nella produzione di zuccheri e più in generale di molecole volatili. L’assenza di variazioni significative ha dimostrato che la mutazione coinvolge solo il colore della buccia e non le caratteristiche gustative e organolettiche di William che restano inalterate nel mutante.
Resumo:
In questa tesi si è voluta porre l’attenzione sulla suscettibilità alle alte temperature delle resine che li compongono. Lo studio del comportamento alle alte temperature delle resine utilizzate per l’applicazione dei materiali compositi è risultato un campo di studio ancora non completamente sviluppato, nel quale c’è ancora necessità di ricerche per meglio chiarire alcuni aspetti del comportamento. L’analisi di questi materiali si sviluppa partendo dal contesto storico, e procedendo successivamente ad una accurata classificazione delle varie tipologie di materiali compositi soffermandosi sull’ utilizzo nel campo civile degli FRP (Fiber Reinforced Polymer) e mettendone in risalto le proprietà meccaniche. Considerata l’influenza che il comportamento delle resine riveste nel comportamento alle alte temperature dei materiali compositi si è, per questi elementi, eseguita una classificazione in base alle loro proprietà fisico-chimiche e ne sono state esaminate le principali proprietà meccaniche e termiche quali il modulo elastico, la tensione di rottura, la temperatura di transizione vetrosa e il fenomeno del creep. Sono state successivamente eseguite delle prove sperimentali, effettuate presso il Laboratorio Resistenza Materiali e presso il Laboratorio del Dipartimento di Chimica Applicata e Scienza dei Materiali, su dei provini confezionati con otto differenti resine epossidiche. Per valutarne il comportamento alle alte temperature, le indagini sperimentali hanno valutato dapprima le temperature di transizione vetrosa delle resine in questione e, in seguito, le loro caratteristiche meccaniche. Dalla correlazione dei dati rilevati si sono cercati possibili legami tra le caratteristiche meccaniche e le proprietà termiche delle resine. Si sono infine valutati gli aspetti dell’applicazione degli FRP che possano influire sul comportamento del materiale composito soggetto alle alte temperature valutando delle possibili precauzioni che possano essere considerate in fase progettuale.
Resumo:
Negli ultimi anni la longevità è divenuto un argomento di notevole interesse in diversi settori scientifici. Le ricerche volte ad indagare i meccanismi che regolano i fattori della longevità si sono moltiplicate nell’ultimo periodo interessando, in maniera diversa, alcune regioni del territorio italiano. Lo studio presentato nella tesi ha l’obiettivo di identificare eventuali aggregazioni territoriali caratterizzate da una significativa propensione alla longevità nella regione Emilia-Romagna mediante l’impiego di metodologie di clustering spaziale, alcune delle quali di recente implementazione. La popolazione in esame è costituita dagli individui residenti in Emilia- Romagna nel quinquennio 2000-2004 suddivisa in classi di età, sesso e comune. L’analisi è di tipo puramente spaziale, in cui l’unità geografica elementare è identificata dal comune, ed è stata condotta separatamente per i due sessi. L’identificazione delle aree regionali ad elevata longevità è avvenuta utilizzando quattro metodologie di clustering spaziale, basate sulla teoria della massima verosimiglianza, che si differenziano tra loro per la modalità di ricerca dei potenziali clusters. La differenza consiste nella capacità di identificare aggregazioni territoriali di forma regolare (spatial scan statistic, Kulldorff e Nagarwalla,1995; Kulldorff,1997, 1999) o dall’andamento geometrico “libero” (flexible scan statistic, Tango e Takahashi,2005; algoritmo genetico, Duczmal et al.,2007; greedy growth search, Yiannakoulias et al.,2007). Le caratteristiche di ciascuna metodologia consentono, in tal modo, di “catturare” le possibili conformazioni geografiche delle aggregazioni presenti sul territorio e la teoria statistica di base, comune ad esse, consente di effettuare agevolmente un confronto tra i risultati ottenuti. La persistenza di un’area caratterizzata da un’elevata propensione alla longevità consente, infatti, di ritenere il cluster identificato di notevole interesse per approfondimenti successivi. Il criterio utilizzato per la valutazione della persistenza di un cluster è stato derivato dalla teoria dei grafi, con particolare riferimento ai multigrafi. L’idea è confrontare, a parità di parametri di ricerca, i grafi associati alle aggregazioni spaziali identificate con le diverse metodologie attraverso una valutazione delle occorrenze dei collegamenti esistenti tra le coppie di vertici. Alcune valutazioni di carattere demografico ed un esame della letteratura esistente sugli studi di longevità, hanno indotto alla definizione di una classe (aperta) di età per rappresentare il fenomeno nella nostra ricerca: sono stati considerati gli individui con età superiore o uguale a 95 anni (indicata con 95+). La misura di sintesi utilizzata per descrivere il fenomeno è un indicatore specifico di longevità, mutuato dalla demografia, indicato con Centenarian Rate (CR) (Robine e Caselli, 2005). Esso è definito dal rapporto tra la popolazione 95+ e la popolazione residente, nello stesso comune, al censimento del 1961. L’idea alla base del CR è confrontare gli individui longevi di un istante temporale con quelli presenti, nella stessa area, circa 40 anni prima dell’osservazione, ipotizzando che l’effetto migratorio di una popolazione possa ritenersi trascurabile oltre i 60 anni di età. La propensione alla longevità coinvolge in maniera diversa le aree del territorio dell’Emilia-Romagna. Le province della regione caratterizzate da una maggiore longevità sono Bologna, Ravenna e parte di Forlì-Cesena mentre la provincia di Ferrara si distingue per un livello ridotto del fenomeno. La distinzione per sesso non appare netta: gli uomini con età 95+, numericamente inferiori alle donne, risiedono principalmente nei comuni delle province di Bologna e Ravenna, con qualche estensione nel territorio forlivese, analogamente a quanto accade per la popolazione femminile che mostra, tuttavia, una maggiore prevalenza nei territori di Bologna e Forlì-Cesena, includendo alcune aree del riminese. Le province occidentali della regione, invece, non risultano interessate significativamente da questo fenomeno. Le metodologie di cluster detection utilizzate nello studio hanno prodotto risultati pressoché simili seppur con criteri di ricerca differenti. La spatial scan statistic si conferma una metodologia efficace e veloce ma il vincolo geometrico regolare imposto al cluster condiziona il suo utilizzo, rivelando una scarsa adattabilità nell’identificazione di aggregazioni irregolari. La metodologia FSC ha evidenziato buone capacità di ricerca e velocità di esecuzione, completata da una descrizione chiara e dettagliata dei risultati e dalla possibilità di poter visualizzare graficamente i clusters finali, anche se con un livello minimo di dettaglio. Il limite principale della metodologia è la dimensione ridotta del cluster finale: l’eccessivo impegno computazionale richiesto dalla procedura induce a fissare il limite massimo al di sotto delle 30 aree, rendendola così utilizzabile solo nelle indagini in cui si ipotizza un’estensione limitata del fenomeno sul territorio. L’algoritmo genetico GA si rivela efficace nell’identificazione di clusters di qualsiasi forma ed estensione, seppur con una velocità di esecuzione inferiore rispetto alle procedure finora descritte. Senza un’adeguata selezione dei parametri di ricerca,la procedura può individuare clusters molto irregolari ed estesi, consigliando l’uso di penalizzazione non nulla in fase di ricerca. La scelta dei parametri di ricerca non è comunque agevole ed immediata e, spesso, è lasciata all’esperienza del ricercatore. Questo modo di procedere, in aggiunta alla mancanza di informazioni a priori sul fenomeno, aumenta il grado di soggettività introdotto nella selezione dei parametri influenzando i risultati finali. Infine, la metodologia GGS richiede un carico computazionale nettamente superiore rispetto a quello necessario per le altre metodologie utilizzate e l’introduzione di due parametri di controllo favorisce una maggiore arbitrarietà nella selezione dei valori di ricerca adeguati; inoltre, la recente implementazione della procedura e la mancanza di studi su dati reali inducono ad effettuare un numero maggiore di prove durante la fase di ricerca dei clusters.
Resumo:
Tale studio è posto all'interno di una ricerca più ampia relativa al migliorametno della progettazione e del controllo delle stabilizzazioni a calce. il costipamento dei terreni in laboratorio, necessario per la fase di progettazione, avviene tramite l'apparecchiatura Proctor, dispositiv poco rappresentativo delle reali sollecitazioni cui è sottoposto il terreno in sito. Sono quindi state indagate le possibilità di utilizzare per tale scopo un macchinario come la Pressa Giratoria, attualmente normalizzata solamente per la compattazione dei conglomerati bituminosi, ma che meglio rappresenta il comportamento del terreno sotto l'azione dei rulli.
Resumo:
L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.
Resumo:
L’analisi condotta nella tesi mira ad indagare le determinanti del debito delle piccole e medie imprese italiane: la domanda di ricerca è indirizzata a capire se la struttura finanziaria di queste ultime segue i modelli teorici sviluppati nell’ambito della letteratura di Corporate Finance o se, d’altro canto, non sia possibile prescindere dalle peculiarità delle piccole e medie imprese per spiegare il ricorso alle diverse fonti di finanziamento. La ricerca empirica effettuata nella dissertazione vuole essere un tentativo di coniugare le teorie di riferimento e le evidenze empiriche relative alle piccole e medie imprese italiane, analizzandone il comportamento attraverso lo studio del campione di dati fornito da Capitalia, relativo alla Nona Indagine per il periodo 2001-2003. Il campione in oggetto fa riferimento a circa 4000 imprese con più di 10 addetti, prevalentemente del settore manifatturiero. Per indagare le determinanti del debito nelle sue componenti più tradizionali, si sono prese in considerazione il debito commerciale e il debito bancario a breve termine come forme di finanziamento correnti mentre, tra le forme di finanziamento di medio-lungo periodo, le variabili usate sono state il ricorso al debito bancario a lungo termine e a strumenti obbligazionari. Inoltre, si è ricorso anche a misure più tradizionali di leva finanziaria, quali il rapporto di indebitamento, la proporzione tra debiti bancari, sia di breve che di lungo periodo, e l’ammontare dei finanziamenti esterni rispetto al valore dell’impresa, distinguendo anche qui, tra finanziamenti a breve e a lungo termine. L’analisi descrittiva ha mostrato il massiccio ricorso al debito bancario e, in generale, alle forme di indebitamento a breve. Le imprese di dimensioni minori, più giovani e opache tendono a ricorrere alle fonti interne e a forme di indebitamento a breve, mentre le imprese maggiormente dimensionate mostrano una struttura del debito più articolata. Questo ha suggerito la definizione di una diversa misura di debito, che tiene conto della complessità della sua struttura all’interno delle imprese, in base ad un ricorso di tipo gerarchico alle fonti di finanziamento: il grado di complessità dipende dalle tipologie e dalla quantità dei contratti di debito conclusi dall’impresa . E’ plausibile pensare che le imprese ricorrano prima alle fonti interne di finanziamento, perché prive di costi, e poi all’indebitamento nei confronti di diversi stakeholders: rispetto alla prossimità e alla facilità dell’ottenimento del finanziamento, è sembrato naturale pensare che un’impresa ricorra dapprima al debito commerciale, poi al debito bancario e solo infine all’emissione di obbligazioni, in un ordine gerarchico. Ne consegue che se un’impresa (non) ha contratto debiti con fornitori, banche e mercato, la complessità della struttura del suo debito è massima (nulla). L’analisi econometrica successiva è stata indirizzata in tre direzioni. In primis, l’analisi longitudinale dei dati è stata volta ad evidenziare se la struttura finanziaria delle PMI risponde ad un particolare modello teorico, in accordo con le teoria tradizionali di riferimento. In secondo luogo, l’analisi delle determinanti si è allargata allo studio degli aspetti peculiari delle imprese medio-piccole. Infine, si è indagato se, nell’ambito delle imprese di dimensioni minori, si osservano comportamenti omogenei oppure se determinate scelte nelle fonti di finanziamento sono da ricondurre all’esistenza di alcuni vincoli. Quindi, partendo dalla rassegna dei principali riferimenti nella letteratura, costituiti dalla Trade-off theory (Modigliani e Miller, 1963, De Angelo e Masulis, 1980, Miller, 1977), dalla Pecking order theory (Myers 1984, Myers e Majluf, 1984) e dalla Financial growth cycle theory (Berger e Udell, 1998), una prima serie di analisi econometriche è stata rivolta alla verifica empirica delle teorie suddette. Una seconda analisi mira, invece, a capire se il comportamento delle imprese possa essere spiegato anche da altri fattori: il modello del ciclo di vita dell’impresa, mutuato dalle discipline manageriali, così come il contesto italiano e la particolarità del rapporto bancaimpresa, hanno suggerito l’analisi di altre determinanti al ricorso delle diverse fonti di debito. Di conseguenza, si sono usate delle opportune analisi econometriche per evidenziare se la struttura proprietaria e di controllo dell’impresa, il suo livello di complessità organizzativa possano incidere sulla struttura del debito delle imprese. Poi, si è indagato se il massiccio ricorso al debito bancario è spiegato dalle peculiarità del rapporto banca-impresa nel nostro Paese, rintracciabili nei fenomeni tipici del relationship lending e del multiaffidamento. Ancora, si sono verificati i possibili effetti di tale rapporto sulla complessità della struttura del debito delle imprese. Infine, l’analisi della letteratura recente sulla capital structure delle imprese, l’approccio sviluppato da Fazzari Hubbard e Petersen (1988) e Almeida e Campello (2006 , 2007) ha suggerito un ultimo livello di analisi. La presenza di vincoli nelle decisioni di finanziamento, legati essenzialmente alla profittabilità, alla dimensione delle imprese, alle sue opportunità di crescita, e alla reputazione verso l’esterno, secondo la letteratura recente, è cruciale nell’analisi delle differenze sistematiche di comportamento delle imprese. Per di più, all’interno del lavoro di tesi, così come in Almeida e Campello (2007), si è ipotizzato che la propensione agli investimenti possa essere considerata un fattore endogeno rispetto alla struttura del debito delle imprese, non esogeno come la letteratura tradizionale vuole. Per questo motivo, si è proceduto ad un ultimo tipo di analisi econometrica, volta a rilevare possibili differenze significative nel comportamento delle imprese rispetto al ricorso alle fonti di finanziamento a titolo di debito: nel caso in cui esse presentino una dimensione contenuta, una bassa redditività e una scarsa reputazione all’esterno infatti, vi dovrebbe essere un effetto di complementarietà tra fonti interne ed esterne. L’effetto sarebbe tale per cui non sussisterebbe, o per lo meno non sarebbe significativa, una relazione negativa tra fonti interne ed esterne. Complessivamente, i risultati delle analisi empiriche condotte, supportano sia le teorie classiche di riferimento nell’ambito della disciplina della Corporate finance, sia la teoria proposta da Berger e Udell (1998): le variabili che risultano significative nella spiegazione della struttura del debito sono principalmente quelle relative alla dimensione, all’età, al livello e alla qualità delle informazioni disponibili. Inoltre, il ricorso a fonti interne risulta essere la primaria fonte di finanziamento, seguita dal debito. Il ricorso a fonti esterne, in particolare al debito bancario, aumenta quanto più l’impresa cresce, ha una struttura solida e la capacità di fornire delle garanzie, e ha una reputazione forte. La struttura del debito, peraltro, diventa più complessa all’aumentare della dimensione, dell’età e del livello di informazioni disponibili. L’analisi della struttura proprietaria e della componente organizzativa all’interno delle imprese ha evidenziato principalmente che la struttura del debito aumenta di complessità con maggiore probabilità se la proprietà è diffusa, se vi è un management indipendente e se la piramide organizzativa è ben definita. Relativamente al rapporto banca-impresa, i principali risultati mostrano che l’indebitamento bancario sembra essere favorito dai fenomeni di relationship lending e dal multiaffidamento. Tali peculiarità assumono tratti diversi a seconda della fase del ciclo di vita delle imprese della Nona Indagine. Infine, per quanto attiene all’ultima tipologia di analisi condotta, le evidenze empiriche suggeriscono che le piccole e medie imprese possano essere soggette a delle restrizioni che si riflettono nell’ambito delle loro politiche di investimento. Tali vincoli, relativi alla dimensione, ai profitti conseguiti e alla reputazione all’esterno, aiutano a spiegare le scelte di finanziamento delle PMI del campione.
Resumo:
Questo lavoro di tesi si propone di verificare la validità della nuova specifica tecnica UNI/TS 11300-Parte 3, riguardante i consumi energetici degli edifici nella stagione estiva. Pertanto tale specifica tecnica, ancora in fase d’inchiesta pubblica, è stata applicata ad un caso reale, quale un complesso di edifici ad uso terziario, con il duplice obiettivo di analizzarne lo specifico metodo di calcolo e di comprovarne l’efficacia. Nel corso dello studio, prendendo in esame nella parte introduttiva argomenti quali i consumi in edilizia, gli aspetti normativi e le modalità di produzione del freddo, si è giunti infine a calcolare il fabbisogno di energia primaria per il raffrescamento del complesso di riferimento, e nella parte conclusiva sono state fornite indicazioni su eventuali modifiche da apportare alla normativa per ridurre i consumi.
Resumo:
Lo scopo di questa tesi è di fornire una analisi sistematica delle condizioni necessarie per l’esistenza delle formule di valutazione di opzioni che impiegano la trasformata di Fourier. Perchè la trasformata di Fourier? Se assumiamo che il processo del prezzo del sottostante sia un processo di Lévy noi non conosciamo solitamente la sua Legge di probabilità ma sempre la sua funzione caratteristica che è proprio la trasformata di Fourier della Legge.
Resumo:
Questa si ripropone in prima istanza di analizzare le origini e l’evoluzione del concetto di sostenibilità e successivamente di prendere in considerazione uno dei tanti mezzi che consentono di perseguirla: la gestione della sosta. Per molti anni infatti, a partire dal momento in cui sono iniziate ad emergere le esternalità negative legate al traffico, si è pensato che quello dei parcheggi fosse solo un ulteriore problema. Solo di recente, dalla fine degli anni ’90, fatta eccezione per il caso della Gran Bretagna che ha fatto da capofila già a partire dagli anni ’80, si è iniziato a considerare la sosta come parte della soluzione dei problemi di congestione, inquinamento e di vivibilità delle città. Verrà analizzata perciò nel secondo capitolo l’evoluzione delle politiche della sosta a livello europeo, con particolare attenzione all’operato svolto dall’EPA (European Parking Association) associazione leader nel settore riconosciuta dall’Unione Europea e sostenuta da 18 Paesi membri tra cui anche l’Italia. Il lavoro svolto da quest’associazione, nata nei primi anni ’80, è quello di decidere insieme agli associati delle linee comuni da seguire per migliorare le politiche a livello europeo riguardo la gestione della sosta. Si tratta nella pratica di studi, convegni e analisi degli effetti prodotti da provvedimenti intrapresi nelle varie città che hanno iniziato ad introdurre la regolamentazione della sosta. Sempre nel secondo capitolo saranno quindi presentate le linee guida europee nell’ambito dei parcheggi e si analizzeranno casi di “Best Practices” di alcuni Paesi che hanno introdotto provvedimenti per la gestione della sosta. Nel terzo capitolo invece viene considerata la situazione in Italia parlando in principio di Aipark, l’associazione italiana operatori nel settore dei parcheggi che partecipa alle attività dell’Epa e prendendo in esame in seguito le politiche adottate a livello nazionale e nello specifico in alcune tra le più importanti città italiane. Si vedrà come sia ancora troppo marcata la distanza del nostro Paese dai progressi registrati in altri Paesi dell’UE, con le dovute eccezioni. Per quel che riguarda l’aspetto normativo è significativo il fatto che, nonostante il riconoscimento della forte influenza che le politiche della sosta hanno sulla regolazione del traffico, ci siano ancora molte lacune legislative e che spesso la sosta non compaia tra i soggetti delle leggi in tale settore. La legislazione italiana nell’ambito dei parcheggi verrà analizzata nel quarto capitolo. Successivamente, nei capitoli 5 e 6 si parlerà delle fasi preliminari della redazione del Piano della Sosta di Casalecchio di Reno. Il Piano della Sosta è uno dei Piani Particolareggiati che costituiscono il 2° livello di progettazione del PUT (Piano Urbano del Traffico) e rappresenta uno strumento di pianificazione utile ad analizzare lo stato di fatto del sistema dei parcheggi di una città in modo da coglierne le criticità e fornire eventualmente le soluzioni per ovviare ad esse. Nel quinto capitolo viene effettuato un inquadramento territoriale di Casalecchio e si parlerà delle problematiche della sosta emerse nel PGTU (Piano Generale del Traffico Urbano) che costituisce il progetto preliminare o Piano Quadro del PUT. Le fasi attraverso le quali viene elaborato un Piano della sosta si possono sintetizzare nei seguenti punti: - Studio della normativa nazionale e locale e di esempi significativi di altre realtà nell’ambito della sosta. - Analisi dello stato di fatto in termini di domanda e offerta. - Indagini mediante incontri pubblici, distribuzione di questionari o interviste dirette, per cogliere le esigenze degli utenti che usufruiscono del servizio. - Analisi delle eventuali criticità emerse. - Progettazione del nuovo assetto della sosta. - Campagna di sensibilizzazione per fare “accettare” con più facilità i cambiamenti agli utenti. Nel sesto capitolo di questa tesi, e negli allegati si possono consultare i risultati delle indagini su domanda e offerta condotte da TPS (Transport Planning Service), azienda che svolge attività di pianificazione e progettazione, di fornitura software, oltre che indagini e rilievi nell’ambito dei trasporti. Verranno descritte le modalità di rilievo e verranno presentati i risultati ottenuti dall’elaborazione dei dati raccolti, con qualche accenno alle possibili soluzioni per risolvere le problematiche emerse. La fase di progettazione vera e propria degli interventi non verrà invece trattata in questa sede.
Resumo:
Negli ultimi anni è emerso chiaramente come la logistica rivesta un’importanza fondamentale per le aziende e costituisca un ottimo strumento per assicurarsi e mantenere un solido vantaggio competitivo. Inoltre, osservando l’ambiente attuale si evince come il sistema logistico sia caratterizzato da un progressivo aumento di complessità, sia in seguito alle maggiori esigenze dei mercati e sia come conseguenza della globalizzazione. In questo quadro evolutivo è mutato profondamente il ruolo ricoperto dalla logistica all’interno delle organizzazioni. Rispetto alla concezione tradizionale, che considerava la logistica come una funzione esclusivamente interna all’azienda, si è assistito al progressivo coinvolgimento dei fornitori e dei clienti ed è emersa la necessità di coordinare gli sforzi dell’intera supply chain, con l’obiettivo di migliorare il livello di servizio globalmente offerto e di ridurre i costi logistici totali. Tali considerazioni sono state il filo conduttore dell’analisi presentata di seguito, basata su uno studio svolto presso la DENSO Manufacturing Italia S.p.A., finalizzato all’analisi dei flussi in ingresso ed in particolar modo alla razionalizzazione degli imballi e dei trasporti, in un’ottica di integrazione con i fornitori. In particolare, la prima parte della trattazione introduce gli argomenti dal punto di vista teorico. Infatti, nel primo capitolo verrà illustrato il tema della logistica integrata e della sua evoluzione nel tempo, in relazione all’ambiente competitivo attuale ed alle nuove richieste dei mercati, approfondendo il tema della logistica in ingresso e del trasporto merci. Quindi, nel secondo capitolo verrà trattato il tema degli imballi, analizzandone le ripercussioni sull’intera catena logistica ed offrendo una panoramica dei metodi che permettono l’integrazione tra gli imballaggi ed i sistemi di trasporto, movimentazione e stoccaggio. Invece, la seconda parte dello studio sarà dedicata alla presentazione dell’azienda in cui è stato realizzato il progetto di tesi. Nel terzo capitolo verranno introdotte sia la multinazionale giapponese DENSO Corporation che la sua consociata DENSO Manufacturing Italia S.p.A., specializzata nella produzione di componenti per il mercato automotive, presso cui si è svolto lo studio. Nel quarto capitolo verrà descritto il layout dell’impianto, per poi presentare la logistica in ingresso allo stabilimento, ponendo maggiore attenzione ai flussi provenienti dal nord Italia – ed in particolare dal Piemonte – su cui si incentra il lavoro di tesi. Quindi, nella terza ed ultima parte verrà presentata in dettaglio l’analisi condotta durante lo studio aziendale. In particolare, il quinto capitolo tratta dei flussi di materiale provenienti dall’area piemontese, con l’analisi degli imballi utilizzati dai fornitori, delle consegne e delle modalità di trasporto. Infine, nel sesto capitolo saranno proposte delle soluzioni migliorative relativamente a tutte le criticità emerse in fase di analisi, valutandone gli impatti sia in termini economici che in relazione all’efficienza del flusso logistico.