998 resultados para adattamento ai cambiamenti climatici, fiume Reno, Bologna
Resumo:
I comportamenti nutrizionali stanno assumendo sempre maggiore rilievo all’interno delle politiche comunitarie e questo sottolinea che la dieta sta avendo, negli ultimi anni, una maggiore importanza come fattore di causa e allo stesso tempo prevenzione nella diffusione di malattie croniche come il cancro, malattie cardiovascolari, diabete, osteoporosi e disturbi dentali. Numerosi studi mostrano infatti che i tassi di obesità sono triplicati nelle ultime due decadi e si è stimato che, se i livelli di obesità continueranno a crescere allo stesso tasso del 1990, nel 2010 il numero di persone obese raggiungerà i 150 milioni tra gli adulti e i 15 milioni tra bambini e adolescenti. I governi nazionali stanno quindi cercando di risolvere questo problema, a cui sono inoltre legati alti costi nazionali, tramite l’implementazione di politiche nutrizionali. Analisi di tipo cross-section sono già state evidenziate da studiosi come Schmidhuber e Traill (2006), i quali hanno effettuato un’analisi di convergenza a livello europeo per esaminare la distanza tra le calorie immesse da 426 prodotti diversi. In quest’analisi hanno così dimostrato la presenza di una similarità distinta e crescente tra i paesi europei per quanto riguarda la composizione della dieta. Srinivasan et al. invece hanno osservato la relazione esistente tra ogni singolo prodotto alimentare consumato e le norme nutrizionali dell’ Organizzazione Mondiale della Sanità (World Health Organization, WHO) Lo scopo di questa tesi è quello di evidenziare il problema a livello di aggregati nutritivi e di specifiche componenti nutrizionali come zucchero, frutta e verdura e non relativamente ad ogni singolo prodotto consumato. A questo proposito ci si è basati sulla costruzione di un indicatore (Recommendation Compliance Index) in modo da poter misurare le distanze tra la dieta media e le raccomandazioni del WHO. Lo scopo è quindi quello di riuscire a quantificare il fenomeno del peggioramento della dieta in diverse aree del mondo negli ultimi quattro decenni, tramite un’analisi panel, basandosi sui dati sui nutrienti consumati, provenienti dal database della FAO (e precisamente dal dataset Food Balance Sheets – FBS). Nella prima fase si introduce il problema dell’obesità e delle malattie croniche correlate, evidenziando dati statistici in diversi paesi europei e mondiali. Si sottolineano inoltre le diverse azioni dei governi e del WHO, tramite l’attuazione di campagne contro l’obesità e in favore di una vita più salutare e di una maggiore attività fisica. Nella seconda fase si è costruito un indicatore aggregato (Recommendation Compliance Index) in modo da analizzare le caratteristiche nella dieta dei diversi Paesi a livello mondiale rispetto alle norme del WHO. L’indicatore si basa sui dati ottenuti da FAOSTAT ed è calcolato per 149 paesi del database dell’FBS per il periodo 1961-2002. Nell’analisi si sono utilizzati i dati sulle percentuali di energia prodotta dalle varie componenti nutritive, quali grassi, grassi saturi e transaturi, zuccheri, carboidrati, proteine e le quantità di frutta e verdura consumate. Inoltre si è applicato un test statistico per testare se il valore del RCI è significativamente cambiato nel tempo, prendendo in considerazione gruppi di Paesi (Paesi OECD, Paesi in via di sviluppo e sottosviluppati). Si è voluto poi valutare la presenza o meno di un processo di convergenza, applicando l’analisi di σ-convergenza per osservare ad esempio se la variabilità è diminuita nel tempo in modo significativo. Infine si è applicato l’indicatore ad un livello micro, utilizzando il database del National Diet and Nutrition Survey, che raccoglie dati di macrocomponenti nutritive e misure antropometriche della popolazione inglese dai 16 ai 64 anni per il periodo 2000-2001. Si sono quindi effettuate analisi descrittive nonché analisi di correlazione, regressione lineare e ordinale per osservare le relazioni tra l’indicatore, i macronutrienti, il reddito e le misure antropometriche dell’ Indice di Massa Corporea (Body Mass Index, BMI) e del rapporto vita-fianchi (Waist-hip ratio, WHR).
Resumo:
Produttività ed efficienza sono termini comunemente utilizzati per caratterizzare l’abilità di un’impresa nell’utilizzazione delle risorse, sia in ambito privato che pubblico. Entrambi i concetti sono legati da una teoria della produzione che diventa essenziale per la determinazione dei criteri base con i quali confrontare i risultati dell’attività produttiva e i fattori impiegati per ottenerli. D’altronde, le imprese scelgono di produrre e di investire sulla base delle proprie prospettive di mercato e di costi dei fattori. Quest’ultimi possono essere influenzati dalle politiche dello Stato che fornisce incentivi e sussidi allo scopo di modificare le decisioni riguardanti l’allocazione e la crescita delle imprese. In questo caso le stesse imprese possono preferire di non collocarsi nell’equilibrio produttivo ottimo, massimizzando produttività ed efficienza, per poter invece utilizzare tali incentivi. In questo caso gli stessi incentivi potrebbero distorcere quindi l’allocazione delle risorse delle imprese che sono agevolate. L’obiettivo di questo lavoro è quello di valutare attraverso metodologie parametriche e non parametriche se incentivi erogati dalla L. 488/92, la principale politica regionale in Italia nelle regioni meridionali del paese nel periodo 1995-2004, hanno avuto o meno effetti sulla produttività totale dei fattori delle imprese agevolate. Si è condotta una ricognizione rispetto ai principali lavori proposti in letteratura riguardanti la TFP e l’aiuto alle imprese attraverso incentivi al capitale e (in parte) dell’efficienza. La stima della produttività totale dei fattori richiede di specificare una funzione di produzione ponendo l’attenzione su modelli di tipo parametrico che prevedono, quindi, la specificazione di una determinata forma funzionale relativa a variabili concernenti i fattori di produzione. Da questa si è ricavata la Total Factor Productivity utilizzata nell’analisi empirica che è la misura su cui viene valutata l’efficienza produttiva delle imprese. Il campione di aziende è dato dal merge tra i dati della L.488 e i dati di bilancio della banca dati AIDA. Si è provveduto alla stima del modello e si sono approfonditi diversi modelli per la stima della TFP; infine vengono descritti metodi non parametrici (tecniche di matching basate sul propensity score) e metodi parametrici (Diff-In-Diffs) per la valutazione dell’impatto dei sussidi al capitale. Si descrive l’analisi empirica condotta. Nella prima parte sono stati illustrati i passaggi cruciali e i risultati ottenuti a partire dalla elaborazione del dataset. Nella seconda parte, invece, si è descritta la stima del modello per la TFP e confrontate metodologie parametriche e non parametriche per valutare se la politica ha influenzato o meno il livello di TFP delle imprese agevolate.
Resumo:
La definizione di “benessere animale” e le modalità di determinazione di tale parametro sono ancora ampiamente dibattute. C’è, però, una generale concordanza sul fatto che una condizione di malessere dia origine a variazioni fisiologiche e comportamentali che possono essere rilevate e misurate. Tra i parametri endocrini, il più studiato è, senza dubbio, il cortisolo, in quanto connesso con l’attivazione dell’asse ipotalamico-pituitario-surrenale in condizioni di stress e quindi ritenuto indicatore ideale di benessere, benché debba essere utilizzato con cautela in quanto un aumento dei livelli di questo ormone non si verifica con ogni tipo di stressor. Inoltre, si deve considerare che la raccolta del campione per effettuare le analisi, spesso implica il confinamento ed il contenimento degli animali e può essere, quindi, essa stessa un fattore stressante andando ad alterare i risultati. Alla luce delle suddette conoscenze gli obiettivi scientifici di questa ricerca, condotta sul gatto e sul cane, sono stati innanzitutto validare il metodo di dosaggio di cortisolo dal pelo e stabilire se tale dosaggio può rappresentare un indicatore, non invasivo, di benessere dell’animale (indice di “stress cronico”). In seguito, abbiamo voluto individuare i fattori di stress psico-sociale in gatti che vivono in gattile, in condizioni di alta densità, analizzando i correlati comportamentali ed ormonali dello stress e del benessere in questa condizione socio-ecologica, ricercando, in particolare, l’evidenza ormonale di uno stato di stress prolungato e la messa in atto di strategie comportamentali di contenimento dello stesso e il ruolo della marcatura visivo-feromonale, inoltre abbiamo effettuato un confronto tra oasi feline di diversa estensione spaziale per valutare come varia lo stress in rapporto allo spazio disponibile. Invece, nel cane abbiamo voluto evidenziare eventuali differenze dei livelli ormonali tra cani di proprietà e cani di canili, tra cani ospitati in diversi canili e tra cani che vivono in diverse realtà familiari; abbiamo voluto valutare gli effetti di alcuni arricchimenti sui cani di canile ed, infine, abbiamo analizzato cani sottoposti a specifici programmi si addestramento. Il primo importante ed originale risultato raggiunto, che risponde al primo obiettivo della ricerca, è stato la validazione del dosaggio radioimmunologico di cortisolo in campioni di pelo. Questo risultato, a nostro avviso, apre una nuova finestra sul campo della diagnostica endocrinologica metabolica. Attualmente, infatti, il monitoraggio ormonale viene effettuato su campioni ematici la cui raccolta prevede un elevato stress (stress da prelievo) per l’animale data l'invasività dell'operazione che modifica l’attività di ipotalamo-ipofisi-surrene e, dunque, provoca repentine alterazioni delle concentrazioni ormonali. Questa metodica offre, quindi, il vantaggio dell’estrema semplicità di raccolta del campione e, in più, il bassissimo costo del materiale utilizzato. Dalle ricerche condotte sui gatti di gattile sono scaturite preziose indicazioni per future indagini sullo stress e sul comportamento sociale felino. I risultati dell’analisi congiunta del comportamento e delle concentrazioni ormonali hanno evidenziato che la disponibilità di postazioni di marcatura visivo-feromonale ha un effetto positivo sia sugli indicatori comportamentali, sia su quelli ormonali di stress. I risultati dell’analisi delle concentrazioni di cortisolo, derivanti dal confronto tra sette oasi feline di diversa estensione spaziale hanno permesso di evidenziare un aumento dei livelli dell’ormone inversamente proporzionale allo spazio disponibile. Lo spazio disponibile, però, non è l’unico fattore da prendere in considerazione al fine di assicurare il benessere dell’animale infatti, nelle colonie che presentavano instabilità sociale e variabilità territoriale il cortisolo aveva valori elevati nonostante le notevoli disponibilità di spazio. Infine, si è potuto costatare come anche lo stare appartati, aumenti proporzionalmente con l’aumentare dello spazio. Questo comportamento risulta essere molto importante in quanto mitiga lo stress ed è da prendere in considerazione nell’allestimento di colonie feline. Infatti, nelle colonie di dimensioni ridotte dove lo stress è già alto, l’impossibilità dei soggetti di appartarsi può contribuire a peggiorare la situazione; ecco perché si dovrebbero creare luoghi artificiali per fornire ai gatti la possibilità di appartarsi, magari sfruttando gli spazi sopraelevati (tetti, alberi, ecc.). Per quanto riguarda il confronto tra cani di proprietà e cani di canile non sono state evidenziate differenze significative nei livelli di cortisolo nel pelo mentre abbiamo rilevato che quest’ultimi sono influenzati dalla disponibilità di spazio: infatti sia i cani di proprietà che vivevano in giardino, sia i cani dei canili che praticavano lo sgambamento presentavano livelli di cortisolo nel pelo più bassi rispetto, rispettivamente, ai cani di proprietà che vivevano in appartamento o appartamento/giardino e a quelli di canile che non praticavano lo sgambamento. L’arricchimento ambientale fornito ai cani di canile ha esercitato un’influenza positiva riducendo i livelli di cortisolo e migliorando la docilità dei soggetti, favorendone un’eventuale adozione. Si è inoltre messo in luce che i programmi di addestramento, eseguiti con tecniche “gentili”, non comportano situazioni stressanti per l’animale e aiutano i cani ad esprimere doti di equilibrio che rimarrebbero altrimenti celate dagli aspetti più istintivi del carattere. D’altra parte, l’impegno agonistico prima di una competizione e il livello di addestramento raggiunto dai cani, influenzano le concentrazioni di cortisolo a riposo e durante l’esercizio fisico. Questi risultati possono sicuramente dare utili suggerimenti per la gestione e la cura di gatti e cani al fine di migliorarne le condizioni di benessere.
Resumo:
SCOPO DELLA RICERCA Aedes albopictus è diventata in pochi anni dalla sua introduzione in Italia la specie di zanzara più nociva e più importante sotto il profilo sanitario. Essendo una zanzara tipicamente urbana e ad attività diurna, limita fortemente la fruizione degli spazi aperti ed incide negativamente su alcune attività economiche. Il recente episodio epidemico di Chikungunya, che ha colpito il nostro Paese, ha allarmato le autorità sanitarie nazionali ed europee che stanno attivando misure di prevenzione e contrasto per fronteggiare il rischio che il virus diventi endemico o che altri virus possano essere introdotti nelle nostre aree. Le misure di lotta contro Aedes albopictus attualmente in essere (lotta larvicida, rimozione dei microfocolai, informazione e coinvolgimento dei cittadini) non danno risultati sufficienti in termini di capacità di contenimento delle densità del vettore. Per questo è stato avviato un progetto di ricerca centrato sull'applicazione del metodo dell'autocidio a questa specie. L’attività di ricerca svolta ha avuto come scopo la messa a punto delle metodiche di allevamento massale e di sterilizzazione in grado di permettere la produzione di maschi di qualità sufficiente a garantire una buona fitness nelle condizioni di campo e competitività coi maschi selvatici nella fase di accoppiamento. Le prove condotte possono essere raggruppate sotto tre principali campi di indagine: Prove di allevamento, Prove di Irraggiamento e Prove di Competizione. 1. Prove di allevamento In questo ambito sono state esaminate nuove diete larvali al fine di ottenere una più elevata produttività in termini di pupe con tempi di impupamento e dimensioni delle pupe più omogenei. È stata inoltre valutata la possibile reazione fagostimolante dell’ATP addizionato al pasto di sangue delle femmine adulte con lo scopo di incrementare la produttività di uova prodotte dai ceppi di Ae.albopictus in allevamento. 2. Prove di irraggiamento Attraverso prove di laboratorio sono stati investigati in gabbia gli effetti sterilizzanti di diverse dosi radianti (20 - 85 Gy) sulle pupe maschio di Ae. albopictus per la valutazione dei livelli di sterilità, fertilità e fecondità indotti sulle femmine. Si sono compiute inoltre indagini per valutare eventuali alterazioni dello stato fisiologico dei maschi irraggiati e dei livelli di sterilità indotti su femmine, in funzione dell’età pupale alla quale venivano sottoposti a radiazioni. Analisi degli effetti delle radiazioni sui tempi di rotazione genitale, sulla velocità ed efficacia degli accoppiamenti e sui tempi di sfarfallamento degli adulti sono state condotte su maschi irraggiati a diverse dosi. Infine su femmine di Ae. albopictus si sono realizzate prove in gabbia per lo studio dei tempi di recettività all'accoppiamento. Prove di competizione L'effetto negativo della colonizzazione in condizioni artificiali e l'irraggiamento sono riconosciuti come i fattori principali che incidono sulla competitività dei maschi sterilizzati nei confronti di quelli fertili. Per la verifica della variazione di fitness dovuta a imbreeding ed eterosi, prove di competizione in serra (7,5 x 5 x 2,80 m) sono state realizzate impiegando ceppi allevati in laboratorio, ceppi selvatici raccolti in campo e ceppi ibridi ottenuti incrociando diversi ceppi di laboratorio. RISULTATI 1. Prove di allevamento Sono state confrontate la dieta standard (DS = 2,5 mg/larva Friskies Adult ® + 0,5 mg/larva lievito di birra) e la nuova dieta integrata addizionata di Tetramin ® (DI = DS + 0,2 mg/larva Tetramin ®) per l’alimentazione delle larve in allevamento. Le prove condotte hanno evidenziato una buona risposta nelle percentuali di impupamento e di produttività in termini di pupe per la nuova dieta senza però evidenziare miglioramenti significativi con la DS. Con la dieta integrata si ottiene un impupamento a 7 giorni del 66,6% delle larve allevate (65% con la DS) e il setacciamento a 1400 μm delle pupe ottenute produce in media il 98,3% di maschi nel setacciato (98,5% con la DS). Con la dieta standard la percentuale di maschi ottenuti sulle larve iniziali è pari a 27,2% (20-25% con la DS). Come riportato da Timmermann e Briegel (1999) la dieta delle larve va strutturata con l’obiettivo di garantire un ampio range di elementi nutritivi evitando così il rischio di carenze o sub-carenze che possano influire negativamente sulla produttività dell’allevamento e sulle condizioni di vigore dei maschi. Secondo Reisen (1980, 1982), l’influenza negativa dell’allevamento sulla competitività dei maschi nella fase di accoppiamento potrebbe essere di maggiore peso rispetto all’influenza dell’irraggiamento dei maschi. Infine le prove di laboratorio condotte per la verifica dell’efficacia fagostimolante di ATP nel pasto di sangue offerto alle femmine dell’allevamento non hanno evidenziato differenze significative in nessuno dei parametri considerati tra il campione nutrito con ATP e il testimone. Nella realizzazione di allevamenti massali per la produzione di maschi da irraggiare, si ritiene quindi opportuno mantenere la nuova dieta testata che garantisce una spettro nutritivo più ampio e completo alle larve in allevamento. L’aggiunta di ATP nel pasto di sangue delle femmine adulte non sarà impiegato in quanto troppo costoso e significativamente poco produttivo nel garantire un aumento del numero di uova prodotte. 2. Prove di irraggiamento Oltre alla sopravvivenza e alla sterilità, la scelta dello stadio di sviluppo più conveniente da irraggiare in un programma SIT dipende dalla possibilità di maneggiare in sicurezza grandi quantità di insetti senza danneggiarli durante tutte le fasi che intercorrono tra l’allevamento massale, l’irraggiamento e il lancio in campo. La fase pupale risulta sicuramente più vantaggiosa per il maggior numero di pupe irraggiabili per unità di volume e per il minimo danneggiamento arrecabile all'insetto che viene mantenuto in acqua durante tutte le procedure. La possibilità di lavorare con la minima dose radiante efficace, significa ridurre lo stress provocato inevitabilmente alle pupe maschio, che si manifesta nell’adulto con una ridotta longevità, una diminuita capacità di accoppiamento o di ricerca del partner e attraverso possibili alterazioni comportamentali che possono rendere il maschio inattivo o inefficace una volta introdotto in campo. I risultati ottenuti sottoponendo pupe maschili a irraggiamento a differenti ore dall’impupamento evidenziano come la maturità del campione influisca sia sulla mortalità delle pupe che sull’efficacia sterilizzante dell’irraggiamento. Come riportato anche da Wijeyaratne (1977) le pupe più vecchie mostrano una minore mortalità e una maggiore sensibilità alle radiazioni rispetto a quelle più giovani. In particolare si è osservato come pupe maschili di età superiore 24h fossero maggiormente sensibili all’irraggiamento riportando minore perdita di competitività rispetto alle pupe irraggiate precocemente. La minore dose impiegata per il raggiungimento della sterilità con minimi effetti sulla longevità dei maschi trattati e con livelli di fecondità e fertilità indotti sulle femmine non differenti dal testimone, corrisponde a 40Gy (Cs 137 - 2,3 Gy/min). Analizzando la sopravvivenza dei maschi, si osserva una tendenza all'aumento della mortalità in funzione dell’aumento della dose fornita per tutte le età pupali di irraggiamento testate. Per trattamenti condotti su pupe di età > 30h la longevità dei maschi non risente dell’irraggiamento fino a dosi di 40Gy. La fecondità delle femmine accoppiatesi con maschi irraggiati con dosi superiori a 40Gy mostra una tendenza alla riduzione del numero di uova prodotte con l’aumentare della dose ricevuta dal maschio. L’irraggiamento delle pupe non determina variazioni significative nei tempi di sfarfallamento degli adulti per le diverse dosi radianti fornite e per le differenti età pupali testate in rapporto al testimone. L’irraggiamento influenza al contrario i tempi di rotazione dei genitali esterni dei maschi evidenziando un ritardo proporzionale alla dose ricevuta. Resta da definire sui maschi irraggiati l’effetto combinato dei due effetti sui tempi di sfarfallamento degli adulti anche se appare chiara l’assenza di variazioni significative per la dose di irraggiamento 40Gy scelta come radiazione utile per la sterilizzazione dei maschi da lanciare in campo. Per quanto riguarda l’analisi dei tempi di accoppiamento dei maschi irraggiati si osserva in generale una minore reattività rispetto ai maschi fertili particolarmente marcata nei maschi irraggiati a dosi superiori i 40 Gy. Gli studi condotti sui tempi di accoppiamento delle femmine evidenziano una buona recettività (>80%) all’accoppiamento solo per femmine di età superiore a 42 - 48 h femmine. Prima di tale periodo la femmina realizza accoppiamenti con normale appaiamento dei due sessi ma non riceve il trasferimento degli spermi. 3. Prove di competizione Prove preliminari di competizione in tunnel svolte nel 2006 su ceppi selvatici e di allevamento avevano mostrato risultati di competitività dei maschi sterili (50 Gy) segnati da forte variabilità. Nel 2007 dopo aver condotto analisi per la verifica dei tempi di sfarfallamento, di accoppiamento e di rotazione genitale nei maschi sterilizzati, e di recettività nelle femmine, sono state realizzate nuove prove. In queste prove maschi adulti di Ae. albopictus irraggiati a 40Gy sono stati posizionati in campo, in ambiente naturale ombreggiato ed isolato, all’interno di serre (8x5x2,8 m) insieme a maschi adulti fertili e femmine vergini di Ae. albopictus con rapporto 1:1:1. Le prove preliminari 2006 erano condotte con le medesime condizioni sperimentali del 2007 ad eccezione dei tempi di inserimento delle femmine vergini passati da 1 giorno nel 2006, a 3 giorni nel 2007 dall’immissione dei maschi in tunnel. Sono state effettuate prove testando la competizione tra esemplari provenienti da ceppi di allevamento (cicli di allevamento in gabbia > 15), ceppi selvatici (da materiale raccolto in campo e con cicli di allevamento in gabbia < 5) e ceppi ibridi (ottenuti dall’incrocio di ceppi italiani di diversa provenienza geografica). I risultati ottenuti mostrano indici di competizioni medi accettabili senza evidenziare differenza fra i ceppi impiegati. L’allevamento massale quindi non deprime i ceppi allevati e gli ibridi realizzati non mostrano una vigoria superiore ne rispetto ai ceppi selvatici ne rispetto agli allevati in laboratorio.
Resumo:
Questa tesi di dottorato ha per suo oggetto la ricognizione degli elementi teorici, di linguaggio politico e di influenza concettuale che le scienze sociali tra Ottocento e Novecento hanno avuto nell’opera di Antonio Gramsci. La ricerca si articola in cinque capitoli, ciascuno dei quali intende ricostruire, da una parte, la ricezione gramsciana dei testi classici della sociologia e della scienza politica del suo tempo, dall’altra, far emergere quelle filiazioni concettuali che permettano di valutare la portata dell’influenza delle scienze sociali sugli scritti gramsciani. Il lungo processo di sedimentazione concettuale del lessico delle scienze sociali inizia in Gramsci già negli anni della formazione politica, sullo sfondo di una Torino positivista che esprime le punte più avanzate del “progetto grande borghese” per lo studio scientifico della società e per la sua “organizzazione disciplinata”; di questa tradizione culturale Gramsci incrocia a più riprese il percorso. La sua formazione più propriamente politica si svolge però all’interno del Partito socialista, ancora imbevuto del lessico positivista ed evoluzionista. Questi due grandi filoni culturali costituiscono il brodo di coltura, rifiutato politicamente ma al tempo stesso assunto concettualmente, per quelle suggestioni sociologiche che Gramsci metterà a frutto in modo più organico nei Quaderni. La ricerca e la fissazione di una specifica antropologia politica implicita al discorso gramsciano è il secondo stadio della ricerca, nella direzione di un’articolazione complessiva delle suggestioni sociologiche che i Quaderni assumono come elementi di analisi politica. L’analisi si sposta sulla storia intellettuale della Francia della Terza Repubblica, più precisamente sulla nascita del paradigma sociologico durkheimiano come espressione diretta delle necessità di integrazione sociale. Vengono così messe in risalto alcune assonanze lessicali e concettuali tra il discorso di Durkheim, di Sorel e quello di Gramsci. Con il terzo capitolo si entra più in profondità nella struttura concettuale che caratterizza il laboratorio dei Quaderni. Si ricostruisce la genesi di concetti come «blocco storico», «ideologia» ed «egemonia» per farne risaltare quelle componenti che rimandano direttamente alle funzioni di integrazione di un sistema sociale. La declinazione gramsciana di questo problema prende le forme di un discorso sull’«organicità» che rende più che mai esplicito il suo debito teorico nei confronti dell’orizzonte concettuale delle scienze sociali. Il nucleo di problemi connessi a questa trattazione fa anche emergere l’assunzione di un vero e proprio lessico sociologico, come per i concetti di «conformismo» e «coercizione», comunque molto distante dallo spazio semantico proprio del marxismo contemporaneo a Gramsci. Nel quarto capitolo si affronta un caso paradigmatico per quanto riguarda l’assunzione non solo del lessico e dei concetti delle scienze sociali, ma anche dei temi e delle modalità della ricerca sociale. Il quaderno 22 intitolato Americanismo e fordismo è il termine di paragone rispetto alla realtà che Gramsci si prefigge di indagare. Le consonanze delle analisi gramsciane con quelle weberiane dei saggi su Selezione e adattamento forniscono poi gli spunti necessari per valutare le novità emerse negli Stati Uniti con la razionalizzazione produttiva taylorista, specialmente in quella sua parte che riguarda la pervasività delle tecniche di controllo della vita extra-lavorativa degli operai. L’ultimo capitolo affronta direttamente la questione delle aporie che la ricezione della teoria sociologica di Weber e la scienza politica italiana rappresentata dagli elitisti Mosca, Pareto e Michels, sollevano per la riformulazione dei concetti politici gramsciani. L’orizzonte problematico in cui si inserisce questa ricerca è l’individuazione di una possibile “sociologia del politico” gramsciana che metta a tema quel rapporto, che è sempre stato di difficile composizione, tra marxismo e scienze sociali.
Resumo:
For a long time, the work of a Franciscan Friar who had lived in Bologna and in Florence during the 13th and 14th centuries, Bartolomeo Della Pugliola, was thought to have been lost. Recent paleographic research, however, has affirmed that most of Della Pugliola’s work, although mixed into other authors, is contained in two manuscripts (1994 and 3843), currently kept at University Library in Bologna. Pugliola’s chronicle is central to Bolognese medieval literature, not only because it was the privileged source for the important work of Ramponis’ chronicle, but also because Bartolomeo della Pugliola’s sources are several significant works such as Jacopo Bianchetti’s lost writings and Pietro and Floriano Villolas’ chronicle (1163-1372). Ongoing historical studies and recent discoveries enabled me to reconstruct the historical chronology of Pugliola’s work as well as the Bolognese language between the 13th and 14th century The original purpose of my research was to add a linguistic commentary to the edition of the text in order to fill the gaps in medieval Bolognese language studies. In addition to being a reliable source, Pugliola’s chronicle was widely disseminated and became a sort of vulgate. The tradition of chronicle, through collation, allows the study of the language from a diachronic point of view. I therefore described all the linguistics phenomena related to phonetics, morphology and syntax in Pugliola’s text and I compared these results with variants in Villola’s and Ramponis’ chronicles. I also did likewise with another chronicle by a 16th century merchant, Friano Ubaldini, that I edited. This supplement helped to complete the Bolognese language outline from the 13th to the 16th century. In order to analize the data that I collected, I tried to approach them from a sociolinguistic point of view because each author represents a different variant of the language: closer to a scripta and the Florentine the language used by Pugliola, closer to the dialect spoken in Bologna the language used by Ubaldini. Differencies in handwriting especially show the models the authors try to reproduce or imitate. The glossary I added at the end of this study can help to understand these nuances with a number of examples.
Resumo:
La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.
Resumo:
Lo strumento in esame è il carbon footprint che ha lo scopo primario di calcolare l’impronta rilasciata in atmosfera dalle emissioni di gas ad effetto serra. Il carbon footprint è stato descritto ed esaminato in ogni suo aspetto pratico, strutturale e funzionale evidenziandone sia pregi da tenere in considerazione sia limiti da colmare anche attraverso il ventaglio di strumenti di misurazione ambientale che si hanno a disposizione. Il carbon footprint non verrà descritto unicamente come strumento di contabilità ambientale ma anche come mezzo di sensibilizzazione del pubblico o dei cittadini ai temi ambientali. Questo lavoro comprende un’indagine online degli strumenti di misura e rendicontazione delle emissioni di CO2 che sono sotto il nome di carbon footprint o carbon calculator. Nell’ultima parte della tesi si è applicato ad un caso reale tutto quello che è stato appreso dalla letteratura. Il lavoro è consistito nell’applicare lo strumento del carbon footprint ad un’azienda italiana di servizi seguendo la metodologia di calcolo prevista dalla norma ISO 14064. Di essa sono state contabilizzate le emissioni di CO2 generate dalle attività quotidiane e straordinarie sulle quali l’azienda ha un controllo diretto o comunque una responsabilità indiretta.
Resumo:
L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.
Resumo:
La tesi ha per obiettivo di quantificare gli effetti che la variabilità spaziale del mezzo poroso ha sull'evoluzione di un sistema geochimico. Le reazioni di dissoluzione o precipiazione di minerali modificano la struttura microscopica del mezzo, e con essa le proprietà idrodinamiche del sistema, la permeabilità in modo particolare. La variabilità spaziale iniziale del mezzo può essere causa della formazione di digitazioni o canalizzazioni? La prima parte della tesi tratta il cambiamento di scala, necessario per passare da una simulazione geostatistica su griglia fine al calcolo di trasporto su una tessellazione più grossolana. Nel caso del codice di calcolo Hytec, che implementa uno schema ai volumi finiti basato su discretizzazione in poligoni di Voronoï, sono stati confrontati diversi metodi di calcolo della permeabilità equivalente, seguendo differenti criteri. La seconda parte riguarda i calcoli di trasporto reattivo condotti su famiglie di simulazioni geostatistiche del mezzo; l'influenza della variabilità spaziale iniziale sull'evoluzione dei sistemi viene quantificata grazie ad opportune grandezze osservabili. Sono state studiate due reazioni distinte: un caso di dissoluzione, in maniera più approfondita, e più rapidamente un caso di precipitazione, il cui effetto complessivo è quello di riequilibrare il sistema.
Resumo:
Lo scopo di questo studio è descrivere nel dettaglio la procedura di Valutazione Ambientale Strategica (VAS) relativa ai Piani Energetici Provinciali (PEP) al fine di delinearne un metodo efficace di valutazione, a partire dallo studio del caso della Provincia di Ravenna. In seguito alla mancanza di Linee Guida sulla VAS, si è ritenuta utile un´analisi comparativa tra metodologie e strumenti, e gli obiettivi specifici e generali che andrebbero rispettati in ogni VAS di un PEP. Lo studio si basa su confronti paralleli tra quattro casi di VAS di Piani Energetici Provinciali al fine di elaborare un modello di valutazione delle VAS, semplice e diretto, basato su contenuti teorici e metodologici provenienti da una selezione di studi e documenti nazionali e internazionali, di cui si è tenuto conto e da cui si sono estrapolate le migliori "Buone Pratiche" per la VAS. L´analisi seguente è stata effettuata attraverso matrici qualitative in cui, per ciascuna connessione tra metodologia e "obiettivo VAS" si è espresso un giudizio che cerca di tenere conto, quando possibile, dei criteri e dei principi generali di sostenibilità dettati dalle maggiori autorità e associazioni internazionali e nazionali di valutazione ambientale. Il confronto tra i quattro casi, ha evidenziato dei punti di debolezza nell´applicazione della Direttiva VAS. Questo studio inoltre, ha tra i suoi obiettivi, quello ambizioso di delineare un metodo efficace di valutazione strategica dei piani energetici provinciali, a partire dallo studio del caso della Provincia di Ravenna. Per questi obiettivi, si è deciso di impostare un programma di lavoro basato sui sistemi informativi geografici, che ha permesso di individuare le aree con potenziale di sviluppo energetico della risorsa solare. Nello specifico è stato possibile calcolare quanta “superficie utile”, presente nelle aree industriali e commerciali della Provincia, potrebbe essere sfruttata installandovi pannelli fotovoltaici. Si è riusciti con questa metodologia a fornire una stima più dettagliata delle reali potenzialità della risorsa solare in Provincia di Ravenna, individuando nel dettaglio territoriale le rispettive quote percentuali che potrebbero essere installate, per raggiungere gli obiettivi di sostenibilità del piano. Il percorso iniziato con questa tesi consente di riflettere sulla necessità di approfondire il tema del rapporto tra valutazione ambientale qualitativa di uno strumento di pianificazione come la VAS, e la stima quantitativa sia della sostenibilità che del danno ambientale legato agli impatti negativi che questo strumento dovrebbe rilevare. Gli sviluppi futuri cui la tesi pone le basi sono l'implementazione di strumenti quantitativi di analisi delle potenzialità energetiche e di valutazione degli scenari. Questi strumenti sono necessari a definire i modelli ambientali per il supporto alle decisioni in campo energetico.
Resumo:
Con il presente lavoro di tesi mi sono proposto di realizzare la Dichiarazione Ambientale EMAS di gruppo per la EDISON Stoccaggio S.p.A. Nell’affrontare questa tematica, ho avuto modo di comprendere a pieno la crescente importanza strategica che lo stoccaggio di gas naturale sta sempre più assumendo nei confronti della politica energetica nazionale ed internazionale. Il sistema degli stoccaggi, infatti, ha una duplice valenza: di riserva strategica, ai fini della sicurezza di approvvigionamento per il sistema energetico nazionale, e di riserva di modulazione, al fine di compensare fluttuazioni di domanda sia stagionali che di breve termine. Esso rappresenta quindi un fondamentale strumento di flessibilità per il sistema energetico nazionale. La mia attività è stata svolta giornalmente presso la Base Operativa di Edison Stoccaggio S.p.A situata nel comune di S. Giovanni Teatino (CH) dove si svolgono attività di gestione integrata ed ottimizzata dei Siti Operativi del settore Stoccaggio Gas Naturale. Visite periodiche, al fine di raccogliere dati operativi necessari al mio lavoro, sono state effettuate presso i due siti di EDISON Stoccaggio S.p.A. nei quali si svolgono attività di Stoccaggio e Produzione Gas Naturale: Centrale Gas di Cellino Attanasio (TE) e Centrale Gas di Collalto situata nel comune di Susegana (TV). La tesi è strutturata in una prima parte nella quale viene presentata una rapida panoramica sull’evoluzione e situazione europea attuale riguardante lo strumento di natura volontaria di Eco-gestione e sistema d’audit noto come regolamento EMAS; in particolare mi sono soffermato sullo studio delle fasi da compiere per ottenere la registrazione EMAS, con particolare attenzione alla Dichiarazione Ambientale, fulcro dell’iter di registrazione, e oggetto principale del mio lavoro. Particolarmente laborioso è stato infatti lo studio che è stato necessario per produrre una Dichiarazione Ambientale che contenesse tutti i dati operativi dettagliati e aggiornati dell’intera azienda Edison Stoccaggio S.p.A. Nella seconda parte dell’elaborato vengono descritte quelle che sono le caratteristiche di una centrale di stoccaggio gas, al fine di poter comprendere a pieno le tipologie di attività svolte con i loro relativi impatti ambientali e consumo di risorse, aspetti che, vengono trattati in modo dettagliato e risultano basilari nella Dichiarazione Ambientale. Nella parte riguardante la Dichiarazione Ambientale vengono esposte le linee guida e la struttura da seguire al fine di ottenere un documento completo e funzionale in modo che sia fruibile da tutti gli svariati interlocutori. A seguire viene presentata la “Proposta di Dichiarazione Ambientale” da me elaborata nel corso della esperienza avuta presso Edison Stoccaggio S.p.A. Gran parte del lavoro è stato volto all’analisi dei dati operativi dell’Organizzazione Edison Stoccaggio S.p.A. al fine di produrre una Dichiarazione Ambientale più dettagliata e particolareggiata possibile e che al contempo fornisca una chiara visione d’insieme di quelle che sono le attività e gli aspetti ambientali riguardanti i siti dell’Azienda. Sono stati esaminati nel dettaglio gli aspetti ambientali diretti e indiretti connessi all’utilizzo di risorse ed a potenziali influenze per l’ambiente esterno, formulando infine un programma ambientale contenente obbiettivi di miglioramento e conseguenti interventi da attuare allo scopo di ottenere i risultati prefissati. A conclusione del lavoro è stato inoltre presentato uno studio di fattibilità che prevede un analisi dei tempi necessari per l’ottenimento della certificazione e comprende i costi e gli interventi tecnici ritenuti necessari a seguito della visione dei documenti tecnico impiantistici, della conformità legislativa nonché dello stato attuale degli impianti.