324 resultados para Impianti geotermici climatizzazione condominiale TRNSYS
Resumo:
Questo elaborato nasce da uno stage presso lo stabilimento Bonfiglioli Trasmital S.p.A. di Forlì, un’azienda manifatturiera specializzata nella produzione, costruzione e distribuzione di motoriduttori di velocità, sistemi di azionamento e motoriduttori epicicloidali applicati nel campo industriale, dell’automazione, delle macchine movimento terra e nell’ambito delle energie alternative. Il progetto ha lo scopo di aumentare la disponibilità di un impianto di tempra ad induzione. La scelta di tale impianto quale oggetto dell’attività, proviene da un’analisi delle ore di disponibilità perse per inefficienza, nell’anno 2012, in tutto il reparto di lavorazione meccanica dello stabilimento produttivo di Forlì e dall’analisi dell’OEE (Overall equipment effectiveness), indicatore principale per stabilire l’efficienza di un impianto. Analizzando la natura delle perdite del macchinario, tipicamente guasti, micro fermate e setup, si è deciso di applicare le tecniche di TPM e dello SMED: il TPM (Total Productive Maintenance) persegue l’obiettivo di migliorare la produttività degli impianti e la loro efficacia, grazie alla riduzione delle cause di perdita ricercando il miglioramento continuo del processo di produzione e della qualità, mentre lo SMED (Single-Minute Exchange of Die) è una metodologia volta alla riduzione dei tempi di cambio produzione; la grande innovazione di tale teoria risiede nella possibilità di ridurre fortemente i tempi impiegati per effettuare un’operazione di setup con un solo digit ossia in un lasso di tempo inferiore a dieci minuti.
Resumo:
Il mantenimento delle condizioni termoigrometriche ottimali all’interno di edifici mediante l’uso di unità di trattamento dell'aria comporta generalmente consumi energetici notevoli. Ciò che determina il livello entalpico di immissione dell’aria è il fabbisogno energetico dell’involucro edilizio: la geometria, i materiali di costruzione, unitamente ai carichi interni, alle infiltrazioni d’aria indesiderate, e ovviamente, alla zona climatica in cui l’edificio sorge, giocano un ruolo fondamentale nel computo dei consumi energetici. Nella pratica, esistono diverse soluzioni tecniche volte alla riduzione dei consumi e quindi dei costi di gestione di queste tipologie di impianto. Tra queste, occorre senz’altro ricordare l’inserimento del “cappotto termico” e delle cosiddette facciate ventilate. Ciascuna di queste due soluzioni interviene direttamente sull’involucro edilizio, riducendone il fabbisogno energetico. Si trovano poi soluzioni che non interessano direttamente l’involucro, ma che sono inserite all’interno dell’impianto in modo da ridurne i consumi. E’ il caso dei recuperatori di calore, scambiatori di calore che utilizzano l’aria prelevata dal locale condizionato per preriscaldare o preraffreddare l’aria esterna. Lo scopo di questo elaborato è quello di analizzare le prestazioni energetiche di un impianto di condizionamento che utilizzi, combinandole, due di queste soluzioni: l’intercapedine ventilata, con convezione di tipo forzata, e il recuperatore di calore. In particolare, si è fatto in modo che la facciata ventilata sia una sorta di componente dell’impianto, che risulta quindi “integrato nell’involucro”: l’idea è quella di studiare l’effetto della frazione di portata elaborata dall’impianto che viene inviata alla parete sui consumi energetici. Si è posta l’attenzione principalmente sulla stagione estiva, nella quale l’impianto studiato fa anche uso della tecnica del cosiddetto mist cooling: umidificando la portata d’aria di ripresa sia a monte che all’interno dell’intercapedine ventilata, si abbatte la temperatura dell’aria, con un conseguente abbattimento della temperatura di parete e con un notevole miglioramento delle prestazioni del recuperatore di calore.
Resumo:
Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.
Resumo:
The subject of the present thesis is about the enhancement of orbiter spacecraft navigation capabilities obtained by the standard radiometric link, taking advantage of an imaging payload and making use of a novel definition of optical measurements. An ESA Mission to Mercury called BepiColombo, was selected as a reference case for this study, and in particular its Mercury Planetary Orbiter (MPO), because of the presence of SIMBIO-SYS, an instrument suite part of the MPO payload, capable of acquiring high resolution images of the surface of Mercury. The use of optical measurements for navigation, can provide complementary informations with respect to Doppler, for enhanced performances or a relaxation of the radio tracking requisites in term of ground station schedule. Classical optical techniques based on centroids, limbs or landmarks, were the base to a novel idea for optical navigation, inspired by concepts of stereoscopic vision. In brief, the relation between two overlapped images acquired by a nadir pointed orbiter spacecraft at different times, was defined, and this information was then formulated into an optical measurement, to be processed by a navigation filter. The formulation of this novel optical observable is presented, moreover the analysis of the possible impact on the mission budget and images scheduling is addressed. Simulations are conducted using an orbit determination software already in use for spacecraft navigation in which the proposed optical measurements were implemented and the final results are given.
Resumo:
L’attuale rilevanza rappresentata dalla stretta relazione tra cambiamenti climatici e influenza antropogenica ha da tempo posto l’attenzione sull’effetto serra e sul surriscaldamento planetario così come sull’aumento delle concentrazioni atmosferiche dei gas climaticamente attivi, in primo luogo la CO2. Il radiocarbonio è attualmente il tracciante ambientale per eccellenza in grado di fornire mediante un approccio “top-down” un valido strumento di controllo per discriminare e quantificare il diossido di carbonio presente in atmosfera di provenienza fossile o biogenica. Ecco allora che ai settori applicativi tradizionali del 14C, quali le datazioni archeometriche, si affiancano nuovi ambiti legati da un lato al settore energetico per quanto riguarda le problematiche associate alle emissioni di impianti, ai combustibili, allo stoccaggio geologico della CO2, dall’altro al mercato in forte crescita dei cosiddetti prodotti biobased costituiti da materie prime rinnovabili. Nell’ambito del presente lavoro di tesi è stato quindi esplorato il mondo del radiocarbonio sia dal punto di vista strettamente tecnico e metodologico che dal punto di vista applicativo relativamente ai molteplici e diversificati campi d’indagine. E’ stato realizzato e validato un impianto di analisi basato sul metodo radiometrico mediante assorbimento diretto della CO2 ed analisi in scintillazione liquida apportando miglioramenti tecnologici ed accorgimenti procedurali volti a migliorare le performance del metodo in termini di semplicità, sensibilità e riproducibilità. Il metodo, pur rappresentando generalmente un buon compromesso rispetto alle metodologie tradizionalmente usate per l’analisi del 14C, risulta allo stato attuale ancora inadeguato a quei settori applicativi laddove è richiesta una precisione molto puntuale, ma competitivo per l’analisi di campioni moderni ad elevata concentrazione di 14C. La sperimentazione condotta su alcuni liquidi ionici, seppur preliminare e non conclusiva, apre infine nuove linee di ricerca sulla possibilità di utilizzare questa nuova classe di composti come mezzi per la cattura della CO2 e l’analisi del 14C in LSC.
Resumo:
Questa tesi valuta l’efficacia della tecnica delle griglie in titanio con osso particolato nella ricostruzione dei difetti alveolari tridimensionali ai fini della riabilitazione dentale implanto-protesica. Il primo studio ha considerato la metodica in termini di complicanze post-operatorie e di risultati implanto-protesici. Sono stati considerati 24 pazienti con difetti tridimensionali trattati con l’applicazione di 34 griglie di titanio e osso particolato e riabilitati protesicamente dopo circa 8-9 mesi. 4 su 34 griglie sono state rimosse prima dell’inserimento implantare (11.76% di fallimento totale); 20 su 34 griglie si sono esposte per deiscenza dei tessuti molli (58.82% di complicanze): 4 (11.77%) prima e 16 (47.05%) dopo le prime 4-6 settimane dall’intervento; in nessun caso il piano di trattamento implanto-protesico ha subito variazioni. Dopo un follow-up medio di 20 (3-48) mesi dal carico protesico, nessuno degli 88 impianti ha perso la propria osteo-integrazione (100% di sopravvivenza implantare), con un valore complessivo di successo implantare di 82.9%. Il secondo studio ha calcolato in termini volumetrici la ricostruzione ossea ottenuta con griglie e la sua corre-lazione con l’estensione dell’esposizione e la tempistica del suo verificarsi. Sono stati valutati 12 pazienti con 15 difetti alveolari. Per ciascun sito sono state studiate le immagini TC con un software dedicato per misurare i volumi in tre dimensioni: il volume di osso non formatosi rispetto a quanto pianificato, lacking bone volume (LBV), è stato calcolato sottraendo il volume di osso ricostruito, reconstructed bone volume (RBV) in fase di ri-entro chirurgico dal volume di osso pianificato pre-operativamente, planned bone volume (PBV). LBV è risultato direttamente proporzionale all’area di esposizione della griglia, con un valore del 16.3% di LBV per ogni cm2 di griglia esposta. Si sono evidenziate, inoltre, correlazioni positive tra LBV , la tempistica precoce di esposizione e il valore di PBV.
Resumo:
Il monitoraggio dei rilasci può essere indoor o outdoor; l’attenzione del presente lavoro è rivolta a sistemi di monitoraggio di gas infiammabili e/o tossici in ambienti esterni di stabilimenti onshore. L’efficacia dei sistemi di Gas Detection è profondamente influenzata dalla disposizione dei sensori nelle aree di rischio. Esistono codici e standard che forniscono informazioni molto dettagliate per la progettazione dei sistemi di Fire Detection e linee guida per la scelta, l’installazione ed il posizionamento ottimale dei sensori di incendio. La stessa affermazione non si può fare per i sistemi di Gas Detection, nonostante dall’individuazione tempestiva di un rilascio dipendano anche le successive azioni antincendio. I primi tentativi di sviluppare linee guida per il posizionamento dei sensori di gas sono stati effettuati per le applicazioni off-shore, dove l’elevato livello di congestione e il valore delle apparecchiature utilizzate richiedono un efficiente sistema di monitoraggio dei rilasci. Per quanto riguarda gli impianti on-shore, i criteri di posizionamento dei rilevatori di gas non sono ufficialmente ed univocamente definiti: il layout dei gas detectors viene in genere stabilito seguendo criteri di sicurezza interni alle compagnie affiancati da norme di “buona tecnica” e regole empiriche. Infatti, nonostante sia impossibile garantire l’individuazione di ogni rilascio, vi sono linee guida che propongono strategie di posizionamento dei gas detectors in grado di massimizzare la probabilità di successo del sistema di monitoraggio. Il presente lavoro è finalizzato alla verifica del corretto posizionamento dei gas detectors installati presso l’impianto pilota SF2 dello stabilimento Basell Poliolefine Italia di Ferrara.
Resumo:
Waste management represents an important issue in our society and Waste-to-Energy incineration plants have been playing a significant role in the last decades, showing an increased importance in Europe. One of the main issues posed by waste combustion is the generation of air contaminants. Particular concern is present about acid gases, mainly hydrogen chloride and sulfur oxides, due to their potential impact on the environment and on human health. Therefore, in the present study the main available technological options for flue gas treatment were analyzed, focusing on dry treatment systems, which are increasingly applied in Municipal Solid Wastes (MSW) incinerators. An operational model was proposed to describe and optimize acid gas removal process. It was applied to an existing MSW incineration plant, where acid gases are neutralized in a two-stage dry treatment system. This process is based on the injection of powdered calcium hydroxide and sodium bicarbonate in reactors followed by fabric filters. HCl and SO2 conversions were expressed as a function of reactants flow rates, calculating model parameters from literature and plant data. The implementation in a software for process simulation allowed the identification of optimal operating conditions, taking into account the reactant feed rates, the amount of solid products and the recycle of the sorbent. Alternative configurations of the reference plant were also assessed. The applicability of the operational model was extended developing also a fundamental approach to the issue. A predictive model was developed, describing mass transfer and kinetic phenomena governing the acid gas neutralization with solid sorbents. The rate controlling steps were identified through the reproduction of literature data, allowing the description of acid gas removal in the case study analyzed. A laboratory device was also designed and started up to assess the required model parameters.
Resumo:
Lo scopo di questa tesi è quello di analizzare dapprima l’impatto ambientale di tali impianti e poi analizzare il contributo effettivo che oggi la tecnologia innovativa dei cicli Rankine organici può dare nella valorizzazione elettrica del calore di scarto di processi industriali, focalizzando l’obiettivo principalmente sulle turbine a gas ed eseguendo un caso di studio in un settore ancora poco esplorato da questa tecnologia, quello Oil&Gas. Dopo aver effettuato il censimento degli impianti a fonti fossili e rinnovabili, cogenerativi e non, presenti in Emilia-Romagna, è stato sviluppato un software chiamato MiniBref che permette di simulare il funzionamento di una qualsiasi centrale termoelettrica grazie alla possibilità di combinare la tecnologia dell’impianto con il tipo di combustibile consentendo la valutazione delle emissioni inquinanti ed i potenziali di inquinamento. Successivamente verranno illustrati gli ORC, partendo dalle caratteristiche impiantistiche e termodinamiche fino ad arrivare alla scelta del fluido organico, fondamentale per le performance del ciclo. Dopo aver effettuato una ricognizione dello stato dell’arte delle applicazioni industriali degli ORC nel recupero termico, verranno eseguite simulazioni numeriche per ricostruire gli ORC ed avere una panoramica il più completa ed attendibile delle prestazioni effettive di questi sistemi. In ultimo verranno illustrati i risultati di un caso di studio che vede l’adozione di recupero mediante ciclo organico in un’installazione esistente del settore Oil&Gas. Si effettuerà uno studio delle prestazione dell’impianto al variare delle pressioni massime e minime del ciclo ed al variare del fluido impiegato al fine di mostrare come questi parametri influenzino non solo le performance ma anche le caratteristiche impiantistiche da adottare. A conclusione del lavoro si riporteranno i risultati relativi all’analisi condotte considerando l’impianto ai carichi parziali ed in assetto cogenerativo.
Resumo:
This thesis describes the developments of new models and toolkits for the orbit determination codes to support and improve the precise radio tracking experiments of the Cassini-Huygens mission, an interplanetary mission to study the Saturn system. The core of the orbit determination process is the comparison between observed observables and computed observables. Disturbances in either the observed or computed observables degrades the orbit determination process. Chapter 2 describes a detailed study of the numerical errors in the Doppler observables computed by NASA's ODP and MONTE, and ESA's AMFIN. A mathematical model of the numerical noise was developed and successfully validated analyzing against the Doppler observables computed by the ODP and MONTE, with typical relative errors smaller than 10%. The numerical noise proved to be, in general, an important source of noise in the orbit determination process and, in some conditions, it may becomes the dominant noise source. Three different approaches to reduce the numerical noise were proposed. Chapter 3 describes the development of the multiarc library, which allows to perform a multi-arc orbit determination with MONTE. The library was developed during the analysis of the Cassini radio science gravity experiments of the Saturn's satellite Rhea. Chapter 4 presents the estimation of the Rhea's gravity field obtained from a joint multi-arc analysis of Cassini R1 and R4 fly-bys, describing in details the spacecraft dynamical model used, the data selection and calibration procedure, and the analysis method followed. In particular, the approach of estimating the full unconstrained quadrupole gravity field was followed, obtaining a solution statistically not compatible with the condition of hydrostatic equilibrium. The solution proved to be stable and reliable. The normalized moment of inertia is in the range 0.37-0.4 indicating that Rhea's may be almost homogeneous, or at least characterized by a small degree of differentiation.
Resumo:
La tesi affronta il concetto di esposizione al rischio occupazionale e il suo scopo è quello di indagare l’ambiente di lavoro e il comportamento dei lavoratori, con l'obiettivo di ridurre il tasso di incidenza degli infortuni sul lavoro ed eseguire la riduzione dei rischi. In primo luogo, è proposta una nuova metodologia denominata MIMOSA (Methodology for the Implementation and Monitoring of Occupational SAfety), che quantifica il livello di "salute e sicurezza" di una qualsiasi impresa. Al fine di raggiungere l’obiettivo si è reso necessario un approccio multidisciplinare in cui concetti d’ingegneria e di psicologia sono stati combinati per sviluppare una metodologia di previsione degli incidenti e di miglioramento della sicurezza sul lavoro. I risultati della sperimentazione di MIMOSA hanno spinto all'uso della Logica Fuzzy nel settore della sicurezza occupazionale per migliorare la metodologia stessa e per superare i problemi riscontrati nell’incertezza della raccolta dei dati. La letteratura mostra che i fattori umani, la percezione del rischio e il comportamento dei lavoratori in relazione al rischio percepito, hanno un ruolo molto importante nella comparsa degli incidenti. Questa considerazione ha portato ad un nuovo approccio e ad una seconda metodologia che consiste nella prevenzione di incidenti, non solo sulla base dell'analisi delle loro dinamiche passate. Infatti la metodologia considera la valutazione di un indice basato sui comportamenti proattivi dei lavoratori e sui danni potenziali degli eventi incidentali evitati. L'innovazione consiste nell'applicazione della Logica Fuzzy per tener conto dell’"indeterminatezza" del comportamento umano e del suo linguaggio naturale. In particolare l’applicazione è incentrata sulla proattività dei lavoratori e si prefigge di impedire l'evento "infortunio", grazie alla generazione di una sorta d’indicatore di anticipo. Questa procedura è stata testata su un’azienda petrolchimica italiana.
Resumo:
A causa delle complesse problematiche ambientali e in accordo con gli obiettivi della legislazione internazionale e comunitaria, le aziende sempre più frequentemente adottano sistemi di gestione per miglioramento continuo delle proprie prestazioni ambientali. La tesi si pone come obiettivo l’analisi dell’efficienza energetica di una grande azienda del settore alimentare: sono state valutate le prestazioni in relazione agli impianti di produzione di energia e i consumi di energia dei singoli reparti di lavorazione e impianti; per ogni reparto sono stati inoltre analizzati dati e indicatori di tipo generale e puntuale, sulla base delle indicazioni riportate nella norma CEI EN ISO 50001: 2011. I risultati mostrano che i reparti di produzione energetica operano in assetto di Cogenerazione ad Alto Rendimento e che negli ultimi due anni si è registrata una riduzione delle emissioni di CO2 rispetto ai MWh prodotti; dal 2008 al 2013 si è assistito ad un trend di aumento dei consumi di energia elettrica rispetto ai prodotti realizzati, a differenza dei consumi di energia termica. Infine sulla base delle priorità di intervento individuate, è stato creato un piano d’azione teso al miglioramento delle performance energetiche. Inoltre la tesi si pone l’obiettivo di creare e applicare un metodo per calcolare la significatività degli aspetti ambientali dell’azienda, al fine di valutare gli impatti associati, in modo da permetterne una classificazione e da individuare le priorità di intervento per il miglioramento delle performance ambientali, in accordo con la norma UNI EN ISO 14001: 2004. Il metodo è stato progettato sulla base di dati aziendali e in modo da garantire oggettività, modulabilità e ripetibilità nella maggiore misura possibile; tale metodo è stato applicato ad un reparto di lavorazione e ha permesso di classificare gli aspetti ambientali, individuando le priorità di intervento, quali consumi idrici ed energetici.
Resumo:
Scopo di questo lavoro di tesi è quello di sperimentare “sul campo’’ la validità e l'efficacia di tecniche SBR per il trattamento delle acque domestiche per case sparse e nuclei isolati. Tuttavia quella SBR, pur essendo una tecnica impiantistica, può soddisfare queste esigenze. Grazie alla presenza di un adeguato volume d'accumulo ed al funzionamento ciclico dell'impianto sono annullati tutti i problemi determinati, nei normali impianti in continuo, dalla discontinuità dell'afflusso di reflui (picchi di portata). L'impianto è studiato per ridurre la necessità di manutenzione al minimo: tutte le apparecchiature tecniche sono collocate in un armadio esterno all'impianto ed in vasca ci sono solo le tubazioni. Ciò esclude ogni presenza interna al serbatoio di apparecchiature elettriche e di parti in movimento soggette a usura. Il vantaggio è evidente nella semplificazione delle operazioni di gestione/controllo/manutenzione dell’impianto che non richiedono, di norma, lo svuotamento della cisterna e consentono operazioni più agevoli e sicure.Tutti i movimenti di processo sono supportati da tre sistemi Air Lift azionati da un unico compressore che provvede anche all'immissione dell'ossigeno attraverso l'aeratore tubolare a membrana nella vasca SBR. Il compressore si caratterizza per lunga vita operativa e assoluta silenziosità di funzionamento. Per verificare l’efficacia del processo depurativo indotto dall’impianto SBR installato dalla GreenSolar abbiamo fatto dei prelievi sul liquame in entrata alla camera SBR e su quello in uscita da essa. I campioni così prelevati sono stati analizzati da un laboratorio autorizzato.I valori limite imposti dal DGR n. 1053 sono ampiamente rispettati, tuttavia i risultati ottenuti non sono soddisfacenti relativamente alle potenzialità dell'impianto.
Resumo:
Considerando l'elevato grado di inquinamento del pianeta e la forte dipendenza delle attività antropiche dai combustibili fossili, stanno avendo notevole sviluppo e incentivazione gli impianti per la produzione di energia elettrica da fonti rinnovabili. In particolare, la digestione anaerobica è in grande diffusione in Italia. Lo studio in oggetto si prefigge l'obiettivo di determinare, mediante analisi di Life Cycle Assessment (LCA), i carichi ambientali di un impianto di digestione anaerobica, e della sua filiera, per valutarne l'effettiva ecosostenibilità. L'analisi considera anche gli impatti evitati grazie all'immissione in rete dell'energia elettrica prodotta e all'utilizzo del digestato in sostituzione dell'urea. Lo studio analizza sei categorie d'impatto: Global warming potential (GWP), Abiotic depletion potential (ADP), Acidification potential (AP), Eutrophication potential (EP), Ozone layer depletion potential (ODP) e Photochemical oxidant formation potential (POFP). I valori assoluti degli impatti sono stati oggetto anche di normalizzazione per stabilire la loro magnitudo. Inoltre, è stata effettuata un'analisi di sensitività per investigare le variazioni degli impatti ambientali in base alla sostituzione di differenti tecnologie per la produzione di energia elettrica: mix elettrico italiano, carbone e idroelettrico. Infine, sono stati analizzati due scenari alternativi all'impianto in esame che ipotizzano la sua conversione ad impianto per l'upgrading del biogas a biometano. I risultati mostrano, per lo scenario di riferimento (produzione di biogas), un guadagno, in termini ambientali, per il GWP, l'ADP e il POFP a causa dei notevoli impatti causati dalla produzione di energia elettrica da mix italiano che la filiera esaminata va a sostituire. I risultati evidenziano anche quanto gli impatti ambientali varino in base alla tipologia di alimentazione del digestore anaerobica: colture dedicate o biomasse di scarto. I due scenari alternativi, invece, mostrano un aumento degli impatti, rispetto allo scenario di riferimento, causati soprattutto dagli ulteriori consumi energetici di cui necessitano sia i processi di purificazione del biogas in biometano sia i processi legati alla digestione anaerobica che, nel caso dello scenario di riferimento, sono autoalimentati. L'eventuale conversione dell'attuale funzione dell'impianto deve essere fatta tenendo anche in considerazione i benefici funzionali ed economici apportati dalla produzione del biometano rispetto a quella del biogas.
Resumo:
L’evoluzione dei componenti elettronici di potenza ed il conseguente sviluppo dei convertitori statici dell’energia elettrica hanno consentito di ottenere un’elevata efficienza energetica, sia nell’ambito degli azionamenti elettrici, sia nell’ambito della trasmissione e distribuzione dell’energia elettrica. L’efficienza energetica è una questione molto importante nell’attuale contesto storico, in quanto si sta facendo fronte ad una elevatissima richiesta di energia, sfruttando prevalentemente fonti di energia non rinnovabili. L’introduzione dei convertitori statici ha reso possibile un notevolissimo incremento dello sfruttamento delle fonti di energia rinnovabili: si pensi ad esempio agli inverter per impianti fotovoltaici o ai convertitori back to back per applicazioni eoliche. All’aumentare della potenza di un convertitore aumenta la sua tensione di esercizio: le limitazioni della tensione sopportabile dagli IGBT, che sono i componenti elettronici di potenza di più largo impiego nei convertitori statici, rendono necessarie modifiche strutturali per i convertitori nei casi in cui la tensione superi determinati valori. Tipicamente in media ed alta tensione si impiegano strutture multilivello. Esistono più tipi di configurazioni multilivello: nel presente lavoro è stato fatto un confronto tra le varie strutture esistenti e sono state valutate le possibilità offerte dall’architettura innovativa Modular Multilevel Converter, nota come MMC. Attualmente le strutture più diffuse sono la Diode Clamped e la Cascaded. La prima non è modulare, in quanto richiede un’apposita progettazione in relazione al numero di livelli di tensione. La seconda è modulare, ma richiede alimentazioni separate e indipendenti per ogni modulo. La struttura MMC è modulare e necessita di un’unica alimentazione per il bus DC, ma la presenza dei condensatori richiede particolare attenzione in fase di progettazione della tecnica di controllo, analogamente al caso del Diode Clamped. Un esempio di possibile utilizzo del convertitore MMC riguarda le trasmissioni HVDC, alle quali si sta dedicando un crescente interesse negli ultimi anni.