494 resultados para Biomasse, combustione, particolato, emissioni, filtri
Resumo:
Durante il periodo di dottorato, l’attività di ricerca di cui mi sono occupato è stata finalizzata allo sviluppo di metodologie per la diagnostica e l’analisi delle prestazioni di un motore automobilistico. Un primo filone di ricerca è relativo allo sviluppo di strategie per l’identificazione delle mancate combustioni (misfires) in un motore a benzina. La sperimentazione si è svolta nella sala prove della Facoltà di Ingegneria dell’Università di Bologna, nei quali è presente un motore Fiat 1.200 Fire, accoppiato ad un freno a correnti parassite, e comandato da una centralina virtuale, creata mediante un modello Simulink, ed interfacciata al motore tramite una scheda di input/output dSpace. Per quanto riguarda la campagna sperimentale, sono stati realizzati delle prove al banco in diverse condizioni di funzionamento (sia stazionarie, che transitorie), durante le quali sono stati indotti dei misfires, sia singoli che multipli. Durante tali test sono stati registrati i segnali provenienti sia dalla ruota fonica usata per il controllo motore (che, nel caso in esame, era affacciata al volano), sia da quella collegata al freno a correnti parassite. Partendo da tali segnali, ed utilizzando un modello torsionale del sistema motoregiunto-freno, è possibile ottenere una stima sia della coppia motrice erogata dal motore, sia della coppia resistente dissipata dal freno. La prontezza di risposta di tali osservatori è tale da garantirci la possibilità di effettuare una diagnosi misfire. In particolare, si è visto che l’indice meglio correlato ala mancata combustione risultaessere la differenza fra la coppia motrice e la coppia resistente; tale indice risulta inoltre essere quello più semplice da calibrare sperimentalmente, in quanto non dipende dalle caratteristiche del giunto, ma solamente dalle inerzie del sistema. Una seconda attività della quale mi sono occupato è relativa alla stima della coppia indicata in un motore diesel automobilistico. A tale scopo, è stata realizzata una campagna sperimentale presso i laboratori della Magneti Marelli Powertrain (Bologna), nella quale sono state effettuati test in molteplici punti motori, sia in condizioni di funzionamento “nominale”, sia variando artificiosamente alcuni dei fattori di controllo (quali Start of Injection, pressione nel rail e, nei punti ove è stato possibile, tasso di EGR e pressione di sovralimentazione), sia effettuando degli sbilanciamenti di combustibile fra un cilindro e l’altro. Utilizzando il solo segnale proveniente da una ruota fonica posta sul lato motore, e sfruttando un modello torsionale simile a quello utilizzato nella campagna di prove relativa alla diagnosi del misfire, è possibile correlare la componente armonica con frequenza di combustione della velocità all’armonica di pari ordine della coppia indicata; una volta stimata tale componente in frequenza, mediante un’analisi di tipo statistico, è possibile eseguire una stima della coppia indicata erogata dal motore. A completamento dell’algoritmo, sfruttando l’analisi delle altre componenti armoniche presenti nel segnale, è possibile avere una stima dello sbilanciamento di coppia fra i vari cilindri. Per la verifica dei risultati ottenuti, sono stati acquisiti i segnali di pressione provenienti da tutti e quattro i cilindri del motore in esame.
Resumo:
Tra i temi di attualità, quello del risparmio energetico è tra i più dibattuti negli ultimi anni; tale tema è strettamente correlato al problema del riscaldamento globale, infatti, mentre sul prossimo esaurimento delle risorse energetiche tradizionali non vi sono ancora certezze assolute, per quanto riguarda l’azione nociva dei gas serra, la Comunità Scientifica Internazionale si ritrova d’accordo su una netta presa di posizione contro l’emissione di tali sostanze, provocata in larga parte dall’utilizzo dei combustibili fossili. In questo contesto, l’Unione Europea sta promuovendo la diffusione di tecnologie che non prevedano l’utilizzo di gas, petrolio o carbone, soprattutto per il settore dell’edilizia, ove una corretta progettazione e l’utilizzo di tecnologie non convenzionali può portare alla riduzione anche dell’80% dei consumi, con conseguente abbattimento delle emissioni. Tra questi interventi innovativi, il più comune e conosciuto è sicuramente quello del solare termico e fotovoltaico; ma ne esistono anche di altri, ancora non molto pubblicizzati in Italia, ma ampiamente conosciuti e utilizzati in altri paesi dell’Unione. Tra questi, vi è il sistema di riscaldamento analizzato in questa tesi: la pompa di calore geotermica. Tale sistema, come verrà spiegato nell’elaborato di laurea, ha indubbi vantaggi economici, energetici ed ambientali, a fronte di una non trascurabile spesa iniziale. Attualmente, nel Nord Italia, si incominciano a vedere impianti di questo tipo, sulla scia del successo riscontrato nei paesi confinanti (in particolare Austria e Svizzera). La progettazione si basa attualmente su modelli statici, sviluppati dall’Università Svizzera del Canton Ticino, per l’utilizzo della pompa di calore nel territorio alpino. Obiettivo della tesi, è la verifica di tali modelli, di cui si è venuto a conoscenza grazie alla collaborazione con l’Università SUPSI, sulle condizioni idrogeologiche della Pianura Padana, soffermandosi su alcuni parametri fondamentali della progettazione di una pompa di calore geotermica, quali la conduttività e la capacità termica volumetrica dei terreni incontrati, la presenza di falde, ed i parametri geometrici del pozzo, al fine di dare una valutazione tecnica ed economica dell’impianto. Tali analisi è stata infatti fino ad ora affrontata in maniera sommaria dai perforatori, che eseguono generalmente sempre lo stesso modello di pozzo geotermico, sulla base degli esempi consolidati di Svizzera e Germania. Alcune misure di temperatura in situ sono state rilevate in collaborazione con la società Geotermia SRL di Mantova, ditta specializzata nella perforazione di pozzi geotermici (tale esperienza è parte centrale dell’estratto “Laboratorio di Tesi Ls”), mentre la parte modellistica della tesi è stata sviluppata in collaborazione con lo studio di progettazione Studio Seta SRL di Faenza, il cui stabile è climatizzato in parte con una pompa di calore geotermica.
Resumo:
Le acque di vegetazione (AV) costituiscono un serio problema di carattere ambientale, sia a causa della loro elevata produzione sia per l’ elevato contenuto di COD che oscilla fra 50 e 150 g/l. Le AV sono considerate un refluo a tasso inquinante fra i più elevati nell’ambito dell’industria agroalimentare e la loro tossicità è determinata in massima parte dalla componente fenolica. Il presente lavoro si propone di studiare e ottimizzare un processo non solo di smaltimento di tale refluo ma anche di una sua valorizzazione, utlizzandolo come materia prima per la produzione di acidi grassi e quindi di PHA, polimeri biodegradabili utilizzabili in varie applicazioni. A tale scopo sono stati utilizzati due bioreattori anaerobici a biomassa adesa, di identica configurazione, con cui si sono condotti due esperimenti in continuo a diverse temperature e carichi organici al fine di studiare l’influenza di tali parametri sul processo. Il primo esperimento è stato condotto a 35°C e carico organico pari a 12,39 g/Ld, il secondo a 25°C e carico organico pari a 8,40 g/Ld. Si è scelto di allestire e mettere in opera un processo a cellule immobilizzate in quanto questa tecnologia si è rivelata vantaggiosa nel trattamento continuo di reflui ad alto contenuto di COD e carichi variabili. Inoltre si è scelto di lavorare in continuo poiché tale condizione, per debiti tempi di ritenzione idraulica, consente di minimizzare la metanogenesi, mediata da microrganismi con basse velocità specifiche di crescita. Per costituire il letto fisso dei due reattori si sono utilizzati due diversi tipi di supporto, in modo da poter studiare anche l’influenza di tale parametro, in particolare si è fatto uso di carbone attivo granulare (GAC) e filtri ceramici Vukopor S10 (VS). Confrontando i risultati si è visto che la massima quantità di VFA prodotta nell’ambito del presente studio si ha nel VS mantenuto a 25°C: in tale condizione si arriva infatti ad un valore di VFA prodotti pari a 524,668 mgCOD/L. Inoltre l’effluente in uscita risulta più concentrato in termini di VFA rispetto a quello in entrata: nell’alimentazione la percentuale di materiale organico presente sottoforma di acidi grassi volatili era del 54 % e tale percentuale, in uscita dai reattori, ha raggiunto il 59 %. Il VS25 rappresenta anche la condizione in cui il COD degradato si è trasformato in percentuale minore a metano (2,35 %) e questo a prova del fatto che l’acidogenesi ha prevalso sulla metanogenesi. Anche nella condizione più favorevole alla produzione di VFA però, si è riusciti ad ottenere una loro concentrazione in uscita (3,43 g/L) inferiore rispetto a quella di tentativo (8,5 g/L di VFA) per il processo di produzione di PHA, sviluppato da un gruppo di ricerca dell’università “La Sapienza” di Roma, relativa ad un medium sintetico. Si può constatare che la modesta produzione di VFA non è dovuta all’eccessiva degradazione del COD, essendo questa nel VS25 appena pari al 6,23%, ma piuttosto è dovuta a una scarsa concentrazione di VFA in uscita. Questo è di buon auspicio nell’ottica di ottimizzare il processo migliorandone le prestazioni, poiché è possibile aumentare tale concentrazione aumentando la conversione di COD in VFA che nel VS25 è pari a solo 5,87%. Per aumentare tale valore si può agire su vari parametri, quali la temperatura e il carico organico. Si è visto che il processo di acidogenesi è favorito, per il VS, per basse temperature e alti carichi organici. Per quanto riguarda il reattore impaccato con carbone attivo la produzione di VFA è molto ridotta per tutti i valori di temperatura e carichi organici utilizzati. Si può quindi pensare a un’applicazione diversa di tale tipo di reattore, ad esempio per la produzione di metano e quindi di energia.
Resumo:
Il presente elaborato è stato finalizzato allo sviluppo di un processo di digestione anaerobica della frazione organica dei rifiuti solidi urbani (FORSU oppure, in lingua inglese OFMSW, Organic Fraction of Municipal Solid Waste) provenienti da raccolta indifferenziata e conseguente produzione di biogas da impiegarsi per il recupero energetico. Questo lavoro rientra nell’ambito di un progetto, cofinanziato dalla Regione Emilia Romagna attraverso il Programma Regionale per la Ricerca Industriale, l’Innovazione e il Trasferimento Tecnologico (PRRIITT), sviluppato dal Dipartimento di Chimica Applicata e Scienza dei Materiali (DICASM) dell’Università di Bologna in collaborazione con la Facoltà di Ingegneria dell’Università di Ferrara e con la società Recupera s.r.l. che applicherà il processo nell’impianto pilota realizzato presso il proprio sito di biostabilizzazione e compostaggio ad Ostellato (FE). L’obiettivo è stato la verifica della possibilità di impiegare la frazione organica dei rifiuti indifferenziati per la produzione di biogas, e in particolare di metano, attraverso un processo di digestione anaerobica previo trattamento chimico oppure in codigestione con altri substrati organici facilmente fermentabili. E’ stata inoltre studiata la possibilità di impiego di reattori con biomassa adesa per migliorare la produzione specifica di metano e diminuire la lag phase. Dalla sperimentazione si può concludere che è possibile giungere allo sviluppo di metano dalla purea codigerendola assieme a refluo zootecnico. Per ottenere però produzioni significative la quantità di solidi volatili apportati dal rifiuto non deve superare il 50% dei solidi volatili complessivi. Viceversa, l’addizione di solfuri alla sola purea si è dimostrata ininfluente nel tentativo di sottrarre gli agenti inibitori della metanogenesi. Inoltre, l’impiego di supporti di riempimento lavorando attraverso processi batch sequenziali permette di eliminare, nei cicli successivi al primo, la lag phase dei batteri metanogeni ed incrementare la produzione specifica di metano.
Resumo:
Lo strumento in esame è il carbon footprint che ha lo scopo primario di calcolare l’impronta rilasciata in atmosfera dalle emissioni di gas ad effetto serra. Il carbon footprint è stato descritto ed esaminato in ogni suo aspetto pratico, strutturale e funzionale evidenziandone sia pregi da tenere in considerazione sia limiti da colmare anche attraverso il ventaglio di strumenti di misurazione ambientale che si hanno a disposizione. Il carbon footprint non verrà descritto unicamente come strumento di contabilità ambientale ma anche come mezzo di sensibilizzazione del pubblico o dei cittadini ai temi ambientali. Questo lavoro comprende un’indagine online degli strumenti di misura e rendicontazione delle emissioni di CO2 che sono sotto il nome di carbon footprint o carbon calculator. Nell’ultima parte della tesi si è applicato ad un caso reale tutto quello che è stato appreso dalla letteratura. Il lavoro è consistito nell’applicare lo strumento del carbon footprint ad un’azienda italiana di servizi seguendo la metodologia di calcolo prevista dalla norma ISO 14064. Di essa sono state contabilizzate le emissioni di CO2 generate dalle attività quotidiane e straordinarie sulle quali l’azienda ha un controllo diretto o comunque una responsabilità indiretta.
Resumo:
Attualmente le tematiche legate alla produzione e all’uso dell’energia rivestono grande importanza, anche in relazione agli obiettivi in termini di riduzione delle emissioni di gas partecipanti all’effetto serra prefissati dal Protocollo di Kyoto, che impongono il contenimento dei consumi energetici. Andando a ricercare i fattori che alterano i consumi energetici dei sistemi acquedottistici, accanto a quelli legati all’efficienza degli impianti e alle condizioni delle condotte, si deve tener conto anche della presenza delle perdite idriche in rete. Infatti nel valutare il problema delle perdite idriche esclusivamente come quantitativo di acqua di elevata qualità dispersa nell’ambiente, si trascura di considerare il contenuto energetico che ad essa viene conferito mediante attività di pompaggio durante le fasi di prelievo, potabilizzazione, adduzione e distribuzione all’utenza. L’efficienza invece varia in funzione di fattori oggettivi strettamente legati alle caratteristiche del territorio da servire, ma anche in funzione delle scelte effettuate in fase di progettazione e di esercizio. Da questa premessa discendono due importanti considerazioni. Il primo aspetto consiste nel poter valutare separatamente l’influenza sul consumo energetico dell’efficienza dei pompaggi e della rete, in modo da identificare l’impatto di singoli interventi, in particolare la riduzione delle perdite idriche (Colombo & Karney, 2002, 2004; Walski, 2004; Artina et al. 2007, 2008) ed il miglioramento dello stato dell’infrastruttura acquedottistica. Alla luce degli studi già svolti, sarà approfondita l’analisi del legame tra perdite idriche e aumento del consumo energetico, valutandola su modello numerico con riferimento a un caso di studio reale, costituito da un distretto monitorato della rete acquedottistica di Mirabello (Ferrara) alimentato mediante un sistema bypass-pompaggio a giri variabili. Il secondo aspetto riguarda la necessità di individuare dei termini di paragone che consentano di formulare un giudizio nei confronti del quantitativo di energia attualmente impiegato in un sistema acquedottistico. Su tale linea saranno analizzati alcuni indicatori per esprimere i consumi energetici dei sistemi acquedottistici.
Resumo:
Complice l'entrata a far parte dell'Unione Europea e del risultante recepimento delle sue normative e sopratutto dei suoi principi, nel nostro Paese si sta verificando un sostanziale incremento delle realtà territoriali attivate sul fronte della raccolta differenziata. L'intercettazione delle frazioni compostabili (umido e scarti verdi) sta assumendo un ruolo di sempre maggior rilevanza quantitativa nella raccolta differenziata. Infatti dal 1997 al 2007 si è passati da circa 604.000 ton di frazioni raccolte a 2.368.000 ton. Questo sistema di recupero degli scarti organici è attualmente il più diffuso nel nostro Paese. Esso presenta indubbi problemi tecnico-gestionali, sopratutto riconducibili alle emissioni odorigene che raramente risultano però nocive o addirittura tossiche per la salute dell'ambiente e delle persone. Nonostante questo dato gli impianti di compostaggio incontrano spesso una diffusa e forte avversione da quella parte di popolazione interessata ad accogliere l'impianto sul proprio territorio rispetto anche ad impianti di indubbia maggior pericolosità. Per via di questo generale atteggiamento in Italia risulta pertanto esistere una normativa particolarmente stringente sulle garanzie ambientali necessarie per la realizzazione di impianti di compostaggio confrontata con quella europea. Questa normativa però lascia inalterata la difficoltà nella diffusione di un'impiantistica adeguata a rispondere alle necessità della raccolta differenziata. Questo problema risulta ancor più rilevante come nel caso dell'impianto oggetto di studio situato in ambiente altamente urbanizzato. In questi territori ad alta densità abitativa spesso si assiste alla degenerazione del sistema dove protratte conflittualità con la popolazione interessata ostacolano l'esercizio o portano alla temporanea cessazione delle attività degli impianti esistenti. Ulteriore problema risulta essere il fatto che anche in impianti nuovi criteri corretti di progettazione e costruzione risultano essere alle volte non sufficienti per evitare le precedenti problematiche, diventa quindi oltremodo difficoltoso ottenere gli stessi risultati intervenendo su impianti già esistenti con misure di riqualificazione adeguate e compatibili con la sostenibilità economica dell'impianto. Per tanto questa tesi si propone di individuare le problematiche esistenti e proporre soluzioni efficaci al rilevante problema delle emissioni odorigene che sembra caratterizzare questo impianto, tramite uno studio dello stato di fatto e l'analisi delle criticità riscontrate, concentrandosi in modo particolare sul biofiltro e sulla biofiltrazione, che sembra essere il problema principale che influenza la qualità delle emissioni. Il caso oggetto di questa tesi riguarda un impianto avviato nel 2004 che, dopo un lungo periodo di esercizio caratterizzato da problematiche ambientali mai pienamente risolte, è stato sottoposto dalla seconda metà del 2008 ad una semplice e sistematica revisione delle procedure gestionali e mirati interventi tecnici ed impiantistici nell'ambito di un percorso di risanamento e riqualificazione. 5
Resumo:
L’obiettivo del lavoro svolto nell’ambito del ciclo di dottorato è stato quello dell’applicazione della metodologia di analisi degli scenari, nell’ottica dello studio e applicazione di un metodo di analisi integrato e multidisciplinare che consenta individuare strategie di sviluppo sostenibile in relazione alla questione indagata. Lo studio sviluppato nel corso del dottorato è stato impostato su presupposti forniti dalla Regione Toscana (in entrambi i casi di studio trattati), che ha finanziato, attraverso la sua Agenzia Regionale per lo Sviluppo e Innovazione in ambito Agricolo (ARSIA), due Progetti di ricerca volti all’individuazione di strategie di sviluppo sostenibile concernenti due tematiche di particolare interesse in ambito regionale: lo sviluppo di coltivazioni non-food (biocarburanti, biomasse da energia, biopolimeri, biolubrificanti, fibre vegetali, coloranti naturali, fitofarmaci di origine vegetale) e la valutazione della possibilità di coesistenza tra colture convenzionali (non Geneticamente Modificate) e colture GM, in relazione alla Raccomandazione della Commissione 2003/556/CE che afferma che deve essere garantita la coesistenza tra colture transgeniche, convenzionali e biologiche, ovvero che devono essere presenti le condizioni per cui ciascun metodo di coltivazione possa poter essere adottato e praticato in UE. La sostenibilità delle situazioni studiate è stata valutata fornendo informazioni non solo per la situazioni attuali, ma anche per possibili evoluzioni future, così come richiesto dai principi dello sviluppo sostenibile. A tal proposito, occorre applicare metodologie di analisi che consentano di poter identificare obiettivi strategici in funzione dei cambiamenti che potrebbero essere registrati, in corrispondenza dell’evolversi delle diverse situazioni nel tempo. La metodologia di analisi in grado di soddisfare questi requisiti può essere identificata nell’analisi di scenario (scenario analysis), che si configura come uno strumento di analisi strategica in grado di riassumere numerose informazioni e dati riferiti agli attori, agli obiettivi, agli strumenti, alle cause ed agli effetti indotti da un cambiamento che potrebbe essere provocato da uno o più fattori contemplati nel corso dell’analisi. Questo metodo di analisi rappresenta un’importante strumento di ausilio alla definizione di politiche e strategie, che si rende particolarmente utile nel campo della public choice, come dimostrato dalle applicazioni presentate nel corso del lavoro.
Resumo:
Le aree costiere hanno un ruolo fondamentale nello sviluppo economico, sociale e politico della maggior parte dei paesi; esse supportano infatti diversi ecosistemi produttivi che rendono disponibili beni e servizi. L'importanza economica delle aree costiere è destinata a una considerevole crescita a causa del costante aumento delle popolazioni, delle industrie e delle attività ricreazionali che si concentrano sempre di più sulle coste e ciò può provocare un'alterazione delle linee di costa, imputabile a più fattori e un deterioramento delle condizioni naturali. E' necessario anche tenere da conto dei processi erosivi, sia imputabili a cause naturali (correnti oceaniche, movimenti di marea; azione del vento) sia a cause antropiche (subsidenza del terreno indotta dall'uomo, dragaggio al largo, riduzione del rifornimento di sedimento dai fiumi, distruzione di letti algali, paludi e dune sabbiose). A questo panorama va poi aggiunto il problema dell'innalzamento del livello del mare e dell'aumento delle frequenze di tempeste, come conseguenza del cambiamento climatico globale. In questo contesto quindi, le strutture rigide di difesa contro l'erosione e le mareggiate sono diventate molto comuni nelle aree costiere, coinvolgendo in alcune regioni più della metà della linea di costa. Il meccanismo di difesa attuato dalle barriere consiste nel provocare una riduzione dell'energia delle onde e conseguentemente in una limitazione della quantità di sedimento che viene da loro rimosso dalla spiaggia. La presenza di strutture rigide di difesa generalmente comporta una perdita di habitat di fondale molle e, a causa delle variazioni idrodinamiche che la loro presenza comporta, anche delle comunità ad esso associate, sia su scala locale, che su scala regionale. Uno dei problemi che tali strutture possono indurre è l'eccessiva deposizione di detrito prodotto dalle specie che si insediano sul substrato duro artificiale, che normalmente non fanno parte delle comunità "naturali" di fondo molle circostanti le strutture. Lo scopo di questo studio è stato quello di cercare di evidenziare gli effetti che la deposizione di tale detrito potesse avere sulle comunita meiobentoniche di fondale molle. A tale fine è stata campionata un'area antistante la località di Lido di Dante (RA), la quale è protetta dal 1996 da una struttura artificiale, per fronteggiare il problema dell'erosione della zona, in aumento negli ultimi decenni. La struttura è costituita da una barriera semisoffolta e tre pennelli, di cui uno completamente collegato alla barriera. A circa 50 m dalla barriera, e alla profondità di 4 m circa, è stato allestito un esperimento manipolativo in cui è stato valutato l'effetto della deposizione delle due specie dominanti colonizzanti la barriera, Ulva sp. e Mitili sp. sull'ambiente bentonico, e in particolare sulla comunità di meiofauna. Ulva e Mitili sono stati posti in sacche di rete che sono state depositate sul fondo al fine di simulare la deposizione naturale di detrito, e tali sacche hanno costituito i trattamenti dell'esperimento, i quali sono stati confrontati con un Controllo, costituito da sedimento non manipolato, e un Controllo Procedurale, costituito da una sacca vuota. Il campionamento è stato fatto in tre occasioni nel giugno 2009 (dopo 2 giorni, dopo 7 giorni e dopo 21 giorni dall'allestimento dell'esperimento) per seguire la dinamica temporale degli effetti del detrito. Per ogni combinazione tempo/trattamento sono state prelevate 4 repliche, per un totale di 48 campioni. Successivamente sono stati prelevati ulteriori campioni di meiofauna in condizioni naturali. In particolare sono stati raccolti in due Posizioni diverse, all'Interno e all'Esterno del pennello posto più a Sud, e su due substrati differenti, rispettivamente Ulva proveniente dalle barriere e sedimento privo di detrito. Per ogni combinazione Posizione/Substrato sono state prelevate 3 repliche, ottenendo un totale di 12 campioni. Tutti i campioni prelevati sono stati poi trattati in laboratorio tramite la procedura di filtratura, pulizia e centrifuga indicata dal protocollo. A questa fase è seguito il sorting al microscopio, durante il quale la meiofauna è stata identificata ed enumerata a livello di taxa maggiori. Per quanto riguarda il taxon più abbondante, quello dei Nematodi, si è proceduto anche all'analisi della distribuzione della biomassa per classi di taglia, in quanto descrittore funzionale delle comunità. Per la costruzione degli spettri di biomassa per classi di taglia sono state misurate la lunghezza e larghezza dei primi 100 Nematodi presenti nei campioni. A partire da tali valori dimensionali è stata calcolata la biomassa di ogni individuo, usata poi per la costruzione dei size spectra, tramite tre metodiche messe a confronto: "Nematode Biomass Spectra" (NBS), "Normalised Nematode Biomass Spectra"(NNBS), "Mean Cumulative Biomass Spectra" (MC-NBS). Successivamente la composizione e la struttura della comunità meiobentonica, in termini di consistenza numerica e di rapporti reciproci di densità degli organismi che la compongono e variabili dimensionali, sono state analizzate mediante tecniche di analisi univariate e multivariate. Ciò che emerge generalmente dai risultati dell'esperimento è la mancanza di interazione significativa tra i due fattori, tempi e trattamenti, mentre sono risultati significativi i due fattori principali, considerati singolarmente. Tali esiti sono probabilmente imputabili all'elevata variabilità fra campioni dei trattamenti e delle patches di controllo. Nonostante ciò l'analisi dei risultati ottenuti permette di effettuare alcune considerazioni interessanti. L'analisi univariata ha mostrato che nel confronto tra trattamenti non ci sono differenze significative nel numero medio di taxa rinvenuti, mentre il livello di diversità e di equidistribuzione degli individui nei taxa differisce in maniera significativa, indicando che la struttura delle comunità varia in funzione dei trattamenti e non in funzione del tempo. Nel trattamento Ulva si osservano le densità più elevate della meiofauna totale imputabile prevalentemente alla densità dei Nematodi. Tuttavia, i valori di diversità e di equiripartizione non sono risultati più elevati nei campioni di Ulva, bensì in quelli di Mitili. Tale differenza potrebbe essere imputabile all'inferiorità numerica dei Nematodi nei campioni di Mitili. Questo andamento è stato giustificato dai differenti tempi di degradazione di Mitili e Ulva posti nelle sacche durante l'esperimento, dai quali emerge una più rapida degradazione di Ulva; inoltre la dimensione ridotta della patch analizzata, i limitati tempi di permanenza fanno sì che l'Ulva non rappresenti un fattore di disturbo per la comunità analizzata. Basandosi su questo concetto risulta dunque difficile spiegare l'inferiorità numerica dei Nematodi nei campioni del trattamento Mitili, in quanto i tempi di degradazione durante l'esperimento sono risultati più lenti, ma è anche vero che è nota l'elevata resistenza dei Nematodi ai fenomeni di ipossia/anossia creata da fenomeni di arricchimento organico. E' possibile però ipotizzare che la presenza delle valve dei Mitili aumenti la complessità dell'habitat e favorisca la colonizzazione da parte di più specie, tra cui specie predatrici. Tale effetto di predazione potrebbe provocare la riduzione dell'abbondanza media dei Nematodi rispetto a Ulva e al Controllo, in quanto i Nematodi costituiscono circa l'85% della meiofauna totale rinvenuta nei campioni. A tale riduzione numerica, però, non corrisponde un decremento dei valori medi di biomassa rilevati, probabilmente a causa del fatto che l'arricchimento organico dovuto ai Mitili stessi favorisca la permanenza degli individui più facilmente adattabili a tali condizioni e di dimensioni maggiori, oppure, la colonizzazione in tempi successivi delle patches a Mitili da parte di individui più grandi. Anche i risultati dell'analisi multivariata sono in accordo con quanto rilevato dall'analisi univariata. Oltre alle differenze tra tempi si evidenzia anche un'evoluzione della comunità nel tempo, in particolar modo dopo 7 giorni dall'allestimento dell'esperimento, quando si registrano il maggior numero di individui meiobentonici e il maggior numero di taxa presenti. Il taxon che ha risentito maggiormente dell'influenza dei tempi è quello degli Anfipodi, con densità maggiori nei campioni prelevati al secondo tempo e sul trattamento Ulva. E'importante considerare questo aspetto in quanto gli Anfipodi sono animali che comprendono alcune specie detritivore e altre carnivore; le loro abitudini detritivore potrebbero quindi aumentare il consumo e la degradazione di Ulva, spiegando anche la loro abbondanza maggiore all'interno di questo trattamento, mentre le specie carnivore potrebbero concorrere al decremento del numero medio di Nematodi nei Mitili. Un risultato inatteso della sperimentazione riguarda l'assenza di differenze significative tra trattamenti e controlli, come invece era lecito aspettarsi. Risultati maggiormente significativi sono emersi dall'analisi del confronto tra sedimento privo di detrito e sedimento contenente Ulva provenienti dal contesto naturale. Relativamente all'area esterna alla barriera, sono stati confrontati sedimento privo di detrito e quello sottostante l'Ulva, nelle condizioni sperimentali e naturali. Globalmente notiamo che all'esterno della barriera gli indici univariati, le densità totali di meiofauna, di Nematodi e il numero di taxa, si comportano in maniera analoga nelle condizioni sperimentali e naturali, riportando valori medi maggiori nei campioni prelevati sotto l'Ulva, rispetto a quelli del sedimento privo di detrito. Differente appare invece l'andamento delle variabili e degli indici suddetti riguardanti i campioni prelevati nell'area racchiusa all'interno della barriera, dove invece i valori medi maggiori si rilevano nei campioni prelevati nel sedimento privo di detrito. Tali risultati possono essere spiegati dall'alterazione dell'idrodinamismo esercitato dalla barriera, il quale provoca maggiori tempi di residenza del detrito con conseguente arricchimento di materia organica nell'area interna alla barriera. Le comunità dei sedimenti di quest'area saranno quindi adattate a tale condizioni, ma la deposizione di Ulva in un contesto simile può aggravare la situazione comportando la riduzione delle abbondanze medie dei Nematodi e degli altri organismi meiobentonici sopracitata. Per quel che riguarda i size spectra la tecnica che illustra i risultati in maniera più evidente è quella dei Nematode Biomass Spectra. I risultati statistici fornitici dai campioni dell'esperimento, non evidenziano effetti significativi dei trattamenti, ma a livello visivo, l'osservazione dei grafici evidenzia valori medi di biomassa maggiori nei Nematodi rilevati sui Mitili rispetto a quelli rilevati su Ulva. Differenze significative si rilevano invece a livello dei tempi: a 21 giorni dall'allestimento dell'esperimento infatti, le biomasse dei Nematodi misurati sono più elevate. Relativamente invece ai size spectra costruiti per l'ambiente naturale, mostrano andamento e forma completamente diversi e con differenze significative tra l'interno e l'esterno della barriera; sembra infatti che la biomassa nella zona interna sia inibita, portando a densità maggiori di Nematodi, ma di dimensioni minori. All'esterno della barriera troviamo invece una situazione differente tra i due substrati. Nel sedimento prelevato sotto l'Ulva sembra infatti che siano prevalenti le classi dimensionali maggiori, probabilmente a causa del fatto che l'Ulva tende a soffocare le specie detritivore, permettendo la sopravvivenza delle specie più grosse, composte da predatori poco specializzati, i quali si cibano degli organismi presenti sull'Ulva stessa. Nel sedimento privo di detrito, invece, la distribuzione all'interno delle classi segue un andamento completamente diverso, mostrando una forma del size spectra più regolare. In base a questo si può ipotizzare che la risposta a questo andamento sia da relazionarsi alla capacità di movimento dei Nematodi: a causa della loro conformazione muscolare i Nematodi interstiziali di dimensioni minori sono facilitati nel movimento in un substrato con spazi interstiziali ridotti, come sono nel sedimento sabbioso, invece Nematodi di dimensioni maggiori sono più facilitati in sedimenti con spazi interstiziali maggiori, come l'Ulva. Globalmente si evidenzia una risposta della comunità bentonica all'incremento di detrito proveniente dalla struttura rigida artificiale, ma la risposta dipende dal tipo di detrito e dai tempi di residenza del detrito stesso, a loro volta influenzati dal livello di alterazione del regime idrodinamico che la struttura comporta. Si evince inoltre come dal punto di vista metodologico, le analisi univariate, multivariate e dei size spectra riescano a porre l'accento su diverse caratteristiche strutturali e funzionali della comunità. Rimane comunque il fatto che nonostante la comunità scientifica stia studiando metodiche "taxonomic free" emerge che, se da un lato queste possono risultare utili, dall'altro, per meglio comprendere l'evoluzione di comunità, è necessaria un'analisi più specifica che punti all'identificazione almeno delle principali famiglie. E'importante infine considerare che l'effetto riscontrato in questo studio potrebbe diventare particolarmente significativo nel momento in cui venisse esteso alle centinaia di km di strutture artificiali che caratterizzano ormai la maggior parte delle coste, la cui gestione dovrebbe tenere conto non soltanto delle esigenze economico-turistiche, e non dovrebbe prescindere dalla conoscenza del contesto ambientale in cui si inseriscono, in quanto, affiancati a conseguenze generali di tali costruzioni, si incontrano molti effetti sitospecifici.
Resumo:
La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.
Resumo:
La maggiore richiesta energetica di questi anni, associata alla diminuzione delle riserve di combustibile fossile e ai problemi di inquinamento ambientale hanno spinto il settore scientifico verso la ricerca di nuovi dispositivi che presentino elevata efficienza e quantità di emissioni ridotta. Tra questi, le celle a combustibile (fuel cells) alimentate con idrogeno o molecole organiche come etanolo, acido formico e metanolo, hanno particolare rilevanza anche se attualmente risultano particolarmente costose. Una delle principali sfide di questi ultimi anni è ridurne i costi e aumentarne l'efficienza di conversione in energia. Per questo scopo molti sforzi vengono condotti verso l'ottimizzazione dei catalizzatori a base di Pt spostando l’attenzione verso sistemi nanostrutturati ad elevata attività catalitica e buona stabilità. Durante questo lavoro di tesi si è affrontato lo studio relativo alla preparazione di elettrodi modificati con PtNPs ottenute per elettrodeposizione, un metodo semplice ed efficace per poterne controllare i parametri di deposizione e crescita e per ottenere direttamente le nanoparticelle sulla superficie dell’elettrodo. Come materiale elettroattivo si è utilizzato un foglio di grafite, denominato (Pure Graphite Sheet = PGS). Tale superficie elettrodica, meno costosa e più conduttiva rispetto all’ITO, si presenta sotto forma di fogli flessibili resistenti ad alte temperature e ad ambienti corrosivi e quindi risulta conveniente qualora si pensi ad un suo utilizzo su scala industriale. In particolare è stato studiato come la variazione di alcuni parametri sperimentali quali: i) il tempo di elettrodeposizione e ii) la presenza di stabilizzanti tipo: KI, acido dodecil benzene sulfonico (DBSA), poli vinil pirrolidone (PVP) o poliossietilene ottilfenil etere (Triton-X100) e iii) la concentrazione degli stessi stabilizzanti, potessero influire sulle dimensioni ed eventualmente sulla morfologia delle PtNPs. in fase di elettrodeposizione. L’elettrosintesi è stata effettuata per via cronoamperometria. I film di PtNPs sono stati caratterizzati utilizzando tecniche di superficie quali microscopia a scansione elettronica (SEM) e Voltammetria Ciclica (CV). Al fine di valutare le capacità elettrocatalitiche delle diverse PtNPs ottenute si è studiata la reazione di ossidazione del metanolo in ambiente acido.
Resumo:
L’H2 è attualmente un elemento di elevato interesse economico, con notevoli prospettive di sviluppo delle sue applicazioni. La sua produzione industriale supera attualmente i 55 ∙ 1010 m3/anno, avendo come maggiori utilizzatori (95% circa) i processi di produzione dell’ammoniaca e quelli di raffineria (in funzione delle sempre più stringenti normative ambientali). Inoltre, sono sempre più importanti le sue applicazioni come vettore energetico, in particolare nel settore dell’autotrazione, sia dirette (termochimiche) che indirette, come alimentazione delle fuel cells per la produzione di energia elettrica. L’importanza economica degli utilizzi dell’ H2 ha portato alla costruzione di una rete per la sua distribuzione di oltre 1050 km, che collega i siti di produzione ai principali utilizzatori (in Francia, Belgio, Olanda e Germania). Attualmente l’ H2 è prodotto in impianti di larga scala (circa 1000 m3/h) da combustibili fossili, in particolare metano, attraverso i processi di steam reforming ed ossidazione parziale catalitica, mentre su scala inferiore (circa 150 m3/h) trovano applicazione anche i processi di elettrolisi dell’acqua. Oltre a quella relativa allo sviluppo di processi per la produzione di H2 da fonti rinnovabili, una tematica grande interesse è quella relativa al suo stoccaggio, con una particolare attenzione ai sistemi destinati alle applicazioni nel settore automotivo o dei trasposti in generale. In questo lavoro di tesi, svolto nell’ambito del progetto europeo “Green Air” (7FP – Transport) in collaborazione (in particolare) con EADS (D), CNRS (F), Jonhson-Matthey (UK), EFCECO (D), CESA (E) e HyGEAR (NL), è stato affrontato uno studio preliminare della reazione di deidrogenazione di miscele di idrocarburi e di differenti kerosene per utilizzo aereonautico, finalizzato allo sviluppo di nuovi catalizzatori e dei relativi processi per la produzione di H2 “on board” utilizzando il kerosene avio per ottenere, utilizzando fuel cells, l’energia elettrica necessaria a far funzionare tutta la strumentazione ed i sistemi di comando di aeroplani della serie Airbus, con evidenti vantaggi dal punto di vista ponderale e delle emissioni.
Resumo:
Quando si parla di green information technology si fa riferimento a un nuovo filone di ricerche focalizzate sulle tecnologie ecologiche o verdi rivolte al rispetto ambientale. In prima battuta ci si potrebbe chiedere quali siano le reali motivazioni che possono portare allo studio di tecnologie green nel settore dell’information technology: sono così inquinanti i computer? Non sono le automobili, le industrie, gli aerei, le discariche ad avere un impatto inquinante maggiore sull’ambiente? Certamente sì, ma non bisogna sottovalutare l’impronta inquinante settore IT; secondo una recente indagine condotta dal centro di ricerche statunitense Gartner nel 2007, i sistemi IT sono tra le maggiori fonti di emissione di CO2 e di altri gas a effetto serra , con una percentuale del 2% sulle emissioni totali del pianeta, eguagliando il tasso di inquinamento del settore aeromobile. Il numero enorme di computer disseminato in tutto il mondo assorbe ingenti quantità di energia elettrica e le centrali che li alimentano emettono tonnellate di anidride carbonica inquinando l’atmosfera. Con questa tesi si vuole sottolineare l’impatto ambientale del settore verificando, attraverso l’analisi del bilancio sociale ed ambientale, quali misure siano state adottate dai leader del settore informatico. La ricerca è volta a dimostrare che le più grandi multinazionali informatiche siano consapevoli dell’inquinamento prodotto, tuttavia non adottano abbastanza soluzioni per limitare le emissioni, fissando futili obiettivi futuri.