1000 resultados para Congregazione delle Scuole di Caritáa.
Resumo:
Le acque di vegetazione (AV) costituiscono un serio problema di carattere ambientale, sia a causa della loro elevata produzione sia per l’ elevato contenuto di COD che oscilla fra 50 e 150 g/l. Le AV sono considerate un refluo a tasso inquinante fra i più elevati nell’ambito dell’industria agroalimentare e la loro tossicità è determinata in massima parte dalla componente fenolica. Il presente lavoro si propone di studiare e ottimizzare un processo non solo di smaltimento di tale refluo ma anche di una sua valorizzazione, utlizzandolo come materia prima per la produzione di acidi grassi e quindi di PHA, polimeri biodegradabili utilizzabili in varie applicazioni. A tale scopo sono stati utilizzati due bioreattori anaerobici a biomassa adesa, di identica configurazione, con cui si sono condotti due esperimenti in continuo a diverse temperature e carichi organici al fine di studiare l’influenza di tali parametri sul processo. Il primo esperimento è stato condotto a 35°C e carico organico pari a 12,39 g/Ld, il secondo a 25°C e carico organico pari a 8,40 g/Ld. Si è scelto di allestire e mettere in opera un processo a cellule immobilizzate in quanto questa tecnologia si è rivelata vantaggiosa nel trattamento continuo di reflui ad alto contenuto di COD e carichi variabili. Inoltre si è scelto di lavorare in continuo poiché tale condizione, per debiti tempi di ritenzione idraulica, consente di minimizzare la metanogenesi, mediata da microrganismi con basse velocità specifiche di crescita. Per costituire il letto fisso dei due reattori si sono utilizzati due diversi tipi di supporto, in modo da poter studiare anche l’influenza di tale parametro, in particolare si è fatto uso di carbone attivo granulare (GAC) e filtri ceramici Vukopor S10 (VS). Confrontando i risultati si è visto che la massima quantità di VFA prodotta nell’ambito del presente studio si ha nel VS mantenuto a 25°C: in tale condizione si arriva infatti ad un valore di VFA prodotti pari a 524,668 mgCOD/L. Inoltre l’effluente in uscita risulta più concentrato in termini di VFA rispetto a quello in entrata: nell’alimentazione la percentuale di materiale organico presente sottoforma di acidi grassi volatili era del 54 % e tale percentuale, in uscita dai reattori, ha raggiunto il 59 %. Il VS25 rappresenta anche la condizione in cui il COD degradato si è trasformato in percentuale minore a metano (2,35 %) e questo a prova del fatto che l’acidogenesi ha prevalso sulla metanogenesi. Anche nella condizione più favorevole alla produzione di VFA però, si è riusciti ad ottenere una loro concentrazione in uscita (3,43 g/L) inferiore rispetto a quella di tentativo (8,5 g/L di VFA) per il processo di produzione di PHA, sviluppato da un gruppo di ricerca dell’università “La Sapienza” di Roma, relativa ad un medium sintetico. Si può constatare che la modesta produzione di VFA non è dovuta all’eccessiva degradazione del COD, essendo questa nel VS25 appena pari al 6,23%, ma piuttosto è dovuta a una scarsa concentrazione di VFA in uscita. Questo è di buon auspicio nell’ottica di ottimizzare il processo migliorandone le prestazioni, poiché è possibile aumentare tale concentrazione aumentando la conversione di COD in VFA che nel VS25 è pari a solo 5,87%. Per aumentare tale valore si può agire su vari parametri, quali la temperatura e il carico organico. Si è visto che il processo di acidogenesi è favorito, per il VS, per basse temperature e alti carichi organici. Per quanto riguarda il reattore impaccato con carbone attivo la produzione di VFA è molto ridotta per tutti i valori di temperatura e carichi organici utilizzati. Si può quindi pensare a un’applicazione diversa di tale tipo di reattore, ad esempio per la produzione di metano e quindi di energia.
Resumo:
Il presente studio ha avuto l’obiettivo di indagare la produzione di bioetanolo di seconda generazione a partire dagli scarti lignocellulosici della canna da zucchero (bagassa), facendo riscorso al processo enzimatico. L’attività di ricerca è stata svolta presso il Dipartimento di Ingegneria Chimica dell’Università di Lund (Svezia) all’interno di rapporti scambio con l’Università di Bologna. Il principale scopo è consistito nel valutare la produzione di etanolo in funzione delle condizioni operative con cui è stata condotta la saccarificazione e fermentazione enzimatica (SSF) della bagassa, materia prima che è stata sottoposta al pretrattamento di Steam Explosion (STEX) con aggiunta di SO2 come catalizzatore acido. Successivamente, i dati ottenuti in laboratorio dalla SSF sono stati utilizzati per implementare, in ambiente AspenPlus®, il flowsheet di un impianto che simula tutti gli aspetti della produzione di etanolo, al fine di studiarne il rendimento energetico dell’intero processo. La produzione di combustibili alternativi alle fonti fossili oggigiorno riveste primaria importanza sia nella limitazione dell’effetto serra sia nel minimizzare gli effetti di shock geopolitici sulle forniture strategiche di un Paese. Il settore dei trasporti in continua crescita, consuma nei paesi industrializzati circa un terzo del fabbisogno di fonti fossili. In questo contesto la produzione di bioetanolo può portare benefici per sia per l’ambiente che per l’economia qualora valutazioni del ciclo di vita del combustibile ne certifichino l’efficacia energetica e il potenziale di mitigazione dell’effetto serra. Numerosi studi mettono in risalto i pregi ambientali del bioetanolo, tuttavia è opportuno fare distinzioni sul processo di produzione e sul materiale di partenza utilizzato per comprendere appieno le reali potenzialità del sistema well-to-wheel del biocombustibile. Il bioetanolo di prima generazione ottenuto dalla trasformazione dell’amido (mais) e delle melasse (barbabietola e canna da zucchero) ha mostrato diversi svantaggi: primo, per via della competizione tra l’industria alimentare e dei biocarburanti, in secondo luogo poiché le sole piantagioni non hanno la potenzialità di soddisfare domande crescenti di bioetanolo. In aggiunta sono state mostrate forti perplessità in merito alla efficienza energetica e del ciclo di vita del bioetanolo da mais, da cui si ottiene quasi la metà della produzione di mondiale di etanolo (27 G litri/anno). L’utilizzo di materiali lignocellulosici come scarti agricolturali e dell’industria forestale, rifiuti urbani, softwood e hardwood, al contrario delle precedenti colture, non presentano gli svantaggi sopra menzionati e per tale motivo il bioetanolo prodotto dalla lignocellulosa viene denominato di seconda generazione. Tuttavia i metodi per produrlo risultano più complessi rispetto ai precedenti per via della difficoltà di rendere biodisponibili gli zuccheri contenuti nella lignocellulosa; per tale motivo è richiesto sia un pretrattamento che l’idrolisi enzimatica. La bagassa è un substrato ottimale per la produzione di bioetanolo di seconda generazione in quanto è disponibile in grandi quantità e ha già mostrato buone rese in etanolo se sottoposta a SSF. La bagassa tal quale è stata inizialmente essiccata all’aria e il contenuto d’acqua corretto al 60%; successivamente è stata posta a contatto per 30 minuti col catalizzatore acido SO2 (2%), al termine dei quali è stata pretrattata nel reattore STEX (10L, 200°C e 5 minuti) in 6 lotti da 1.638kg su peso umido. Lo slurry ottenuto è stato sottoposto a SSF batch (35°C e pH 5) utilizzando enzimi cellulolitici per l’idrolisi e lievito di birra ordinario (Saccharomyces cerevisiae) come consorzio microbico per la fermentazione. Un obiettivo della indagine è stato studiare il rendimento della SSF variando il medium di nutrienti, la concentrazione dei solidi (WIS 5%, 7.5%, 10%) e il carico di zuccheri. Dai risultati è emersa sia una buona attività enzimatica di depolimerizzazione della cellulosa che un elevato rendimento di fermentazione, anche per via della bassa concentrazione di inibitori prodotti nello stadio di pretrattamento come acido acetico, furfuraldeide e HMF. Tuttavia la concentrazione di etanolo raggiunta non è stata valutata sufficientemente alta per condurre a scala pilota un eventuale distillazione con bassi costi energetici. Pertanto, sono stati condotti ulteriori esperimenti SSF batch con addizione di melassa da barbabietola (Beta vulgaris), studiandone preventivamente i rendimenti attraverso fermentazioni alle stesse condizioni della SSF. I risultati ottenuti hanno suggerito che con ulteriori accorgimenti si potranno raggiungere gli obiettivi preposti. E’ stato inoltre indagato il rendimento energetico del processo di produzione di bioetanolo mediante SSF di bagassa con aggiunta di melassa in funzione delle variabili più significative. Per la modellazione si è fatto ricorso al software AspenPlus®, conducendo l’analisi di sensitività del mix energetico in uscita dall’impianto al variare del rendimento di SSF e dell’addizione di saccarosio. Dalle simulazioni è emerso che, al netto del fabbisogno entalpico di autosostentamento, l’efficienza energetica del processo varia tra 0.20 e 0.53 a seconda delle condizioni; inoltre, è stata costruita la curva dei costi energetici di distillazione per litro di etanolo prodotto in funzione delle concentrazioni di etanolo in uscita dalla fermentazione. Infine sono già stati individuati fattori su cui è possibile agire per ottenere ulteriori miglioramenti sia in laboratorio che nella modellazione di processo e, di conseguenza, produrre con alta efficienza energetica bioetanolo ad elevato potenziale di mitigazione dell’effetto serra.
Resumo:
Confronto tra due software specifici per l'analisi di rischio nel trasporto stradale di merci pericolose (TRAT GIS 4.1 e QRAM 3.6) mediante applicazione a un caso di studio semplice e al caso reale di Casalecchio di Reno, comune della provincia di Bologna.
Resumo:
Con questo studio si è volto effettuare un confronto tra la generazione di energia termica a partire da cippato e da pellet, con particolare riferimento agli aspetti di carattere ambientale ed economico conseguenti la produzione delle due differenti tipologie di combustibile. In particolare, si sono ipotizzate due filire, una di produzione del cippato, una del pellet, e per ciascuna di esse si è condotta un'Analisi del Ciclo di Vita, allo scopo di mettere in luce, da un lato le fasi del processo maggiormente critiche, dall'altro gli impatti sulla salute umana, sugli ecosistemi, sul consumo di energia e risorse. Quest'analisi si è tradotta in un confronto degli impatti generati dalle due filiere al fine di valutare a quale delle due corrisponda il minore. E' stato infine effettuato un breve accenno di valutazione economica per stimare quale tipologia di impianto, a cippato o a pellet, a parità di energia prodotta, risulti più conveniente.
Resumo:
La tesi verte sulle procedure di verifica delle prestazioni di potenza degli aerogeneratori. Si è realizzato un test di verifica su una centrale eolica in esercizio, sito nella provincia di Salerno, utilizzando diverse metodologie di verifica, delineate dai più importanti centri di ricerca internazionali, al fine di valutare l'affidabilità di ognuna di esse.
Resumo:
La tesi tratta di strumenti finalizzati alla valutazione dello stato conservativo e di supporto all'attività di manutenzione dei ponti, dai più generali Bridge Management Systems ai Sistemi di Valutazione Numerica della Condizione strutturale. Viene proposto uno strumento originale con cui classificare i ponti attraverso un Indice di Valutazione Complessiva e grazie ad esso stabilire le priorità d'intervento. Si tara lo strumento sul caso pratico di alcuni ponti della Provincia di Bologna. Su un ponte in particolare viene realizzato un approfondimento specifico sulla determinazione approssimata dei periodi propri delle strutture da ponte. Si effettua un confronto dei risultati di alcune modellazioni semplificate in riferimento a modellazioni dettagliate e risultati sperimentali.
Resumo:
L’utilizzo di materiali compositi come i calcestruzzi fibrorinforzati sta diventando sempre più frequente e diffuso. Tuttavia la scelta di nuovi materiali richiede una approfondita analisi delle loro caratteristiche e dei loro comportamenti. I vantaggi forniti dall’aggiunta di fibre d’acciaio ad un materiale fragile, quale il calcestruzzo, sono legati al miglioramento della duttilità e all'aumento di assorbimento di energia. L’aggiunta di fibre permette quindi di migliorare il comportamento strutturale del composito, dando vita ad un nuovo materiale capace di lavorare non solo a compressione ma anche in piccola parte a trazione, ma soprattutto caratterizzato da una discreta duttilità ed una buona capacità plastica. Questa tesi ha avuto come fine l’analisi delle caratteristiche di questi compositi cementizi fibrorinforzati. Partendo da prove sperimentali classiche quali prove di trazione e compressione, si è arrivati alla caratterizzazione di questi materiali avvalendosi di una campagna sperimentale basata sull’applicazione della norma UNI 11039/2003. L’obiettivo principale di questo lavoro consiste nell’analizzare e nel confrontare calcestruzzi rinforzati con fibre di due diverse lunghezze e in diversi dosaggi. Studiando questi calcestruzzi si è cercato di comprendere meglio questi materiali e trovare un riscontro pratico ai comportamenti descritti in teorie ormai diffuse e consolidate. La comparazione dei risultati dei test condotti ha permesso di mettere in luce differenze tra i materiali rinforzati con l’aggiunta di fibre corte rispetto a quelli con fibre lunghe, ma ha anche permesso di mostrare e sottolineare le analogie che caratterizzano questi materiali fibrorinforzati. Sono stati affrontati inoltre gli aspetti legati alle fasi della costituzione di questi materiali sia da un punto di vista teorico sia da un punto di vista pratico. Infine è stato sviluppato un modello analitico basato sulla definizione di specifici diagrammi tensione-deformazione; i risultati di questo modello sono quindi stati confrontati con i dati sperimentali ottenuti in laboratorio.
Resumo:
La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.
Resumo:
Oltre un miliardo di persone non ha oggi accesso all’acqua potabile; più di due miliardi è il numero di coloro che vivono in condizioni igienico-sanitarie realmente proibitive. Sono 80 i paesi nel mondo (con il 40% della popolazione totale) in cui si riscontra difficoltà di approvvigionamento e presenza di risorse idriche che mancano dei requisiti che dovrebbero essere assicurati per la tutela della salute: quotidianamente e sistematicamente il diritto di accesso all’acqua, che nessun individuo dovrebbe vedersi negato, viene violato. Scarsità di acqua e non omogenea distribuzione sulla superficie terrestre sono fattori che concorrono alla crisi della risorsa, cui contribuiscono processsi di natura ambientale (cambiamenti climatici, desertificazione), di natura economica (le sorti dell’industria agroalimentare, la globalizzazione degli scambi, il bisogno crescente di energia), di natura sociale (migrazioni, urbanizzazione, crescita demografica, epidemie), di natura culturale (passaggio dal rurale all’urbano, dall’agricoltura di sussistenza a quella di profitto). Nell’ottica di uno sviluppo sostenibile un aumento indiscriminato dell’offerta non può costituire soluzione al continuo incremento della domanda di acqua. Si rende pertanto necessaria la definizione di politiche e strumenti di cambiamento nei modelli di consumo e nella pianificazione che consentano una riduzione degli squilibri nella distribuzione e nella gestione della risorsa a livello domestico e civile, industriale, agricolo. L’uso efficiente, e quindi sostenibile, dell’acqua è da perseguirsi secondo le modalità: • Risparmio, inteso come minore consumo di acqua all’inizio del ciclo. • Riciclo dell’acqua in circuito chiuso, inteso come riuso dell’acqua di scarico, o uso multiplo dell’acqua. Una idonea utilizzazione dipende da una idonea progettazione, che abbia come finalità: • La destinazione in via prioritaria delle fonti e delle risorse di più elevata qualità agli usi idropotabili, con una graduale sostituzione del consumo per altri usi con risorse di minore pregio. • La regolamentazione dell’uso delle acque sotterranee, mediante la limitazione del ricorso all’impiego di pozzi solo in mancanza di forniture alternative per uso civile, industriale, agricolo. • L’incentivazione ad un uso razionale della risorsa, anche mediante l’attuazione di idonee politiche tariffarie. • L’aumento dell’efficienza delle reti di adduzione e distribuzione, sia civili che irrigue. • La promozione di uso efficiente, riciclo e recupero di acqua nell’industria. • Il miglioramento dell’efficienza ed efficacia delle tecniche di irrigazione. • La promozione del riutilizzo delle acque nei vari settori. • La diffusione nella pratica domestica di apparati e tecnologie progettati per la riduzione degli sprechi e dei consumi di acqua. In ambito agricolo la necessità di un uso parsimonioso della risorsa impone il miglioramento dell’efficienza irrigua, pari appena al 40%. La regione Emilia Romagna a livello locale, Israele a livello internazionale, forniscono ottimi esempi in termini di efficacia dei sistemi di trasporto e di distribuzione, di buona manutenzione delle strutture. Possibili soluzioni verso le quali orientare la ricerca a livello mondiale per arginare la progressiva riduzione delle riserve idriche sono: • Revisione dei costi idrici. • Recupero delle riserve idriche. • Raccolta dell’acqua piovana. • Miglioramento degli impianti di distribuzione idrica. • Scelta di metodi di coltivazione idonei alle caratteristiche locali. • Scelta di colture a basso fabbisogno idrico. • Conservazione della risorsa attraverso un sistema di irrigazione efficiente. • Opere di desalinizzazione. • Trasferimento idrico su vasta scala da un’area all’altra. Si tratta di tecniche la cui attuazione può incrementare la disponibilità media pro capite di acqua, in particolare di coloro i quali non ne posseggono in quantità sufficiente per bere o sono privi di sistemi igienico-sanitari sufficienti.
Resumo:
In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.
Resumo:
Nel presente lavoro di tesi ci si è occupati dello studio del comportamento idraulico-ambientale della rete di drenaggio a servizio della città di Modena. In particolare si è condotta una valutazione dell’effetto che gli scaricatori della rete fognaria in oggetto hanno sul complesso dei corpi idrici riceventi. Tale lavoro si prefigge anche lo scopo di individuare e dimensionare i più efficaci sistemi di controllo degli sversamenti, operati dagli scaricatori stessi, ed infine supportare analisi costi-benefici in vista della realizzazione delle opere di risanamento ambientale necessarie per ottemperare ai vincoli imposti dalla vigente normativa regionale in merito alla gestione delle acque di prima pioggia (Deliberazione G.R. Emilia Romagna 286/2005). Lo studio si è articolato in fasi successive: • analisi dello stato di fatto; • catalogazione degli scaricatori in esercizio nella rete di drenaggio; • determinazione ed analisi dei bacini idrografici e delle superfici scolanti; • implementazione di un modello numerico della rete di drenaggio; • individuazione e valutazione delle criticità idraulico-ambientali del sistema, mediante simulazioni in continuo delle serie pluviometriche degli anni 2005 e 2006. L’attività che ha portato al conseguimento dei risultati che sono raccolti in questa “nota” è stata svolta in collaborazione con la società HERA Modena s.r.l. a cui compete, fra le altre, la gestione dell’intera rete di drenaggio urbano del Comune di Modena. La fase di analisi dello stato di fatto e delle superfici scolanti afferenti ai singoli sottobacini è stata condotta utilizzando lo strumento GIS Arcview; il quale è di supporto, anche ai fini di un’appropriata definizione delle caratteristiche specifiche del territorio. Lo studio è stato sviluppato mediante la realizzazione di un modello numerico di simulazione quali-quantitativa con l’ausilio del software InfoWorks CS 8.05, distribuito dalla Wallingford Software Ltd UK.
Resumo:
Prima di parlare di lotto zero, credo sia opportuno inquadrare in modo più preciso il significato che riveste la Secante per Cesena. La Secante è senza dubbio l’opera più rilevante e strategica in assoluto degli ultimi decenni ed è destinata a incidere in modo profondo (almeno così ci auguriamo) sulla vita della città, contribuendo a migliorarla sensibilmente. A questa arteria è affidato il compito di raccogliere tutto il traffico di attraversamento di Cesena, e specialmente quello rappresentato dai mezzi pesanti, che gravita principalmente sulla via Emilia, creando da tempo una situazione difficile, ma che negli ultimi anni è divenuta pressoché insostenibile: sono molte migliaia i veicoli che ogni giorno percorrono questa strada che già dalla fine degli anni Sessanta ha cessato di essere periferica e che ai giorni nostri fa ormai parte del centro urbano. La Secante, una volta completata, porrà un rimedio definitivo a questa situazione: secondo le previsioni, sarà in grado di smaltire in modo efficiente circa 40mila veicoli al giorno e, quindi, di rispondere alle necessità di circolazione della città per almeno i prossimi 20-30 anni. Proprio per l’importanza che il nuovo asse di collegamento riveste, diventa fondamentale garantirne la massima fruibilità, dedicando estrema attenzione non solo alla funzionalità della struttura in sé ( per altro progettata con criteri d’avanguardia, soprattutto per la parte in galleria, che si configura come il primo eco-tunnel italiano ), ma anche al complesso delle opere di collegamento con la viabilità preesistente: svincoli, nodi stradali, nuove connessioni. È in questo quadro che si inserisce il cosiddetto “lotto zero”, cioè quel tratto stradale che prolungherà il primo lotto della Secante verso Forlì e avrà una lunghezza pari a circa 1 chilometro. Entrando nel dettaglio, questo lotto dovrà portare il traffico in uscita dalla Secante dalla via comunale San Cristoforo alla via Provinciale San Giuseppe, sicuramente più idonea a sopportare l’importante mole di traffico veicolare e meglio collegata alla viabilità principale. Il lotto zero si congiungerà con la via Emilia attraverso la già esistente rotatoria davanti al cimitero di Diegaro. Naturalmente, il nuovo tratto sarà dotato di barriere acustiche: si è pensato a strutture in lamiera di acciaio, con funzioni fonoassorbenti e fonoisolanti, per una lunghezza totale di circa 310 metri. Il costo complessivo dell’opera si aggira intorno ai 25 milioni di euro. Il Comune di Cesena considera questo intervento irrinunciabile, e per questo si stanno valutando le soluzioni più opportune per una sua realizzazione in tempi ragionevolmente brevi. Non a caso, per accelerare le procedure già nel 2004 l’Amministrazione Comunale di Cesena e l’Amministrazione Provinciale di Forlì – Cesena hanno deciso di finanziare direttamente il progetto, e sono stati avviati contatti con i ministeri delle Infrastrutture e dell’Ambiente per sollecitarne l’approvazione e la conseguente disponibilità di fondi. D’altro canto, non si può dimenticare che il lotto zero s’inserisce nella necessità più complessiva di un nuovo assetto della viabilità del territorio, che troverà una risposta definitiva con il progetto della cosiddetta via Emilia bis. Si tratta di un intervento prioritario non solo per Cesena, ma per tutta la Romagna, e che acquisisce un significato ancor più rilevante alla luce del recente progetto relativo alla Civitavecchia-Orte-Cesena-Ravenna-Mestre. In quest’ottica, il lotto zero assume una funzione indispensabile per armonizzare la grande circolazione che gravita sul nodo cesenate, destinato a diventare ancora più rilevante nel momento in cui si svilupperà la dorsale autostradale appenninica, la futura E45/E55.
Resumo:
Gli istoni sono proteine basiche che possono essere classificate in varie classi: H1, H2A, H2B, H3 e H4. Queste proteine formano l’ottamero proteico attorno al quale si avvolge il DNA per formare il nucleosoma che è l’unità fondamentale della cromatina. A livello delle code N-terminali, gli istoni possono essere soggetti a numerose modifiche posttraduzionali quali acetilazioni, metilazioni, fosforilazioni, ADP-ribosilazioni e ubiquitinazioni. Queste modifiche portano alla formazione di diversi siti di riconoscimento per diversi complessi enzimatici coinvolti in importanti processi come la riparazione e la replicazione del DNA e l’assemblaggio della cromatina. La più importante e la più studiata di queste modifiche è l’acetilazione che avviene a livello dei residui amminici della catena laterale dell’amminoacido lisina. I livelli corretti di acetilazione delle proteine istoniche sono mantenuti dall’attività combinata di due enzimi: istone acetil transferasi (HAT) e istone deacetilasi (HDAC). Gli enzimi appartenenti a questa famiglia possono essere suddivisi in varie classi a seconda delle loro diverse caratteristiche, quali la localizzazione cellulare, la dimensione, l’omologia strutturale e il meccanismo d’azione. Recentemente è stato osservato che livelli aberranti di HDAC sono coinvolti nella carcinogenesi; per questo motivo numerosi gruppi di ricerca sono interessati alla progettazione e alla sintesi di composti che siano in grado di inibire questa classe enzimatica. L’inibizione delle HDAC può infatti provocare arresto della crescita cellulare, apoptosi o morte cellulare. Per questo motivo la ricerca farmaceutica in campo antitumorale è mirata alla sintesi di inibitori selettivi verso le diverse classi di HDAC per sviluppare farmaci meno tossici e per cercare di comprendere con maggiore chiarezza il ruolo biologico di questi enzimi. Il potenziale antitumorale degli inibitori delle HDAC deriva infatti dalla loro capacità di interferire con diversi processi cellulari, generalmente non più controllati nelle cellule neoplastiche. Nella maggior parte dei casi l’attività antitumorale risiede nella capacità di attivare programmi di differenziamento, di inibire la progressione del ciclo cellulare e di indurre apoptosi. Inoltre sembra essere molto importante anche la capacità di attivare la risposta immunitaria e l’inibizione dell’angiogenesi. Gli inibitori delle HDAC possono essere a loro volta classificati in base alla struttura chimica, alla loro origine (naturale o sintetica), e alla loro capacità di inibire selettivamente le HDAC appartenenti a classi diverse. Non è ancora chiaro se la selettività di queste molecole verso una specifica classe di HDAC sia importante per ottenere un effetto antitumorale, ma sicuramente inibitori selettivi possono essere molto utili per investigare e chiarire il ruolo delle HDAC nei processi cellulari che portano all’insorgenza del tumore. Nel primo capitolo di questa tesi quindi è riportata un’introduzione sull’importanza delle proteine istoniche non solo da un punto di vista strutturale ma anche funzionale per il destino cellulare. Nel secondo capitolo è riportato lo stato dell’arte dell’analisi delle proteine istoniche che comprende sia i metodi tradizionali come il microsequenziamento e l’utilizzo di anticorpi, sia metodi più innovativi (RP-LC, HILIC, HPCE) ideati per poter essere accoppiati ad analisi mediante spettrometria di massa. Questa tecnica consente infatti di ottenere importanti e precise informazioni che possono aiutare sia a identificare gli istoni come proteine che a individuare i siti coinvolti nelle modifiche post-traduzionali. Nel capitolo 3 è riportata la prima parte del lavoro sperimentale di questa tesi volto alla caratterizzazione delle proteine istoniche mediante tecniche cromatografiche accoppiate alla spettrometria di massa. Nella prima fase del lavoro è stato messo a punto un nuovo metodo cromatografico HPLC che ha consentito di ottenere una buona separazione, alla linea di base, delle otto classi istoniche (H1-1, H1-2, H2A-1, H2A-2, H2B, H3-1, H3-2 e H4). La separazione HPLC delle proteine istoniche ha permesso di poter eseguire analisi accurate di spettrometria di massa mediante accoppiamento con un analizzatore a trappola ionica tramite la sorgente electrospray (ESI). E’ stato così possibile identificare e quantificare tutte le isoforme istoniche, che differiscono per il tipo e il numero di modifiche post-traduzionali alle quali sono soggette, previa estrazione da colture cellulari di HT29 (cancro del colon). Un’analisi così dettagliata delle isoforme non può essere ottenuta con i metodi immunologici e permette di eseguire un’indagine molto accurata delle modifiche delle proteine istoniche correlandole ai diversi stadi della progressione del ciclo e alla morte cellulare. Il metodo messo a punto è stato convalidato mediante analisi comparative che prevedono la stessa separazione cromatografica ma accoppiata a uno spettrometro di massa avente sorgente ESI e analizzatore Q-TOF, dotato di maggiore sensibilità e risoluzione. Successivamente, per identificare quali sono gli specifici amminoacidi coinvolti nelle diverse modifiche post-traduzionali, l’istone H4 è stato sottoposto a digestione enzimatica e successiva analisi mediante tecniche MALDI-TOF e LC-ESI-MSMS. Queste analisi hanno permesso di identificare le specifiche lisine acetilate della coda N-terminale e la sequenza temporale di acetilazione delle lisine stesse. Nel quarto capitolo sono invece riportati gli studi di inibizione, mirati a caratterizzare le modifiche a carico delle proteine istoniche indotte da inibitori delle HDAC, dotati di diverso profilo di potenza e selettività. Dapprima Il metodo messo a punto per l’analisi delle proteine istoniche è stato applicato all’analisi di istoni estratti da cellule HT29 trattate con due noti inibitori delle HDAC, valproato e butirrato, somministrati alle cellule a dosi diverse, che corrispondono alle dosi con cui sono stati testati in vivo, per convalidare il metodo per studi di inibizione di composti incogniti. Successivamente, lo studio è proseguito con lo scopo di evidenziare effetti legati alla diversa potenza e selettività degli inibitori. Le cellule sono state trattate con due inibitori più potenti, SAHA e MS275, alla stessa concentrazione. In entrambi i casi il metodo messo a punto ha permesso di evidenziare l’aumento dei livelli di acetilazione indotto dal trattamento con gli inibitori; ha inoltre messo in luce differenti livelli di acetilazione. Ad esempio il SAHA, potente inibitore di tutte le classi di HDAC, ha prodotto un’estesa iperacetilazione di tutte le proteine istoniche, mentre MS275 selettivo per la classe I di HDAC, ha prodotto modifiche molto più blande. E’ stato quindi deciso di applicare questo metodo per studiare la dose e la tempo-dipendenza dell’effetto di quattro diversi inibitori delle HDAC (SAHA, MS275, MC1855 e MC1568) sulle modifiche post-traduzionali di istoni estratti da cellule HT29. Questi inibitori differiscono oltre che per la struttura chimica anche per il profilo di selettività nei confronti delle HDAC appartenenti alle diverse classi. Sono stati condotti quindi studi di dose-dipendenza che hanno consentito di ottenere i valori di IC50 (concentrazione capace di ridurre della metà la quantità relativa dell’istone meno acetilato) caratteristici per ogni inibitore nei confronti di tutte le classi istoniche. E’ stata inoltre calcolata la percentuale massima di inibizione per ogni inibitore. Infine sono stati eseguiti studi di tempo-dipendenza. I risultati ottenuti da questi studi hanno permesso di correlare i livelli di acetilazione delle varie classi istoniche con la selettività d’azione e la struttura chimica degli inibitori somministrati alle cellule. In particolare, SAHA e MC1855, inibitori delle HDAC di classi I e II a struttura idrossamica, hanno causato l’iperacetilazione di tutte le proteine istoniche, mentre MC1568 (inibitore selettivo per HDAC di classe II) ha prodotto l’iperacetilazione solo di H4. Inoltre la potenza e la selettività degli inibitori nel provocare un aumento dei livelli di acetilazione a livello delle distinte classi istoniche è stata correlata al destino biologico della cellula, tramite studi di vitalità cellulare. E’ stato osservato che il SAHA e MC1855, inibitori potenti e non selettivi, somministrati alla coltura HT29 a dose 50 μM producono morte cellulare, mentre MS275 alla stessa dose produce accumulo citostatico in G1/G0. MC1568, invece, non produce effetti significatici sul ciclo cellulare. Questo studio ha perciò dimostrato che l’analisi tramite HPLC-ESI-MS delle proteine istoniche permette di caratterizzare finemente la potenza e la selettività di nuovi composti inibitori delle HDAC, prevedendone l’effetto sul ciclo cellulare. In maggiore dettaglio è risultato che l’iperacetilazione di H4 non è in grado di provocare modifiche significative sul ciclo cellulare. Questo metodo, insieme alle analisi MALDI-TOF e LC-ESI-MSMS che permettono di individuare l’ordine di acetilazione delle lisine della coda N-terminale, potrà fornire importanti informazioni sugli inibitori delle HDAC e potrà essere applicato per delineare la potenza, la selettività e il meccanismo di azione di nuovi potenziali inibitori di questa classe enzimatica in colture cellulari tumorali.
Resumo:
Il traffico veicolare è la principale fonte antropogenica di NOx, idrocarburi (HC) e CO e, dato che la sostituzione dei motori a combustione interna con sistemi alternativi appare ancora lontana nel tempo, lo sviluppo di sistemi in grado di limitare al massimo le emissioni di questi mezzi di trasporto riveste un’importanza fondamentale. Sfortunatamente non esiste un rapporto ottimale aria/combustibile che permetta di avere basse emissioni, mentre la massima potenza ottenibile dal motore corrisponde alle condizioni di elevata formazione di CO e HC. Gli attuali sistemi di abbattimento permettono il controllo delle emissioni da sorgenti mobili tramite una centralina che collega il sistema di iniezione del motore e la concentrazione di ossigeno del sistema catalitico (posto nella marmitta) in modo da controllare il rapporto aria/combustibile (Fig. 1). Le marmitte catalitiche per motori a benzina utilizzano catalizzatori “three way” a base di Pt/Rh supportati su ossidi (allumina, zirconia e ceria), che, dovendo operare con un rapporto quasi stechiometrico combustibile/comburente, comportano una minore efficienza del motore e consumi maggiori del 20-30% rispetto alla combustione in eccesso di ossigeno. Inoltre, questa tecnologia non può essere utilizzata nei motori diesel, che lavorano in eccesso di ossigeno ed utilizzano carburanti con un tenore di zolfo relativamente elevato. In questi ultimi anni è cresciuto l’interesse per il controllo delle emissioni di NOx da fonti veicolari, con particolare attenzione alla riduzione catalitica in presenza di un eccesso di ossigeno, cioè in condizioni di combustione magra. Uno sviluppo recente è rappresentato dai catalizzatori tipo “Toyota” che sono basati sul concetto di accumulo e riduzione (storage/reduction), nei quali l’NO viene ossidato ed accumulato sul catalizzatore come nitrato in condizioni di eccesso di ossigeno. Modificando poi per brevi periodi di tempo le condizioni di alimentazione da ossidanti (aria/combustibile > 14,7 p/p) a riducenti (aria/combustibile < 14,7 p/p) il nitrato immagazzinato viene ridotto a N2 e H2O. Questi catalizzatori sono però molto sensibili alla presenza di zolfo e non possono essere utilizzati con i carburanti diesel attualmente in commercio. Obiettivo di questo lavoro di tesi è stato quello di ottimizzare e migliorare la comprensione del meccanismo di reazione dei catalizzatori “storage-reduction” per l’abbattimento degli NOx nelle emissioni di autoveicoli in presenza di un eccesso di ossigeno. In particolare lo studio è stato focalizzato dapprima sulle proprietà del Pt, fase attiva nei processi di storage-reduction, in funzione del tipo di precursore e sulle proprietà e composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). Lo studio è stato inizialmente focalizzato sulle proprietà dei precursori del Pt, fase attiva nei processi di storage-reduction, sulla composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). E’ stata effettuata una dettagliata caratterizzazione chimico-fisica dei materiali preparati tramite analisi a raggi X (XRD), area superficiale, porosimetria, analisi di dispersione metallica, analisi in riduzione e/o ossidazione in programmata di temperatura (TPR-O), che ha permesso una migliore comprensione delle proprietà dei catalizzatori. Vista la complessità delle miscele gassose reali, sono state utilizzate, nelle prove catalitiche di laboratorio, alcune miscele più semplici, che tuttavia potessero rappresentare in maniera significativa le condizioni reali di esercizio. Il comportamento dei catalizzatori è stato studiato utilizzando differenti miscele sintetiche, con composizioni che permettessero di comprendere meglio il meccanismo. L’intervallo di temperatura in cui si è operato è compreso tra 200-450°C. Al fine di migliorare i catalizzatori, per aumentarne la resistenza alla disattivazione da zolfo, sono state effettuate prove alimentando in continuo SO2 per verificare la resistenza alla disattivazione in funzione della composizione del catalizzatore. I principali risultati conseguiti possono essere così riassunti: A. Caratteristiche Fisiche. Dall’analisi XRD si osserva che l’impregnazione con Pt(NH3)2(NO2)2 o con la sospensione nanoparticellare in DEG, non modifica le proprietà chimico-fisiche del supporto, con l’eccezione del campione con sospensione nanoparticellare impregnata su ossido misto per il quale si è osservata sia la segregazione del Pt, sia la presenza di composti carboniosi sulla superficie. Viceversa l’impregnazione con Ba porta ad una significativa diminuzione dell’area superficiale e della porosità. B. Caratteristiche Chimiche. L’analisi di dispersione metallica, tramite il chemiassorbimento di H2, mostra per i catalizzatori impregnati con Pt nanoparticellare, una bassa dispersione metallica e di conseguenza elevate dimensioni delle particelle di Pt. I campioni impregnati con Pt(NH3)2(NO2)2 presentano una migliore dispersione. Infine dalle analisi TPR-O si è osservato che: Maggiore è la dispersione del metallo nobile maggiore è la sua interazione con il supporto, L’aumento della temperatura di riduzione del PtOx è proporzionale alla quantità dei metalli alcalino terrosi, C. Precursore Metallo Nobile. Nelle prove di attività catalitica, con cicli ossidanti e riducenti continui in presenza ed in assenza di CO2, i catalizzatori con Pt nanoparticellare mostrano una minore attività catalitica, specie in presenza di un competitore come la CO2. Al contrario i catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 presentano un’ottima attività catalitica, stabile nel tempo, e sono meno influenzabili dalla presenza di CO2. D. Resistenza all’avvelenamento da SO2. Il catalizzatore di riferimento, 17Ba1Pt/γAl2O3, mostra un effetto di avvelenamento con formazione di solfati più stabili che sul sistema Ba-Mg; difatti il campione non recupera i valori iniziali di attività se non dopo molti cicli di rigenerazione e temperature superiori ai 300°C. Per questi catalizzatori l’avvelenamento da SO2 sembra essere di tipo reversibile, anche se a temperature e condizioni più favorevoli per il 1.5Mg8.5Ba-1Pt/γAl2O3. E. Capacità di Accumulo e Rigenerabilità. Tramite questo tipo di prova è stato possibile ipotizzare e verificare il meccanismo della riduzione. I catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 hanno mostrato un’elevata capacità di accumulo. Questa è maggiore per il campione bimetallico (Ba-Mg) a T < 300°C, mentre per il riferimento è maggiore per T > 300°C. Per ambedue i catalizzatori è evidente la formazione di ammoniaca, che potrebbe essere utilizzata come un indice che la riduzione dei nitrati accumulati è arrivata al termine e che il tempo ottimale per la riduzione è stato raggiunto o superato. Per evitare la formazione di NH3, sul catalizzatore di riferimento, è stata variata la concentrazione del riducente e la temperatura in modo da permettere alle specie adsorbite sulla superficie e nel bulk di poter raggiungere il Pt prima che l’ambiente diventi troppo riducente e quindi meno selettivo. La presenza di CO2 riduce fortemente la formazione di NH3; probabilmente perché la CO2, occupando i siti degli elementi alcalino-terrosi lontani dal Pt, impedisce ai nitriti/nitrati o all’H2 attivato di percorrere “elevate” distanze prima di reagire, aumentando così le possibilità di una riduzione più breve e più selettiva. F. Tempo di Riduzione. Si è migliorata la comprensione del ruolo svolto dalla concentrazione dell’agente riducente e dell’effetto della durata della fase riducente. Una durata troppo breve porta, nel lungo periodo, alla saturazione dei siti attivi, un eccesso alla formazione di NH3 Attraverso queste ultime prove è stato possibile formulare un meccanismo di reazione, in particolare della fase riducente. G. Meccanismo di Riduzione. La mobilità dei reagenti, nitriti/nitrati o H2 attivato è un elemento fondamentale nel meccanismo della riduzione. La vicinanza tra i siti di accumulo e quelli redox è determinante per il tipo di prodotti che si possono ottenere. La diminuzione della concentrazione del riducente o l’aumento della temperatura concede maggiore tempo o energia alle specie adsorbite sulla superficie o nel bulk per migrare e reagire prima che l’ambiente diventi troppo riducente e quindi meno selettivo.
Resumo:
Nella protezione idraulica del territorio la previsione e il controllo delle piene sono di fondamentale importanza. I territori sono sempre più antropizzati, pertanto la riduzione dei rischi connessi a eventi idrometeorologici estremi è di notevole interesse. La previsione delle piene è resa difficile dall’innumerevole quantità di variabili che intervengono nel processo della loro formazione. Nelle attività di progettazione e nella verifica di opere idrauliche la identificazione dell’idrogramma di progetto spesso riveste un’importanza fondamentale. Un idrogramma di progetto è definito come un’onda di piena, realmente osservata o sintetica, associata ad un determinato livello di rischio, quantificato usualmente in termini di tempo di ritorno. Con il presente lavoro si cerca di verificare la possibilità di applicazione una metodologia per la stima degli idrogrammi di progetto associati ad un determinato tempo di ritorno, recentemente proposta dalla letteratura scientifica (Maione et al., 2001, Una metodologia per la stima indiretta degli idrogrammi sintetici per il progetto di opere di difesa idraulica del territorio). Il lavoro è riferito al Fiume Secchia, un affluente importante del Po che scorre tra le provincie di Modena e Reggio Emilia.