999 resultados para Codice di difesa del consumatore


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta nello specifico lo studio di un impianto micro-ORC, capace di sfruttare acqua alla temperatura di circa 70-90°C come sorgente termica. Questo sistema presenta una potenza dichiarata dal costruttore pari a 3kW e un rendimento del 9%. In primo luogo, si descrivono le caratteristiche principali dei fluidi organici, in particolare quelle del freon R134a, impiegato nel banco prova. Vengono illustrati dettagliatamente l’impianto e la sensoristica utilizzata per le misurazioni delle varie grandezze fisiche. Tramite esse, con l’utilizzo di un programma di acquisizione dati appositamente relizzato in ambiente LabVIEW, è stato possibile calcolare in tempo reale tutti i parametri di funzionamento, necessari per la caratterizzazione del sistema. Per una veloce ed efficiente elaborazione dei dati registrati durante le prove in laboratorio, è stato realizzato un programma in linguaggio VBA. L’utilizzo di questo codice ha permesso, in primo luogo, di individuare e correggere eventuali errori di calcolo e acquisizione presenti in ambiente LabVIEW e, in secondo luogo, si è reso indispensabile per comprendere il funzionamento dell’impianto nelle varie fasi, come accensione, spegnimento e produzione di potenza. Sono state inoltre identificate le modalità di risposta del sistema al variare dei comandi impostabili dall’utente, quali il numero di giri della pompa e la variazione della temperatura della sorgente calda. Si sono poi osservate le risposte del sistema al variare delle condizioni esterne, come ad esempio la temperatura dell’acqua di condensazione. Una specifica prova è stata analizzata in questo elaborato. Durante tale prova il sistema ha lavorato in forte off-design, erogando una potenza elettrica pari a 255 W, raggiungendo un basso valore del rendimento (pari a 1.8%). L’analisi dei dati ha portato ad identificare nuovi limiti di funzionamento, legati ad esempio alla quantità di fluido interna al sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obbiettivo che si pone questo lavoro è quello di combinare in un unico impianto due tecnologie utilizzate per scopi differenti (impianto integrato): un impianto di climatizzazione geotermico a bassa entalpia di tipo open-loop ed un impianto di bonifica delle acque di falda di tipo Pump&Treat. Il sito selezionato per lo studio è ubicato in via Lombardia, nell’area industriale di Ozzano dell’Emilia (BO), ed è definito “Ex stabilimento Ot-Gal”: si tratta di una galvanotecnica con trattamento di metalli, dismessa alla fine degli anni ’90. Durante una precedente fase di caratterizzazione del sito condotta dalla ditta Geo-Net Srl, sono stati rilevati in falda dei superamenti delle CSC previste dal D.lgs. 152/2006 di alcuni contaminanti, in particolare Tricloroetilene (TCE) e 1.1-Dicloroetilene (1.1-DCE). Successivamente, nel 2010-2011, Geo-net Srl ha eseguito una parziale bonifica delle acque di falda attraverso l’utilizzo di un impianto Pump and Treat. Grazie a tutti i dati pregressi riguardanti i monitoraggi, le prove e i sondaggi, messi a disposizione per questo studio da Geo-Net Srl, è stato possibile eseguire una sperimentazione teorica, in forma di modellazione numerica di flusso e trasporto, dell’impianto integrato oggetto di studio. La sperimentazione è stata effettuata attraverso l’utilizzo di modelli numerici basati sul codice di calcolo MODFLOW e su codici ad esso comunemente associati, quali MODPATH e MT3DMS. L’analisi dei risultati ottenuti ha permesso di valutare in modo accurato l’integrazione di queste due tecnologie combinate in unico impianto. In particolare, la bonifica all’interno del sito avviene dopo 15 dalla messa in attività. Sono stati anche confrontati i costi da sostenere per la realizzazione e l’esercizio dell’impianto integrato rispetto a quelli di un impianto tradizionale. Tale confronto ha mostrato che l’ammortamento dell’impianto integrato avviene in 13 anni e che i restanti 7 anni di esercizio producono un risparmio economico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Data la sempre maggiore richiesta di fabbisogno energetico, si è sviluppata una nuova filosofia nella gestione dei consumi energetici, il DSM (demand side management), che ha lo scopo di incoraggiare il consumatore ad usare energia in modo più intelligente e coscienzioso. Questo obiettivo, unito all’accumulo di energia da fonti rinnovabili, permetterà un abbassamento dell’utilizzo dell’energia elettrica proveniente dal consumo di fonti non rinnovabili e altamente inquinanti come quelle a combustibili fossili ed una diminuzione sia del consumo energetico, sia del costo per produrre energia che dell’energia stessa. L’home automation e la domotica in ambiente domestico rappresentano un esempio di DSM. L’obiettivo di questa tesi è quello di creare un sistema di home automation utilizzando tecnologie opensource. Sono stati utilizzati device come board Arduino UNO, Raspberry Pi ed un PC con sistema operativo GNU/Linux per creare una simulazione di un sistema di home automation abbinato alla gestione di celle fotovoltaiche ed energy storaging. Il sistema permette di poter spegnere un carico energetico in base a delle particolari circostanze come, per esempio, il superamento di una certa soglia di consumo di energia elettrica. Il software utilizzato è opensource e mira a poter ottimizzare il consumo energetico secondo le proprie finalità. Il tutto a dimostrare che si può creare un sistema di home automation da abbinare con il presente e futuro delle fonti rinnovabili utilizzando tecnologie libere in modo tale da preservare privacy e security oltre che customizzazione e possibilità di adattamento a diverse circostanze. Nella progettazione del sistema è stato implementato un algoritmo per gestire varie situazioni all’interno di un ambiente domestico. La realizzazione di tale algoritmo ha prodotto ottimi risultati nella raggiungimento degli obiettivi prefissati. Il progetto di questa tesi può essere ulteriormente ampliato ed il codice è reperibile in un repository pubblico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le metodologie per la raccolta delle idee e delle opinioni si sono evolute a pari passo con il progresso tecnologico: dalla semplice comunicazione orale si è passati alla diffusione cartacea, fino a che l'introduzione e l'evoluzione di internet non hanno portato alla digitalizzazione e informatizzazione del processo. Tale progresso ha reso possibile l'abbattimento di ogni barriera fisica: se in precedenza la diffusione di un sondaggio era limitata dall'effettiva possibilità di distribuzione del sondaggio stesso, lo sviluppo della rete globale ha esteso tale possibilità (virtualmente) a tutto il mondo. Nonostante sia un miglioramento non indifferente, è importante notare come la valorizzazione della diffusione di un sondaggio abbia inevitabilmente portato a trascurarne le proprietà e i vantaggi intrinsechi legati alla sua diffusione prettamente locale. Ad esempio, un sondaggio che mira a valutare la soddisfazione degli utenti riguardo alla recente introduzione di una nuova linea di laptop ottiene un guadagno enorme dall'informatizzazione, e dunque delocalizzazione, del processo di raccolta dati; dall'altro lato, un sondaggio che ha come scopo la valutazione dell'impatto sui cittadini di un recente rinnovamento degli impianti di illuminazione stradale ha un guadagno pressoché nullo. L'idea alla base di QR-VEY è la ricerca di un ponte tra le metodologie classiche e quelle moderne, in modo da poter sfruttare le proprietà di entrambe le soluzioni. Tale ponte è stato identificato nella tecnologia del QR-Code: è possibile utilizzare un generico supporto che presenti proprietà di localizzazione, come un foglio cartaceo, ma anche un proiettore di una conferenza, come base per la visualizzazione di tale codice, ed associare alla scansione dello stesso funzionalità automatizzate di raccolta di dati e opinioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le zone costiere appartengono alle aree con alta densità di popolazione, nonostante queste regioni siano le più vulnerabili al rischio di onde violente da tempesta e alla tracimazione di esse. In aggiunta, a causa del cambiamento climatico e all’innalzamento del livello del mare, si prevede un incremento nel numero e nell’intensità di tempeste violente. Come risultato, un grande quantitativo di acqua può tracimare, ciò porta all’instabilità e all’allagamento dell’eventuale opera atta alla protezione della costa, un disastro per la sicurezza della popolazione e per l’economia della zona. Per risolvere queste problematiche si è scelta una geometria tipica di difesa della costa e si è compiuta un’analisi di sensitività del modello, analizzando se al variare dei parametri caratteristici del muro paraonde e del relativo parapetto, il modello avverte una variazione della portata di tracimazione. Attraverso questo studio si vuole scoprire qual è la configurazione di cresta che da un punto di vista progettuale è il compromesso migliore tra efficacia della riduzione della portata e sollecitazioni accettabili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le normative antinquinamento sempre più stringenti in termini di emissioni prodotte da un MCI hanno reso necessario lo studio e lo sviluppo di modelli predittivi in grado quindi di simulare tutto ciò che avviene all’interno della camera di combustione; allo scopo di ottimizzare quello che è un prodotto industriale e che pertanto va venduto. Il presente elaborato di tesi si è quindi incentrato sull’impatto che uno spray di combustibile, iniettato ad alta pressione, ha su pareti calde e fredde, analizzando tutto ciò che concerne l’eventuale sviluppo di wall-film prodotto come la relativa massa, area, spessore e raffreddamento della parete per via della propria interazione con il film a parete. Sono stati prima di tutto studiati i fenomeni fisici in atto e successivamente analizzati i modelli implementati nel codice di calcolo commerciale utilizzato STAR-CD, in particolare il modello di boiling, il modulo 1D-CHT ed il modello di impatto Bai-ONERA; il tutto facendo riferimento a esperimenti, già condotti, presenti in letteratura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato contiene studi riguardanti il benessere del suino pesante italiano ed in particolare si sofferma su alcuni aspetti particolarmente significativi per il miglioramento del benessere. Gli aspetti in esame hanno riguardato la percezione da parte del consumatore italiano del benessere in azienda; inoltre sono stati studiati gli effetti sul benessere di alcune caratteristiche dell'allevamento e di aspetti multifattoriali riguardanti il trasporto al macello. Alla luce dei lavori contenuti in questo lavoro, emerge come una revisione della normativa, anche considerando la categoria dei suini pesanti, possa migliorare notevolmente le loro condizioni di benessere. I consumatori italiani, infatti, hanno confermato di essere attenti e interessati al benessere animale, oltre che disposti a spendere di più per gli animali derivanti da pratiche innovative e più rispettose del benessere, come l'immunocastrazione. Un altro criterio importante, soprattutto in questa categoria di prodotti, è la disponibilità di spazio. Le nostre evidenze sperimentali dimostrano che garantire a questa categoria di suini requisiti di spazio superiori a quelli richiesti dalla normativa migliora il comportamento degli animali e i parametri di produzione. Infine, in termini di trasporto, lo studio da noi condotto ha permesso di identificare parametri da utilizzare come indicatori del livello di stress degli animali, risultando in una buona correlazione con i parametri di stress ematobiochimico. A conclusione di queste variegate esperienze di ricerca, si evidenzia quindi come investire in ulteriori impegni da parte del settore suinicolo, perseguendo l'obiettivo di ridurre al minimo gli stress a cui sono sottoposti i suini pesanti nel corso della loro vita, dall'adozione di tecniche di castrazione meno invasive, il miglioramento delle condizioni di allevamento e di trasporto, dovrebbe essere l'obiettivo comune di tutti i protagonisti della filiera, anche con l’obiettivo di ottenere un prodotto finale con un valore etico che soddisfi le aspettative implicite del consumatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha avuto come obiettivo la valutazione dell’effetto dell’uso di fonti proteiche alternative (alghe ed insetti) nell’alimentazione del broiler sui parametri qualitativi ed il profilo ossidativo della carne di petto di pollo. A tale scopo, 1000 polli maschi ROSS 308 sono stati suddivisi in 8 gruppi sperimentali in funzione della percentuale di inclusione nel mangime di farina di microalghe ed insetti, e della presenza o meno dell’enzima chitinasi: controllo (dieta commerciale), controllo con enzima, dieta 1 (insetti 9%), dieta 2 (insetti 18%), dieta 3 (insetti 9% + chitinasi), dieta 4 (insetti 18% + chitinasi), dieta 5 (microalghe 3%), dieta 6 (microalghe 6%). Un totale di 120 petti di pollo (15/gruppo) sono stati destinati all’analisi del pH, colore, drip e cooking loss, sforzo di taglio, nonché del livello di ossidazione di grassi e proteine della carne. I risultati ottenuti hanno evidenziato come, a prescindere dal tipo di fonte proteica e dalla percentuale di inclusione, il pH della carne ha mostrato valori significativamente inferiori in tutti i gruppi trattati rispetto al controllo, senza però esercitare effetti negativi sulla qualità della carne. La capacità di ritenzione idrica (valutata tramite drip e cooking loss), lo sforzo di taglio e il livello di ossidazione dei lipidi e delle proteine non sono stati infatti influenzati negativamente dal trattamento dietetico. Tuttavia, il colore della carne è stato modificato dall’alimentazione, con particolare riferimento all’indice di giallo (b*) che è risultato significativamente superiore nei gruppi sperimentali alimentati con microalghe rispetto al controllo e a quelli alimentati con farina di insetti. Tale colorazione potrebbe essere gradita in quei mercati in cui vi è una consolidata abitudine a questa pigmentazione della carne. Ulteriori studi saranno effettuati per valutare l’effetto delle fonti proteiche alternative sulla qualità sensoriale e l’attitudine del consumatore verso il colore del prodotto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il ruolo dell’informatica è diventato chiave del funzionamento del mondo moderno, ormai sempre più in progressiva digitalizzazione di ogni singolo aspetto della vita dell’individuo. Con l’aumentare della complessità e delle dimensioni dei programmi, il rilevamento di errori diventa sempre di più un’attività difficile e che necessita l’impiego di tempo e risorse. Meccanismi di analisi del codice sorgente tradizionali sono esistiti fin dalla nascita dell’informatica stessa e il loro ruolo all’interno della catena produttiva di un team di programmatori non è mai stato cosi fondamentale come lo è tuttora. Questi meccanismi di analisi, però, non sono esenti da problematiche: il tempo di esecuzione su progetti di grandi dimensioni e la percentuale di falsi positivi possono, infatti, diventare un importante problema. Per questi motivi, meccanismi fondati su Machine Learning, e più in particolare Deep Learning, sono stati sviluppati negli ultimi anni. Questo lavoro di tesi si pone l’obbiettivo di esplorare e sviluppare un modello di Deep Learning per il riconoscimento di errori in un qualsiasi file sorgente scritto in linguaggio C e C++.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questa tesi è quello di analizzare la struttura della società odierna, alla luce delle influenze e modifiche apportate dall’avvento dell'informatica e mostrare come, in generale, il progresso tecnologico abbia profondamente cambiato il nostro modo di vivere. L'introduzione dei computer, l'avvento dell'era digitale e di internet hanno segnato un profondo cambiamento nella storia moderna. In questa tesi andremo prima ad analizzare il capitalismo cognitivo, che vede, al centro della produzione di valore, non più il tempo, ma la conoscenza. Verranno indagati ed esposti i vari aspetti e gli elementi fondamentali della nuova dimensione immateriale, che si è venuta a creare con l'avvento del mondo digitale. Successivamente, viene analizzata la nuova struttura delle imprese, come esse si sono evolute e come si dovrebbero evolvere, per ottimizzare le proprie risorse e adattarsi al nuovo sistema economico sociale. Particolare attenzione verrà posta al nuovo ruolo dei manager e alla produzione sociale. Nel terzo capitolo, vengono analizzati i cambiamenti che sono avvenuti negli ultimi anni all'interno della società; illustreremo il nuovo modo di lavorare, che prevede l'uomo affiancato costantemente dalla tecnologia, e l’apporto dell’intelligenza artificiale al cambiamento della società nei suoi diversi aspetti. Saranno esposte le nuove problematiche emergenti, sia in abito giuridico che etico, conseguenti alla creazione di scenari economico-sociali di cui, prima della rivoluzione tecnologica, non si immaginava nemmeno l'esistenza. Per concludere, vengono presentate le sfide che la politica deve e dovrà affrontare per controllare le nuove dinamiche economiche e le situazioni di monopolio globale che si sono create. Verranno analizzate problematiche e possibili soluzioni, nonché le implicazioni che il progresso tecnologico ha avuto sulla circolazione delle informazioni e di conseguenza sulla percezione della realtà da parte del consumatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé II lavoro verte sui volgarizzamenti quattro-cinquecenteschi di Luciano di Samosata, importante capitolo nella fortuna dell'autore greco, che diede l'avvio a quel vasto fenomeno chiamato "lucianesimo", esteso in Europa fino al XIX sec. In particolare fornisco l'edizione critica e commentata delle Storie vere volgarizzate, contenute nella prima, assai ampia (41 opuscoli), e per molto tempo unica, silloge lucianea in volgare, che ho datato a poco prima del 1480. Essa ci è giunta tramite un unico manoscritto, il Vaticano Chigiano L.VI.215, confezionato a Ferrara per Ercole I d'Este, nonché in almeno otto edizioni veneziane apparse fra il 1525 e il 1551. La princeps, da cui dipendono in vario modo tutte le edizioni successive, è pubblicata da Niccolò Zoppino. I1 ms. e le prime due edizioni (1525; 1527 Bindoni e Pasini) tacciono il nome del traduttore, che compare solo nell'edizione del 1529 (Zoppino): Niccolò Leoniceno (1428-1524), medico umanista e valente grecista, attivo a Ferrara dal 1464 al 1524, studioso e traduttore di Ippocrate e Galeno, editore di Aristotele e volgarizzatore di storici per Ercole d'Este. L'edizione ha richiesto uno studio preliminare sulle numerose traduzioni in latino e in volgare di Luciano, per valutare meglio le modalità della sua fortuna umanistica. Confrontando ms. e stampe, per le Storie vere si hanno due volgarizzamenti totalmente diversi, fin dal titolo: La vera historia nel ms., Le vere narrazioni nelle cinquecentine. Ma per l'ultimo quarto di testo, ms. e stampe in sostanza coincidono. La collazione ha coinvolto anche il testo greco (con gli apparati delle edizioni critiche) e la versione latina dell'umanista umbro Lilio Tifernate (1417/18-1486) risalente al 1439-43 ca., intitolata De veris narrationibus, di cui si hanno almeno tre redazioni d'autore; una quarta è invece dovuta probabilmente a Benedetto Bordon, che la inserì nella sua silloge latina di Luciano del 1494. Ho cosa stabilito che il volgarizzamento del ms. Chigiano, La vera historia, è stato eseguito direttamente dal greco, fatto eccezionale nel panorama delle traduzioni umanistiche, mentre quello a stampa, Le vere narrazioni, deriva dalla redazione Bordon del De veris narrationibus. La diversità dei titoli dipende dalle varianti dei codici greci utilizzati dai traduttori: il Vat. gr. 1323, o una sua copia, è utilizzato sia dal volgarizzatore del Chigiano, sia da Bordon, indipendentemente l'uno dall'altro; il Marc. gr. 434, o una sua copia, dal Tifernate. Il titolo latino mantenuto da Bordon risale al Tifernate. Per quanto riguarda l'attribuzione dei due volgarizzamenti, come già per altri due testi della silloge da me studiati (Lucio 01 Asino e Timone), anche per La vera historia del Chigiano è accettabile il nome di Niccolò Leoniceno, poiché: 1) essa è tradotta direttamente dal greco, correttamente e con buona resa in volgare, 2) Paolo Giovio -che conobbe di persona il Leoniceno -, negli Elogia veris clarorum virorum imaginibus apposita ricorda che i volgarizzamenti di Luciano e di Dione eseguiti dal Leoniceno piacquero molto ad Ercole d'Este, 3) nessuno nella prima metà del sec. XVI rivendica, per sé o per un suo maestro, il volgarizzamento di Luciano. Le vere narrazioni a stampa, tradotte dal latino del Bordon, dopo il 1494 e prima del 1525, per la parte che diverge dalla Vera historia rimangono invece anonime. Dato che si tratta di due volgarizzamenti distinti, ho allestito l'edizione a fronte dei due testi fin dove essi divergono, seguendo per l'uno il ms., per l'altro la princeps; per la parte finale, in cui confluiscono, mi baso invece sul manoscritto e relego in apparato le varianti più vistose della princeps (non è emerso un chiaro rapporto di dipendenza fra i due testimoni). Oltre all'apparato critico con le lezioni rifiutate, fornisco un commento con la giustificazione delle scelte e il confronto con i corrispondenti passi greci e latini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per garantire la sicurezza di tutte le operazioni in volo (avvicinamento, decollo, holding, ecc..) il decreto legge del 15 marzo del 2006 n. 151 ha imposto la redazione di opportune cartografie basate sul Regolamento ENAC per la Costruzione e l’Esercizio degli Aeroporti e sulla normativa internazionale ICAO così da poterle annettere agli Strumenti Urbanistici del territorio e governare lo sviluppo delle costruzioni. La sicurezza delle operazioni in volo è garantita attraverso delle Superfici di Delimitazione Ostacoli che impongono dei vincoli plano-altimetrici nelle aree limitrofe agli Aeroporti, quindi costruzioni, alberi e lo stesso terreno non devono forare queste superfici altrimenti diventerebbero “Ostacoli” alla navigazione aerea. Per gli ostacoli già presenti sono definiti dei provvedimenti da adottarsi in funzione della superficie che questi forano: potranno essere abbattuti se ricadenti in aree critiche come in prossimità delle piste oppure essere segnalati in mappe in uso ai piloti e anche con segnali visivi posizionati sugli stessi. Per quanto riguarda le future costruzioni, queste non potranno mai diventare Ostacolo in quanto sarà obbligatorio rispettare i vincoli plano-altimetrici. La tesi di laurea in questione vuole illustrare come si è arrivati alla redazione delle sopraccitate mappe nel caso specifico dell'Aeroporto Guglielmo Marconi di Bologna; sono analizzate nel primo capitolo le caratteristiche fisiche degli Aeroporti per acquisire una certa padronanza su termini tecnici che compaiono nei capitoli successivi (è inoltre presente un glossario). Nel secondo capitolo è individuato il percorso normativo che ha portato alla redazione dell’ultima revisione al Codice della Navigazione. Il capitolo 3 introduce le superfici di delimitazione ostacoli secondo quanto esposto nel Regolamento per la Costruzione e l’Esercizio degli Aeroporti di ENAC; il capitolo 4 è dedicato al lay-out dell’Aeroporto Guglielmo Marconi di Bologna. Infine la tesi si conclude con il capitoli 5 nel quale sono esposte le fasi e le metodologie usate per la realizzazione delle planimetrie e con il capitolo 6 in cui si discute delle problematiche sorte a causa dell’orografia del territorio che deve tenersi nella giusta considerazione per la definizione dei suddetti vincoli aeronautici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio ha avuto l’obiettivo di indagare la produzione di bioetanolo di seconda generazione a partire dagli scarti lignocellulosici della canna da zucchero (bagassa), facendo riscorso al processo enzimatico. L’attività di ricerca è stata svolta presso il Dipartimento di Ingegneria Chimica dell’Università di Lund (Svezia) all’interno di rapporti scambio con l’Università di Bologna. Il principale scopo è consistito nel valutare la produzione di etanolo in funzione delle condizioni operative con cui è stata condotta la saccarificazione e fermentazione enzimatica (SSF) della bagassa, materia prima che è stata sottoposta al pretrattamento di Steam Explosion (STEX) con aggiunta di SO2 come catalizzatore acido. Successivamente, i dati ottenuti in laboratorio dalla SSF sono stati utilizzati per implementare, in ambiente AspenPlus®, il flowsheet di un impianto che simula tutti gli aspetti della produzione di etanolo, al fine di studiarne il rendimento energetico dell’intero processo. La produzione di combustibili alternativi alle fonti fossili oggigiorno riveste primaria importanza sia nella limitazione dell’effetto serra sia nel minimizzare gli effetti di shock geopolitici sulle forniture strategiche di un Paese. Il settore dei trasporti in continua crescita, consuma nei paesi industrializzati circa un terzo del fabbisogno di fonti fossili. In questo contesto la produzione di bioetanolo può portare benefici per sia per l’ambiente che per l’economia qualora valutazioni del ciclo di vita del combustibile ne certifichino l’efficacia energetica e il potenziale di mitigazione dell’effetto serra. Numerosi studi mettono in risalto i pregi ambientali del bioetanolo, tuttavia è opportuno fare distinzioni sul processo di produzione e sul materiale di partenza utilizzato per comprendere appieno le reali potenzialità del sistema well-to-wheel del biocombustibile. Il bioetanolo di prima generazione ottenuto dalla trasformazione dell’amido (mais) e delle melasse (barbabietola e canna da zucchero) ha mostrato diversi svantaggi: primo, per via della competizione tra l’industria alimentare e dei biocarburanti, in secondo luogo poiché le sole piantagioni non hanno la potenzialità di soddisfare domande crescenti di bioetanolo. In aggiunta sono state mostrate forti perplessità in merito alla efficienza energetica e del ciclo di vita del bioetanolo da mais, da cui si ottiene quasi la metà della produzione di mondiale di etanolo (27 G litri/anno). L’utilizzo di materiali lignocellulosici come scarti agricolturali e dell’industria forestale, rifiuti urbani, softwood e hardwood, al contrario delle precedenti colture, non presentano gli svantaggi sopra menzionati e per tale motivo il bioetanolo prodotto dalla lignocellulosa viene denominato di seconda generazione. Tuttavia i metodi per produrlo risultano più complessi rispetto ai precedenti per via della difficoltà di rendere biodisponibili gli zuccheri contenuti nella lignocellulosa; per tale motivo è richiesto sia un pretrattamento che l’idrolisi enzimatica. La bagassa è un substrato ottimale per la produzione di bioetanolo di seconda generazione in quanto è disponibile in grandi quantità e ha già mostrato buone rese in etanolo se sottoposta a SSF. La bagassa tal quale è stata inizialmente essiccata all’aria e il contenuto d’acqua corretto al 60%; successivamente è stata posta a contatto per 30 minuti col catalizzatore acido SO2 (2%), al termine dei quali è stata pretrattata nel reattore STEX (10L, 200°C e 5 minuti) in 6 lotti da 1.638kg su peso umido. Lo slurry ottenuto è stato sottoposto a SSF batch (35°C e pH 5) utilizzando enzimi cellulolitici per l’idrolisi e lievito di birra ordinario (Saccharomyces cerevisiae) come consorzio microbico per la fermentazione. Un obiettivo della indagine è stato studiare il rendimento della SSF variando il medium di nutrienti, la concentrazione dei solidi (WIS 5%, 7.5%, 10%) e il carico di zuccheri. Dai risultati è emersa sia una buona attività enzimatica di depolimerizzazione della cellulosa che un elevato rendimento di fermentazione, anche per via della bassa concentrazione di inibitori prodotti nello stadio di pretrattamento come acido acetico, furfuraldeide e HMF. Tuttavia la concentrazione di etanolo raggiunta non è stata valutata sufficientemente alta per condurre a scala pilota un eventuale distillazione con bassi costi energetici. Pertanto, sono stati condotti ulteriori esperimenti SSF batch con addizione di melassa da barbabietola (Beta vulgaris), studiandone preventivamente i rendimenti attraverso fermentazioni alle stesse condizioni della SSF. I risultati ottenuti hanno suggerito che con ulteriori accorgimenti si potranno raggiungere gli obiettivi preposti. E’ stato inoltre indagato il rendimento energetico del processo di produzione di bioetanolo mediante SSF di bagassa con aggiunta di melassa in funzione delle variabili più significative. Per la modellazione si è fatto ricorso al software AspenPlus®, conducendo l’analisi di sensitività del mix energetico in uscita dall’impianto al variare del rendimento di SSF e dell’addizione di saccarosio. Dalle simulazioni è emerso che, al netto del fabbisogno entalpico di autosostentamento, l’efficienza energetica del processo varia tra 0.20 e 0.53 a seconda delle condizioni; inoltre, è stata costruita la curva dei costi energetici di distillazione per litro di etanolo prodotto in funzione delle concentrazioni di etanolo in uscita dalla fermentazione. Infine sono già stati individuati fattori su cui è possibile agire per ottenere ulteriori miglioramenti sia in laboratorio che nella modellazione di processo e, di conseguenza, produrre con alta efficienza energetica bioetanolo ad elevato potenziale di mitigazione dell’effetto serra.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro tratta lo studio dei fenomeni aeroelastici di interazione fra fluido e struttura, con il fine di provare a simularli mediante l’ausilio di un codice agli elementi finiti. Nel primo capitolo sono fornite alcune nozioni di fluidodinamica, in modo da rendere chiari i passaggi teorici fondamentali che portano alle equazioni di Navier-Stokes governanti il moto dei fluidi viscosi. Inoltre è illustrato il fenomeno della formazione di vortici a valle dei corpi tozzi dovuto alla separazione dello strato limite laminare, con descrizione anche di alcuni risultati ottenuti dalle simulazioni numeriche. Nel secondo capitolo vengono presi in rassegna i principali fenomeni di interazione fra fluido e struttura, cercando di metterne in luce le fondamenta della trattazione analitica e le ipotesi sotto le quali tale trattazione è valida. Chiaramente si tratta solo di una panoramica che non entra in merito degli sviluppi della ricerca più recente ma fornisce le basi per affrontare i vari problemi di instabilità strutturale dovuti a un particolare fenomeno di interazione con il vento. Il terzo capitolo contiene una trattazione più approfondita del fenomeno di instabilità per flutter. Tra tutti i fenomeni di instabilità aeroelastica delle strutture il flutter risulta il più temibile, soprattutto per i ponti di grande luce. Per questo si è ritenuto opportuno dedicargli un capitolo, in modo da illustrare i vari procedimenti con cui si riesce a determinare analiticamente la velocità critica di flutter di un impalcato da ponte, a partire dalle funzioni sperimentali denominate derivate di flutter. Al termine del capitolo è illustrato il procedimento con cui si ricavano sperimentalmente le derivate di flutter di un impalcato da ponte. Nel quarto capitolo è presentato l’esempio di studio dell’impalcato del ponte Tsing Ma ad Hong Kong. Sono riportati i risultati analitici dei calcoli della velocità di flutter e di divergenza torsionale dell’impalcato e i risultati delle simulazioni numeriche effettuate per stimare i coefficienti aerodinamici statici e il comportamento dinamico della struttura soggetta all’azione del vento. Considerazioni e commenti sui risultati ottenuti e sui metodi di modellazione numerica adottati completano l’elaborato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.