194 resultados para sovratensioni atmosferiche, fulminazioni, linee miste aerea-cavo
Resumo:
La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.
Resumo:
Questo lavoro riguarda il recupero di una ferrovia dismessa per la realizzazione di una "greenway", ovvero un percorso per la mobilità lenta. Per mobilità lenta si intende mobilità alternativa al traffico veicolare motorizzato e riguarda il muoversi su un territorio a piedi in bicicletta o con altro mezzo di trasporto senza l’ausilio di un motore. La lentezza è una caratteristica che permette una visione nuova dei paesaggi che si attraversano, siano essi naturali o urbani. In alcuni casi si parla anche di circolazione dolce. Questo tipo di circolazione necessita di infrastrutture con caratteristiche adatte a questa funzione, attrezzate in modo da consentire il più alto grado di fruibilità e comodità d’uso. Esse devono servire a muoversi nel territorio in maniera comoda e sicura. Una ferrovia dismessa si presta ad essere riconvertita in un percorso per la mobilità lenta in quanto presenta caratteristiche compatibili con questo nuovo utilizzo. In primo luogo le caratteristiche geometriche come ad esempio le pendenze ridotte, la larghezza e la regolarità del tracciato e la pubblica proprietà. Una ferrovia dismessa rappresenta una opportunità per l’intero territorio attraversato in quanto può rappresentare un importante elemento di connessione fra le popolazioni e le risorse del territorio. La connessione richiama il concetto di rete che è formata da punti e da linee che li collegano fra di loro. Questo concetto è importante per capire come questo percorso possa interagire con le altre risorse territoriali. Ad esempio in alcuni casi una greenway può costituire un corridoio ecologico ed entrare a far parte di una rete ecologica, diventando così una importante risorsa per la diffusione della biodiversità. Nell’affrontare un argomento complesso come la riconversione di una ferrovia dismessa è stata fondamentale l’esperienza fatta sul campo visitando casi di greenway già realizzate in Italia, dalla quale è stato possibile estrapolare una serie di soluzioni da adottare per analogia al caso in esame. E’ stato importante inoltre tutto il lavoro di conoscenza riguardante la storia della ferrovia e le tecniche realizzative dei fabbricati e manufatti, che ha permesso di studiare soluzioni progettuali adatte ad un nuovo utilizzo compatibile alla funzione originaria degli stessi. Le analisi territoriali hanno permesso poi di ricavare importanti informazioni riguardanti il tipo di utenza potenziale, le risorse del territorio attraversate dal tracciato storico, nonché le previsioni future ricavate dagli strumenti urbanistici vigenti. Tutte queste informazioni sono state sintetizzate in una analisi criticità/potenzialità che ha permesso di individuare le azioni progettuali necessarie. Mentre l’analisi territoriale è svolta a tavolino, la successiva analisi del percorso invece è stata portata a termine con un rilievo diretto sul campo al fine di verificare le informazioni raccolte in precedenza. Dividendo il percorso in tratti omogenei è stato possibile assegnare ad ogni tratto un corrispondente tipo di intervento. La verifica di criticità e potenzialità ha permesso poi di programmare corrispondenti azioni progettuali al fine di risolvere le prime ed assecondare le seconde. Le tipologie di intervento individuate sono tre: gli Interventi sul percorso che riguardano la sistemazione del fondo stradale per renderlo adatto ad un utilizzo ciclopedonale e la sistemazione a verde di alcuni tratti urbani; gli interventi di nuova realizzazione che riguardano la realizzazione di nuove infrastrutture per la risoluzione di criticità oppure la realizzazione di padiglioni per assecondare le potenzialità; ed infine gli interventi sul patrimonio storico che riguardano il riutilizzo degli edifici e manufatti della ex ferrovia. Vi è infine un caso applicativo che riassume tutte queste tipologie di intervento: la ex area ferroviaria di Rimini Marina, che è ritenuta un’area dalle alte potenzialità per la sua propensione a diventare punto di partenza dell’intero sistema lineare, ma anche luogo accentratore di servizi per l’intero quartiere che risulta a carattere prevalentemente turistico-residenziale. In questo modo si ritiene possibile fare rivivere la ex ferrovia facendola diventare cioè un insieme di luoghi connessi a servizio della comunità.
Resumo:
Nel lavoro di tesi qui presentato si indaga l'applicazione di tecniche di apprendimento mirate ad una più efficiente esecuzione di un portfolio di risolutore di vincoli (constraint solver). Un constraint solver è un programma che dato in input un problema di vincoli, elabora una soluzione mediante l'utilizzo di svariate tecniche. I problemi di vincoli sono altamente presenti nella vita reale. Esempi come l'organizzazione dei viaggi dei treni oppure la programmazione degli equipaggi di una compagnia aerea, sono tutti problemi di vincoli. Un problema di vincoli è formalizzato da un problema di soddisfacimento di vincoli(CSP). Un CSP è descritto da un insieme di variabili che possono assumere valori appartenenti ad uno specico dominio ed un insieme di vincoli che mettono in relazione variabili e valori assumibili da esse. Una tecnica per ottimizzare la risoluzione di tali problemi è quella suggerita da un approccio a portfolio. Tale tecnica, usata anche in am- biti come quelli economici, prevede la combinazione di più solver i quali assieme possono generare risultati migliori di un approccio a singolo solver. In questo lavoro ci preoccupiamo di creare una nuova tecnica che combina un portfolio di constraint solver con tecniche di machine learning. Il machine learning è un campo di intelligenza articiale che si pone l'obiettivo di immettere nelle macchine una sorta di `intelligenza'. Un esempio applicativo potrebbe essere quello di valutare i casi passati di un problema ed usarli in futuro per fare scelte. Tale processo è riscontrato anche a livello cognitivo umano. Nello specico, vogliamo ragionare in termini di classicazione. Una classicazione corrisponde ad assegnare ad un insieme di caratteristiche in input, un valore discreto in output, come vero o falso se una mail è classicata come spam o meno. La fase di apprendimento sarà svolta utilizzando una parte di CPHydra, un portfolio di constraint solver sviluppato presso la University College of Cork (UCC). Di tale algoritmo a portfolio verranno utilizzate solamente le caratteristiche usate per descrivere determinati aspetti di un CSP rispetto ad un altro; queste caratteristiche vengono altresì dette features. Creeremo quindi una serie di classicatori basati sullo specifico comportamento dei solver. La combinazione di tali classicatori con l'approccio a portfolio sara nalizzata allo scopo di valutare che le feature di CPHydra siano buone e che i classicatori basati su tali feature siano affidabili. Per giusticare il primo risultato, eettueremo un confronto con uno dei migliori portfolio allo stato dell'arte, SATzilla. Una volta stabilita la bontà delle features utilizzate per le classicazioni, andremo a risolvere i problemi simulando uno scheduler. Tali simulazioni testeranno diverse regole costruite con classicatori precedentemente introdotti. Prima agiremo su uno scenario ad un processore e successivamente ci espanderemo ad uno scenario multi processore. In questi esperimenti andremo a vericare che, le prestazioni ottenute tramite l'applicazione delle regole create appositamente sui classicatori, abbiano risultati migliori rispetto ad un'esecuzione limitata all'utilizzo del migliore solver del portfolio. I lavoro di tesi è stato svolto in collaborazione con il centro di ricerca 4C presso University College Cork. Su questo lavoro è stato elaborato e sottomesso un articolo scientico alla International Joint Conference of Articial Intelligence (IJCAI) 2011. Al momento della consegna della tesi non siamo ancora stati informati dell'accettazione di tale articolo. Comunque, le risposte dei revisori hanno indicato che tale metodo presentato risulta interessante.
Resumo:
Il Progetto XCModel, che da dieci anni si sviluppa e si perfeziona col contributo di varie persone, consente la progettazione di scene 3D e la resa fotorealistica. Esso si appoggia sulle funzionalita' grafiche di X-Window in Linux: si tratta di un ambiente in costante evoluzione, dovuta sia alle continue innovazioni hardware che ai cambiamenti degli standard. XCModel e' composto da vari pacchetti, ognuno dei quali specializzato nel trattare un particolare aspetto della modellazione o della resa (curve, superfici, textures, luci, ...) e che si presentano come applicazioni dotate di una sofisticata interfaccia grafica. Tutte attingono alle funzioni della Libreria XTools, che fornisce numerose primitive grafiche facenti uso delle potenzialita' di X-Window. I recenti cambiamenti nelle specifiche di X-Org, ed in particolare la de- standardizzazione del backing-store, ha obbligato il team di XCModel ad una consistente riprogettazione di XTools e di tutti i pacchetti che su di esso s'appoggiano. S'e' colta l'occasione per un massiccio debugging e per modificare i pacchetti in base alle impressioni emerse nel corso degli anni da parte degli utilizzatori, primi tra tutti gli studenti del corso di Grafica tenuto dal Prof. Giulio Casciola, project-manager di XCModel: questa e' un'ulteriore testimonianza del continuo adattamento e dell'aggiornabilita' del Progetto! Nella fattispecie, ci si occupera' delle modifiche effettuate in particolare al pacchetto XCSurf, finalizzato alla creazione ed alla modifica di curve e superfici 3D da utilizzarsi successivamente per la creazione delle scene: tale pacchetto e' di fatto risultato il pie' avulso dalle specifiche di XTools, il che ha costretto ad un massiccio intervento al codice del programma, ma d'altro canto ha consentito una standardizzazione del pacchetto in linea con gli altri, in particolare ridisegnandone l'interfaccia. Nel primo capitolo si effettuera' una veloce panoramica dell'ambiente XCModel e delle problematiche emerse dai cambiamenti degli standard di X-Window. Il secondo capitolo affrontera' un'ampia analisi dell'hardware, del software e dei paradigmi che caratterizzano la grafica interattiva, e gli ambienti necessari per interagire con essa ed esaminando i vari obiettivi raggiungibili. Infine, il terzo capitolo analizzera' nel dettaglio le modifiche effettuate ai pacchetti di XCModel ed in particolare ad XCSurf per l'adattamento ai nuovi standard, nel rispetto delle politiche e delle linee guida dettate dalla grafica interattiva.
Resumo:
Il concetto di “sostenibilità” si riferisce allo sviluppo dei sistemi umani attraverso il più piccolo impatto possibile sul sistema ambientale. Le opere che si inseriscono bene nel contesto ambientale circostante e le pratiche che rispettano le risorse in maniera tale da permettere una crescita e uno sviluppo a lungo termine senza impattare sull’ambiente sono indispensabili in una società moderna. I progressi passati, presenti e futuri che hanno reso i conglomerati bituminosi materiali sostenibili dal punto di vista ambientale sono particolarmente importanti data la grande quantità di conglomerato usato annualmente in Europa e negli Stati Uniti. I produttori di bitume e di conglomerato bituminoso stanno sviluppando tecniche innovative per ridurre l’impatto ambientale senza compromettere le prestazioni meccaniche finali. Un conglomerato bituminoso ad “alta lavorabilità” (WMA), pur sviluppando le stesse caratteristiche meccaniche, richiede un temperatura di produzione minore rispetto a quella di un tradizionale conglomerato bituminoso a caldo (HMA). L’abbassamento della temperature di produzione riduce le emissioni nocive. Questo migliora le condizioni dei lavoratori ed è orientato verso uno sviluppo sostenibile. L’obbiettivo principale di questa tesi di laurea è quello di dimostrare il duplice valore sia dal punto di vista dell’eco-compatibilità sia dal punto di vista meccanico di questi conglomerati bituminosi ad “alta lavorabilità”. In particolare in questa tesi di laurea è stato studiato uno SMA ad “alta lavorabilità” (PGGWMA). L’uso di materiali a basso impatto ambientale è la prima fase verso un progetto ecocompatibile ma non può che essere il punto di partenza. L’approccio ecocompatibile deve essere esteso anche ai metodi di progetto e alla caratterizzazione di laboratorio dei materiali perché solo in questo modo è possibile ricavare le massime potenzialità dai materiali usati. Un’appropriata caratterizzazione del conglomerato bituminoso è fondamentale e necessaria per una realistica previsione delle performance di una pavimentazione stradale. La caratterizzazione volumetrica (Mix Design) e meccanica (Deformazioni Permanenti e Comportamento a fatica) di un conglomerato bituminoso è una fase importante. Inoltre, al fine di utilizzare correttamente i materiali, un metodo di progetto avanzato ed efficiente, come quello rappresentato da un approccio Empirico-Meccanicistico (ME), deve essere utilizzato. Una procedura di progetto Empirico-Meccanicistica consiste di un modello strutturale capace di prevedere gli stati di tensione e deformazione all’interno della pavimentazione sotto l’azione del traffico e in funzione delle condizioni atmosferiche e di modelli empirici, calibrati sul comportamento dei materiali, che collegano la risposta strutturale alle performance della pavimentazione. Nel 1996 in California, per poter effettivamente sfruttare i benefici dei continui progressi nel campo delle pavimentazioni stradali, fu iniziato un estensivo progetto di ricerca mirato allo sviluppo dei metodi di progetto Empirico - Meccanicistici per le pavimentazioni stradali. Il risultato finale fu la prima versione del software CalME che fornisce all’utente tre approcci diversi di l’analisi e progetto: un approccio Empirico, uno Empirico - Meccanicistico classico e un approccio Empirico - Meccanicistico Incrementale - Ricorsivo. Questo tesi di laurea si concentra sulla procedura Incrementale - Ricorsiva del software CalME, basata su modelli di danno per quanto riguarda la fatica e l’accumulo di deformazioni di taglio dai quali dipendono rispettivamente la fessurazione superficiale e le deformazioni permanenti nella pavimentazione. Tale procedura funziona per incrementi temporali successivi e, usando i risultati di ogni incremento temporale, ricorsivamente, come input dell’incremento temporale successivo, prevede le condizioni di una pavimentazione stradale per quanto riguarda il modulo complesso dei diversi strati, le fessurazioni superficiali dovute alla fatica, le deformazioni permanenti e la rugosità superficiale. Al fine di verificare le propreità meccaniche del PGGWMA e le reciproche relazioni in termini di danno a fatica e deformazioni permanenti tra strato superficiale e struttura della pavimentazione per fissate condizioni ambientali e di traffico, è stata usata la procedura Incrementale – Ricorsiva del software CalME. Il conglomerato bituminoso studiato (PGGWMA) è stato usato in una pavimentazione stradale come strato superficiale di 60 mm di spessore. Le performance della pavimentazione sono state confrontate a quelle della stessa pavimentazione in cui altri tipi di conglomerato bituminoso sono stati usati come strato superficiale. I tre tipi di conglomerato bituminoso usati come termini di paragone sono stati: un conglomerato bituminoso ad “alta lavorabilità” con granulometria “chiusa” non modificato (DGWMA), un conglomerato bituminoso modificato con polverino di gomma con granulometria “aperta” (GGRAC) e un conglomerato bituminoso non modificato con granulometria “chiusa” (DGAC). Nel Capitolo I è stato introdotto il problema del progetto ecocompatibile delle pavimentazioni stradali. I materiali a basso impatto ambientale come i conglomerati bituminosi ad “alta lavorabilità” e i conglomerati bituminosi modificati con polverino di gomma sono stati descritti in dettaglio. Inoltre è stata discussa l’importanza della caratterizzazione di laboratorio dei materiali e il valore di un metodo razionale di progetto delle pavimentazioni stradali. Nel Capitolo II sono stati descritti i diversi approcci progettuali utilizzabili con il CalME e in particolare è stata spiegata la procedura Incrementale – Ricorsiva. Nel Capitolo III sono state studiate le proprietà volumetriche e meccaniche del PGGWMA. Test di Fatica e di Deformazioni Permanenti, eseguiti rispettivamente con la macchina a fatica per flessione su quattro punti e il Simple Shear Test device (macchina di taglio semplice), sono stati effettuati su provini di conglomerato bituminoso e i risultati dei test sono stati riassunti. Attraverso questi dati di laboratorio, i parametri dei modelli della Master Curve, del danno a fatica e dell’accumulo di deformazioni di taglio usati nella procedura Incrementale – Ricorsiva del CalME sono stati valutati. Infine, nel Capitolo IV, sono stati presentati i risultati delle simulazioni di pavimentazioni stradali con diversi strati superficiali. Per ogni pavimentazione sono stati analizzati la fessurazione superficiale complessiva, le deformazioni permanenti complessive, il danno a fatica e la profondità delle deformazioni in ognuno degli stati legati.
Resumo:
Individuazione dei valori ottimali di crescita di dinoflagellate bentoniche, valutazione della tossicità e di interazioni allelopatiche. Il fitoplancton rappresenta la base della catena trofica in ambiente marino, nonché oltre la metà della produzione primaria a livello mondiale. Le dinoflagellate, assieme alle diatomee, costituiscono la maggior parte del fitoplancton, comprendendo numerose e diversificate specie di microalghe dalla differente distribuzione, ecologia e fisiologia. Alcune specie appartenenti a tale gruppo sono in grado di dare luogo, in determinate condizioni, a estesi fenomeni di fioriture algali, che diventano particolarmente impattanti se le specie coinvolte sono responsabili della produzione di biotossine, le quali possono direttamente uccidere altri organismi o accumularsi nei loro tessuti. Gli effetti nocivi di questi fenomeni si ripercuotono pesantemente sull'ecosistema marino, con ingenti morie di organismi acquatici (da pesci a molluschi, dal bentos al necton) e profonde alterazioni nelle comunità specifiche. Un forte coinvolgimento si ha di conseguenza anche per le attività umane, in seguito a forti esternalità negative su pesca, turismo, attività ricreative, o spesso con rischi direttamente correlati alla salute umana, dovuti perlopiù ad ingestione di organismi contaminati o all'inalazione di tossine per via aerea. Negli ultimi anni le fioriture algali tossiche si sono fortemente intensificate in distribuzione, estensione e frequenza, attirando l'interesse globale della comunità scientifica. Diversi studi condotti in questo senso hanno portato all'identificazione di numerose specie di dinoflagellate tossiche e all'isolamento di una lunga serie di composti chimici con effetti dannosi da esse sintetizzate. Tuttavia si conosce ancora ben poco sull'ecologia di queste specie, in particolare su quali siano i fattori che possano indurre o regolare la proliferazione e lo sviluppo di un bloom algale. Questo studio si è focalizzato su due specie di dinoflagellate bentoniche tossiche, Ostreopsis ovata e Coolia monotis, entrambe appartenenti alla famiglia Ostreopsidaceae, note già da tempo nei paesi tropicali poiché associate alla sindrome da ciguatera. Negli ultimi anni, Ostreopsis ovata è stata oggetto di numerose ricerche in Europa, poiché ha dato luogo a fenomeni di bloom, collegati con danni respiratori nell'uomo, anche lungo i litorali italiani; soltanto recentemente grazie ad una tecnica analitica basata sulla combinazione di cromatografia liquida e spettrometria di massa (LC-MS), è stato possibile isolare la diverse tossine responsabili. Durante i vari monitoraggi e campionamenti delle acque, questa dinoflagellata è stata sempre riscontrata in presenza di Coolia monotis (e Prorocentrum lima), di cui invece si conosce ben poco, visto che la sua tossicità in Mediterraneo non è ancora stata dimostrata, né la sua tossina caratterizzata. Il primo step di questo studio è stato quello di valutare, attraverso il mantenimento di colture in vitro, l'importanza della temperatura nella crescita di O. ovata e C. monotis (singolarmente) provenienti dalla zona del monte Conero (Ancona, Marche). Esistono già studi di questo tipo su ceppi adriatici di O. ovata, tuttavia è stato effettuato un esperimento similare utilizzando un nuovo ceppo, isolato in anni recenti; per C. monotis invece non sono presenti molti studi in letteratura, in particolare nessuno riguardante ceppi italiani. La valutazione della crescita è stata effettuata attraverso conteggio delle cellule, misura dell'efficienza fotosintetica e consumo dei macronutrienti. Quindi, visto che le due specie vivono in associazione nell'ambiente marino, si è cercato di evidenziare l'instaurarsi di eventuali processi competitivi o di fenomeni di allelopatia. Dall'analisi dei risultati è emerso che, se coltivate individualmente, sia C. monotis che O. ovata mostrano un optimum di crescita alla temperatura di 20°C, con tasso di crescita, numero di cellule e rendimento fotosintetico raggiunti più elevati, seppure non di molto rispetto alle colture a 25°C. Le colture a 30°C al contrario hanno mostrato valori sensibilmente inferiori. Se fatte crescere assieme, invece, C. monotis mantiene lo stesso pattern riscontrato nella monoculture a 20 e 25°C, seppur raggiungendo numeri di cellule inferiori, mentre a 30°C ha una crescita bassissima. Al contrario, O. ovata alla temperatura più elevata raggiunge lo stesso numero di cellule della monocultura, alla temperatura intermedia registra il tasso di crescita, ma non il numero di cellule, più elevato, mentre alla temperatura più bassa (che era l'optimum per la monocultura) si ha il maggior stress per la specie, evidenziando forti fenomeni di competizione. Esperimenti su C. monotis fatta crescere in un filtrato di O. ovata non hanno invece chiarito l'esistenza o meno di eventuali effetti allelopatici di Ostreopsis su Coolia, dato che non sono apparse differenze evidenti tra il controllo e il filtrato, mentre hanno messo in luce l'importanza dei batteri associati alle microalghe come supporto alla loro crescita, poiché le colture cresciute in filtrato sterile hanno manifestato tutte quante un rendimento quantico fotosintetico inferiore.
Resumo:
Il lavoro tratta l’applicazione di un progetto di Certificazione del Sistema di Gestione della Qualità di un’innovativa linea di Business nel settore delle macchine per il confezionamento delle bevande. Questo lavoro è stato preparato durante un periodo di Stage della durata di sei mesi effettuato presso SACMI IMOLA S.C. (Imola, BOLOGNA) a seguito della necessità, riscontrata dal management, di allineare il sistema gestione qualità della nuova linea di business alla normativa ISO 9001:2008, come per le altre linee di business dell’azienda. Tutto questo mediante l’implementazione di un sistema di Business Process Management (BPM) e di tutti i sistemi informatici ad esso collegati. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati l’evoluzione storica, la struttura attuale e i possibili scenari evolutivi inerenti il concetto di qualità, il sistema gestione qualità e la normativa di riferimento. La seconda parte è dedicata all’approfondimento delle tematiche del BPM, i cui principi hanno guidato l’intervento effettuato. La ricerca è stata condotta allo scopo di evidenziare le radici e gli elementi innovativi che contraddistinguono questo approccio di “management”, descrivere gli aspetti che ne hanno determinato la diffusione e l’evoluzione ed evidenziare, inoltre, il collegamento tra l’approccio per processi che sta alla base di questa filosofia di management e lo stesso approccio previsto nella normativa ISO 9001:2008 e, più specificatamente nella cosiddetta Vision 2000. Tale sezione si conclude con la formalizzazione delle metodologia e degli strumenti effettivamente utilizzati per la gestione del progetto. La terza ed ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate le varie fasi dell’implementazione del progetto, dall’analisi dell’attuale situazione alla costruzione dell’infrastruttura informatica per l’attuazione del BPM ottenuta attraverso l’applicazione dei “criteri di progettazione” trattati dalla letteratura di riferimento, passando per la mappatura dei processi attualmente in vigore e per l’analisi delle performance del processo attuale, misurate attraverso indicatori sviluppati “ad hoc”. Il lavoro è arricchito dall’analisi di un’innovativa metodologia per la creazione di un sistema di gestione integrato delle certificazioni (ISO 9001, ISO 14001, OHSAS 18001) fondato sull’infrastruttura informatica creata.
Resumo:
Il progetto di tesi, inizialmente, è stato concentrato sull’approfondimento, e studio, delle problematiche relative alla costruzione delle linee ad Alta Velocità, che hanno recentemente segnato il territorio italiano, da nord a sud e da ovest ad est. Proseguendo l’analisi sul sistema ferroviario, tramite il confronto con le altre realtà europee, ho compreso quali fossero le principali criticità e doti del trasporto su ferro in Italia, che è ancora molto lontano dalla sua miglior ottimizzazione, ma che comunque, ci tengo a dire, in rapporto a ciò che succede negli altri paesi d’Europa, non è così deficitario come si è portati a pensare. L’entrata in funzione delle linee ad Alta Velocità, infatti, ha cambiato lo scenario di relazioni tra infrastruttura, città e territorio, proprio in questo ambito nasce la volontà di proporre un modello di sviluppo urbano che comprenda, nella sua pianificazione originale, città, infrastruttura ed architettura, e che anzi rivendichi l’importanza di quest’ultima nelle scelte urbanistiche, al contrario di quanto purtroppo avviene oggi. Dopo uno studio dei contesti possibili in cui inserire un progetto di questa portata, è stata individuata la zona che meglio si adatta alle premesse iniziali, ad ovest di Milano tra Novara e l’aeroporto di Milano Malpensa. Qui la scarsa razionalizzazione dei trasporti pregiudica lo sfruttamento delle potenzialità dell’aeroporto da una parte, e della nuova linea ad Alta Velocità dell’altra, così aggiungendo una nuova tratta di ferrovia ad alte prestazioni e riorganizzando trasporti e territorio, ho tentato di dare risposta alle mancanze del sistema della mobilità. In questo quadro si inserisce la città lineare studiata per dimostrare la possibile integrazione tra trasporti, città ed architettura, il modello, partendo dallo studio del blocco milanese giunge a definire un piano di tipo composto, con un asse principale in cui sono concentrate le vie di trasporto, ed una serie di assi ortogonali secondari che individuano le emergenze architettoniche, punti notevoli che devono fungere da catalizzatori. In uno di questi punti, posto in posizione baricentrica è stato collocato il centro di ricerca avanzata, in particolare è stato inserito in una zona difficilmente raggiungibile, questo per enfatizzare l’isolamento e la riservatezza che sono necessarie alla funzione. Il campus avrebbe potuto trovarsi anche in un altro punto del piano e questo non avrebbe inficiato le premesse iniziali, il progetto dell’università è solo un pretesto per dimostrare l’ipotesi prima dichiarata, l’architettura può e deve svolgere un ruolo importante nella pianificazione anche infrastrutturale.
Resumo:
La tesi individua alcune strategie di rigenerazione urbana e di riqualificazione edilizia, al fine di ottenere una serie di linee guida per l’intervento sul patrimonio di edilizia abitativa situata nelle periferie urbane. Tali principi sono stati poi applicati ad un edificio ACER collocato nella prima periferia di Forlì, per sperimentare l’efficacia delle strategie individuate. Dalla ricerca svolta sulle strategie di intervento volte alla riqualificazione sociale delle periferie, in particolare la teoria del “Defencible space” di Jacobs, si evidenzia l’importanza di accentuare nei residenti il sentimento di territorialità, ovvero la consapevolezza di far parte di una comunità specifica insediata in un particolare spazio, alimentata attraverso la frequentazione e l’appropriazione percettivo-funzionale degli spazi pubblici. Si è deciso quindi di allargare il campo di intervento alla rigenerazione dell’interno comparto, attraverso la riorganizzazione degli spazi verdi e la dotazione di attrezzature sportive e ricreative, in modo da offrire spazi specifici per le diverse utenze (anziani, giovani, bambini) e la definizione di un programma funzionale di servizi ricreativi e spazi destinati a piccolo commercio per integrare le dotazioni carenti dell’area. Dall’analisi approfondita dell’edificio sono emerse le criticità maggiori su cui intervenire: - l’intersezione dei percorsi di accesso all’edificio - la struttura portante rigida, non modificabile - la scarsa varietà tipologica degli alloggi - l’elevato fabbisogno energetico. La riqualificazione dell’edificio ha toccato quindi differenti campi: tecnologico, funzionale, energetico e sociale; il progetto è stato strutturato come una serie di fasi successive di intervento, eventualmente realizzabili in tempi diversi, in modo da consentire il raggiungimento di diversi obiettivi di qualità, in funzione della priorità data alle diverse esigenze. Secondo quest’ottica, il primo grado di intervento, la fase 1 - riqualificazione energetica, si limita all’adeguamento dello stato attuale alle prestazioni energetiche richieste dalla normativa vigente, in assenza di adeguamenti tipologici e spaziali. La fase 2 propone la sostituzione degli impianti di riscaldamento a caldaie autonome presenti attualmente con un impianto centralizzato con pompa di calore, un intervento invasivo che rende necessaria la realizzazione di un “involucro polifunzionale” che avvolge completamente l’edificio. Questo intervento nasce da tre necessità fondamentali : - architettonica: poter ampliare verso l’esterno le superfici degli alloggi, così da intervenire sulle unità abitative rendendole più rispondenti alle necessità odierne; - statica: non dover gravare in ciò sull’edificio esistente apportando ulteriori carichi, difficilmente sopportabili dalla struttura esistente, assicurando il rispetto della normativa antisismica in vigore; - impiantistica/tecnologica: alloggiare i condotti del nuovo impianto centralizzato per il riscaldamento, raffrescamento e acs; La fase 3 è invece incentrata sull’ampliamento dell’offerta abitativa, in modo da rispondere anche a necessità legate ad utenze speciali, come utenti disabili o anziani. L’addizione di nuovi volumi si sviluppa in tre direzioni: - un volume parassita, che aderisce all’edificio nel fronte sud/est, indipendente dal punto di vista strutturale, ruotato per sfruttare al meglio l’orientamento ottimale. - un volume satellite, indipendente, connesso all’edificio esistente tramite un elemento di raccordo, e nel quale sono collocati alcuni alloggi speciali. - un’addizione in copertura, che non appoggia direttamente sul solaio di copertura esistente, ma grava sull’elemento di chiusura del’involucro realizzato nella fase 2 Completano il progetto le addizioni volumetriche a piano terra, destinate a servizi quali un centro diurno, un micronido e un bar, i quali costituiscono la traduzione alla scala dell’edificio delle strategie applicate nel progetto di comparto. Questi interventi hanno consentito di trasformare un edificio costruito negli anni ’80 in un complesso residenziale moderno, dotato spazi accessori di grande qualità, tecnologie moderne che ne garantiscono il comfort abitativo, servizi alla persona disponibili in prossimità dell’edificio.
Resumo:
Il miglioramento dell’ambiente urbano e, in particolare, della qualità di vita dei cittadini, così come lo scriteriato consumo di territorio in favore della barbara cementificazione delle aree non edificate, sono diventate questioni di particolare rilievo nello scenario globale finalizzato al raggiungimento di un nuovo modello di sviluppo delle città. Gli abitanti dei centri urbani, oggi, sono costretti ad affrontare il sovraffollamento e i problemi ad esso connessi: il traffico, la congestione, l’inquinamento e gli effetti che questi fattori generano alla società. L’area oggetto di questa tesi, luogo a forte vocazione turistica, presenta questo tipo di problematiche soprattutto in corrispondenza della stagione estiva mentre, per il resto dell’anno, si trova ad affrontare il problema opposto di riduzione delle attività e dello spopolamento causate dalla stagionalità. L’espansione edilizia, avvenuta con estrema rapidità e durante un periodo caratterizzato da un forte sviluppo economico , non ha seguito gli indirizzi di un Piano che avrebbe se non altro evitato sprechi di territorio e una struttura così caotica. Tradizionalmente l’idea di densità è sempre stata considerata in maniera negativa rispetto alla questione urbana, in quanto simbolo di un uso intensivo e indiscriminato del territorio e causa della scarsa qualità di vita che caratterizza molte città. In realtà il concetto di densità può assumere un significato diverso: legato all’efficienza, alla qualità e alla sostenibilità. Densificare, infatti, secondo opportune linee guida e in relazione agli standard di qualità, significa sfruttare al meglio le risorse esistenti all’interno delle città, utilizzando il territorio senza sprechi e ricucendo le fratture in grado di generare situazioni di degrado ambientale. Un complesso e minuzioso processo di “densificazione” è in grado di apportare molti benefici al cittadino e alla comunità, come la trasformazione degli spazi inutilizzati o dismessi, la riduzione delle distanze e della mobilità veicolare, la limitazione dell’impatto energetico sull’ambiente e, non ultima, la promozione di una nuova immagine urbana connessa a nuove funzionalità e strutture. Densificare è però condizione necessaria ma non sufficiente per il miglioramento dell’ambiente urbano, infatti il termine “densità” non specifica nulla sul risultato qualitativo e quantitativo che si intende ottenere. “Creazione di un ambiente più propizio alla vita ed intenzionalità estetica sono i caratteri stabili dell’architettura; questi aspetti emergono da ogni ricerca positiva ed illuminano la città come creazione umana” . È in questo senso che deve essere letta la “densificazione” proposta da questa tesi per la riqualificazione di Misano Adriatico. Occorrerà riqualificare soprattutto quelle aree marginali del tutto prive dei requisiti urbani al fine di integrarle maggiormente al resto della città. A essa dovrà essere collegata una nuova visione di quelle che saranno le infrastrutture legate alla mobilità ed i servizi necessari alla vita della comunità. Essi non dovranno più essere visti come elementi di semplice collegamento o episodi isolati distribuiti a caso nel territorio, ma dovranno recuperare quell’importanza strategica che li portavano ad essere l’elemento catalizzatore e la struttura portante dell’espansione urbana. La riqualificazione della città sviluppata in questa tesi segue “la strategia dei luoghi complementari” teorizzata da O.M. Ungers secondo cui: “la città dei -luoghi complementari- è composta dal numero più grande possibile di aree diverse, nelle quali viene sviluppato un aspetto urbano particolare tenendo conto del tutto. In un certo senso è un sistema della -città nella città-. Ogni parte ha le sue proprie caratteristiche, senza però essere perfezionata e conclusa. […] Si cerca la molteplicità, la diversità, non l’unitarietà. La contraddizione, la conflittualità sono parte del sistema e rimangono insolute” . Il fine ultimo di questa tesi è quindi quello di proporre un’idea di città del nostro tempo, un prodotto complesso, non identificabile con un unico luogo ma con un insieme di luoghi che si sovrappongono e si integrano in maniera complementare mantenendo le peculiarità intrinseche del territorio a cui appartengono.
Resumo:
La presente Tesi di Laurea si pone in continuità rispetto al Laboratorio di Sintesi Finale in Urbanistica “Spiagge urbane. Paesaggi, luoghi, architetture nella città balneare adriatica”. Nel corso del Laboratorio si è condotto uno studio delle possibili soluzioni per la riqualificazione dell’area e delle colonie fortemente degradate della “Città delle Colonie del Marano”. Si è anche condotto uno studio di ciò che sono state le Colonie Marine ed il turismo di massa per le realtà balneari della Riviera Romagnola. Il patrimonio delle colonie marine include 246 edifici in Romagna, edifici di altri tempi che guardano il mare da una posizione di privilegio. Infatti da Ravenna a Cattolica le colonie marine testimoniano un patrimonio edilizio ormai perduto ed in certi casi dimenticato. Purtroppo ad oggi risultano in stato di abbandono totale, rimanendo comunque forti testimonianze storiche. Queste città delle colonie sono pertanto aree da riqualificare e da reinventare, in grado di offrire nuove potenzialità e nuovi sviluppi alle città e al turismo della Riviera. La prima fase del Laboratorio ha riguardato l’analisi del territorio compreso tra i Comuni di Rimini e Riccione, cercando di estrapolare qualsiasi caratteristica di queste aree da riutilizzare, da valorizzare e da riprogettare : si sono studiate le colonie, le loro aree di pertinenza, i loro vincoli, le aree fluviali da salvaguardare, le infrastrutture e la potenzialità edificatoria del territorio. In una seconda fase di lavoro, si sono fatti incontri con docenti e professionisti al fine di approfondire gli eventuali progetti di riqualificazione già avviati, semplificando così anche il lavoro di analisi degli strumenti urbanistici vigenti. Queste fasi hanno portato alla redazione di un masteplan dettato dalle linee generali su cui si è voluto impostare tutta la progettazione urbanistica e compositiva: innanzitutto si è immaginato un nuovo waterfront costituito dalla vista delle colonie di valore storico in primo piano, e la nuova città in secondo piano. Si è immaginata inoltre una città balneare diversa, non più caratterizzata dalla presenza di aree fortemente densificate, ma un’area costruita in altezza per mantenere ampie zone a verde : la città balneare deve essere il più possibile accogliente e libera da veicoli, per non essere più vissuta unicamente nella stagione estiva. Si sono sempre tenute in considerazione anche le nuove tecnologie ed i principi guida della sostenibilità urbana, infatti la città si serve dell’ambiente circostante per gli scarichi dei reflui, per illuminare e per l’accumulo dell’acqua piovana.
Resumo:
“Tecnologie sostenibili per il social housing”: la mia tesi affronta il tema dell’edilizia sociale cercando di capire se può ancora diventare un campo di ricerca e sperimentazione architettonica come lo è stato in più occasioni nell’ultimo secolo. La ricerca si è sviluppata in due fasi: una prima attività di studio della vicenda storica dell’abitazione sociale in Italia, con alcuni confronti europei, fino ad analizzare il nuovo quadro che si è andato delineando dalla fine degli anni ’90 e che caratterizza la situazione attuale. Successivamente, la progettazione di un piccolo intervento di edilizia abitativa che si propone di rispondere agli attuali profili della domanda, puntando a scelte tipologiche e costruttive coerenti. Nel trentennio 1950-’80, nell’Europa uscita dalla Seconda guerra mondiale, e in Italia in particolare, l’edilizia popolare ha vissuto un periodo dinamico, ricco di interventi normativi da parte dello Stato, (su tutte la legge Fanfani, e le norme Gescal) che hanno permesso di realizzare molti degli edifici ancora oggi utilizzati, accelerando la ripresa economica e sociale. Dopo gli anni ’80, le ricerche e le sperimentazioni in campo architettonico si spostano verso altri temi; superata la necessità di fornire una casa a milioni di persone, il tema dell’alloggio sembra perdere il forte rilievo sociale che aveva avuto nei decenni precedenti. Fino a ritenere che il tema dell’alloggio e in particolare dell’alloggio sociale, non avesse più la necessità di essere sperimentato e approfondito. Oggi la situazione riguardante la sperimentazione non è molto diversa: sono ancora molto limitati, infatti, gli studi e le ricerche sul tema dell’alloggio sociale. Ciò che è nuovamente mutata, invece, è l’emergenza di una nuova domanda di casa e la drammatica esigenza sociale di fornire un alloggio a milioni di famiglie che non se lo possono permettere. Le dinamiche che guidano questa nuova ondata di richiesta di alloggi sono molteplici, sia di natura sociale che economica. Sul piano sociale: - l’aumento del numero delle famiglie, passate da 22.226.000 nel 200o a 24.642.000 nel 2010, con un aumento del 9,8% in un solo decennio; - la “nuclearizzazione” delle famiglie e la loro contrazione dimensionale, fino agli attuali 2,4 componenti per nucleo; - l’invecchiamento della popolazione; - l’aumento della popolazione straniera, con oltre 3.900.000 di immigrati regolari. Su quello economico: - l’aumento della povertà assoluta: in Italia 1.162.000 famiglie (4,7%) corrispondenti a 3.074.000 individui vivono sotto la soglia di povertà; - l’aumento della povertà relativa, che investe oggi 2.657.000 famiglie (9,3%) e l’aumento delle famiglie a rischio di povertà (920.000 famiglie, pari al 3,7% dei nuclei). Questi dati evidenziano la dimensione del problema abitativo e smentiscono l’opinione che si tratti di una questione marginale: nel 2010 in Italia almeno 1.162.000 non hanno le risorse per pagare un affitto, nemmeno a canone agevolato, e 4.739.000 famiglie non riescono a pagare un affitto ai prezzi del libero mercato, ma non hanno la possibilità di entrare nelle graduatorie per l’assegnazione di un alloggio sociale. Da questa panoramica sulle dimensioni del disagio abitativo, prende spunto la progettazione del mio sistema costruttivo, che si pone come obiettivo quello di ridurre i costi di costruzione tramite la standardizzazione dei componenti, consentendo di conseguenza, un minor costo di costruzione e quindi la possibilità di canoni di affitto ridotti, mantenendo buoni standard di qualità degli alloggi, sostenibilità ambientale e risparmio energetico. Le linee guida che hanno portato alla progettazione del sistema sono: - modularità degli spazi abitativi - zonizzazione funzionale - razionalizzazione impiantistica - illuminazione naturale - industrializzazione dei sistema costruttivo - standardizzazione dei componenti. Il risultato è un catalogo di alloggi di diverse metrature, aggregabili secondo tre tipologie residenziali. - a ballatoio - in linea - a torre Messo a punto questo sistema costruttivo, è stato progettato un intervento in un contesto specifico, per verificare l’applicabilità delle soluzioni sviluppate ed esplorarne alcune possibilità.
Resumo:
Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.
Resumo:
Questo elaborato si pone l'obiettivo di analizzare e valutare la sostenibilità dell'intera filiera dell'olio di palma, che viene importato da paesi del Sud Est asiatico per essere utilizzato in Europa per scopi sia energetici che alimentari. Nell'introduzione è inquadrata la problematica dei biocombustibili e degli strumenti volontari che possono essere utilizzati per garantire ed incentivare la sostenibilità in generale e dei biocombustibili; è presente inoltre un approfondimento sull'olio di palma, sulle sue caratteristiche e sulla crescita che ha subito negli ultimi anni in termini di produzione e compra/vendita. Per questa valutazione sono stati impiegati tre importanti strumenti di analisi e certificazione della sostenibilità, che sono stati applicati ad uno specifico caso di studio: l'azienda Unigrà SpA. La certificazione RSPO (Roundtable on Sustainable Palm Oil) è uno strumento volontario per la garanzia della sostenibilità della filiera dell'olio di palma in termini economici (vitalità nel mercato), ambientali (risparmio delle emissioni di gas ad effetto serra o GHG, conservazione delle risorse naturali e della biodiversità) e sociali (preservazione delle comunità locali e miglioramento nella gestione delle aree di interesse). La Global Reporting Initiative è un'organizzazione che prevede la redazione volontaria di un documento chiamato bilancio di sostenibilità secondo delle linee guida standardizzate che permettono alle organizzazioni di misurare e confrontare le loro performance economiche, sociali e ambientali nel tempo. La Direttiva Comunitaria 2009/28/CE (Renewable Energy Directive o RED) è invece uno strumento cogente nel caso in cui le organizzazioni intendano utilizzare risorse rinnovabili per ottenere incentivi finanziari. A seguito di un calcolo delle emissioni di GHG, le organizzazioni devono dimostrare determinate prestazioni ambientali attraverso il confronto con delle soglie presenti nel testo della Direttiva. Parallelamente alla valutazione delle emissioni è richiesto che le organizzazioni aderiscano a dei criteri obbligatori di sostenibilità economica, ambientale e sociale, verificabili grazie a degli schemi di certificazione che rientrano all'interno di politiche di sostenibilità globale. Questi strumenti sono stati applicati ad Unigrà, un'azienda che opera nel settore della trasformazione e della vendita di oli e grassi alimentari, margarine e semilavorati destinati alla produzione alimentare e che ha recentemente costruito una centrale da 58 MWe per la produzione di energia elettrica, alimentata in parte da olio di palma proveniente dal sud-est asiatico ed in parte dallo scarto della lavorazione nello stabilimento. L'adesione alla RSPO garantisce all'azienda la conformità alle richieste dell'organizzazione per la commercializzazione e la vendita di materie prime certificate RSPO, migliorando l'immagine di Unigrà all'interno del suo mercato di riferimento. Questo tipo di certificazione risulta importante per le organizzazioni perché può essere considerato un mezzo per ridurre l'impatto negativo nei confronti dell'ambiente, limitando deforestazione e cambiamenti di uso del suolo, oltre che consentire una valutazione globale, anche in termini di sostenibilità sociale. Unigrà ha visto nella redazione del bilancio di sostenibilità uno strumento fondamentale per la valutazione della sostenibilità a tutto tondo della propria organizzazione, perché viene data uguale rilevanza alle tre sfere della sostenibilità; la validazione esterna di questo documento ha solo lo scopo di controllare che le informazioni inserite siano veritiere e corrette secondo le linee guida del GRI, tuttavia non da giudizi sulle prestazioni assolute di una organizzazione. Il giudizio che viene dato sulle prestazioni delle organizzazioni e di tipo qualitativo ma non quantitativo. Ogni organizzazione può decidere di inserire o meno parte degli indicatori per una descrizione più accurata e puntuale. Unigrà acquisterà olio di palma certificato sostenibile secondo i principi previsti dalla Direttiva RED per l'alimentazione della centrale energetica, inoltre il 10 gennaio 2012 ha ottenuto la certificazione della sostenibilità della filiera secondo lo schema Bureau Veritas approvato dalla Comunità Europea. Il calcolo delle emissioni di tutte le fasi della filiera dell'olio di palma specifico per Unigrà è stato svolto tramite Biograce, uno strumento di calcolo finanziato dalla Comunità Europea che permette alle organizzazioni di misurare le emissioni della propria filiera in maniera semplificata ed adattabile alle specifiche situazioni. Dei fattori critici possono però influenzare il calcolo delle emissioni della filiera dell'olio di palma, tra questi i più rilevanti sono: cambiamento di uso del suolo diretto ed indiretto, perché possono provocare perdita di biodiversità, aumento delle emissioni di gas serra derivanti dai cambiamenti di riserve di carbonio nel suolo e nella biomassa vegetale, combustione delle foreste, malattie respiratorie, cambiamenti nelle caratteristiche dei terreni e conflitti sociali; presenza di un sistema di cattura di metano all'oleificio, perché gli effluenti della lavorazione non trattati potrebbero provocare problemi ambientali; cambiamento del rendimento del terreno, che può influenzare negativamente la resa delle piantagioni di palma da olio; sicurezza del cibo ed aspetti socio-economici, perché, sebbene non inseriti nel calcolo delle emissioni, potrebbero provocare conseguenze indesiderate per le popolazioni locali. Per una valutazione complessiva della filiera presa in esame, è necessario ottenere delle informazioni puntuali provenienti da paesi terzi dove però non sono di sempre facile reperibilità. Alla fine della valutazione delle emissioni, quello che emerge dal foglio di Biograce e un numero che, sebbene possa essere confrontato con delle soglie specifiche che descrivono dei criteri obbligatori di sostenibilità, non fornisce informazioni aggiuntive sulle caratteristiche della filiera considerata. È per questo motivo che accanto a valutazioni di questo tipo è necessario aderire a specifici criteri di sostenibilità aggiuntivi. Il calcolo delle emissioni dell'azienda Unigrà risulta vantaggioso in quasi tutti i casi, anche considerando i fattori critici; la certificazione della sostenibilità della filiera garantisce l'elevato livello di performance anche nei casi provvisti di maggiore incertezza. L'analisi del caso Unigrà ha reso evidente come l'azienda abbia intrapreso la strada della sostenibilità globale, che si traduce in azioni concrete. Gli strumenti di certificazione risultano quindi dei mezzi che consentono di garantire la sostenibilità della filiera dell'olio di palma e diventano parte integrante di programmi per la strategia europea di promozione della sostenibilità globale. L'utilizzo e l'implementazione di sistemi di certificazione della sostenibilità risulta per questo da favorire.
Resumo:
Ma la città non dice il suo passato, lo contiene come le linee di una mano. Scritto negli spigoli delle vie, nelle griglie delle finestre, negli scorrimano delle scale, nelle antenne dei parafulmini, nelle aste delle bandiere, ogni segmento rigato a sua volta di graffi, seghettature, intagli, virgole1 Calvino così parla di Zaira in Le Città Invisibili nella sezione dedicata a Le città e la memoria. Forse nessuno meglio di lui ci restituisce una visione del concetto di memoria all’interno di città. Il tema del passato, quindi della sua memoria, è argomento imprescindibile per la progettazione di un museo archeologico. L’obbiettivo di questa tesi è finalizzato alla realizzazione di un parco archeologico e di un nuovo museo archeologico che valorizzi i tesori del paese di Verucchio. Lo scopo ricercato è quello cogliere i frutti di tante campagne archeologiche svoltesi in questa terra per restituire visibilmente alla memoria, l’eccezionale patrimonio storico di epoca Villanoviana-Etrusca. Parlare di archeologia significa, da sempre, indagare il tempo, la storia, e l’uomo. Dal momento in cui l’uomo riscopre il passato compie congiuntamente una revisione del presente e influenza il suo futuro. Le architetture che trattano il tema dell’archeologia riflettono su questioni ampie e complesse come la memoria storica, la salvaguardia e la rivitalizzazione delle risorse del territorio. Il museo, in particolare, è un tema architettonico privilegiato essendo esso una delle istituzioni fondamentali del mondo occidentale degli ultimi secoli. Il ruolo civile di un architetto, svolto all’interno della società, è maggiormente sollecitato quando si deve confrontare con una delle tipologie architettoniche di maggiore rilievo nella cultura moderna. Per questo è indispensabile acquisire una consapevolezza critica fondata sulla cultura e sulla conoscenza della realtà dei luoghi, con le sue ricchezze e contraddizioni, con le sue dinamiche e le sue risorse.