508 resultados para strutture fragili, joint, sequenza di deformazione, fronte reattivo, diffusione, avvezione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato si inserisce all’interno del progetto THESEUS (Innovative Technologies for safer European coasts in a changing climate), nella sezione denominata “work package 3”. I principali obiettivi di questo studio sono: 1) valutare l’impatto delle differenti strategie di difesa di zone intertidale dell’ecosistema spiaggia lungo il litorale dell’Emilia-Romagna; 2) analizzare nel dettaglio la struttura e la distribuzione del microbivalve Lentidium mediterraneum, tipico do questa zona, per valutarne un eventuale utilizzo nei progetti di monitoraggio e analisi degli impatti antropici legati alle variazioni morfodinamiche. Sono state scelte tre spiagge: Cesenatico, in cui da molti anni sono presenti strutture di difesa rigide della spiaggia, e dove ogni anno, al termine della stagione estiva, vengono costruite delle dune artificiali, rimosse a fine primavera, per proteggere gli stabilimenti balneari dalle mareggiate invernali; Cervia, in cui sono presenti solo le dune artificiali stagionali; Lido di Dante, considerato naturale per l’assenza di strutture di protezione. Il campionamento è stato effettuato in 3 tempi per ciascun sito. 2 tempi senza le dune artificiali, e uno con. Per ciascun sito e ciascun tempo sono stati replicati 3 transetti, random, per ogni livello di marea. Sono stati prelevati campioni per un totale di 14879 individui e identificati 40 taxa. Da questi sono stati estratti gli esemplari di Lentidium mediterraneum da analizzare. Le analisi uni e multivariate effettuate sull’intera comunità hanno messo in evidenza differenze fra le spiagge, fra i tempi di campionamento e i livelli di marea. Si è, inoltre evidenziato come tali differenze fossero in parte dovute alle densità di Lentidium mediterraneum. Oltre alle analisi classiche nel presente lavoro di tesi è stato proposto un modello concettuale di trasporto del Lentidium mediterraneum che se validato confermerebbe la possibilità di utilizzare il microbivalve come “proxy biologico”.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il ponte oggetto di studio è costituito da un arco parabolico al quale è sospeso un impalcato metallico. Questo arco è costituito da due arcate che si generano da un'unica imposta in asse all'impalcato, divergono in corrispondenza della sua mezzeria, per confluire nuovamente in un unico punto, configurazione che risulta insolita rispetto alla norma, dove le due arcate solitamente hanno imposte distinte. Il sito dove si prevede di realizzare questo manufatto è una zona ad alta sismicità. Lo studio tratta dell'instabilità fuori dal piano dell'arco, e dei benefici derivanti da un isolamento dell'impalcato rispetto alla sottostruttura

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’intenzione che ha mosso la ricerca è stata quella di ridare valore alla casa pubblica, perché è un’opportunità per la popolazione, soprattutto per le fasce sociali più deboli e perché non può non essere espressione di qualità architettonica, urbanistica e sociale. A ciò si aggiunge la scelta di un modo di operare sostenibile, dove alle nuove costruzioni si predilige l’idea del recupero. Ecco da dove nasce l’idea di ripartire dall’esistente, scegliendo un’area del sistema urbano di proprietà pubblica, per definire, in una prospettiva di miglioramento, un sistema di strategie di intervento e un progetto di riqualificazione. Capire come agire su un’area di questo tipo, ha stimolato ad una lettura degli interventi statali sul tema dell’edilizia pubblica attraverso le azioni in campo legislativo. La ricerca ha preso poi avvio da una lettura dell’evoluzione del quadro normativo nazionale in materia, per poi concentrarsi sul contesto locale con il racconto dei fatti storici della città di Faenza fino ai giorni nostri attraverso le sue vicende urbanistiche. Una considerazione sulla legislazione passata dà la possibilità di vedere come lo Stato abbia nel tempo prestato attenzione e risposto in maniera diversa al problema della casa. In ogni periodo le iniziative dell’Amministrazione in merito alla programmazione, si mostrano come risultati di una risposta sociale e culturale, rilanciando poi, a seconda del momento, varie tematiche, ieri la carenza degli alloggi, oggi il tema della qualità urbana, del recupero e la necessità di contenere i costi e i consumi energetici. Lo studio si è quindi spostato e concentrato sulle tappe ed i risvolti della programmazione a livello locale, cercando di comprendere, anche sulle carte, il risultato di queste azioni amministrative, si legge come il susseguirsi delle diverse politiche urbanistiche abbia lasciato tracce e segni nel disegno della città. Nel loro esito formale gli interventi hanno assunto un valore nella vicenda della città poiché ne hanno determinato l’espansione in un certo modo. Dopo un lavoro di ricerca di documenti, consultando anche diversi archivi, gli interventi in materia di edilizia residenziale pubblica presenti a Faenza sono stati schedati al fine di creare un repertorio di informazioni riguardanti la localizzazione, la data di costruzione e informazioni riguardanti il tipo di intervento a livello normativo, in questo modo si è potuto inquadrare ciascun quartiere in una determinata stagione di politiche abitative. Queste informazioni sono state poi tradotte in schemi che comprendono tutto il territorio della città fino ad ottenere una visione d’insieme e cogliere le relazioni che i singoli interventi intrattengono con il resto della città. Si esplorano poi le relazioni in base alle stagioni delle politiche abitative e in base ai soggetti che ne hanno promosso la costruzione. La ricerca si propone quindi di riflettere sugli strumenti con cui agire nei casi di degrado, assecondando la logica del recupero e del riuso. Il processo per definire il "come" intervenire ha portato alla creazione di un abaco di possibili strategie di riqualificazione suddivise per grandi tematiche (connessione e mobilità, mixitè funzionale e verde, risparmio energetico, nuovi modi dell’abitare e relazioni e identità). Ogni tematica viene poi declinata in sottotemi che descrivono le operazioni possibili per la rigenerazione, correlati da una definizione e da piccoli progetti applicativi. Ciascun progetto schematizzato è pensato su un’area di edilizia residenziale pubblica di Faenza. Le strategie vengono poi effettivamente applicate ad un caso studio: il PEEP Orto Paganella. Il progetto di riqualificazione si struttura in due parti. Una riguarda l’impianto del quartiere, inserendo un nuovo volume destinato a servizi, l’altra si concentra su un edificio esistente per un progetto di recupero allo scopo di ridare valore al manufatto, riscattarne l’immagine e creare un’offerta abitativa adeguata, che assicuri abitazioni in affitto e tipi di alloggi destinati a nuovi soggetti della popolazione, con le loro specifiche esigenze. Il progetto di riqualificazione si sviluppa a partire dall’orientamento dell’edificio e dei suoi affacci. Viene sviluppato il tema dell’involucro, che circonda l’edificio e si declina sui diversi fronti in modo diverso. La proposta della facciata verso sud, trasparente e aperta sul parco pubblico ritrova la giusta considerazione per l’orientamento, sfruttandone le potenzialità e aprendosi alla vista del parco, mentre il fronte a nord rimane chiuso e protetto. Creando nuovi spazi e nuovi affacci e restituendo una nuova immagine dell’edificio si cerca di stimolare una riappropriazione del senso di appartenenza al quartiere.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si propone di indagare l'impatto di alcuni scenari di sviluppo aeroportuale legati alla prevista implementazione di un sistema di trasporto APM - People Mover, in termini di performance del terminal passeggeri dell'Aeroporto `G.Marconi' di Bologna, per fornire soluzioni efficaci alla mobilità. Il background teorico è rappresentato dai risultati ottenuti dalla ricerca sperimentale e ormai acquisiti dalla trattazione classica per code markoviane avanzate (bulk queus), mentre il metodo messo a punto, del tutto generale,parte dagli arrivi schedulati e attraverso una serie di considerazioni econometriche costruisce una serie di scenari differenti,implementati poi attraverso la simulazione dinamica con l'utilizzo del software ARENA. Le principali grandezze di stato descrittive dei processi modellizzati ottenute in output vengono confrontate e valutate nel complesso, fornendo in prima approssimazione previsioni sull'efficacia del sistema previsto. Da ultimo, vengono proposti e confrontati i due approcci forniti tanto dalla manualistica di settore quanto da contributi di ricerca per arrivare a definire un dimensionamento di massima di strutture per la mobilità (una passerella di collegamento del terminal alla stazione APM) e una verifica della piattaforma per l'attesa ad essa contigua.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’oggetto di studio di questa tesi è la Colonia Reggiana, edificio di stampo razionalista realizzata nel 1934. Obiettivo della tesi è la realizzazione un progetto di restauro e riuso per questa struttura, a seguito di un approfondita ricerca. Nelle fase iniziale si è cercato di ampliare lo sguardo uscendo dal tema proposto, con l’intenzione di comprendere il perché della nascita di questo “fenomeno colonie” che ha interessato l’Italia dalla metà dell’800 fino al secondo dopoguerra, nonché l’evoluzione del significato di queste strutture e della loro architettura nel periodo coinvolto. La seconda fase, invece, è stata impostata sull’intima conoscenza della Colonia Reggiana, partendo dal 1933 (anno in cui si ritrovano i primi documenti che riguardano tale progetto) fino ai giorni nostri: declinando gli aspetti fondamentali riscontrati nella prima fase di ricerca su questo edificio e analizzando le singole parti di ciò che a noi è pervenuto della struttura, si è potuto arrivare a rilevare molti aspetti significativi per lo sviluppo delle ipotesi progettuali. L’ultima fase è appunto caratterizzata dallo sviluppo del progetto di restauro e riuso: il concetto fondamentale che si pone alla base è quello della coerenza con le analisi effettuate e di sviluppo di un riutilizzo che possa essere adeguato alle occasioni progettuali che l’area offre.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce all’interno del progetto Europeo Theseus (Innovative technologies for European coasts in a changing climate), volto a fornire una metodologia integrata per la pianificazione sostenibile di strategie di difesa per la gestione dell’erosione costiera e delle inondazioni che tengano in conto non solo gli aspetti tecnici ma anche quelli sociali, economici e ambientali/ecologici. L'area oggetto di studio di questo elaborato di tesi è la zona costiera della Regione Emilia Romagna, costituita unicamente da spiagge sabbiose. In particolare si è focalizzata l’attenzione sulla zona intertidale, in quanto, essendo l’ambiente di transizione tra l’ambiente marino e quello terrestre può fornire indicazioni su fenomeni erosivi di una spiaggia e cambiamenti del livello del mare, unitamente alla risposta agli interventi antropici. Gli obiettivi della tesi sono sostanzialmente tre: un primo obiettivo è confrontare ecosistemi di spiagge dove sono presenti strutture di difesa costiera rispetto a spiagge che ne erano invece prive. Il secondo obiettivo è valutare l’impatto provocato sugli ecosistemi di spiaggia dall’attività stagionale del “bulldozing” e in ultimo proporre un sistema esperto di nuova concezione in grado di prevedere statisticamente la risposta delle comunità bentoniche a diversi tipi di interventi antropici. A tal fine è stato pianificato un disegno di campionamento dove sono stati indagati tre siti differenti per morfologia e impatto antropico: Cesenatico (barriere e pratica bulldozing), Cervia, dissipativa e non soggetta a erosione (assenza di barriere e ma con pratica del bulldozing) e Lido di Dante, tendenzialmente soggetta a erosione (senza barriere e senza pratica del bulldozing). Il campionamento è stato effettuato in 4 tempi (due prima del “bulldozing” e due dopo) nell’arco di 2 anni. In ciascun sito e tempo sono stati campionati 3 transetti perpendicolari alla linea di costa, e per ogni transetto sono stati individuati tre punti relativi ad alta, media e bassa marea. Per ogni variabile considerata sono stati prelevati totale di 216 campioni. Io personalmente ho analizzato i campioni dell’ultima campagna di campionamento, ma ho analizzato l’insieme dei dati. Sono state considerate variabili relative ai popolamenti macrobentonici quali dati di abbondanza, numero di taxa e indice di diversità di Shannon e alcune variabili abiotiche descrittive delle caratteristiche morfologiche dell’area intertidale quali granulometria (mediana, classazione e asimmetria), detrito conchigliare, contenuto di materia organica (TOM), pendenza e lunghezza della zona intertidale, esposizione delle spiagge e indici morfodinamici. L'elaborazione dei dati è stata effettuata mediante tecniche di analisi univariate e multivariate sia sui dati biotici che sulle variabili ambientali, “descrittori dell’habitat”, allo scopo di mettere in luce le interazioni tra le variabili ambientali e le dinamiche dei popolamenti macrobentonici. L’insieme dei risultati delle analisi univariate e multivariate sia dei descrittori ambientali che di quelli biotici, hanno evidenziato, come la risposta delle variabili considerate sia complessa e non lineare. Nonostante non sia stato possibile evidenziare chiari pattern di interazione fra “protezione” e “bulldozing”, sono comunque emerse delle chiare differenze fra i tre siti indagati sia per quanto riguarda le variabili “descrittori dell’habitat” che quelle relative alla struttura dei popolamenti. In risposta a quanto richiesto in contesto water framework directive e in maniera funzionale all’elevate complessità del sistema intertidale è stato proposto un sistema esperto basato su approccio congiunto fuzzy bayesiano (già utilizzato con altre modalità all’interno del progetto Theseus). Con il sistema esperto prodotto, si è deciso di simulare nel sito di Cesenatico due ripascimenti virtuali uno caratterizzato da una gralometria fine e da uno con una granulometria più grossolana rispetto a quella osservata a Cesenatico. Il sistema fuzzy naïve Bayes, nonostante al momento sia ancora in fase di messa a punto, si è dimostrato in grado di gestire l'elevato numero di interazioni ambientali che caratterizzano la risposta della componente biologica macrobentonica nell'habitat intertidale delle spiagge sabbiose.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Cloud computing è probabilmente l'argomento attualmente più dibattuto nel mondo dell'Information and Communication Technology (ICT). La diffusione di questo nuovo modo di concepire l'erogazione di servizi IT, è l'evoluzione di una serie di tecnologie che stanno rivoluzionando le modalit à in cui le organizzazioni costruiscono le proprie infrastrutture informatiche. I vantaggi che derivano dall'utilizzo di infrastrutture di Cloud Computing sono ad esempio un maggiore controllo sui servizi, sulla struttura dei costi e sugli asset impiegati. I costi sono proporzionati all'eettivo uso dei servizi (pay-per-use), evitando dunque gli sprechi e rendendo più efficiente il sistema di sourcing. Diverse aziende hanno già cominciato a provare alcuni servizi cloud e molte altre stanno valutando l'inizio di un simile percorso. La prima organizzazione a fornire una piattaforma di cloud computing fu Amazon, grazie al suo Elastic Computer Cloud (EC2). Nel luglio del 2010 nasce OpenStack, un progetto open-source creato dalla fusione dei codici realizzati dall'agenzia governativa della Nasa[10] e dell'azienda statunitense di hosting Rackspace. Il software realizzato svolge le stesse funzioni di quello di Amazon, a differenza di questo, però, è stato rilasciato con licenza Apache, quindi nessuna restrizione di utilizzo e di implementazione. Oggi il progetto Openstack vanta di numerose aziende partner come Dell, HP, IBM, Cisco, e Microsoft. L'obiettivo del presente elaborato è quello di comprendere ed analizzare il funzionamento del software OpenStack. Il fine principale è quello di familiarizzare con i diversi componenti di cui è costituito e di concepire come essi interagiscono fra loro, per poter costruire infrastrutture cloud del tipo Infrastructure as a service (IaaS). Il lettore si troverà di fronte all'esposizione degli argomenti organizzati nei seguenti capitoli. Nel primo capitolo si introduce la definizione di cloud computing, trattandone le principali caratteristiche, si descrivono poi, i diversi modelli di servizio e di distribuzione, delineando vantaggi e svantaggi che ne derivano. Nel secondo capitolo due si parla di una delle tecnologie impiegate per la realizzazione di infrastrutture di cloud computing, la virtualizzazione. Vengono trattate le varie forme e tipologie di virtualizzazione. Nel terzo capitolo si analizza e descrive in dettaglio il funzionamento del progetto OpenStack. Per ogni componente del software, viene illustrata l'architettura, corredata di schemi, ed il relativo meccanismo. Il quarto capitolo rappresenta la parte relativa all'installazione del software e alla configurazione dello stesso. Inoltre si espongono alcuni test effettuati sulla macchina in cui è stato installato il software. Infine nel quinto capitolo si trattano le conclusioni con le considerazioni sugli obiettivi raggiunti e sulle caratteristiche del software preso in esame.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’elaborazione di questa tesi è stata svolta con l’ausilio di strumenti di Business Intelligence. In particolare, si è dapprima alimentato un data warehouse territoriale, in cui sono stati inseriti, dopo averli elaborati, i dati messi a disposizione dagli osservatori territoriali nazionali e dall’azienda Geofor spa. A partire da questi, sono stati prodotti degli indicatori statistici e dei report, utili per evidenziare andamenti e trend di crescita di alcuni particolari indici. Il principale strumento utilizzato è StatPortal, un portale Web di Business Intelligence OLAP per la realizzazione di Data warehouse territoriali. L’argomento sarà approfondito nel capitolo sette, dedicato agli strumenti utilizzati, ma in breve, questo sistema consente di raccogliere, catalogare e condividere informazione statistica e geostatistica, nonché di produrre indicatori e reportistica. Il lavoro è organizzato come segue: inizialmente c’è una prima parte di definizione e classificazione dei rifiuti che ha l’obiettivo di permettere al lettore di inquadrare il tema e prendere coscienza del problema. Successivamente, è stata sviluppata una parte più storica, con una rapida analisi temporale per comprendere il “tipping point”, cioè il momento in cui i rifiuti hanno iniziato a essere percepiti come un problema per la comunità, concludendo con un accenno agli scenari attuali e futuri. In seguito, si è indirizzata l’attenzione sul panorama italiano, europeo e mondiale citando alcuni interessanti e originali esempi di efficienza nella gestione dei rifiuti, che potrebbero servire da spunto per qualche stakeholder nazionale. Si è poi introdotta quella che è la normativa vigente, sottolineando quali sono gli obiettivi che impone ed entro quali tempi dovranno essere raggiunti, elencando quindi i principi fondamentali del D.lgs.152/2006 e del D.lgs 36/2003. Continuando su questo filo logico, si è voluto introdurre al lettore, la questione dei Rifiuti Solidi Urbani (RSU) nel Comune di Pisa. Sono stati definiti: lo stato dell’arte dell’igiene urbana pisana, i sistemi implementati nella città con i vari pregi e difetti e quali sono state le azioni pratiche messe in atto dall’Amministrazione per far fronte al tema. Il capitolo sei rappresenta uno dei due punti focali dell’intero lavoro: il Rapporto sullo Stato dell’Ambiente della città di Pisa in tema di rifiuti urbani. Qui saranno analizzati i vari indici e report prodotti ad hoc con lo strumento Statportal appena menzionato, con lo scopo di segnalare evidenze e obiettivi dell’Amministrazione. Nel settimo capitolo si analizza la fase di progettazione del Data Warehouse. Sono elencati i passi fondamentali nella costruzione di un DW dimensionale, esponendone in primo luogo la specifica dei requisiti del progetto ed elencando per ognuno di essi le dimensioni, le misure e le aggregazioni relative. In seguito saranno descritti nel dettaglio la fase di progettazione concettuale e lo schema logico. In ultimo, sarà presentato l’altro punto focale di questa tesi, nonché la parte più interattiva: un portale web creato appositamente per il Comune con l’obiettivo di coinvolgere ed aiutare i cittadini nel conferimento dei rifiuti da loro prodotti. Si tratta di una sorta di manuale interattivo per individuare come eseguire una corretta differenziazione dei rifiuti. Lo scopo primario è quello di fare chiarezza alle utenze nella differenziazione, il che, in maniera complementare, dovrebbe incrementare la qualità del rifiuto raccolto, minimizzando i conferimenti errati. L’obiettivo principale di questo lavoro resta quindi il monitoraggio e l’analisi delle tecniche e dei processi di gestione dei rifiuti nel Comune di Pisa. Analogamente si vuole coinvolgere e suscitare l’interesse del maggior numero di persone possibile al tema della sostenibilità ambientale, rendendo consapevole il lettore che il primo passo verso un mondo più sostenibile spetta in primis a Noi che quotidianamente acquistiamo, consumiamo ed infine gettiamo via i residui senza troppo preoccuparci. Il fatto che anche in Italia, si stia sviluppando un senso civico e una forte responsabilizzazione verso l’ambiente da parte dei cittadini, fa ben sperare. Questo perché si è riusciti a imprimere il concetto che le soluzioni si ottengano impegnandosi in prima persona. E’ alla nostra comunità che si affida il dovere di non compromettere l’esistenza delle generazioni future, incaricandola del compito di ristabilire un equilibrio, ormai precario, tra umanità e ambiente, se non altro perché, come recita un vecchio proverbio Navajo: “il mondo non lo abbiamo in eredità dai nostri padri ma lo abbiamo in prestito dai nostri figli”.