931 resultados para acidificazione, Isola di Ischia, effetto vento, serie temporali, analisi dati


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi si propone di realizzare un sistema in grado non solo di gestire la similarità tra media di stesso tipo, in modo tale da essere al pari per potenzialità in catalogazione e ricerca dei sistemi esistenti, ma di introdurre anche il concetto di similarità tra documenti, i quali contengono media di diverso tipo. Anche se esistono già DBMS in grado di gestire tipi di media complessi, nessuno ha un modello in grado di gestire la compresenza di più tipi di dato efficientemente. Per realizzare un sistema multimediale che sia in grado di gestire non solo la similarità tra media compatibili per tipo ma in generale la ricerca tra documenti si è deciso di utilizzare sistemi per media specifici già esistenti e di integrarli in modo da farli cooperare. A tale proposito si è deciso inizialmente di creare un sistema in grado di gestire documenti che possano contenere inizialmente parti testuali, immagini, video e serie temporali. E’ chiaro intuire come le differenze tra i singoli sistemi (e tra le singole tipologie di dati) rendano quasi impossibile il confronto tra media di tipo diverso esaminandone solamente il contenuto. Per questo un sistema multimediale come quello proposto non potrà effettuare ricerca per contenuto tra media differenti (a parte tra immagini e video in cui può essere possibile confrontare l’immagine con gli screenshot che compongono un video) ma si baserà principalmente sul confronto semantico tra media di tipo diverso e lo combinerà invece con ricerche per metadati e contenuto tra media dello stesso tipo. In questa tesi verranno analizzate le tecnologie utilizzate, le modifiche apportate ai framework esistenti e le novità introdotte per realizzare il sistema generale e in seguito verrà proposta la realizzazione due applicazioni su casi reali per dimostrare l’efficacia di tale sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo studio è la comprensione della dinamica dello strato limite urbano per città dell’Emilia Romagna tramite simulazioni numeriche. In particolare, l’attenzione è posta sull’ effetto isola di calore, ovvero sulla differenza di temperatura dell’aria in prossimità del suolo fra zone rurali e urbane dovuta all’urbanizzazione. Le simulazioni sono state effettuate con il modello alla mesoscala "Weather Research and Forecasting" (WRF), accoppiato con le parametrizzazioni urbane "Building Effect Parametrization" (BEP) e "Building Energy Model" (BEM), che agiscono a vari livelli verticali urbani. Il periodo di studio riguarda sei giorni caldi e senza copertura nuvolosa durante un periodo di heat wave dell’anno 2015. La copertura urbana è stata definita con il "World Urban Databes and Access Portal Tools" (WUDAPT), un metodo che permette di classificare le aree urbane in dieci "urban climate zones" (UCZ), attraverso l’uso combinato di immagini satellitari e "training areas" manualmente definite con il software Google Earth. Sono state svolte diverse simulazioni a domini innestati, con risoluzione per il dominio più piccolo di 500 m, centrato sulla città di Bologna. Le differenze fra le simulazioni riguardano la presenza o l’assenza delle strutture urbane, il metodo di innesto e tipo di vegetazione rurale. Inoltre, è stato valutato l’effetto dovuto alla presenza di pannelli fotovoltaici sopra i tetti di ogni edificio e le variazioni che i pannelli esercitano sullo strato limite urbano. Per verificare la bontà del modello, i dati provenienti dalle simulazioni sono stati confrontati con misure provenienti da 41 stazioni all’interno dell’area di studio. Le variabili confrontate sono: temperatura, umidità relativa, velocità e direzione del vento. Le simulazioni sono in accordo con i dati osservativi e riescono a riprodurre l’effetto isola di calore: la differenza di temperatura fra città e zone rurali circostanti è nulla durante il giorno; al contrario, durante la notte l’isola di calore è presente, e in media raggiunge il massimo valore di 4°C alle 1:00. La presenza dei pannelli fotovoltaici abbassa la temperatura a 2 metri dell’aria al massimo di 0.8°C durante la notte, e l’altezza dello strato limite urbano dell’ordine 200mrispetto al caso senza pannelli. I risultati mostrano come l’uso di pannelli fotovoltaici all’interno del contesto urbano ha molteplici benefici: infatti, i pannelli fotovoltaici riescono a ridurre la temperatura durante un periodo di heat wave, e allo stesso tempo possono parzialmente sopperire all’alto consumo energetico, con una conseguente riduzione del consumo di combustibili fossili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo elaborato è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole lupino. I dati relativi a campioni raccolti nel periodo 2008-2015 nella zona tra Cervia e Fano sono stati messi in relazione con alcuni parametri quali salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Marecchia. Sono stati presi in considerazione oltre 350 campioni, in cui i conteggi di E. coli mediante tecnica MPN sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); cariche intermedie (50-230 MPN/100g); cariche alte, ossia non conformi al regolamento europeo (>230 MPN/100g). L’eventuale significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test chi-quadrato e il test di Kruskal-Wallis. Per quanto riguarda il test chi-quadrato, eseguito in relazione ad anno, mese e stagione, si è visto che i campioni più inquinati derivano dagli anni 2010 e 2012, dai mesi novembre/dicembre e in generale dalla stagione autunnale. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che le frequenze dei campioni nelle tre categorie non sono significative in relazione alla salinità. Al contrario, per i parametri temperatura e livello del fiume Marecchia sono stati ottenuti risultati significativi: infatti, le cariche microbiche più alte corrispondono a temperature più basse delle acque e a periodi di maggiore portata del fiume. Questo episodio riflette sicuramente un aspetto biologico legato al ciclo vitale di Chamelea gallina, che vive la sua fase riproduttiva nella stagione più calda, diminuendo quindi la sua attività filtrante, fonte di contaminazione. Al contempo questo andamento è anche spiegabile dall’apporto di contaminanti dalle precipitazioni e dai fiumi che trascinano sostanze organiche inquinanti di natura antropica, che costituiscono fonte di nutrimento per le specie microbiche come E. coli ed altri enterobatteri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Attraverso lo studio di serie temporali di coordinate è possibile studiare l'entità degli spostamenti, nel tempo, di punti materializzati sulla Terra. In particolare, si incentra l'attenzione sull'analisi della stazione permanente GNSS DCRU collocata presso la base italo-francese Concordia, così da valutare il campo di velocità di deflusso superficiale del ghiaccio in una porzione di plateau dell’Antartide orientale sede della perforazione profonda in ghiaccio del progetto European Project for Ice Coring in Antarctica (EPICA) . Tale stazione è stata inserita in una rete di inquadramento dell'IGS e ha acquisito dati satellitari dal 2005 a oggi, raccolti giornalmente in file RINEX. Tramite l'utilizzo del software Bernese versione 5.2 è stato possibile ottenere dai file RINEX i file SINEX contenenti le soluzioni giornaliere, che costituiscono la serie temporale, e le relative varianze e covarianze. Avvalendosi del programma Tsview implementato per GGMatlab si sono poi valutate le componenti principali che caratterizzano una serie temporale, quali il trend, le componenti stagionali ed i rumori che giocano, talvolta, un ruolo importante nella valutazione dell'incertezza legata alle misure. Infine si è cercato di dare un'interpretazione fisica ai risultati che sono tutt'ora oggetto di studio. In questa tesi, quindi, si delinea un quadro generale delle procedure e delle problematiche da affrontare, sia per ottenere dall'acquisizione satellitare le soluzioni giornaliere costituenti la serie temporale, sia per analizzare la serie stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro tratta lo studio dei fenomeni aeroelastici di interazione fra fluido e struttura, con il fine di provare a simularli mediante l’ausilio di un codice agli elementi finiti. Nel primo capitolo sono fornite alcune nozioni di fluidodinamica, in modo da rendere chiari i passaggi teorici fondamentali che portano alle equazioni di Navier-Stokes governanti il moto dei fluidi viscosi. Inoltre è illustrato il fenomeno della formazione di vortici a valle dei corpi tozzi dovuto alla separazione dello strato limite laminare, con descrizione anche di alcuni risultati ottenuti dalle simulazioni numeriche. Nel secondo capitolo vengono presi in rassegna i principali fenomeni di interazione fra fluido e struttura, cercando di metterne in luce le fondamenta della trattazione analitica e le ipotesi sotto le quali tale trattazione è valida. Chiaramente si tratta solo di una panoramica che non entra in merito degli sviluppi della ricerca più recente ma fornisce le basi per affrontare i vari problemi di instabilità strutturale dovuti a un particolare fenomeno di interazione con il vento. Il terzo capitolo contiene una trattazione più approfondita del fenomeno di instabilità per flutter. Tra tutti i fenomeni di instabilità aeroelastica delle strutture il flutter risulta il più temibile, soprattutto per i ponti di grande luce. Per questo si è ritenuto opportuno dedicargli un capitolo, in modo da illustrare i vari procedimenti con cui si riesce a determinare analiticamente la velocità critica di flutter di un impalcato da ponte, a partire dalle funzioni sperimentali denominate derivate di flutter. Al termine del capitolo è illustrato il procedimento con cui si ricavano sperimentalmente le derivate di flutter di un impalcato da ponte. Nel quarto capitolo è presentato l’esempio di studio dell’impalcato del ponte Tsing Ma ad Hong Kong. Sono riportati i risultati analitici dei calcoli della velocità di flutter e di divergenza torsionale dell’impalcato e i risultati delle simulazioni numeriche effettuate per stimare i coefficienti aerodinamici statici e il comportamento dinamico della struttura soggetta all’azione del vento. Considerazioni e commenti sui risultati ottenuti e sui metodi di modellazione numerica adottati completano l’elaborato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La necessità di sincronizzare i propri dati si presenta in una moltitudine di situazioni, infatti il numero di dispositivi informatici a nostra disposizione è in continua crescita e, all' aumentare del loro numero, cresce l' esigenza di mantenere aggiornate le multiple copie dei dati in essi memorizzati. Vi sono diversi fattori che complicano tale situazione, tra questi la varietà sempre maggiore dei sistemi operativi utilizzati nei diversi dispositivi, si parla di Microsoft Windows, delle tante distribuzioni Linux, di Mac OS X, di Solaris o di altri sistemi operativi UNIX, senza contare i sistemi operativi più orientati al settore mobile come Android. Ogni sistema operativo ha inoltre un modo particolare di gestire i dati, si pensi alla differente gestione dei permessi dei file o alla sensibilità alle maiuscole. Bisogna anche considerare che se gli aggiornamenti dei dati avvenissero soltanto su di uno di questi dispositivi sarebbe richiesta una semplice copia dei dati aggiornati sugli altri dispositivi, ma che non è sempre possibile utilizzare tale approccio. Infatti i dati vengono spesso aggiornati in maniera indipendente in più di un dispositivo, magari nello stesso momento, è pertanto necessario che le applicazioni che si occupano di sincronizzare tali dati riconoscano le situazioni di conflitto, nelle quali gli stessi dati sono stati aggiornati in più di una copia ed in maniera differente, e permettano di risolverle, uniformando lo stato delle repliche. Considerando l' importanza e il valore che possono avere i dati, sia a livello lavorativo che personale, è necessario che tali applicazioni possano garantirne la sicurezza, evitando in ogni caso un loro danneggiamento, perchè sempre più spesso il valore di un dispositivo dipende più dai dati in esso contenuti che dal costo dello hardware. In questa tesi verranno illustrate alcune idee alternative su come possa aver luogo la condivisione e la sincronizzazione di dati tra sistemi operativi diversi, sia nel caso in cui siano installati nello stesso dispositivo che tra dispositivi differenti. La prima parte della tesi descriverà nel dettaglio l' applicativo Unison. Tale applicazione, consente di mantenere sincronizzate tra di loro repliche dei dati, memorizzate in diversi dispositivi che possono anche eseguire sistemi operativi differenti. Unison funziona a livello utente, analizzando separatamente lo stato delle repliche al momento dell' esecuzione, senza cioè mantenere traccia delle operazioni che sono state effettuate sui dati per modificarli dal loro stato precedente a quello attuale. Unison permette la sincronizzazione anche quando i dati siano stati modificati in maniera indipendente su più di un dispositivo, occupandosi di risolvere gli eventuali conflitti che possono verificarsi rispettando la volontà dell' utente. Verranno messe in evidenza le strategie utilizzate dai suoi ideatori per garantire la sicurezza dei dati ad esso affidati e come queste abbiano effetto nelle più diverse condizioni. Verrà poi fornita un' analisi dettagiata di come possa essere utilizzata l' applicazione, fornendo una descrizione accurata delle funzionalità e vari esempi per renderne più chiaro il funzionamento. Nella seconda parte della tesi si descriverà invece come condividere file system tra sistemi operativi diversi all' interno della stessa macchina, si tratta di un approccio diametralmente opposto al precedente, in cui al posto di avere una singola copia dei dati, si manteneva una replica per ogni dispositivo coinvolto. Concentrando l' attenzione sui sistemi operativi Linux e Microsoft Windows verranno descritti approfonditamente gli strumenti utilizzati e illustrate le caratteristiche tecniche sottostanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente dissertazione illustra lo studio, svolto in ambito di Tesi di Laurea Specialistica, della difesa delle aree di pianura prospicienti il tratto medio inferiore del Fiume Po dalle cosiddette piene al limite della prevedibilità, ovvero quelle aventi intensità al di sopra della quale le procedure di stima statistica perdono di significato a causa della mancanza di eventi osservati confrontabili (Majone, Tomirotti, 2006). In questo contesto si è definito come evento di piena al limite della prevedibiltà un evento con tempo di ritorno pari a cinquecento anni. Lo studio ha necessariamente preso in considerazione e riprodotto attraverso una schematizzazione concettuale le esondazioni all'esterno delle arginature maestre che si verificherebbero in conseguenza ad un evento estremo, quale quello preso in esame, nei comparti idraulici prospicienti l'asta fluviale. Detti comparti sono costituiti dalle zone di pianura latistanti l’asta fluviale, classificate dall'Autorità di Bacino come Fascia C e suddivise in base alla presenza degli affluenti principali del fiume Po e delle principali infrastrutture viarie e ferroviarie situate in tale fascia. Il presente studio persegue l’obiettivo di analizzare alcune politiche di intervento per la mitigazione del rischio alluvionale alternative al sovralzo e ringrosso arginale e ricade all'interno delle linee strategiche individuate dall' AdB-Po per la mitigazione del rischio residuale, ossia quello che permane anche in presenza di opere di difesa progettate e verificate con riferimento ad un ben preciso tempo di ritorno (nel caso in esame Trit = 200 anni). Questa linea di intervento si traduce praticamente individuando sul territorio aree meno "sensibili", in virtù del minor valore o dell'inferiore vulnerabilità dei beni in esse presenti, e dunque adatte ad accogliere i volumi di piena esondabili in occasione di quegli eventi di piena incompatibili con i presidi idraulici preesistenti, le sopra richiamate piene al limite della prevedibilità. L'esondazione controllata dei volumi di piena in tali aree avrebbe infatti il fine di tutelare le aree di maggior pregio, interessate da centri abitati, infrastrutture e beni di vario tipo; tale controllo è da considerarsi auspicabile in quanto sedici milioni di persone abitano la zona del bacino del Po e qui sono concentrati il 55% del patrimonio zootecnico italiano, il 35% della produzione agricola e il 37% delle industrie le quali però sostengono il 46% dei posti di lavoro (fonte AdB-Po). Per questi motivi il Po e il suo bacino sono da considerare come zone nevralgiche per l’intera economia italiana e una delle aree europee con la più alta concentrazione di popolazione, industrie e attività commerciali. Dal punto di vista economico, l’area è strategica per il Paese garantendo un PIL che copre il 40% di quello nazionale, grazie alla presenza di grandi industrie e di una quota rilevante di piccole e medie imprese, nonché d’attività agricole e zootecniche diffuse. Il punto di partenza è stato il modello numerico quasi-bidimensionale precedentemente sviluppato dal DISTART nel 2008 con il software HEC-RAS, la cui schematizzazione geometrica copriva unicamente l'alveo del Fiume (Fasce A e B secondo la denominazione adottata dall'AdB-Po) e le cui condizioni iniziali e al contorno rispecchiavano un evento con tempo di ritorno pari a duecento anni. Si è proceduto dunque alla definizione di nuove sollecitazioni di progetto, volte a riprodurre nelle sezioni strumentate del Po gli idrogrammi sintetici con tempo di ritorno di cinquecento anni messi a punto dal D.I.I.A.R. (Dipartimento di Ingegneria Idraulica, Ambientale e del Rilevamento, DIIAR, 2001) del Politecnico di Milano. Il modello stesso è stato poi aggiornato e considerevolmente modificato. Il risultato consiste in un nuovo modello matematico idraulico di tipo quasi-bidimensionale che, attraverso una schematizzazione concettuale, riproduce il comportamento idraulico in occasione di eventi di piena al limite della prevedibilità per tutte e tre le Fasce Fluviali considerate nel Piano stralcio per l’Assetto Idrogeologico redatto dall'AdB-Po (Fasce A, B C, v. PAI, 1999). I diversi comparti idraulici in cui può essere suddivisa la Fascia C sono stati inseriti nel modello e geometricamente descritti in termini di curve di riempimento, ricavate a partire dal DTM del Bacino del Po attraverso opportune elaborazioni in ambiente GIS (Geographic Information System). Una volta predisposto il modello sono state condotte due tipologie di simulazioni. Una prima serie è stata volta alla definizione in maniera iterativa dei punti critici degli argini maestri, ovvero quelli nei quali si prevedeva avvenisse la tracimazione, e alla modellazione in essi della formazione di brecce, decisive per una corretta riproduzione del fenomeno di esondazione all'esterno delle arginature maestre nell'attuale configurazione; bisogna infatti considerare che le arginature maestre vengono comunemente progettate con il solo fine di contenere le portate di piena in alveo, e che dunque un’eventuale tracimazione induce fenomeni erosivi che solitamente portano all'apertura di una breccia nel manufatto (rotta arginale). Un'ulteriore simulazione ha permesso di valutare l'evoluzione del fenomeno sotto l'ipotesi di un intervento di consolidamento degli argini maestri nei tratti critici (interessati dai sormonti) e quindi di rotta arginale impedita. Il confronto dei risultati ottenuti ha evidenziato i benefici associati ad una laminazione controllata dell'evento di piena all'esterno delle arginature. In questo contesto il termine "controllata" è esclusivamente associato al fenomeno di rotta arginale, come detto inibita per lo scenario ipotetico. I benefici di tale controllo si hanno in termini di volumi, di portate esondate e di tiranti attesi nei comparti idraulici. Lo strumento modellistico predisposto nell’ambito della Tesi di Laurea Specialistica si presta ad essere utilizzato a supporto dell’identificazione su ampia scala delle zone della Fascia C meno “sensibili”, in quanto meno vulnerabili ai fenomeni di allagamento. Questo ulteriore passaggio costituisce il punto di partenza per delineare le strategie ottimali di laminazione controllata in Fascia C degli eventi al limite della prevedibilità al fine della riduzione del rischio idraulico nelle aree di pianura prospicienti il Po, aspetto che verrà affrontato in sviluppi successivi del presente lavoro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per dare supporto al traffico multimediale in una rete totalmente distribuita come le reti ad-hoc, il protocollo MAC deve fornire garanzie di QoS. L'IEEE ha sviluppato un standard per supportare le QoS chiamato 802.11e, facente parte della famiglia 802.11. Per dare supporto al QoS viene proposto un nuovo protocollo chiamato PAB che consiste in un accesso al canale preceduto da una serie di invii di burst, inviati alla stessa frequenza dei dati, che inibiscono la trasmissione di stazioni avente minore priorità. Lo scopo di questo protocollo è fornire servizi QoS, evitare starvation e fornire un accesso equo tra le stazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’alta risoluzione nel telerilevamento termico (Thermal Remote Sensing) da aereo o satellitare si rivela molto importante nell’analisi del comportamento termico delle superfici, in particolare per lo studio dei fenomeni climatici locali dello spazio urbano. La stato termico dell'ambiente urbano è oggi motivo di grande interesse per ricercatori, organi istituzionali e cittadini. Uno dei maggiori campi di studio del comportamento termico urbano interessa il problema energetico: la riduzione dei consumi e delle emissioni di CO2 è un obiettivo primario da perseguire per uno sviluppo sostenibile, spesso supportato da criteri legislativi e progetti comunitari. Su scala differente e con caratteristiche differenti, un altro degli argomenti che scuote da anni e con notevole interesse la ricerca scientifica, è il fenomeno termico urbano che prende il nome di isola di calore; questa si sviluppa non solo in conseguenza al calore sensibile rilasciato da attività antropiche, ma anche a causa della sempre maggiore conversione del territorio rurale in urbanizzato (inurbamento), con conseguente riduzione del fenomeno dell’evapotraspirazione. Oggetto di questa dissertazione è lo studio del comportamento termico delle superfici in ambito urbano, sperimentato sulla città di Bologna. Il primo capitolo si interessa dei principi e delle leggi fisiche sui quali è basato il telerilevamento effettuato nelle bende spettrali dell’infrarosso termico. Viene data una definizione di temperatura radiometrica e cinematica, tra loro legate dall’emissività. Vengono esposti i concetti di risoluzione (geometrica, radiometrica, temporale e spettrale) dell’immagine termica e viene data descrizione dei principali sensori su piattaforma spaziale per l’alta risoluzione nel TIR (ASTER e Landsat). Il secondo capitolo si apre con la definizione di LST (Land Surface Temperature), parametro del terreno misurato col telerilevamento, e ne viene descritta la dipendenza dal flusso della radiazione in atmosfera e dalle condizioni di bilancio termico della superficie investigata. Per la sua determinazione vengono proposti metodi diversi in funzione del numero di osservazioni disponibili nelle diverse bande spettrali dell’IR termico. In chiusura sono discussi i parametri che ne caratterizzano la variabilità. Il capitolo terzo entra nel dettaglio del telerilevamento termico in ambito urbano, definendo il fenomeno dell’Urban Heat Island su tutti i livelli atmosferici interessati, fornendo un quadro di operabilità con gli strumenti moderni di rilievo alle differenti scale (analisi multiscala). Un esempio concreto di studio multiscala dei fenomeni termici urbani è il progetto europeo EnergyCity, volto a ridurre i consumi energetici e le emissioni di gas serra di alcune città del centro Europa. Il capitolo quarto riporta la sperimentazione condotta sull’isola di calore urbana della città di Bologna tramite immagini ASTER con risoluzione spaziale 90 m nel TIR e ricampionate a 15 m dal VIS. Lo studio dell’isola di calore si è effettuata a partire dal calcolo della Land Surface Temperature utilizzando valori di emissività derivati da classificazione delle superfici al suolo. Per la validazione dei dati, in alternativa alle stazioni di monitoraggio fisse dell’ARPA, presenti nell’area metropolitana della città, si è sperimentato l’utilizzo di data-loggers per il rilievo di temperatura con possibilità di campionamento a 2 sec. installati su veicoli mobili, strumentati con ricevitori GPS, per la misura dei profili di temperatura atmosferica near-ground lungo transetti di attraversamento della città in direzione est-ovest.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di tesi, inizialmente, è stato concentrato sull’approfondimento, e studio, delle problematiche relative alla costruzione delle linee ad Alta Velocità, che hanno recentemente segnato il territorio italiano, da nord a sud e da ovest ad est. Proseguendo l’analisi sul sistema ferroviario, tramite il confronto con le altre realtà europee, ho compreso quali fossero le principali criticità e doti del trasporto su ferro in Italia, che è ancora molto lontano dalla sua miglior ottimizzazione, ma che comunque, ci tengo a dire, in rapporto a ciò che succede negli altri paesi d’Europa, non è così deficitario come si è portati a pensare. L’entrata in funzione delle linee ad Alta Velocità, infatti, ha cambiato lo scenario di relazioni tra infrastruttura, città e territorio, proprio in questo ambito nasce la volontà di proporre un modello di sviluppo urbano che comprenda, nella sua pianificazione originale, città, infrastruttura ed architettura, e che anzi rivendichi l’importanza di quest’ultima nelle scelte urbanistiche, al contrario di quanto purtroppo avviene oggi. Dopo uno studio dei contesti possibili in cui inserire un progetto di questa portata, è stata individuata la zona che meglio si adatta alle premesse iniziali, ad ovest di Milano tra Novara e l’aeroporto di Milano Malpensa. Qui la scarsa razionalizzazione dei trasporti pregiudica lo sfruttamento delle potenzialità dell’aeroporto da una parte, e della nuova linea ad Alta Velocità dell’altra, così aggiungendo una nuova tratta di ferrovia ad alte prestazioni e riorganizzando trasporti e territorio, ho tentato di dare risposta alle mancanze del sistema della mobilità. In questo quadro si inserisce la città lineare studiata per dimostrare la possibile integrazione tra trasporti, città ed architettura, il modello, partendo dallo studio del blocco milanese giunge a definire un piano di tipo composto, con un asse principale in cui sono concentrate le vie di trasporto, ed una serie di assi ortogonali secondari che individuano le emergenze architettoniche, punti notevoli che devono fungere da catalizzatori. In uno di questi punti, posto in posizione baricentrica è stato collocato il centro di ricerca avanzata, in particolare è stato inserito in una zona difficilmente raggiungibile, questo per enfatizzare l’isolamento e la riservatezza che sono necessarie alla funzione. Il campus avrebbe potuto trovarsi anche in un altro punto del piano e questo non avrebbe inficiato le premesse iniziali, il progetto dell’università è solo un pretesto per dimostrare l’ipotesi prima dichiarata, l’architettura può e deve svolgere un ruolo importante nella pianificazione anche infrastrutturale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi affronta il progetto di riqualificazione energetica, riorganizzazione funzionale ed ampliamento del plesso scolastico a Villa Romiti a Forlì, costituito da tre istituti scolastici (scuola dell'infanzia "Le Api", scuola primaria "P. Squadrani" e scuola secondaria inferiore "G. Mercuriali") inseriti in un comparto su cui insistono anche il palazzetto dello sport "Pala-Romiti" e la torre piezometrica dell'acquedotto, a servizio dell'omonimo quartiere. Al fine di comprendere meglio le dinamiche che intercorrono tra il plesso scolastico, il quartiere in cui è collocato e la città , è stata inizialmente effettuata un'analisi dell'area, del territorio circostante e del sistema scolastico forlivese, che ne ha evidenziato alcuni dei tratti salienti. Il comparto è una superficie pianeggiante di forma rettangolare, con un'estensione di 34000 mq, collocata a ovest del centro storico di Forlì, in prossimità  del fiume Montone e a contatto diretto con il territorio agricolo periurbano, delimitata su due lati dalla rete viaria urbana e sui restanti due dai campi circostanti. Questa particolare collocazione dispone l'area nel punto di incontro tra due diverse trame del territorio: quella urbana definita dall'allineamento dei corpi di fabbrica del quartiere Romiti, ripreso dall'orientamento degli edifici all'interno del plesso scolastico, e la trama agricola derivante dalla centuriazione romana, che segna l'intero territorio circostante in relazione al tracciato dell'antica via Emilia. In seguito, l'attenzione si è focalizzata sulle relazioni tra i vari elementi che occupano l'area e sugli elementi di criticità  che le condizionano. Sulla scorta dei programmi fissati dall'Amministrazione comunale, un ulteriore approfondimento ha permesso di individuare le criticità  a livello del singolo edificio e di delineare le strategie di intervento per la riqualificazione del comparto. Rispetto al sistema scolastico forlivese, che si è sviluppato invece seguendo le direttrici di espansione della città storica verso est, l'area appare come un nucleo isolato, in cui gli indirizzi dell'Amministrazione prevedono di mantenere ed intensificare la presenza di più istituti scolastici, in modo da rafforzarne il carattere di polo di formazione, a servizio di un bacino di utenza molto vasto, che dall'insediamento urbano più prossimo si estende fino alle frazioni presenti sui colli circostanti. La presenza all'interno del comparto del Palazzetto dello sport accentua le difficoltà  di gestione e l'utilizzo promiscuo degli spazi connettivi e di pertinenza, già  complesse a causa della convivenza di diverse scuole. La necessità  di assicurare l'accesso al Palazzetto anche da parte degli utenti esterni alle scuole ha generato una confusa rete di percorsi di accesso all'area; in cui percorrenze carrabili e pedonali si sovrappongono, con conseguenti problemi sia di funzionalità  che di sicurezza, soprattutto per gli alunni degli istituti. Elemento positivo su cui innestare una riqualificazione del plesso è la presenza di estese aree verdi, in parte di pertinenza esclusiva, che ospitano le attività  ludiche degli studenti ma che attualmente soffrono di incuria e di scarsa manutenzione, aggravate dalla mancanza di un efficiente sistema perimetrale di controllo. Il palazzetto dello sport e la torre piezometrica, servizi di quartiere utili alla collettività , rappresentano due emergenze architettoniche che, nell'ottica di una sistemazione planivolumetrica dell'area, necessitano di un'attenzione particolare, al fine di integrarle all'interno di un unico disegno generale di un "campus" scolastico. Approfondendo l'analisi alla scala dei singoli edifici, di ciascuno di essi sono state evidenziate le principali criticità , in termini architettonici, funzionali ed energetici. La scuola primaria "P. Squadrani", costruita alla fine degli anni "40, è un edificio a corte, con un regolare disegno di facciata scandito da aperture ad arco, che gli conferiscono un'identità  architettonica, molto più debole invece negli altri edifici del comparto. Per questo edificio, che presenta problemi legati alla fruizione e all'orientamento delle aule per la didattica, il programma dell'Amministrazione comunale prevede un ampliamento in grado di ospitare un'ulteriore sezione. L'Amministrazione non prevede prossimi interventi, invece, per scuola secondaria inferiore "G. Mercuriali", che però, nonostante la sua costruzione risalga agli anni '80, appare in cattivo stato di conservazione e manca sia di un'adeguata area verde di pertinenza, che di una palestra a uso esclusivo. Infine, la scuola dell'infanzia "Le Api", di recente costruzione, è dotata di un'area verde di grande estensione, ma collocata in posizione sfavorevole, a causa dell'ombra proiettata dall'edificio "Pala-Romiti". Per questo istituto, l'Amministrazione prevede il raddoppio della capienza, per raggiungere il numero di sei unità  pedagogiche complessive. Le analisi effettuate sul comportamento energetico evidenziano che le prestazioni di tutti e tre gli edifici sono inadeguate e devono essere sensibilmente migliorate per allinearsi agli standard della recente normativa regionale (DAL 156/2008 Regione Emilia-Romagna). Sulla base degli elementi emersi dalle analisi preliminari e degli obiettivi fissati dall'Amministrazione comunale, la strategia di progetto adottata si è focalizzata su sette principali obiettivi: riorganizzare il sistema di accessi e percorsi, separando l'uso carrabile da quello pedonale: si è previsto di declassare e riservare ai soli mezzi pubblici il tratto di strada comunale antistante il lato sud del comparto e di innestarvi un asse principale di accesso all'area scolastica, ad uso esclusivo degli utenti delle scuole; attestare sul nuovo asse principale di percorrenza i cinque diversi nuclei funzionali presenti nell'area: le tre scuole, il palazzetto dello sport, il nuovo parco pubblico e infine l'area riservata alla torre piezometrica e ai parcheggi; progettare un'unica nuova scuola per l'infanzia, dimensionata per ospitare tutte le sei sezioni previste, collocata a diretto contatto con il verde agricolo circostante, caratterizzata da una separazione netta -funzionale e volumetrica- tra gli spazi dedicati ai bambini e quelli dedicati al personale e organizzata in due blocchi indipendenti di unità pedagogiche, da tre aule ciascuno, dotate di un ampio spazio esterno di gioco e attività all'aperto; riqualificare energeticamente e funzionalmente la scuola primaria e ampliarla con l'aggiunta di un adiacente corpo di fabbrica di nuova costruzione, in continuità planimetrica e volumetrica con l'edificio esistente, a cui il nuovo volume si collega tramite una corte coperta; sottoporre il "Pala-Romiti" ad un "restyling" delle facciate e riorganizzarne i sistemi di collegamento verticale esterni; riconfigurare l'area di pertinenza esclusiva della scuola secondaria inferiore, raccordandola con il nuovo parco pubblico progettato sull'area liberata dalla demolizione della precedente scuola dell'infanzia, collocato nelle vicinanze dell'attuale parco di quartiere, cosi da rinforzare la presenza di verde urbano nel comparto; dotare la torre piezometrica di una propria via di accesso indipendente, sulla quale vengono concentrati i parcheggi necessari alle esigenze dell'intera area. In sintesi, l'obiettivo da raggiungere attraverso questa tesi è quello di proporre un intervento che analizzi e ponga rimedio alle criticità  e contemporaneamente valorizzi i punti di forza già presenti, cercando di progettare uno spazio a misura di bambino, un'isola pedonale immersa nel verde.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La necessità di conservazione e recupero di murature, di qualsiasi interesse storico/architettonico, ha evidenziato la necessità di conoscere il più dettagliatamente possibile le caratteristiche strutturali delle opere interessate: un intervento risulterà tanto più efficace e adatto agli scopi prefissi quanto maggiore sarà la conoscenza dell’opera, della sua evoluzione, dei materiali utilizzati per la realizzazione, della tecnica costruttiva e della struttura portante. Spesso è necessario eseguire interventi di adeguamento sismico di comuni edifici su cui poter intervenire più o meno indiscriminatamente, mentre, per opere di interesse storico è necessario ridurre al minimo l’invasività degli interventi: in tutti e due i casi, una buona riuscita dell’intervento dipende dalla conoscenza dell’organismo strutturale sul quale si deve operare. Come spesso accade, anche per opere di recente costruzione, risulta difficile poter recuperare i dati progettuali (disegni e calcoli) e spesso le tecniche e le tipologie utilizzate per le costruzioni si differenziavano da zona a zona, così come diversi erano i materiali da costruzione; risulta quindi evidente che per progettare una serie di interventi di recupero è necessario poter ottenere il maggior numero di informazioni al riguardo. Diverse sono le esperienze maturate in questo campo in tutta Europa e queste hanno mostrato come non è sufficiente intervenire con tecniche innovative per adeguare agli standard attuali di sicurezza opere del passato: infatti, in molti casi, l’applicazione sbagliata di queste tecniche o gli interventi progettati in modo non adeguato non hanno svolto il loro compito e in alcuni casi hanno peggiorato la situazione esistente. Dalle esperienze maturate è stato possibile osservare che anche le migliore tecniche di recupero non possono risultare efficaci senza un’adeguata conoscenza dello stato di degrado degli edifici, del loro assetto strutturale e delle possibili carenze. La diagnostica strutturale si vuole inserire proprio in questo livello potendo fornire ad un progettista tutte le informazioni necessarie per effettuare al meglio ed in maniera efficace gli interventi di recupero e restauro necessari. Oltre questi aspetti, le analisi diagnostiche possono essere utilizzate anche per verificare l’efficacia degli interventi effettuati. Diversi sono gli aspetti che si possono analizzare in un’indagine di diagnostica ed in base alle esigenze e alle necessità del rilievo da effettuare sono varie le tecniche a disposizione, ognuna con le sue peculiarità e potenzialità. Nella realizzazione di questa tesi sono state affrontate diverse problematiche che hanno previsto sia l’analisi di situazioni reali in cantiere, sia lo studio in laboratorio. La prima parte del presente elaborato prevede lo studio delle attività svolte a Palazzo Malvezzi, attuale sede della Provincia di Bologna. L’edificio, di interesse storico, ha subito diverse trasformazioni durate la sua vita ed in alcuni casi, queste, eseguite con tecnologie e materiali inadatti, hanno provocato variazioni nell’assetto statico della struttura; inoltre, il palazzo, è soggetto a movimenti a livello di fondazione in quanto è presente una faglia di subsidenza che attraversa l’edificio. Tutte queste problematiche hanno creato movimenti differenziali alla struttura in elevazione che si sono evidenziati con crepe distribuite in tutto l’edificio. Il primo aspetto analizzato (capitoli 4 e 5) è lo studio della profondità delle fessure presenti nel solaio della sala Rossa, sede dei comunicati stampa e delle conferenze della Provincia. Senza dubbio antiestetiche, le crepe presenti in una struttura, se sottovalutate, possono compromettere notevolmente le funzioni statiche dell’elemento in cui si sviluppano: la funzione di protezione fornita dal solaio o da qualsiasi altro elemento strutturale alle armature in questo immerse, viene meno, offrendo vie preferenziali a possibili situazioni di degrado, specialmente se in condizioni ambientali aggressive. E' facile intuire, quindi, che un aspetto all’apparenza banale come quello delle fessure non può essere sottovalutato. L’analisi è stata condotta utilizzando prove soniche ed impact-echo, tecniche che sfruttano lo stresso principio, la propagazione delle onde elastiche nel mezzo, ma che si differenziano per procedure di prova e frequenze generate nel test. Nel primo caso, la presenza del martello strumentato consente di valutare anche la velocità di propagazione delle onde elastiche, fenomeno utilizzato per ottenere indicazioni sulla compattezza del mezzo, mentre nel secondo non è possibile ricavare queste informazioni in quanto la tecnica si basa solamente sullo studio in frequenza del segnale. L’utilizzo dell’impact-echo è stato necessario in quanto la ristilatura effettuata sulle fessure scelte per l’analisi, non ha permesso di ottenere risultati utili tramite prove soniche ; infatti, le frequenze generate risultano troppo basse per poter apprezzare queste piccole discontinuità materiali. La fase di studio successiva ha previsto l’analisi della conformazione dei solai. Nel capitolo 6, tale studio, viene condotto sul solaio della sala Rossa con lo scopo di individuarne la conformazione e la presenza di eventuali elementi di rinforzo inseriti nelle ristrutturazioni avvenute nel corso della vita del palazzo: precedenti indagini eseguite con endoscopio, infatti, hanno mostrato una camera d’aria ed elementi metallici posizionati al di sotto della volta a padiglione costituente il solaio stesso. Le indagini svolte in questa tesi, hanno previsto l’utilizzo della strumentazione radar GPR: con questa tecnica, basata sulla propagazione delle onde elettromagnetiche all’interno di un mezzo, è possibile variare rapidamente la profondità d’ispezione ed il dettaglio ottenibile nelle analisi cambiando le antenne che trasmettono e ricevono il segnale, caratteristiche fondamentali in questo tipo di studio. I risultati ottenuti hanno confermato quanto emerso nelle precedenti indagini mostrando anche altri dettagli descritti nel capitolo. Altro solaio oggetto d’indagine è quello della sala dell’Ovale (capitoli 7 e 8): costruito per dividere l’antica sala da ballo in due volumi, tale elemento è provvisto al suo centro di un caratteristico foro ovale, da cui ne deriva il nome. La forma del solaio lascia supporre la presenza di una particolare struttura di sostegno che le precedenti analisi condotte tramite endoscopio, non sono riuscite a cogliere pienamente. Anche in questo caso le indagini sono state eseguite tramite tecnica radar GPR, ma a differenza dei dati raccolti nella sala Rossa, in questo caso è stato possibile creare un modello tridimensionale del mezzo investigato; inoltre, lo studio è stato ripetuto utilizzando un’antenna ad elevata risoluzione che ha consentito di individuare dettagli in precedenza non visibili. Un ulteriore studio condotto a palazzo Malvezzi riguarda l’analisi della risalita capillare all’interno degli elementi strutturali presenti nel piano interrato (capitolo 9): questo fenomeno, presente nella maggior parte delle opere civili, e causa di degrado delle stesse nelle zone colpite, viene indagato utilizzando il radar GPR. In questo caso, oltre che individuare i livelli di risalita osservabili nelle sezioni radar, viene eseguita anche un’analisi sulle velocità di propagazione del segnale e sulle caratteristiche dielettriche del mezzo, variabili in base al contenuto d’acqua. Lo scopo è quello di individuare i livelli massimi di risalita per poterli confrontare con successive analisi. Nella fase successiva di questo elaborato vengono presentate le analisi svolte in laboratorio. Nella prima parte, capitolo 10, viene ancora esaminato il fenomeno della risalita capillare: volendo studiare in dettaglio questo problema, sono stati realizzati dei muretti in laterizio (a 2 o 3 teste) e per ognuno di essi sono state simulate diverse condizioni di risalita capillare con varie tipologie di sale disciolto in acqua (cloruro di sodio e solfato di sodio). Lo scopo è di valutare i livelli di risalita osservabili per diverse tipologie di sale e per diverse concentrazioni dello stesso. Ancora una volta è stata utilizzata la tecnica radar GPR che permette non solo di valutare tali livelli, ma anche la distribuzione dell’umidità all’interno dei provini, riuscendo a distinguere tra zone completamente sature e zone parzialmente umide. Nello studio è stata valutata anche l’influenza delle concentrazioni saline sulla propagazione del segnale elettromagnetico. Un difetto delle tecniche di diagnostica è quello di essere strumenti qualitativi, ma non quantitativi: nel capitolo 11 viene affrontato questo problema cercando di valutare la precisione dei risultati ottenuti da indagini condotte con strumentazione radar GPR. Studiando gli stessi provini analizzati nel capitolo precedente, la tecnica radar è stata utilizzata per individuare e posizionare i difetti (muretti a 3 teste) e le pietre (muretti a 2 teste) inserite in questi elementi: i risultati ottenuti nella prova sono stati confrontati, infine, con la reale geometria. Nell’ultima parte (capitolo 12), viene esaminato il problema dell’individuazione dei vuoti all’interno di laterizi: per questo scopo sono state create artificialmente delle cavità di diversa forma e a diverse profondità all’interno di laterizi pieni che, dopo un trattamento in cella climatica per aumentarne la temperatura, sono stati sottoposti a riprese termografiche nella fase di raffreddamento. Lo scopo di queste prove è quello di valutare quale sia la massima differenza di temperatura superficiale causata dai diversi difetti e per quale intervallo di temperature questa si verifica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi nasce dalla collaborazione tra l’Università di Bologna, Polo Scientifico Didattico di Ravenna, e l’Agenzia Regionale Prevenzione ed Ambiente dell’Emilia Romagna (ARPA EMR), sezione di Ravenna, inserendosi nell’ambito del progetto di Dottorato “Sviluppo di tecniche per la progettazione delle reti di monitoraggio della qualità dell’aria”. Lo scopo principale dello studio è quello di definire una metodologia di tipo Top-Down per disaggregare spazialmente sulla Provincia di Ravenna le emissioni in atmosfera stimate dall’inventario provinciale di ARPA EMR. La metodologia CORINAIR (COordination INformation AIR), sviluppata dalla Agenzia Europea per l’Ambiente, prefigura due possibili procedure di stima delle emissioni in atmosfera: Top-Down (parte dalla scala spaziale più ampia e discende a livelli inferiori) e Bottom-Up (parte invece dall’analisi della realtà produttiva locale per passare a quella relativa a livelli di aggregazione maggiori). La metodologia proposta, di tipo Top-Down, si avvale volutamente di variabili proxy facilmente reperibili a livello comunale, in modo che possa essere applicata anche ad altre realtà locali, meno ricche di dati statistici e ambientali di quanto non lo sia la regione Emilia Romagna in generale e la provincia di Ravenna in particolare. La finalità ultima dello studio è quella di fornire una metodologia per ottenere, attraverso dati resi disponibili da ogni amministrazione comunale, un quadro conoscitivo della situazione emissiva in atmosfera a livello locale a supporto della gestione della qualità dell’aria e dei relativi fattori di pressione. Da un punto di vista operativo, il lavoro di tesi è stato suddiviso in: una fase progettuale, con l’obiettivo di individuare i Macrosettori CORINAIR e gli inquinanti principali da tenere in considerazione nello studio, ed identificare le variabili proxy più opportune per la disaggregazione delle emissioni; una fase di raccolta dei dati ed infine, l’elaborazione dei dati con l’ausilio del software GIS ArcMap 9.3. La metodologia Top-Down è stata applicata in due fasi: con la prima si è effettuata la disaggregazione dal livello provinciale a quello comunale; con la seconda, le emissioni attribuite al comune di Ravenna sono state distribuite spazialmente su una griglia le cui celle hanno dimensione 100m x 100m in modo da ottenere una disaggregazione ad alta risoluzione. I risultati ottenuti dalla disaggregazione effettuata sono stati confrontati, là dove possibile, con dati ottenuti da un approccio Bottom-Up, allo scopo di validare la metodologia proposta. I confronti fra le stime effettuate con l’approccio Top-Down e quelle derivanti dall’approccio Bottom-Up hanno evidenziato risultati diversi per i differenti Macrosettori investigati. Per il macrosettore industriale, si sono evidenziate una serie di limitazioni dimostrando che l’utilizzo della proxy ‘superficie industriale’, così come applicata, non è adeguata né a livello qualitativo né quantitativo. Limitazioni significative, si osservano anche per il macrosettore ‘traffico veicolare’ per il quale è possibile effettuare una stima accurata delle emissioni totali ma poi la disaggregazione spaziale ad alta risoluzione appare insoddisfacente. Ottime risultano invece le performance della metodologia proposta per il macrosettore combustione non industriale, per il quale si osserva un buon accordo sia per i valori emissivi globali, sia per la loro distribuzione spaziale ad alta risoluzione. Relativamente agli altri settori e macrosettori analizzati (‘Altre sorgenti mobili’ e ‘Agricoltura’), non è stato possibile effettuare confronti con dati provenienti dall’approccio Bottom- Up. Nonostante ciò, dopo un’attenta ricerca bibliografica, si può affermare, che le proxy utilizzate sono fra quelle più impiegate in letteratura, ed il loro impiego ha permesso l’ottenimento di una distribuzione spaziale verosimile ed in linea con l’inventario provinciale ARPA EMR. In ultimo, le mappe di pressione ottenute con l’ausilio di ArcMap sono state analizzate qualitativamente per identificare, nel territorio del Comune di Ravenna, le zone dove insiste una maggiore pressione emissiva sul comparto atmosferico. E’ possibile concludere che il livello di dettaglio ottenuto appare sufficiente a rappresentare le zone più critiche del territorio anche se un ulteriore lavoro dovrà essere previsto per sviluppare meglio i macrosettori che hanno mostrato le maggiori criticità. Inoltre, si è riusciti a tracciare una metodologia sufficientemente flessibile per poterla applicare anche ad altre realtà locali, tenendo comunque sempre presente che, la scelta delle proxy, deve essere effettuata in funzione delle caratteristiche intrinseche del territorio.