93 resultados para CALID Disambiguazione Autori Pubblicazioni Configurabile Parametrico
Resumo:
Nella tesi si analizzano le principali fonti del rumore aeronautico, lo stato dell'arte dal punto di vista normativo, tecnologico e procedurale. Si analizza lo stato dell'arte anche riguardo alla classificazione degli aeromobili, proponendo un nuovo indice prestazionale in alternativa a quello indicato dalla metodologia di certificazione (AC36-ICAO) Allo scopo di diminuire l'impatto acustico degli aeromobili in fase di atterraggio, si analizzano col programma INM i benefici di procedure CDA a 3° rispetto alle procedure tradizionali e, di seguito di procedure CDA ad angoli maggiori in termini di riduzione di lunghezza e di area delle isofoniche SEL85, SEL80 e SEL75.
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.
Resumo:
Il presente studio si occupa di indagare lo stato delle popolazioni di alici, Engraulis encrasicolus, e sardine, Sardina pilchardus, presenti nel Mar Adriatico Centrale e Settentrionale attraverso l’utilizzo di metodi di dinamica di popolazione. L’attenzione per queste specie è dovuta alla loro importanza commerciale; sono, infatti, specie “target” della flotta peschereccia italiana, in particolare nell’area adriatica. I metodi di dinamica di popolazione sono uno degli aspetti più importanti delle scienze della pesca. Attraverso lo stock assessment si possono acquisire informazioni sull’abbondanza in mare delle risorse nel tempo e nello spazio, nonché sulla mortalità dovuta all’attività di pesca, che sono di primaria importanza per l’adozione di misure gestionali. I metodi di dinamica di popolazione esaminati e confrontati in questa tesi sono stati due: Virtual Population Analysis (VPA) e Integrated Catch-at-Age Analysis (ICA). Prima, però, è stato necessario esaminare le modalità con cui ottenere i dati di “input”, quali: tassi di crescita delle specie, mortalità naturale, sforzo di pesca, dati di cattura. Infine, è stato possibile ricostruire nel tempo la storia dello stock in questione e il suo stato attuale, dando indicazioni per lo sfruttamento futuro in un’ottica di conservazione dello stock stesso. Attraverso la determinazione della curva di crescita si sono potuti ottenere i parametri di crescita delle specie in esame, necessari per definire i tassi di mortalità naturale. L’abbondanza di questi stock è stata valutata con i programmi Age Length Key (ALK) e Iterative Age Length Key (IALK). Nei programmi di stock assessment utilizzati si è preferito utilizzare la stima di abbondanza calcolata con il primo metodo, in quanto più rappresentativo dello stock in esame. Un parametro di fondamentale importanza e di difficile stima è la mortalità; in particolare, in questo studio ci siamo occupati di determinare la mortalità naturale. Questa è stata determinata utilizzando due programmi: ProdBiom (Abella et al., 1998) e il sistema ideato da Gislason et al. (2008). Nonostante l’approccio conservativo suggerisca l’utilizzo dei valori ricavati da ProdBiom, in quanto più bassi, si è preferito utilizzare i tassi di mortalità naturale ricavati dalla seconda procedura. Questa preferenza è stata determinata dal fatto che il programma ProdBiom consegna indici di mortalità naturale troppo bassi, se confrontati con quelli presentati in letteratura per le specie in esame. Inoltre, benché nessuno dei due programmi sia stato costruito appositamente per le specie pelagiche, è comunque preferibile la metodologia ideata da Gislason et al. (2008), in quanto ottenuta da un esame di 367 pubblicazioni, in alcune delle quali erano presenti dati per queste specie. Per quanto riguarda i dati di cattura utilizzati in questo lavoro per il calcolo della Catch Per Unit Effort (CPUE, cioè le catture per unità di sforzo), si sono utilizzati quelli della marineria di Porto Garibaldi, in quanto questa vanta una lunga serie temporale di dati, dal 1975 ad oggi. Inoltre, in questa marineria si è sempre pescato senza imposizione di quote e con quantitativi elevati. Determinati questi dati è stato possibile applicare i programmi di valutazione degli stock ittici: VPA e ICA. L’ICA risulta essere più attendibile, soprattutto per gli anni recenti, in quanto prevede un periodo nel quale la selettività è mantenuta costante, riducendo i calcoli da fare e, di conseguenza, diminuendo gli errori. In particolare, l’ICA effettua i suoi calcoli considerando che i dati di cattura e gli indici di “tuning” possono contenere degli errori. Nonostante le varie differenze dei programmi e le loro caratteristiche, entrambi concordano sullo stato degli stock in mare. Per quanto riguarda l’alice, lo stock di questa specie nel Mar Adriatico Settentrionale e Centrale, altamente sfruttato in passato, oggi risulta moderatamente sfruttato in quanto il livello di sfruttamento viene ottenuto con un basso livello di sforzo di pesca. Si raccomanda, comunque, di non incrementare lo sforzo di pesca, in modo da non determinare nuove drastiche diminuzioni dello stock con pesanti conseguenze per l’attività di pesca. Le sardine, invece, presentano un trend diverso: dalla metà degli anni ottanta lo stock di Sardina pilchardus ha conosciuto un continuo e progressivo declino, che solo nell’ultimo decennio mostra un’inversione di tendenza. Questo, però, non deve incoraggiare ad aumentare lo pressione di pesca, anzi bisogna cercare di mantenere costante lo sforzo di pesca al livello attuale in modo da permettere il completo ristabilimento dello stock (le catture della flotta italiana sono, infatti, ancora relativamente basse). Questo lavoro, nonostante i vari aspetti da implementare (quali: il campionamento, le metodologie utilizzate, l’introduzione di aspetti non considerati, come ad es. gli scarti,… etc.) e le difficoltà incontrate nel suo svolgimento, ha fornito un contributo di approfondimento sugli spinosi aspetti della definizione del tasso di mortalità naturale, individuando una procedura più adatta per stimare questo parametro. Inoltre, ha presentato l’innovativo aspetto del confronto tra i programmi ICA e VPA, mostrando una buon accordo dei risultati ottenuti. E’ necessario, comunque, continuare ad approfondire questi aspetti per ottenere valutazioni sempre più precise e affidabili, per raggiungere una corretta gestione dell’attività di pesca e ai fini della preservazione degli stock stessi.
Resumo:
Lo studio effettuato verte sulla ricerca delle cave storiche di pietra da taglio in provincia di Bologna, facendo partire la ricerca al 1870 circa, data in cui si hanno le prime notizie cartacee di cave bolognesi. Nella ricerca si è potuto contare sull’aiuto dei Dott. Stefano Segadelli e Maria Tersa De Nardo, geologi della regione Emilia-Romagna, che hanno messo a disposizione la propria conoscenza e le pubblicazioni della regione a questo scopo. Si è scoperto quindi che non esiste in bibliografia la localizzazione di tali cave e si è cercato tramite l’utilizzo del software ArcGIS , di georeferenziarle, correlandole di informazioni raccolte durante la ricerca. A Bologna al momento attuale non esistono cave di pietra da taglio attive, così tutte le fonti che si sono incontrate hanno fornito dati parziali, che uniti hanno permesso di ottenere una panoramica soddisfacente della situazione a inizio secolo scorso. Le fonti studiate sono state, in breve: il catasto cave della regione Emilia-Romagna, gli shape preesistenti della localizzazione delle cave, le pubblicazioni “Uso del Suolo”, oltre ai dati forniti dai vari Uffici Tecnici dei comuni nei quali erano attive le cave. I litotipi cavati in provincia sono quattro: arenaria, calcare, gesso e ofiolite. Per l’ofiolite si tratta di coltivazioni sporadiche e difficilmente ripetibili dato il rischio che può esserci di incontrare l’amianto in queste formazioni; è quindi probabile che non verranno più aperte. Il gesso era una grande risorsa a fine ‘800, con molte cave aperte nella Vena del Gesso. Questa zona è diventata il Parco dei Gessi Bolognesi, lasciando alla cava di Borgo Rivola il compito di provvedere al fabbisogno regionale. Il calcare viene per lo più usato come inerte, ma non mancano esempi di formazioni adatte a essere usate come blocchi. La vera protagonista del panorama bolognese rimane l’arenaria, che venne usata da sempre per costruire paesi e città in provincia. Le cave, molte e di ridotte dimensioni, sono molto spesso difficili da trovare a causa della conseguente rinaturalizzazione. Ci sono possibilità però di vedere riaprire cave di questo materiale a Monte Finocchia, tramite la messa in sicurezza di una frana, e forse anche tramite la volontà di sindaci di comunità montane, sensibili a questo argomento. Per avere una descrizione “viva” della situazione attuale, sono stati intervistati il Dott. Maurizio Aiuola, geologo della Provincia di Bologna, e il Geom. Massimo Romagnoli della Regione Emilia-Romagna, che hanno fornito una panoramica esauriente dei problemi che hanno portato ad avere in regione dei poli unici estrattivi anziché più cave di modeste dimensioni, e delle possibilità future. Le grandi cave sono, da parte della regione, più facilmente controllabili, essendo poche, e più facilmente ripristinabili data la disponibilità economica di chi la gestisce. Uno dei problemi emersi che contrastano l’apertura di aree estrattive minori, inoltre, è la spietata concorrenza dei materiali esteri, che costano, a parità di qualità, circa la metà del materiale italiano. Un esempio di ciò lo si è potuto esaminare nel comune di Sestola (MO), dove, grazie all’aiuto e alle spiegazioni del Geom. Edo Giacomelli si è documentato come il granito e la pietra di Luserna esteri utilizzati rispondano ai requisiti di resistenza e non gelività che un paese sottoposto ai rigori dell’inverno richiede ai lapidei, al contrario di alcune arenarie già in opera provenienti dal comune di Bagno di Romagna. Alla luce di questo esempio si è proceduto a calcolare brevemente l’ LCA di questo commercio, utilizzando con l’aiuto dell’ Ing. Cristian Chiavetta il software SimaPRO, in cui si è ipotizzato il trasporto di 1000 m3 di arenaria da Shanghai (Cina) a Bologna e da Karachi (Pakistan) a Bologna, comparandolo con le emissioni che possono esserci nel trasporto della stessa quantità di materiale dal comune di Monghidoro (BO) al centro di Bologna. Come previsto, il trasporto da paesi lontani comporta un impatto ambientale quasi non comparabile con quello locale, in termini di consumo di risorse organiche e inorganiche e la conseguente emissione di gas serra. Si è ipotizzato allora una riapertura di cave locali a fini non edilizi ma di restauro; esistono infatti molti edifici e monumenti vincolati in provincia, e quando questi devono essere restaurati, dove si sceglie di cavare il materiale necessario e rispondente a quello già in opera? Al riguardo, si è passati attraverso altre due interviste ai Professori Francesco Eleuteri, architetto presso la Soprintendenza dei Beni Culturali a Bologna e Gian Carlo Grillini, geologo-petrografo e esperto di restauro. Ciò che è emerso è che effettivamente non esiste attualmente una panoramica soddisfacente di quello che è il patrimonio lapideo della provincia, mancando, oltre alla georeferenziazione, una caratterizzazione minero-petrografica e fisico-meccanica adeguata a poter descrivere ciò che veniva anticamente cavato; l’ipotesi di riapertura a fini restaurativi potrebbe esserci, ma non sembra essere la maggiore necessità attualmente, in quanto il restauro viene per lo più fatto senza sostituzioni o integrazioni, tranne rari casi; è pur sempre utile avere una carta alla mano che possa correlare l’edificio storico con la zona di estrazione del materiale, quindi entrambi i professori hanno auspicato una prosecuzione della ricerca. Si può concludere dicendo che la ricerca può proseguire con una migliore e più efficace localizzazione delle cave sul terreno, usando anche come fonte il sapere della popolazione locale, e di procedere con una parte pratica che riguardi la caratterizzazione minero-petrografica e fisico-meccanica. L’utilità di questi dati può esserci nel momento in cui si facciano ricerche storiche sui beni artistici presenti a Bologna, e qualora si ipotizzi una riapertura di una zona estrattiva.
Resumo:
La mia tesi dal titolo ”Applicazione della tecnica PSinSAR™ allo studio di fenomeni franosi lenti: casi di studio in Emilia-Romagna” ha avuto come obiettivo quello di mostrare le potenzialità e i limiti della tecnica PSinSAR nel monitoraggio di fenomeni franosi localizzati in Val Marecchia. Ho svolto, nel capitolo due, un’analisi preliminare dell’area di studio andando a evidenziare prima le caratteristiche climatiche, piogge medie annue e le temperature minime e massime, e a seguire sono passato a descrivere l’inquadramento geologico e geomorfologico. L’area della Val Marecchia è, da questo punto di vista, molto particolare poggiando su quella che è definita dagli autori “coltre della Val Marecchia”; essa è un complesso alloctono sovrascorso ai terreni autoctoni della successione Umbro – Romagnola - Marchigiana. La traslazione verso Est della coltre avvenne per "scatti", in funzione delle principali fasi tettoniche appenniniche, separati da momenti di pausa in cui sedimentarono le formazioni più recenti le quali poi si spostarono in modo solidale con la coltre. La coltre, infatti, è costituita da un insieme di formazioni di età diverse e in particolare ritroviamo, partendo da quella più antica l’unità ligure, l’unità subligure e infine l’unità epiligure. La presenza di formazioni più recenti sopra ad altre più antiche rende unica la morfologia della vallata con enormi blocchi rocciosi poggianti su un substrato in genere argilloso come nell’esempio più famoso della rupe di San Leo. Da queste analisi è emersa un’altra caratteristica peculiare della valle cioè la forte tendenza a essere interessata da dissesti di varie tipologie. Gli indici di franosità mostrano che nella zona alta della vallata circa il 50% del territorio è interessato da dissesti, valore che decresce leggermente nella parte media e bassa della valle. Il motivo di tale instabilità è da imputare in parte alla forte erosione che avviene sulle placche epiliguri e in parte alle caratteristiche scadenti del substrato che è per lo più composto di argille e arenarie. Per quanto riguarda le tipologie di frane in Val Marecchia la situazione è molto eterogenea; in particolari le tre tipologie più frequenti sono il colamento lento, lo scivolamento rotazionale/traslativo e le frane di tipo complesso. Nel terzo capitolo ho descritto la tecnica PSinSAR; essa si basa sull’elaborazione di scene riprese da satellite per giungere alla formazione di una rete di punti, i PS, di cui conosciamo i movimenti nel tempo. I Permanent Scatterer (PS) sono dei bersagli radar individuati sulla superficie terrestre dal sensori satellitari caratterizzati per il fatto di possedere un’elevata stabilità nel tempo alla risposta elettromagnetica. I PS nella maggior parte dei casi corrispondono a manufatti presenti sulla superficie quali edifici, monumenti, strade, antenne e tralicci oppure ad elementi naturali come per esempio rocce esposte o accumuli di detrito. Lo spostamento viene calcolato lungo la linea di vista del satellite, per cui il dato in uscita non mostra lo spostamento effettivo del terreno, ma l'allontanamento o l'avvicinamento del punto rispetto al satellite. La misure sono sempre differenziali, ovvero sono riferite spazialmente a un punto noto a terra chiamato reference point, mentre temporalmente alla data di acquisizione della prima immagine. La tecnica PSinSAR proprio per la sua natura è "cieca" rispetto ai movimenti in direzione Nord-Sud. Le scene utilizzate per la creazione dei dataset di PS derivano quasi interamente dai satelliti ERS e ENVISAT. Tuttora sono disponibili anche le scene dei satelliti TerraSAR-X, RADARSAT e Cosmo Skymed. I sensori utilizzati in questo ambito sono i SAR (Synthetic Aperture Radar) che sono sensori attivi, cioè emettono loro stessi l'energia necessaria per investigare la superficie terrestre al contrario dei sensori ottici. Questo permette di poter acquisire scene anche di notte e in condizioni di cielo nuvoloso. La tecnica PSinSAR presenta molti vantaggi rispetto alle tecniche interferometriche tradizionali essa, infatti, è immune agli errori di decorrelamento temporale e spaziale oltre agli errori atmosferici, che portavano ad avere precisioni non inferiori a qualche cm, mentre ora l’errore di misura sulla velocità media di spostamento si attesta in genere sui 2 mm. La precisione che si ha nella georeferenziazione dei punti è in genere di circa 4-7 m lungo la direzione Est e circa 1-2 m in quella Nord. L’evoluzione di PSinSAR, SqueeSAR, permette un numero maggiore di punti poiché oltre ai Permanent Scatterers PS, tramite un apposito algoritmo, calcola anche i Distribuited Scatterer DS. I dataset di dati PS che ho utilizzato nel mio lavoro di tesi (PSinSAR) derivano, come detto in precedenza, sia da scene riprese dal satellite ERS che da ENVISAT nelle due modalità ascendenti e discendenti; nel primo caso si hanno informazioni sui movimenti avvenuti tra il 1992 e il 2000 mentre per l’ENVISAT tra il 2002 e il 2008. La presenza di dati PS nelle due modalità di ripresa sulla stessa zona permette tramite alcuni calcoli di ricavare la direzione effettiva di spostamento. È importante però sottolineare che, a seconda della modalità di ripresa, alcune aree possono risultare in ombra, per questo nell’analisi dei vari casi di studio non sempre sono stati utilizzabili tutti i dataset. Per l'analisi dei vari casi di studio, presentati nel capitolo 4, ho utilizzato diverso materiale cartografico. In particolare mi sono servito delle Carte Tecniche Regionali (CTR) a scala 1:10000 e 1:5000, in formato digitale, come base cartografica. Sempre in formato digitale ho utilizzato anche le carte geologiche e geomorfologiche dell'area della Val Marecchia (fogli 266, 267, 278) oltre, per finire, agli shapefile presi dal database online del Piano stralcio dell’Assetto Idrogeologico PAI. Il software usato per la realizzazione del lavoro di tesi è stato ArcGIS di proprietà di ESRI. Per ogni caso di studio ho per prima cosa effettuato un'analisi dal punto di vista geologico e geomorfologico, in modo da fare un quadro delle formazioni presenti oltre ad eventuali fenomeni franosi mostrati dalle carte. A seguire ho svolto un confronto fra il dato PS, e quindi i valori di spostamento, e la perimetrazione mostrata nel PAI. Per alcuni casi di studio il dato PS ha mostrato movimenti in aree già perimetrate nel PAI come "in dissesto", mentre in altri il dato satellitare ha permesso di venire a conoscenza di fenomeni non conosciuti (come ad esempio nel caso di Monte Gregorio). Per ogni caso di studio ho inoltre scelto alcuni PS caratteristici (solitamente quelli a coerenza maggiore) e ho ricavato la relativa serie storica. In questo modo è stato possibile verificare lo spostamento durante tutti gli anni in cui sono state prese le scene (dal 1992 al 2000 per dati ERS, dal 2002 al 2008 per dati ENVISAT) potendo quindi mettere in luce accelerazioni o assestamenti dei fenomeni nel tempo, oltre a escludere la presenza di trend di spostamento anomali imputabili nella maggior parte dei casi a errori nel dato. L’obiettivo della tesi è stato da una parte di verificare la bontà del dato PS nell’interpretazione dei movimenti dovuti a dissesti franosi e dall’altra di fare un confronto tra il dato di spostamento ricavato dai PS e i vari inventari o carte di piano. Da questo confronto sono emerse informazioni molti interessanti perché è stato possibile avere conferme di movimento su dissesti già conosciuti (Sant’Agata Feltria, San Leo e altri) ma anche di venire a conoscenza di fenomeni non conosciuti (Monte Gregorio). In conclusione è emerso dal mio lavoro che il monitoraggio tramite tecnica PSinSAR necessita di essere integrato con le tecniche tradizionali poiché presenta alcune limitazioni importanti come l’impossibilità di "vedere" movimenti veloci o lungo la direzione Nord-Sud, oltre ad avere dati in aree vegetate o scarsamente abitate. I vantaggi sono però notevoli potendo monitorare con un’unica ripresa vaste porzioni di territorio oltre ad avere serie storiche consistenti, in grado di evidenziare i movimenti avvenuti nel passato. Tale tecnica quindi, secondo il mio parere, può essere utilizzata come supporto alla stesura di cartografia di fenomeni franosi fornendo informazioni aggiuntive rispetto alle varie tecniche tradizionali come il GPS, sondaggi geotecnici e sondaggi inclinometrici.
Resumo:
Questa tesi di laurea nasce da una collaborazione con il Centro Studi Vitruviani di Fano, un’associazione nata il 30 Settembre 2010 nella mia città. Le note vicende riguardanti la Basilica vitruviana di Fano fanno della città adriatica il luogo più autorevole per accogliere un Centro Studi Internazionale dedicato all’opera di Vitruvio. Questa associazione è nata come contenitore di riferimento per eventi e iniziative legate al mondo della classicità intesa come momento storico, ma anche come più ampio fenomeno non solo artistico che interessa trasversalmente tutta la cultura occidentale. La creazione di un’istituzione culturale, di fondazione pubblico-privata, con l'obiettivo di porsi a riferimento internazionale per il proprio ambito di ricerca, è notizia comunque rilevante in un periodo in cui lo Stato vara l’articolo 7 comma 22 di una legge che ribadisce la fine dei finanziamenti agli enti, agli istituti, e alle fondazioni culturali. Il Centro Studi Vitruviani dovrà diventare presto sede di momenti scientifici alta, borse di studio, occasioni divulgative, mostre, iniziative didattiche. L’alto livello scientifico mi si è presentato subito chiaro durante questi mesi di collaborazione con il Centro, quando ho avuto l’occasione di incontrare e conoscere e contattare personalità quali i Professori Salvatore Settis, Pierre Gros, Howard Burns, Antonio Corso, Antonio Monterroso e Piernicola Pagliara. Attualmente nella mia città il Centro Studi ha una sede non adeguato, non è fruibile al pubblico (per problemi accessi in comune con altri Enti) e non è riconoscibile dall’esterno. L’attuale sede è all’interno del complesso conventuale del S.Agostino. Il Centro Studi mi ha proposto di valutare la possibilità di un ampliamento dell’associazione in questo edificio storico. Nel mio progetto è stato previsto un processo di acquisizione totale del complesso, con un ripensamento dell’accesso riconoscibile dall’esterno, e un progetto di rifunzionalizzazione degli spazi interni. È stata inserita un’aula per la presentazione di libri, incontri e congressi, mostre ed esposizioni, pubblicazioni culturali e specialistiche. Il fatto interessante di questa sede è che l’edificio vive sulle rovine di un tempio romano, già visitabile e inserite nelle visite della città sotterranea. Fano, infatti, è una città di mare, di luce e nello stesso tempo di architetture romane sotterranee. L’identità culturale e artistica della città è incisa nelle pieghe dei suoi resti archeologici. Le mura augustee fanesi costituiscono il tratto più lungo di mura romane conservate nelle città medio-adriatiche. Degli originari 1750 metri, ne rimangono circa 550. Di grande suggestione sono le imponenti strutture murarie rinvenute sotto il complesso del Sant’Agostino che hanno stimolato per secoli la fantasia e suscitato l'interesse di studiosi ed appassionati. Dopo la prima proposta il Centro Studi Vitruviani mi ha lanciato una sfida interessante: l’allargamento dell’area di progetto provando a ripensare ad una musealizzazione delle rovine del teatro romano dell’area adiacente. Nel 2001 l’importante rinvenimento archeologico dell’edificio teatrale ha donato ulteriori informazioni alle ricostruzione di una pianta archeologica della città romana. Questa rovine tutte da scoprire e da ripensare mi si sono presentate come un’occasione unica per il mio progetto di tesi ed, inoltre, estremamente attuali. Nonostante siano passati dieci anni dal rinvenimento del teatro, dell’area mancava un rilievo planimetrico aggiornato, un’ipotesi ricostruttiva delle strutture. Io con questo lavoro di Tesi provo a colmare queste mancanze. La cosa che ritengo più grave è la mancanca di un progetto di musealizzazione per inserire la rovina nelle visite della Fano romana sotteranea. Spero con questa tesi di aver donato materiale e suggestioni alla mia città, per far comprendere la potenzialità dell’area archeologica. Per affrontare questo progetto di Tesi sono risultate fondamentali tre esperienze maturate durante il mio percorso formativo: prima fra tutte la partecipazione nel 2009 al Seminario Internazionale di Museografia di Villa Adriana Premio di Archeologia e Architettura “Giambattista Piranesi” organizzato nella nostra facoltà dal Prof. Arch. Sandro Pittini. A noi studenti è stata data la possibilità di esercitarci in un progetto di installazioni rigorosamente temporanee all’interno del sedime archeologico di Villa Adriana, grande paradigma per l’architettura antica così come per l’architettura contemporanea. Nel corso del quarto anno della facoltà di Architettura ho avuto l’occasione di seguire il corso di Laboratorio di Restauro con i professori Emanuele Fidone e Bruno Messina. Il laboratorio aveva come obiettivo principale quello di sviluppare un approccio progettuale verso la preesistenza storica che vede l'inserimento del nuovo sull'antico non come un problema di opposizione o di imitazione, ma come fertile terreno di confronto creativo. Durante il quinto anno, ho scelto come percorso conclusivo universitario il Laboratorio di Sintesi Finale L’architettura del Museo, avendo già in mente un progetto di tesi che si rivolgesse ad un esercizio teorico di progettazione di un vero e proprio polo culturale. Il percorso intrapreso con il Professor Francesco Saverio Fera mi ha fatto comprendere come l’architettura dell'edificio collettivo, o più semplicemente dell’edificio pubblico si lega indissolubilmente alla vita civile e al suo sviluppo. È per questo che nei primi capitoli di questa Tesi ho cercato di restituire una seria e attenta analisi urbana della mia città. Nel progetto di Tesi prevedo uno spostamento dell’attuale Sezione Archeologica del Museo Civico di Fano nell’area di progetto. Attualmente la statuaria e le iscrizioni romane sono sistemate in sei piccole sale al piano terra del Palazzo Malatestiano: nel portico adiacente sono esposti mosaici e anfore sottoposte all’azione continua di volatili. Anche la Direttrice del Museo, la Dott.ssa Raffaella Pozzi è convinta del necessario e urgente spostamento. Non è possibile lasciare la sezione archeologica della città all’interno degli insufficienti spazi del Palazzo Malatestiano con centinaia di reperti e materiali vari (armi e uniformi, pesi e misure, ceramiche, staturia, marmi, anfore e arredi) chiusi e ammassati all’interno di inadeguati depositi. Il tutto è stato opportunamente motivato in un capitolo di questa Tesi. Credo fortemente che debbano essere le associazioni quali il CSV assieme al già attivissimo Archeclub di Fano e il Museo Archeologico, i veri punti di riferimento per questa rinascita culturale locale e territoriale, per promuovere studi ed iniziative per la memoria, la tutela e la conservazione delle fabbriche classiche e del locale patrimonio monumentale. Questo lavoro di Tesi vuole essere un esercizio teorico che possa segnare l’inizio di un nuovo periodo culturale per la mia città, già iniziato con l’istituzione del Centro Studi Vitruviani. L’evento folkloristico della Fano dei Cesari, una manifestazione sicuramente importante, non può essere l’unico progetto culturale della città! La “Fano dei Cesari” può continuare ad esistere, ma deve essere accompagnata da grandi idee, grandi mostre ed eventi accademici.
Resumo:
Questo lavoro nasce principalmente da un legame affettivo e di parentela che mi lega alla figura di Mario Giacomelli e alla sua grande opera di fotografo che lo ha portato a raggiungere un ruolo fondamentale nella storia della fotografia contemporanea. Ricordo che sin da quando ero bambino rimanevo affascinato dalle sue opere, da quei paesaggi fotografati in bianco e nero, da quelle sagome dei pretini che sembrano danzare nel vuoto, il tutto però senza capire la vera importanza di quello che avevo davanti ai miei occhi e ignorando completamente tutto l’interesse, le critiche e i dibattiti che quegli scatti accendevano in quegli anni, al punto di venire addirittura esposti in quello che si può definire il museo di arte moderna per antonomasia, ovvero il MoMa, in fondo per me non era altro che uno zio. Il ricordo mi porta nella sua piccola e buia Tipografia Marchigiana, in pieno centro storico a Senigallia, proprio dietro il Municipio, dove lo trovavo sempre indaffarato con timbri, foto e oggetti di ogni tipo, sommerso in un caos primordiale. È incredibile pensare come in quel minuscolo negozio siano passati tutti i più grandi personaggi della fotografia italiana, quali Giuseppe Cavalli, Ferruccio Ferroni, Gianni Berengo Gardin, Ferdinando Scianna; dietro quella facciata di piccola bottega si nascondeva un universo parallelo che entrava in contatto con le più importanti gallerie e musei di arte contemporanea del mondo. Oggi al suo posto c’è una Parrucchieria. Molte cose sono cambiate, io ho capito, aimè in ritardo, l’importanza del personaggio che ho avuto la fortuna di conoscere e di avere come parente. La città stessa si è accorta solo dopo la morte, come spesso accade, di quale formidabile artista ha cresciuto, un artista che è sempre rimasto fedele alla sua terra di origine, che ha rappresentato una fonte inesauribile di spunti per la sua opera fotografica. A quel punto si è scatenato un turbinio di conferenze, mostre e pubblicazioni sul lavoro di Giacomelli, tanto che sarebbe rimasto impossibile a chiunque non capire il peso che questa figura ha ancora oggi per la città. Proprio lo scorso Novembre è ricorso il decennale della sua scomparsa e in questa occasione si è dato il via ad una infinita serie di iniziative, mostre, conferenze e pubblicazioni dedicate alla figura del fotografo senigalliese, ribadendo la necessità per la città di dotarsi di uno spazio idoneo ad ospitare questi eventi. In una recente intervista condotta dal quotidiano Il Resto del Carlino, Simone Giacomelli, figlio del fotografo, ha sottolineato l’urgenza della creazione di uno spazio dedicato alle fotografie del padre “Io lavoro molto con l'estero e sono in contatto con appassionati che arrivano da tutto il mondo per ammirare le foto di Giacomelli. C'è un gruppo di studenti che mi ha contattato dall'Australia. Ho dovuto dire di aspettare perché in città c'è una raccolta di foto al Museo mezzadria ed una parte al Museo dell'informazione. Manca un luogo dove si possa invece vedere tutta la produzione.”. Con queste premesse il progetto per un Centro Internazionale della Fotografia non poteva che essere a Senigallia, non tanto per il fatto di essere la mia città, alla quale sono molto legato, quanto per l’essere stata la culla di un grande artista quale Mario Giacomelli, dalla quale non si è mai voluto allontanare e che ha rappresentato per lui la fonte di ispirazione di quasi tutte le sue opere. Possiamo dire che grazie a questo personaggio, Senigallia è diventata la città della Fotografia, in quanto non passa settimana senza che non venga presentata una nuova iniziativa in ambito fotografico e non vengano organizzate mostre di fotografi di calibro internazionale quali Henri Cartier Bresson, Ara Guler, etc… Ecco quindi motivato il titolo di Internazionale attribuito al museo, in quanto da questo cuore pulsante si dovranno creare una serie di diramazioni che andranno a collegare tutti i principali centri di fotografia mondiali, favorendo lo scambio culturale e il dibattito. Senigallia è una città di modeste dimensioni sulla costa adriatica, una città dalle grandi potenzialità e che fa del turismo sia balneare che culturale i suoi punti di forza. La progettazione di questa sede museale mi ha permesso di affrontare e approfondire lo studio storico della città nella sua evoluzione. Da questa analisi è emerso un caso molto particolare ed interessante, quello di Piazza Simoncelli, un vuoto urbano che si presenta come una vera e propria lacerazione del tessuto cittadino. La piazza infatti è stata sede fino al 1894 di uno dei quattro lotti del ghetto ebraico. Cambia quindi il ruolo del sito. Ma la mancata capacità aggregativa di questo vuoto, data anche dal fatto della mancanza di un edificio rappresentativo, ne muta il ruolo in parcheggio. E’ la storia di molti ghetti italiani inseriti in piani di risanamento che vedevano la presenza del costruito antecedente, come anomalia da sanare. E’ la storia del ghetto di Roma o di quello di Firenze, che sorgeva nel luogo dell’attuale Piazza della Repubblica. Tutti sventrati senza motivazioni diverse che non la fatiscenza dell’aggregato. A Senigallia il risultato è stato una vera e propria lacerazione del tessuto urbano, giungendo alla produzione di un vuoto oppositivo al resto della città, che ha portato la perdita della continuità spaziale, se non si vuole poi far riferimento a quella culturale. Il mio intervento quindi vede nel legame con la storia e con l’identità del luogo un punto fondamentale di partenza. Da queste basi ho cercato di sviluppare un progetto che ha come presupposto il forte legame con la memoria del luogo e con le architetture locali. Un progetto che possa rappresentare un polo culturale, un cuore pulsante dove poter sviluppare e approfondire le conoscenze fotografiche, dal quale poter entrare in contatto con tutti i principali centri dedicati alla fotografia e nel quale poter tenere sempre vivo il ricordo di uno dei più importanti artisti che la città ha avuto la fortuna di crescere.
Resumo:
Al giorno d’oggi i combustibili fossili come carbone, olio e gas naturale forniscono più del 75% dell’energia mondiale. Tuttavia, la crescente richiesta di queste fonti di energia non rinnovabili, si manifesta in un momento in cui le riserve naturali si stanno esaurendo; è stato infatti stimato che le riserve petrolifere di tutto il mondo possano essere sufficienti per fornire energia e produrre prodotti chimici per i prossimi quarant’anni. Per questo motivo la conversione delle biomasse per produrre energia e prodotti chimici sta diventando una valida alternativa per diversificare le fonti energetiche e ridurre il surriscaldamento globale. Le biomasse, infatti, oltre ad essere una fonte rinnovabile, generano minori emissioni di gas serra rispetto ai combustibili fossili, perché la CO2 rilasciata nei processi di utilizzo viene bilanciata da quella consumata nel processo di crescita delle biomasse stesse. Lo sfruttamento delle biomasse per la produzione di building blocks per la chimica suscita particolare interesse, poiché le molecole ottenute sono già parzialmente funzionalizzate; ciò significa che la sintesi di prodotti chimici specifici richiede un minor numero di stadi rispetto ai building blocks petroliferi, con conseguente diminuzione di prodotti di scarto e sottoprodotti. Un esempio di queste potenziali “molecole piattaforma” è il 5-idrossimetilfurfurale (HMF), un importante composto derivato dalla disidratazione di zuccheri, intermedio chiave per la sintesi di un’ampia varietà di prodotti chimici e combustibili alternativi, tra cui l’acido 2,5- furandicarbossilico (FDCA), che è stato identificato tra i dodici composti chimici più importanti degli ultimi anni. Per esempio, il FDCA è un possibile sostituto dell’acido tereftalico, usato per produrre il polietilentereftalato (PET). Recentemente alcuni autori hanno riportato interessanti risultati sull’ossidazione dell’HMF a FDCA utilizzando catalizzatori a base di Au supportato. Questi catalizzatori mostrano però significativi problemi di disattivazione. Lo scopo di questo lavoro di tesi è stato quindi lo sviluppo di catalizzatori attivi e stabili nella reazione di ossidazione dell’HMF a FDCA. Il lavoro portato avanti ha avuto come obbiettivi principali: l’ottimizzazione della sintesi di nanoparticelle di oro e oro/rame a diverso rapporto molare, mediante un processo di sintesi, in acqua, a basso impatto ambientale. Tale metodo di sintesi si basa sull’azione riducente del sistema glucosio-NaOH ed è stato messo a punto in lavori di tesi precedenti. Le nanoparticelle sintetizzate sono state utilizzate, quali fase attiva, per la preparazione di catalizzatori supportati su TiO2 e CeO2 lo studio dell’attività catalitica e riusabilità dei catalizzatori preparati nell’ossidazione in fase liquida del HMF a FDCA.
Resumo:
Il concetto fondante e le motivazioni alla base di questo lavoro di tesi sono costituiti dalla volontà di analizzare a fondo la problematica energetica ed ambientale, focalizzando l‟indagine sul ruolo delle Fonti Energetiche Rinnovabili e contestualizzandola nel contesto “locale” relativo alla Regione Emilia Romagna: questo lavoro di tesi, infatti, è stato sviluppato nell‟ambito di un progetto di collaborazione stipulato tra Università e Regione Emilia Romagna e si è svolto all‟interno dell‟Assessorato alle Attività Produttive della Regione, lavorando con il “Servizio Politiche Energetiche” emiliano-romagnolo. La crisi energetica (e, contestualmente, la crisi ambientale) rappresenta una problematica al centro del dibattito globale da oltre mezzo secolo, affrontata finora in maniera non organica e realmente efficace dalle nazioni e dagli organismi sovranazionali coinvolti in tale dibattito. Tale tematica è divenuta ancora più pregnante (e la ricerca di una “soluzione” al riguardo, ancora più pressante) negli ultimi anni, in seguito alla deflagrazione di una crisi globale –economica e sociale- che ha intaccato i modelli di crescita e sviluppo (anche tecnologico) conosciuti finora, ponendo di fronte agli occhi dell‟umanità la necessità impellente di ridefinire politiche economiche, ambientali e, conseguentemente, energetiche, caratterizzate da una maggiore sostenibilità globale. La continua crescita della popolazione e il progressivo incremento generalizzato (e disomogeneo) degli standard di vita alimentano con ritmi esponenziali la domanda –e la conseguente produzione- di energia, inevitabilmente correlata (proprio a causa dei modelli di sviluppo seguiti finora) ad un drammatico incremento delle emissioni climalteranti, che continuano a nuocere irreversibilmente alla salubrità del nostro fragile ecosistema. Oltre alla problematica ambientale si aggiunge, con impellenza sempre più marcata, quella relativa alla disponibilità delle principali fonti energetiche (quelle fossili), che si profilano in esaurimento entro lassi temporali che potrebbero divenire drammaticamente prossimi: il “rischio reale” connesso alla prosecuzione di politiche energetiche poggiate sullo sfruttamento intensivo di tali fonti non è tanto connesso all‟eventuale esaurimento assoluto delle risorse stesse, quanto ad una loro progressiva riduzione, tale da renderle viepiù costose e sempre meno convenienti economicamente. Uno scenario di questo tipo si tradurrebbe inevitabilmente in una condizione per la quale solamente i Paesi più ricchi potrebbero usufruire di tali risorse, estremamente costose, mentre i Paesi meno evoluti economicamente rischierebbero di trovarsi nell‟impossibilità di approvvigionarsi, andando incontro a condizioni di deficit energetico: uno scenario inquietante, che però non appare così “ipotetico”, se si tiene conto di come –già ora- siano in aumento segnali di allarme e di conflitto, attivati da localizzate insufficienze energetiche. In un quadro globale di questo tipo le strade risolutive finora riconosciute e percorse dal mondo scientifico, politico ed economico sono sostanzialmente due: - L‟implementazione del risparmio energetico, in un‟ottica di drastica riduzione dei consumi globali; - La “conversione” della produzione energetica (attualmente fondata sulle fonti convenzionali, ossia quelle fossili) verso le cosiddette “Fonti Energetiche Alternative”. Questa seconda direttrice di marcia sembra poter essere quella in grado di reindirizzare verso un orizzonte di maggiore sostenibilità l‟attuale sistema energetico globale, e in quest‟ottica assumono quindi enorme importanza strategica le tecnologie alternative e, prime tra tutte, le Fonti Energetiche Rinnovabili (FER). Queste consentirebbero infatti sia di ridurre l‟impatto ambientale connesso alla produzione energetica da fonti convenzionali, che di implementare politiche di autosufficienza energetica per quei Paesi che attualmente, dal punto di vista del bilancio energetico interno, dipendono in misura marcata dall‟importazione di combustibili fossili dall‟estero. La crisi energetica e il conseguente ruolo chiave delle Fonti Energetiche Rinnovabili è quindi il punto di partenza di questa tesi, che ha voluto confrontarsi con tale problematica globale, misurandosi con le azioni e con i provvedimenti intrapresi al riguardo a livello locale, focalizzando l‟attenzione sulla realtà e sugli sviluppi delle Fonti Energetiche Rinnovabili nella Regione Emilia Romagna. Per sviluppare il lavoro si è proceduto definendo prima di tutto un quadro complessivo della situazione, in termini di problematica energetica e di stato attuale delle Fonti Energetiche Rinnovabili, scendendo progressivamente nel dettaglio: partendo da una fotografia a livello mondiale, quindi europeo, successivamente italiano (basandosi sui dati di pubblicazioni italiane ed estere, di enti competenti in materia come Terna, il GSE o l‟Enea per l‟Italia, e l‟IEA, l‟EIA, l‟UE per l‟Europa e il resto del mondo). Nella terza parte della tesi si è scesi al dettaglio di questo stato attuale delle Fonti Energetiche Rinnovabili a livello Regionale (Emiliano-Romagnolo) e Provinciale (le nove Province della Regione): per procedere alla definizione di questo quadro la “tecnica operativa” è consistita in una raccolta dati effettuata in collaborazione con il ”Servizio Politiche Energetiche” della Regione Emilia Romagna, estesa alle 9 Province e ai 348 Comuni del territorio emiliano-romagnolo. La richiesta di dati avanzata è stata relativa agli impianti alimentati da fonte energetica rinnovabile in esercizio e a quelli in fase di valutazione sul territorio afferente all‟Ente considerato. Il passo successivo è consistito nell‟aggregazione di questi dati, nella loro analisi e nella definizione di un quadro organico e coerente, relativo allo stato attuale (Ottobre 2010) delle Fonti Energetiche Rinnovabili sul territorio emiliano-romagnolo, tale da permettere di realizzare un confronto con gli obiettivi definiti per le FER all‟interno dell‟ultimo Piano Energetico Regionale e con lo stato delle FER nelle altre Regioni italiane. Sono stati inoltre realizzati due “Scenari”, relativi all‟evoluzione stimata del parco “rinnovabile” emiliano-romagnolo, definiti al 2012 (“Breve Termine”) e al 2015 (“Medio Termine”). I risultati ottenuti hanno consentito di verificare come, nell‟orizzonte “locale” emiliano-romagnolo, il sistema globale connesso alle Fonti Energetiche Rinnovabili abbia attecchito e si sia sviluppato in misura marcata: gli obiettivi relativi alle FER definiti nel precedente Piano Energetico Regionale sono infatti stati sostanzialmente raggiunti in toto. Dalla definizione degli “Scenari” previsionali è stato possibile stimare l‟evoluzione futura del parco “rinnovabile” emilianoromagnolo, verificando come questo risulti essere in continua crescita e risulti “puntare” su due fonti rinnovabili in maniera particolare: la fonte fotovoltaica e la fonte a biocombustibili. Sempre dall‟analisi degli “Scenari” previsionali è stato possibile stimare l‟evoluzione delle singole tecnologie e dei singoli mercati rinnovabili, verificando limiti allo sviluppo (come nel caso della fonte idroelettrica) o potenziali “espansioni” molto rilevanti (come nel caso della fonte eolica). Il risultato finale di questo lavoro di tesi è consistito nel poter definire dei nuovi obiettivi, relativi alle differenti Fonti Energetiche, da potersi inserire all‟interno del prossimo Piano Energetico Regionale: l‟obiettivo “complessivo” individua –avendo il 2015 come orizzonte temporale- una crescita incrementale delle installazioni alimentate da FER pari a 310 MWe circa. Questo lavoro di tesi è stato ovviamente organizzato in più “Parti”, ciascuna ulteriormente suddivisa in “Capitoli”. Nella “Prima Parte”, costituita dai primi 4 Capitoli, si è proceduto ad introdurre la problematica energetica e il contesto in cui si muovono le decisioni e le politiche (comunitarie, nazionali e sovra-nazionali) destinate a trovare soluzioni e risposte: Il Primo Capitolo, introduttivo, definisce prima di tutto gli “strumenti” e i concetti che verranno successivamente richiamati più volte nel resto della Tesi, partendo dal concetto di “energia”, definito sia “concettualmente” che attraverso le unità di misura utilizzate per quantificarlo. Il passo successivo è stato quello di contestualizzare l‟evoluzione dello sfruttamento di questa “risorsa”, in relazione allo sviluppo delle tecnologie e delle stesse condizioni di vita umane, così da definire un background storico per le considerazioni introdotte nel Capitolo successivo. Il Secondo Capitolo, infatti, introduce la problematica attuale (ma mutuata dal background storico evidenziato in precedenza) della “crisi energetica” e della “crisi ambientale” ad essa correlata, considerandone gli aspetti prima di tutto globali, connessi a considerazioni di natura sociale, demografica e –conseguentemente economica e sociale: all‟interno di questa analisi, vengono citati anche gli scenari previsionali elaborati da numerosi enti di ricerca e istituzioni, coinvolti su più livelli nell‟ottica di riuscire ad individuare una “risposta” alle problematiche sollevate dallo sfruttamento intensivo della risorsa energetica per vie convenzionali. Tale risposta è rappresentata dalle normative sovranazionali, europee e italiane varate nell‟ottica di attuare una “transizione etica” in materia di sviluppo sostenibile, impatto ambientale e sfruttamento energetico: un presupposto imprescindibile per la transizione energetica sostenibile è proprio l‟impegno a livello locale (quindi anche e prima di tutto di istituzioni quali, in Italia, le Regioni, le Province e i Comuni), senza il quale difficilmente si potranno raggiungere traguardi avanzati, che implicano anche un sostanziale cambio di mentalità. Nell‟ottica di approfondire ulteriormente il contesto all‟interno del quale vengono adottate azioni e intrapresi provvedimenti utili a concretizzare risposte a livello italiano –nazionale e locale- il Terzo Capitolo introduce il tema delle “politiche energetiche sostenibili”, partendo dalla definizione dell‟attuale condizione Italiana (in termini di inquinamento atmosferico e di sfruttamento intensivo della risorsa energetica, nonché di scenari previsionali), per definire successivamente le politiche nazionali per le fonti rinnovabili, per il settore dei trasporti, del riscaldamento e del raffreddamento, della pianificazione energetica e della generazione distribuita. Il Capitolo introduce anche il tema degli interventi in ambito di fiscalità energetica (“Certificati Verdi”, “Certificati Bianchi” e il “Conto Energia”). Proprio per definire al meglio i meccanismi di incentivazione, il Quarto Capitolo esplicita (facendo riferimento alla documentazione pubblicata da enti quali GSE, Terna, GRTN) il meccanismo del cosiddetto “mercato elettrico” e degli scambi che vi avvengono, in modo tale da comprendere come i metodi di incentivazione alle fonti alternative che si appoggiano su interventi di fiscalità energetica, riescano ad avere –o meno- presa sul sistema. La “Seconda Parte” (costituita dai Capitoli dal 5° al 13°) è invece dedicata al necessario approfondimento sullo stato delle Fonti Energetiche Rinnovabili (FER): in ogni capitolo è stato infatti approfondita la condizione attuale delle principali FER (fonte a Biocombustibili, Eolica, Geotermica, Idraulica, Solare Fotovoltaica, Solare Termica, Solare Termodinamica). Tale approfondimento è stato condotto in termini di sviluppo della tecnologia, incidenza e contributo della singola FER sui bilanci elettrici (considerando prima il quadro mondiale, quindi quello europeo, per scendere infine al dettaglio italiano). Nella parte finale di ogni capitolo sono state riportate anche le principali criticità riscontrate per ogni fonte presa in considerazione, oltre che gli scenari previsionali stimati considerandone i potenziali sviluppi, in un‟ottica di medio termine e di lungo termine. La “Terza Parte” (comprendente i Capitoli dal 14° al 22°) di questa Tesi raccoglie invece il lavoro svolto e i risultati ottenuti e permette di definire lo stato attuale e gli scenari previsionali (a breve termine e a medio termine) per le Fonti Energetiche Rinnovabili nella Regione Emilia Romagna, con un livello di dettaglio sia Regionale che Provinciale. Il lavoro, come detto, è consistito nella raccolta dati effettuata presso gli enti di “governo territoriale” emiliano-romagnoli (la Regione, le 9 Province e i 348 Comuni) e nella successiva aggregazione, elaborazione e interpretazione di questi stessi dati. I Capitoli dal 15° al 19° definiscono lo stato attuale (all‟Ottobre 2010) e gli scenari previsionali (a breve termine e medio termine) per le differenti FER (rispettivamente, Biocombustibili, Eolica, Fotovoltaica, Geotermica e Idroelettrica), prima a livello Provinciale, quindi a livello Regionale. Nella conclusione di ogni Capitolo è contenuto un confronto con lo stato della FER presa in considerazione relativo agli anni precedenti, oltre che il confronto con gli obiettivi definiti per la tecnologia al 2010 dal precedente Piano Energetico Regionale. Questi Capitoli si chiudono con l‟analisi del trend storico della Fonte Energetica Rinnovabile considerata e con la conseguente individuazione dei potenziali obiettivi al 2012 e al 2015 da inserire nel prossimo Piano Energetico Regionale. E‟ presente anche l‟evoluzione stimata del “mercato” della singola FER presa in considerazione, oltre che della “tipologia tecnologica” sulla quale gli installatori e gli investitori tenderanno ad orientarsi sia nel breve che nel medio termine. I Capitoli 20°, 21° e 22° contengono invece lo stato “riassuntivo” delle Fonti Energetiche Rinnovabili, definite per il panorama emiliano-romagnolo (anche in questo caso, prima a livello Provinciale, successivamente a livello regionale) sotto un‟ottica temporale differente: il Capitolo 20° riassume lo stato attuale del parco “rinnovabile” complessivo emiliano-romagnolo, definendone l‟evoluzione storica e confrontandolo con gli obiettivi fissati al 2010 dal precedente Piano Energetico regionale, permettendo così di verificare –nel complesso- se le stime del 2004 erano state corrette. Il Capitolo 21° definisce l‟evoluzione del parco “rinnovabile” complessivo emiliano-romagnolo al 2012, sia a livello Provinciale che Regionale, definendone in questo modo un trend stimato di crescita e dei conseguenti obiettivi di breve termine, riferiti alle singole FER. Il Capitolo 22° definisce infine l‟evoluzione del parco “rinnovabile” complessivo emiliano-romagnolo al 2015 (ancora una volta, sia a livello Provinciale che Regionale) permettendo così di ricavare un trend stimato di crescita e, soprattutto, gli obiettivi di medio termine -riferiti alle singole FER- da inserire all‟interno del prossimo Piano Energetico Regionale. La conclusione permette di chiudere sinteticamente il lavoro svolto in precedenza, traendo le indicazioni più rilevanti dai dati e dalle considerazioni pregresse: come si evincerà, l‟Emilia Romagna risulta una Regione in cui gli obiettivi rinnovabili (e di “conversione energetica”) sono stati sostanzialmente raggiunti e, in alcuni casi, perfino superati. Il mercato rinnovabile è in crescita e le politiche locali e sovra locali evidenziano una marcata volontà di puntare prevalentemente su settori e tecnologie quali quella della biomassa e quella solare fotovoltaica. Nonostante questo, si evidenzia anche la necessità di lavorare a livello di enti regionali e provinciali, per omogeneizzare ulteriormente la distribuzione energetica “rinnovabile” sul territorio (implementando lo sviluppo di determinate fonti su distretti territoriali al momento non ancora raggiunti da tali mercati) e per provvedere ad una riduzione dei consumi energetici che consenta alle FER di avere una maggiore incidenza sui bilanci energetici ed elettrici, locali e regionali. Si ricorda che la “costruzione” di questa tesi è stata sviluppata parallelamente ad un‟attività di stage presso il settore Politiche energetiche dell‟Assessorato alle Attività Produttive della Regione Emilia – Romagna, che in questa fase sta procedendo alla definizione del nuovo Piano Energetico Regionale, e alla conseguente individuazione d
Resumo:
Presentazione dello sviluppo di un ambiente per il progetto concettuale ed il disegno automatico dei dirigibili: inserendo le specifiche di missione è possibile visualizzare alcuni dati preliminari utili al dimensionamento, alla stima dei pesi, alla definizione dell'apparato propulsivo. L'integrazione con un modello 3D parametrico sviluppato in solidworks permette poi di ottenere un semplice modello del dirigibile da utilizzare come punto di partenza per ulteriori analisi. Sono inclusi alcuni casi di studio in cui si presenta come può essere utilizzato l'ambiente. Vengono inoltre indicati alcuni possibili margini di miglioramento.
Resumo:
Il video streaming in peer-to-peer sta diventando sempre più popolare e utiliz- zato. Per tali applicazioni i criteri di misurazione delle performance sono: - startup delay: il tempo che intercorre tra la connessione e l’inizio della ripro- duzione dello stream (chiamato anche switching delay), - playback delay: il tempo che intercorre tra l’invio da parte della sorgente e la riproduzione dello stream da parte di un peer, - time lag: la differenza tra i playback delay di due diversi peer. Tuttavia, al giorno d’oggi i sistemi P2P per il video streaming sono interessati da considerevoli ritardi, sia nella fase di startup che in quella di riproduzione. Un recente studio su un famoso sistema P2P per lo streaming, ha mostrato che solitamente i ritardi variano tra i 10 e i 60 secondi. Gli autori hanno osservato anche che in alcuni casi i ritardi superano i 4 minuti! Si tratta quindi di gravi inconvenienti se si vuole assistere a eventi in diretta o se si vuole fruire di applicazioni interattive. Alcuni studi hanno mostrato che questi ritardi sono la conseguenza della natura non strutturata di molti sistemi P2P. Ogni stream viene suddiviso in blocchi che vengono scambiati tra i peer. A causa della diffusione non strutturata del contenuto, i peer devono continuamente scambiare informazioni con i loro vicini prima di poter inoltrare i blocchi ricevuti. Queste soluzioni sono estremamente re- sistenti ai cambiamenti della rete, ma comportano una perdita notevole in termini di prestazioni, rendendo complicato raggiungere l’obiettivo di un broadcast in realtime. In questo progetto abbiamo lavorato su un sistema P2P strutturato per il video streaming che ha mostrato di poter offrire ottimi risultati con ritardi molto vicini a quelli ottimali. In un sistema P2P strutturato ogni peer conosce esattamente quale blocchi inviare e a quali peer. Siccome il numero di peer che compongono il sistema potrebbe essere elevato, ogni peer dovrebbe operare possedendo solo una conoscenza limitata dello stato del sistema. Inoltre il sistema è in grado di gestire arrivi e partenze, anche raggruppati, richiedendo una riorganizzazione limitata della struttura. Infine, in questo progetto abbiamo progettato e implementato una soluzione personalizzata per rilevare e sostituire i peer non più in grado di cooperare. Anche per questo aspetto, l’obiettivo è stato quello di minimizzare il numero di informazioni scambiate tra peer.
Resumo:
Elaborazione di un modello parametrico dei coefficienti della curva di Pacejka, al fine di rendere possibile la stima delle prestazioni dello pneumatico in tutte le condizioni di carico e di campanatura.
Resumo:
In questo documento di tesi viene descritta la progettazione e la realizzazione di estensioni per il sistema di authoring AContent. L'idea è di creare un'estensione dell'authoring tool che implementi il concetto di template ovvero strumenti di grande efficacia e di facile utilizzo nelle fasi di redazione dei contenuti. Si prevede di aggiungerli ad AContent senza la necessità di integrare un intero motore di template ma utilizzando strutture dati esistenti e specifiche standard di e-learning. I servizi aggiuntivi da offrire agli autori sono stati organizzati secondo tre approcci diversi da cui sono emersi tre livelli di template. Il Template di Layout che determina l'aspetto grafico dei contenuti, il Template di Pagina che definisce la struttura di ogni singola pagina e il Template di Struttura che propone e imposta un modello per la struttura dell'intero contenuto didattico. Il documento è costituito da una seconda parte di progetto che va a coinvolgere il sistema ATutor e pone grande attenzione sulle caratteristiche di interoperabilità fra l'authoring AContent e il LCMS ATutor. Lo scopo è quello di estendere le funzionalità di integrazione dei contenuti del sistema così da presentare materiale didattico esterno archiviato in AContent. Viene trattata l'integrazione di LTI all'interno dei due sistemi considerati assegnando i ruoli di Tool Provider (AContent), fornitore di contenuti didattici remoti e Tool Consumer (ATutor), richiedente di tali contenuti. Sono considerati, infine, i due moduli di ATutor AContent Repository e External Tool che si occupano di importare materiale didattico da AContent tramite il Web Service REST. Si prevede la loro modifica affinché, attraverso il canale di comunicazione LTI stabilito, siano in grado di creare dei Live Content Link ovvero riferimenti a contenuti remoti (esterni alla piattaforma utilizzata) aggiornati in tempo reale. Infatti, a differenza di una normale importazione di un LO esterno è previsto che venga creano un "riferimento". In questo modo, la modifica di una pagina sul Tool Provider AContent si ripercuoterà istantaneamente su tutti i contenuti dei Tool Consumer che hanno instaurato un Live Content Link con il provider.
Resumo:
Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.
Resumo:
In questa Tesi di Laurea viene presentata un’interessante esperienza di implementazione numerica: lo sviluppo di un codice agli elementi finiti in grado di calcolare, verificare e ottimizzare edifici industriali in acciaio. Al giorno d’oggi, la tendenza delle imprese nel campo dell’ingegneria strutturale ed in particolare nel campo dell’edilizia industriale, è quella della specializzazione. E’ sempre più frequente, ad esempio nel campo dei capannoni industriali, che le aziende concentrino la loro attività solo su determinate tipologie costruttive, sulle quali ottimizzano il lavoro riducendo al massimo i tempi di progettazione, di costruzione e abbassando il prezzo. Il mondo dei programmi di calcolo, per la maggior parte, sembra aver preso una direzione di sviluppo opposta. Le case di produzione software mettono a disposizione dei progettisti strumenti sempre più raffinati, capaci di modellare dettagliatamente qualsiasi tipo di struttura, materiale, azione statica o dinamica; spesso questi programmi contengono anche un codice integrato CAD per il disegno della struttura e altri tools per lasciare all’utente la più grande libertà di azione possibile. Se da un lato questi strumenti danno al progettista la possibilità di una modellazione sempre più dettagliata, dall’altra parte hanno il limite di essere poco pratici per un tipo di progettazione standardizzato. Spesso quello di cui le imprese hanno bisogno è invece un programma creato ‘ad hoc’ per le loro attività che, grazie all’inserimento di pochi parametri, possa garantire una progettazione rapida e magari gestire non solo la fase di calcolo, ma anche quella di verifica e di ottimizzazione. In quest’ottica si inserisce lo sviluppo del codice eseguito in questa tesi. L’esposizione si articola in quattro parti. La prima, introduttiva, è dedicata alla descrizione delle tipologie di edifici monopiano in acciaio maggiormente diffuse, dei diversi tipi materiale, dei principali aspetti della normativa per queste costruzioni. Viene inoltre descritta la tipologia costruttiva implementata nel codice sviluppato. Il secondo capitolo è dedicato alla descrizione del metodo agli elementi finiti, esponendone i fondamenti teorici e le principali fasi della costruzione di un codice di calcolo numerico per elementi monodimensionali. Nella terza parte è illustrato il codice sviluppato. In particolare vengono dettagliatamente descritti i moduli di generazione del modello, del solutore, del post-processore in grado di eseguire le verifiche secondo le normative vigenti, e quello dedicato all’ottimizzazione strutturale. In fine, nell’ultimo capitolo viene illustrato un esempio progettuale con il quale si è potuta effettuare la validazione del codice confrontando i risultati ottenuti con quelli di riferimento forniti da programmi attualmente in commercio. La presente dissertazione non mira alla “certificazione” di un software che sia in grado di fare calcoli complessi nell’ambito dell’ingegneria strutturale, ma lo scopo è piuttosto quello di affrontare le problematiche e gestire le scelte operative che riguardano la scrittura di un codice di calcolo. Programmatori non si nasce, ma si diventa attraverso anni di esperienza che permettono di acquisire quella sensibilità numerica che è definibile come una vera e propria “arte”. Ed è in questa direzione che si è svolta la Tesi, ovvero comprendere prima di tutto l’atteggiamento da assumere nei confronti di un elaboratore elettronico e, solo successivamente, passare ad un utilizzo consapevole per scopi progettuali.