101 resultados para Diversão.
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Nel presente lavoro sono stati illustrati i risultati preliminari di uno studio mirato alla modellazione del processo di vagliatura di RSU. Il modello, sviluppato sulla base di ipotesi sia cinematiche che probabilistiche, è stato implementato ed applicato per la verifica dell’influenza delle condizioni operative sull’efficienza del processo di separazione. La modellazione è stata sviluppata studiando la cinematica di una particella all’interno di un vaglio rotante, prima studiando il comportamento della singola particella e poi studiando il comportamento di più particelle. Lo sviluppo di tale modello, consente di determinare l’efficienza di rimozione per le diverse frazioni merceologiche di un rifiuto, ciascuna caratterizzata da una propria distribuzione dimensionale,. La validazione è stata svolta effettuando una campagna di misurazioni utilizzando un vaglio in scala (1:10) e un vaglio di dimensioni reali . Da queste misurazioni è emerso che il modello è ben rappresentativo della realtà, in alcuni casi, si sono evidenziate delle discrepanze dal comportamento reale del rifiuto, ciò è senz’altro da attribuite alla forte eterogeneità dei materiali costituenti il rifiuto solido urbano e dall’interferenza che le une causano sulle altre. Si è appurato che, variando i parametri quali: l’angolo di inclinazione longitudinale del vaglio, la velocità di rotazione si ha un diverso comportamento del rifiuto all’interno del vaglio e quindi una variazione dell’efficienza di separazione di quest’ultimo. In particolare è stata mostrata una possibile applicazione del modello legata alla valutazione delle caratteristiche del sopravaglio nel caso questo sia destinato alla produzione di CDR. Attraverso la formula di Dulong si è calcolato il potere calorifico superiore, (sia allo stato umido che allo stato secco), ottenuto effettuando delle variazioni dei parametri citati precedentemente, calcolato sulla massa uscente dal sopravaglio e quindi quella utilizzata come combustibile per gli impianti di termovalorizzazione.( C.D.R.) Si è osservato il legame esistente tra le condizioni operative inclinazione e velocità di rotazione del tamburo ed il potere calorifico del flusso selezionato con l’obiettivo di massimizzare quest’ultimo. Dalle è prove è emerso come il fattore umidità giochi un ruolo fondamentale per l’ottimizzazione del CDR, l’umidità infatti incide negativamente sul potere calorifico del rifiuto invertendo il rapporto normalmente direttamente proporzionale tra percentuale di sopravaglio e potere calorifico, dunque a causa dell’umidità all’aumentare del flusso di sopravaglio si ha una diminuzione del potere calorifico. Lo sviluppo e la validazione di un modello teorico, ci permette di affrontare il problema della selezione e separazione dei RSU,non più solo tramite un procedimento induttivo basato unicamente sulle osservazioni, ma tramite un procedimento deduttivo grazie al quale "conoscendo l’input si prevede quale sarà l’output". Allo stato attuale la scelta e il dimensionamento delle unità di separazione dimensionale nei processi di selezione è basata unicamente su conoscenze di natura empirica L’obiettivo principale è stato dunque quello di costruire uno strumento in grado di determinare le caratteristiche dei flussi uscenti dall’unità di vagliatura, note che siano le caratteristiche del flusso in ingresso ed i parametri operativi Questo approccio permette di eseguire valutazioni oggettive circa la reale rispondenza delle caratteristiche dei flussi in uscita a standard prefissati,peraltro consente di eseguire valutazioni sulle uscite di processo rispetto alla variabilità delle caratteristiche dei rifiuti in ingresso .
Resumo:
Il lavoro svolto da Fabrizio Amici ha suscitato immediatamente il mio interesse in primo luogo perché quando si parla di virtualizzazione con vari fornitori e commerciali, questi la indicano come una soluzione che possa coprire a 360 gradi le esigenze di un Datacenter. Questo è vero nella misura in cui il progetto di virtualizzazione e consolidamento dei Server sia svolto sotto certi criteri progettuali. Per esperienza personale non ho trovato in letteratura lavori che potessero fornire indicazioni approfondite sui parametri da considerare per una corretta progettazione di sistemi di virtualizzazione, spesso ci si avvale di vari fornitori che accennano ad eventuali criticità. Un lavoro come quello proposto da Fabrizio va esattamente nella direzione di rispondere a quelle domande che nascono quando si affronta la tematica della virtualizzazione e soprattutto cerca di capire quali siano i limiti intrinseci della virtualizzazione. In particolare nei vari confronti che, con piacere, ho avuto con Fabrizio, il mio suggerimento è stato quello di esasperare il sistema che aveva assemblato, caricando i test sino ad osservarne i limiti. Dai vari test sono emerse sia conferme, sia inaspettati comportamenti del sistema che rendono ancora più chiaro che solo una prova sperimentale può essere il banco di prova di un sistema complesso. L'elemento che colpisce maggiormente analizzando i risultati è il diverso comportamento in funzione delle CPU utilizzate. I risultati indicano chiaramente che le prestazioni sono fortemente influenzate da come si distribuiscono i core nelle macchine virtuali. Dalla lettura dei risultati viene confermato che i sistemi virtualizzati devono essere progettati per non raggiungere il 70-80% della componente più critica (RAM, CPU) ma anche che sono fortemente sensibili alle disponibilità prestazionali dei sistemi al contorno (Rete, SAN/Dischi). L'approccio metodico sperimentale ed i risultati forniscono una serie di elementi che permettono di affrontare la tematica della virtualizzazione in un quadro generale più solido, offrendo fra l'altro spunti di ricerca ulteriori anche in previsione di nuove soluzioni che vari costruttori, sviluppatori e system integrator proporranno nei prossimi anni. Ing. Massimiliano Casali Esperto di Gestione ICT, Pubblica Amministrazione,Repubblica di San Marino
Resumo:
In questa tesi è stato studiato l’effetto dell’esposizione della diatomea Skeletonema marinoi, una specie molto comune nel Nord Adriatico e importante per il suo annuale contributo alla produzione primaria, agli erbicidi maggiormente utilizzati nella pianura Padana e riscontrati in acque dolci e salmastre di zone limitrofe al mare Adriatico. Gli erbicidi scelti consistono in terbutilazina e metolachlor, i più frequentemente riscontrati sia nelle acque superficiali che in quelle sotterranee dell’area Padana, noti per avere un effetto di inibizione su vie metaboliche dei vegetali; inoltre è stato valutato anche l’effetto di un prodotto di degradazione della terbutilazina, la desetilterbutilazina, presente anch’esso in concentrazioni pari al prodotto di origine e su cui non si avevano informazioni circa la tossicità sul fitoplancton. L’esposizione delle microalghe a questi erbicidi può avere effetti che si ripercuotono su tutto l’ecosistema: le specie fitoplanctoniche, in particolare le diatomee, sono i produttori primari più importanti dell’ecosistema: questi organismi rivestono un ruolo fondamentale nella fissazione del carbonio, rappresentando il primo anello della catena alimentari degli ambienti acquatici e contribuendo al rifornimento di ossigeno nell’atmosfera. L’effetto di diverse concentrazioni di ciascun composto è stato valutato seguendo l’andamento della crescita e dell’efficienza fotosintetica di S. marinoi. Per meglio determinare la sensibilità di questa specie agli erbicidi, l’effetto della terbutilazina è stato valutato anche al variare della temperatura (15, 20 e 25°C). Infine, dal momento che gli organismi acquatici sono solitamente esposti a una miscela di composti, è stato valutato l’effetto sinergico di due erbicidi, entrambi somministrati a bassa concentrazione. Le colture di laboratorio esposte a concentrazioni crescenti di diversi erbicidi e, in un caso, anche a diverse temperature, indicano che l’erbicida al quale la microalga mostra maggiore sensibilità è la Terbutilazina. Infatti a parità di concentrazioni, la sensibilità della microalga alla Terbutilazina è risultata molto più alta rispetto al suo prodotto di degradazione, la Desetilterbutilazina e all’erbicida Metolachlor. Attraverso l’analisi di densità algale, di efficienza fotosintetica, di biovolume e di contenuto intracellulare di Carbonio e Clorofilla, è stato dimostrato l’effetto tossico dell’erbicida Terbutilazina che, agendo come inibitore del trasporto degli elettroni a livello del PS-II, manifesta la sua tossicità nell’inibizione della fotosintesi e di conseguenza sulla crescita e sulle proprietà biometriche delle microalghe. E’ stato visto come la temperatura sia un parametro ambientale fondamentale sulla crescita algale e anche sugli effetti tossici di Terbutilazina; la temperatura ideale per la crescita di S. marinoi è risultata essere 20°C. Crescendo a 15°C la microalga presenta un rallentamento nella crescita, una minore efficienza fotosintetica, variazione nei valori biometrici, mostrando al microscopio forme irregolari e di dimensioni inferiori rispetto alle microalghe cresciute alle temperature maggiori, ed infine incapacità di formare le tipiche congregazioni a catena. A 25° invece si sono rivelate difficoltà nell’acclimatazione: sembra che la microalga si debba abituare a questa alta temperatura ritardando così la divisione cellulare di qualche giorno rispetto agli esperimenti condotti a 15° e a 20°C. Gli effetti della terbutilazina sono stati maggiori per le alghe cresciute a 25°C che hanno mostrato un calo più evidente di efficienza fotosintetica effettiva e una diminuzione di carbonio e clorofilla all’aumentare delle concentrazioni di erbicida. Sono presenti in letteratura studi che attestano gli effetti tossici paragonabili dell’atrazina e del suo principale prodotto di degradazione, la deetilatrazina; nei nostri studi invece non sono stati evidenziati effetti tossici significativi del principale prodotto di degradazione della terbutilazina, la desetilterbutilazina. Si può ipotizzare quindi che la desetilterbutilazina perda la propria capacità di legarsi al sito di legame per il pastochinone (PQ) sulla proteina D1 all’interno del complesso del PSII, permettendo quindi il normale trasporto degli elettroni del PSII e la conseguente sintesi di NADPH e ATP e il ciclo di riduzione del carbonio. Il Metolachlor non evidenzia una tossicità severa come Terbutilazina nei confronti di S. marinoi, probabilmente a causa del suo diverso meccanismo d’azione. Infatti, a differenza degli enzimi triazinici, metolachlor agisce attraverso l’inibizione delle elongasi e del geranilgeranil pirofosfato ciclasi (GGPP). In letteratura sono riportati casi studio degli effetti inibitori di Metolachlor sulla sintesi degli acidi grassi e di conseguenza della divisione cellulare su specie fitoplanctoniche d’acqua dolce. Negli esperimenti da noi condotti sono stati evidenziati lievi effetti inibitori su S. marinoi che non sembrano aumentare all’aumentare della concentrazione dell’erbicida. E’ interessante notare come attraverso la valutazione della sola crescita non sia stato messo in evidenza alcun effetto mentre, tramite l’analisi dell’efficienza fotosintetica, si possa osservare che il metolachlor determina una inibizione della fotosintesi.
Resumo:
Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.
Resumo:
Le aree costiere hanno un ruolo fondamentale nello sviluppo economico, sociale e politico della maggior parte dei paesi; esse supportano infatti diversi ecosistemi produttivi che rendono disponibili beni e servizi. L'importanza economica delle aree costiere è destinata a una considerevole crescita a causa del costante aumento delle popolazioni, delle industrie e delle attività ricreazionali che si concentrano sempre di più sulle coste e ciò può provocare un'alterazione delle linee di costa, imputabile a più fattori e un deterioramento delle condizioni naturali. E' necessario anche tenere da conto dei processi erosivi, sia imputabili a cause naturali (correnti oceaniche, movimenti di marea; azione del vento) sia a cause antropiche (subsidenza del terreno indotta dall'uomo, dragaggio al largo, riduzione del rifornimento di sedimento dai fiumi, distruzione di letti algali, paludi e dune sabbiose). A questo panorama va poi aggiunto il problema dell'innalzamento del livello del mare e dell'aumento delle frequenze di tempeste, come conseguenza del cambiamento climatico globale. In questo contesto quindi, le strutture rigide di difesa contro l'erosione e le mareggiate sono diventate molto comuni nelle aree costiere, coinvolgendo in alcune regioni più della metà della linea di costa. Il meccanismo di difesa attuato dalle barriere consiste nel provocare una riduzione dell'energia delle onde e conseguentemente in una limitazione della quantità di sedimento che viene da loro rimosso dalla spiaggia. La presenza di strutture rigide di difesa generalmente comporta una perdita di habitat di fondale molle e, a causa delle variazioni idrodinamiche che la loro presenza comporta, anche delle comunità ad esso associate, sia su scala locale, che su scala regionale. Uno dei problemi che tali strutture possono indurre è l'eccessiva deposizione di detrito prodotto dalle specie che si insediano sul substrato duro artificiale, che normalmente non fanno parte delle comunità "naturali" di fondo molle circostanti le strutture. Lo scopo di questo studio è stato quello di cercare di evidenziare gli effetti che la deposizione di tale detrito potesse avere sulle comunita meiobentoniche di fondale molle. A tale fine è stata campionata un'area antistante la località di Lido di Dante (RA), la quale è protetta dal 1996 da una struttura artificiale, per fronteggiare il problema dell'erosione della zona, in aumento negli ultimi decenni. La struttura è costituita da una barriera semisoffolta e tre pennelli, di cui uno completamente collegato alla barriera. A circa 50 m dalla barriera, e alla profondità di 4 m circa, è stato allestito un esperimento manipolativo in cui è stato valutato l'effetto della deposizione delle due specie dominanti colonizzanti la barriera, Ulva sp. e Mitili sp. sull'ambiente bentonico, e in particolare sulla comunità di meiofauna. Ulva e Mitili sono stati posti in sacche di rete che sono state depositate sul fondo al fine di simulare la deposizione naturale di detrito, e tali sacche hanno costituito i trattamenti dell'esperimento, i quali sono stati confrontati con un Controllo, costituito da sedimento non manipolato, e un Controllo Procedurale, costituito da una sacca vuota. Il campionamento è stato fatto in tre occasioni nel giugno 2009 (dopo 2 giorni, dopo 7 giorni e dopo 21 giorni dall'allestimento dell'esperimento) per seguire la dinamica temporale degli effetti del detrito. Per ogni combinazione tempo/trattamento sono state prelevate 4 repliche, per un totale di 48 campioni. Successivamente sono stati prelevati ulteriori campioni di meiofauna in condizioni naturali. In particolare sono stati raccolti in due Posizioni diverse, all'Interno e all'Esterno del pennello posto più a Sud, e su due substrati differenti, rispettivamente Ulva proveniente dalle barriere e sedimento privo di detrito. Per ogni combinazione Posizione/Substrato sono state prelevate 3 repliche, ottenendo un totale di 12 campioni. Tutti i campioni prelevati sono stati poi trattati in laboratorio tramite la procedura di filtratura, pulizia e centrifuga indicata dal protocollo. A questa fase è seguito il sorting al microscopio, durante il quale la meiofauna è stata identificata ed enumerata a livello di taxa maggiori. Per quanto riguarda il taxon più abbondante, quello dei Nematodi, si è proceduto anche all'analisi della distribuzione della biomassa per classi di taglia, in quanto descrittore funzionale delle comunità. Per la costruzione degli spettri di biomassa per classi di taglia sono state misurate la lunghezza e larghezza dei primi 100 Nematodi presenti nei campioni. A partire da tali valori dimensionali è stata calcolata la biomassa di ogni individuo, usata poi per la costruzione dei size spectra, tramite tre metodiche messe a confronto: "Nematode Biomass Spectra" (NBS), "Normalised Nematode Biomass Spectra"(NNBS), "Mean Cumulative Biomass Spectra" (MC-NBS). Successivamente la composizione e la struttura della comunità meiobentonica, in termini di consistenza numerica e di rapporti reciproci di densità degli organismi che la compongono e variabili dimensionali, sono state analizzate mediante tecniche di analisi univariate e multivariate. Ciò che emerge generalmente dai risultati dell'esperimento è la mancanza di interazione significativa tra i due fattori, tempi e trattamenti, mentre sono risultati significativi i due fattori principali, considerati singolarmente. Tali esiti sono probabilmente imputabili all'elevata variabilità fra campioni dei trattamenti e delle patches di controllo. Nonostante ciò l'analisi dei risultati ottenuti permette di effettuare alcune considerazioni interessanti. L'analisi univariata ha mostrato che nel confronto tra trattamenti non ci sono differenze significative nel numero medio di taxa rinvenuti, mentre il livello di diversità e di equidistribuzione degli individui nei taxa differisce in maniera significativa, indicando che la struttura delle comunità varia in funzione dei trattamenti e non in funzione del tempo. Nel trattamento Ulva si osservano le densità più elevate della meiofauna totale imputabile prevalentemente alla densità dei Nematodi. Tuttavia, i valori di diversità e di equiripartizione non sono risultati più elevati nei campioni di Ulva, bensì in quelli di Mitili. Tale differenza potrebbe essere imputabile all'inferiorità numerica dei Nematodi nei campioni di Mitili. Questo andamento è stato giustificato dai differenti tempi di degradazione di Mitili e Ulva posti nelle sacche durante l'esperimento, dai quali emerge una più rapida degradazione di Ulva; inoltre la dimensione ridotta della patch analizzata, i limitati tempi di permanenza fanno sì che l'Ulva non rappresenti un fattore di disturbo per la comunità analizzata. Basandosi su questo concetto risulta dunque difficile spiegare l'inferiorità numerica dei Nematodi nei campioni del trattamento Mitili, in quanto i tempi di degradazione durante l'esperimento sono risultati più lenti, ma è anche vero che è nota l'elevata resistenza dei Nematodi ai fenomeni di ipossia/anossia creata da fenomeni di arricchimento organico. E' possibile però ipotizzare che la presenza delle valve dei Mitili aumenti la complessità dell'habitat e favorisca la colonizzazione da parte di più specie, tra cui specie predatrici. Tale effetto di predazione potrebbe provocare la riduzione dell'abbondanza media dei Nematodi rispetto a Ulva e al Controllo, in quanto i Nematodi costituiscono circa l'85% della meiofauna totale rinvenuta nei campioni. A tale riduzione numerica, però, non corrisponde un decremento dei valori medi di biomassa rilevati, probabilmente a causa del fatto che l'arricchimento organico dovuto ai Mitili stessi favorisca la permanenza degli individui più facilmente adattabili a tali condizioni e di dimensioni maggiori, oppure, la colonizzazione in tempi successivi delle patches a Mitili da parte di individui più grandi. Anche i risultati dell'analisi multivariata sono in accordo con quanto rilevato dall'analisi univariata. Oltre alle differenze tra tempi si evidenzia anche un'evoluzione della comunità nel tempo, in particolar modo dopo 7 giorni dall'allestimento dell'esperimento, quando si registrano il maggior numero di individui meiobentonici e il maggior numero di taxa presenti. Il taxon che ha risentito maggiormente dell'influenza dei tempi è quello degli Anfipodi, con densità maggiori nei campioni prelevati al secondo tempo e sul trattamento Ulva. E'importante considerare questo aspetto in quanto gli Anfipodi sono animali che comprendono alcune specie detritivore e altre carnivore; le loro abitudini detritivore potrebbero quindi aumentare il consumo e la degradazione di Ulva, spiegando anche la loro abbondanza maggiore all'interno di questo trattamento, mentre le specie carnivore potrebbero concorrere al decremento del numero medio di Nematodi nei Mitili. Un risultato inatteso della sperimentazione riguarda l'assenza di differenze significative tra trattamenti e controlli, come invece era lecito aspettarsi. Risultati maggiormente significativi sono emersi dall'analisi del confronto tra sedimento privo di detrito e sedimento contenente Ulva provenienti dal contesto naturale. Relativamente all'area esterna alla barriera, sono stati confrontati sedimento privo di detrito e quello sottostante l'Ulva, nelle condizioni sperimentali e naturali. Globalmente notiamo che all'esterno della barriera gli indici univariati, le densità totali di meiofauna, di Nematodi e il numero di taxa, si comportano in maniera analoga nelle condizioni sperimentali e naturali, riportando valori medi maggiori nei campioni prelevati sotto l'Ulva, rispetto a quelli del sedimento privo di detrito. Differente appare invece l'andamento delle variabili e degli indici suddetti riguardanti i campioni prelevati nell'area racchiusa all'interno della barriera, dove invece i valori medi maggiori si rilevano nei campioni prelevati nel sedimento privo di detrito. Tali risultati possono essere spiegati dall'alterazione dell'idrodinamismo esercitato dalla barriera, il quale provoca maggiori tempi di residenza del detrito con conseguente arricchimento di materia organica nell'area interna alla barriera. Le comunità dei sedimenti di quest'area saranno quindi adattate a tale condizioni, ma la deposizione di Ulva in un contesto simile può aggravare la situazione comportando la riduzione delle abbondanze medie dei Nematodi e degli altri organismi meiobentonici sopracitata. Per quel che riguarda i size spectra la tecnica che illustra i risultati in maniera più evidente è quella dei Nematode Biomass Spectra. I risultati statistici fornitici dai campioni dell'esperimento, non evidenziano effetti significativi dei trattamenti, ma a livello visivo, l'osservazione dei grafici evidenzia valori medi di biomassa maggiori nei Nematodi rilevati sui Mitili rispetto a quelli rilevati su Ulva. Differenze significative si rilevano invece a livello dei tempi: a 21 giorni dall'allestimento dell'esperimento infatti, le biomasse dei Nematodi misurati sono più elevate. Relativamente invece ai size spectra costruiti per l'ambiente naturale, mostrano andamento e forma completamente diversi e con differenze significative tra l'interno e l'esterno della barriera; sembra infatti che la biomassa nella zona interna sia inibita, portando a densità maggiori di Nematodi, ma di dimensioni minori. All'esterno della barriera troviamo invece una situazione differente tra i due substrati. Nel sedimento prelevato sotto l'Ulva sembra infatti che siano prevalenti le classi dimensionali maggiori, probabilmente a causa del fatto che l'Ulva tende a soffocare le specie detritivore, permettendo la sopravvivenza delle specie più grosse, composte da predatori poco specializzati, i quali si cibano degli organismi presenti sull'Ulva stessa. Nel sedimento privo di detrito, invece, la distribuzione all'interno delle classi segue un andamento completamente diverso, mostrando una forma del size spectra più regolare. In base a questo si può ipotizzare che la risposta a questo andamento sia da relazionarsi alla capacità di movimento dei Nematodi: a causa della loro conformazione muscolare i Nematodi interstiziali di dimensioni minori sono facilitati nel movimento in un substrato con spazi interstiziali ridotti, come sono nel sedimento sabbioso, invece Nematodi di dimensioni maggiori sono più facilitati in sedimenti con spazi interstiziali maggiori, come l'Ulva. Globalmente si evidenzia una risposta della comunità bentonica all'incremento di detrito proveniente dalla struttura rigida artificiale, ma la risposta dipende dal tipo di detrito e dai tempi di residenza del detrito stesso, a loro volta influenzati dal livello di alterazione del regime idrodinamico che la struttura comporta. Si evince inoltre come dal punto di vista metodologico, le analisi univariate, multivariate e dei size spectra riescano a porre l'accento su diverse caratteristiche strutturali e funzionali della comunità. Rimane comunque il fatto che nonostante la comunità scientifica stia studiando metodiche "taxonomic free" emerge che, se da un lato queste possono risultare utili, dall'altro, per meglio comprendere l'evoluzione di comunità, è necessaria un'analisi più specifica che punti all'identificazione almeno delle principali famiglie. E'importante infine considerare che l'effetto riscontrato in questo studio potrebbe diventare particolarmente significativo nel momento in cui venisse esteso alle centinaia di km di strutture artificiali che caratterizzano ormai la maggior parte delle coste, la cui gestione dovrebbe tenere conto non soltanto delle esigenze economico-turistiche, e non dovrebbe prescindere dalla conoscenza del contesto ambientale in cui si inseriscono, in quanto, affiancati a conseguenze generali di tali costruzioni, si incontrano molti effetti sitospecifici.
Resumo:
La proliferazione di strutture di difesa costiere ha determinato un interesse crescente circa l’ecologia di questi ambienti artificiali. Ricerche precedenti svolte lungo le coste del Nord Adriatico avevano evidenziato che mentre i substrati naturali in questa regione sono abbondantemente colonizzati da specie algali, i substrati artificiali tendono ad essere quantitativamente poveri di specie algali e dominati da specie di invertebrati. La seguente tesi ha analizzato l’ipotesi che tali differenze nella crescita di alghe tra habitat naturali ed artificiali potessero essere legate ad una iversa pressione da parte di organismi erbivori. Il lavoro si è focalizzato sulla specie Cystoseira barbata che è naturalmente presente nella regione di studio, ma che negli ultimi 70 anni ha subito una significativa regressione. Si volevano pertanto analizzare i fattori che possono favorire o inibire la crescita di Cystoseira su strutture artificiali di difesa costiera, al fine di poter valutare la possibilità di utilizzare questi substrati artificiali come mezzo per la conservazione di questa specie. I principali obiettivi del lavoro erano: 1. individuare e caratterizzare le potenziali specie erbivore presenti nei siti di studio che potessero limitare la crescita di C. barbata 2. analizzare se ci sono differenze nell’abbondanza di erbivori tra i siti artificiali e quelli naturali. 3. testare se il diverso stadio di sviluppo dell’alga o le modalità di trapianto potessero influenzarne la suscettibilità alla predazione. Mediante esperimenti in campo ho testato gli effetti dell’esclusione di erbivori sulla sopravvivenza e la crescita di Cystoseira barbata. Ho inoltre effettuato test in laboratorio determinare per individuare il potenziale ruolo come erbivori di varie tipologie di organismi, quali anfipodi, paguri e pesci. I risultati confermano l’importanza dell’erbivoria nel determinare il successo dei trapianti e ci dicono che gli erbivori da ricercare superano 1 cm di grandezza. In più, si è osservato che modalità di trapianto che distanzino i talli dal fondo aumentano la sopravvivenza dei talli, mentre non sono state osservate differenze in funzione della taglia dell’alga. Attraverso i test di laboratorio è stato possibile escludere gli Anfipodi come potenziali erbivori mentre Pagurus bernardus ha dimostrato un’effettiva azione di consumo dell’alga. Al contrario, i tests effettuati per approfondire la dieta di alcune specie di blennidi, composta almeno in parte da alghe, non hanno fornito conferme, almeno per il momento. Mediante visual census, si è inoltre escluso il ruolo di grandi erbivori quali ricci e salpe, scarsi nei siti di studio. Il lavoro fino a qui svolto indica, tuttavia, chiaramente che gli ambienti artificiali possono essere influenzati dall’azione di organismi predatori in maniera maggiore rispetto agli ambienti rocciosi circostanti. Questa ipotesi è particolarmente interessante in quanto rappresenterebbe una differenza fondamentale nel funzionamento delle strutture artificiali rispetto agli ambienti rocciosi naturali.
Resumo:
La gestione di sorgenti multiple di disturbo in AMP: il caso delle Isole Tremiti Il seguente lavoro di tesi valuta l’efficacia di protezione di un’area marina protetta (AMP) sui popolamenti di differenti habitat compresi in zone a diverso regime di tutela. Questo tema è molto sentito sia dal punto di vista scientifico, poiché le AMP rappresentano uno esperimento di esclusione delle attività antropiche ad ampia scala, sia dal punto di vista socio-economico per l’interesse che sono in grado di generare nelle comunità locali. Tuttavia, ad oggi, gli studi che abbiano dimostrato l’efficacia di protezione delle AMP sono pochi e sono per lo più diretti sulle specie di maggior interesse commerciale. In generale, c’è un’evidente mancanza di protezione in molte AMP del Mediterraneo e di aree extra-mediterranee che può essere attribuita a diversi fattori, tra cui le caratteristiche fisiche dei siti dove sono state istituite, le modalità di gestione e le numerose attività illegali che vengono svolte all’interno dei loro confini. Inoltre, nelle aree protette, spesso, anche le attività lecite non sono adeguatamente regolamentate, limitando ulteriormente il perseguimento degli obiettivi istitutivi e la tutela della biodiversità marina. Testare le ipotesi sull’efficacia di protezione delle AMP è, quindi, di fondamentale importanza per capire quali tipi di impatti sono maggiormente presenti e per poter fornire agli Enti gestori informazioni utili per migliorare l’amministrazione delle AMP. In particolare, l’AMP dell’arcipelago delle Isole Tremiti, istituita da oltre venti anni, è un’area protetta che presenta molte criticità, come dimostrato in precedenti campagne di monitoraggio condotte dal Consorzio Nazionale Interuniversitario per le Scienze del Mare (CoNISMa). In questo contesto, la presente tesi è stata sviluppata con lo scopo di quantificare l’effetto della regolamentazione di diverse attività umane sui popolamenti del subtidale, della frangia e delle praterie di Posidonia oceanica nell’AMP delle Isole Tremiti a diverse scale spaziali per un periodo di circa dieci anni. Questo lavoro, inoltre, rientra in un progetto finanziato dal Ministero dell’Ambiente e della Tutela del Territorio e del Mare al CoNISMa volto ad impostare un’attività di monitoraggio sperimentale e di mitigazione in questa AMP. I campionamenti sono stati condotti tra Giugno e Settembre 2010 e i dati raccolti sono stati integrati a quelli ottenuti nei precedenti monitoraggi svolti nelle Isole Tremiti. I risultati hanno mostrato che: 1) ci sono differenze significative consistenti nel tempo tra il subtidale dell’isola di Pianosa e quello delle altre isole dell’arcipelago; 2) i popolamenti nella frangia di Pianosa, di San Domino e di Caprara non presentano differenze significative; 3) c’è un’elevata variabilità a scala di sito nelle praterie di Posidonia oceanica, ma non si osserva una differenza tra località protette ed impattate. La differenza riscontrata nel subtidale tra zona a protezione integrale (Pianosa) e le altre isole dell’arcipelago (controlli) non è però attribuibile ad un effetto della protezione. Infatti, il subtidale di Pianosa è caratterizzato da un barren molto esteso con elevate percentuali di spugne rosse incrostanti, di alghe rodoficee incrostanti e di ricci di mare, mentre nelle isole di San Domino e di Caprara c’è una maggiore diversità data da alghe corallinacee articolate, alghe erette, idrozoi, ascidiacei e numerose spugne. Diversi fattori possono aver agito nel determinare questo risultato, ma molto probabilmente la cospicua attività di pesca illegale che viene praticata a Pianosa combinata all’attività di grazing degli erbivori, non controllati dai predatori, limita il recupero dei popolamenti. Al contrario, l’assenza di differenze nei popolamenti della frangia delle tre isole campionate fa ipotizzare la mancanza di impatti diretti (principalmente il calpestio) su questo habitat. Per quanto riguarda la Posidonia oceanica i risultati suggeriscono che si stia verificando un ancoraggio indiscriminato su tutte le praterie delle Isole Tremiti e che molto probabilmente si tratta di praterie in forte regressione, come indicano anche le ricerche condotte dall’Università di Bari. C’è bisogno, tuttavia, di ulteriori studi che aiutino a comprendere meglio la variabilità nella riposta dei popolamenti in relazione alle diverse condizioni ambientali e al diverso sforzo di gestione. In conclusione, dai risultati ottenuti, emerge chiaramente come anche nell’AMP delle Isole Tremiti, ci sia una scarsa efficacia di protezione, così come è stato rilevato per la maggior parte delle AMP italiane. Per risolvere le costanti conflittualità che perdurano nelle Isole Tremiti e che non permettono il raggiungimento degli obiettivi istitutivi dell’AMP, è assolutamente necessario, oltre che far rispettare la regolamentazione vigente incrementando il numero di guardacoste sull’isola durante tutto l’anno, procedere, eventualmente, ad una rizonizzazione dell’AMP e sviluppare un piano di gestione in accordo con la popolazione locale adeguatamente sensibilizzata. Solo in questo modo sarà possibile ridurre le numerose attività illegali all’interno dell’AMP, e, allo stesso tempo, rendere gli stessi cittadini una componente imprescindibile della conservazione di questo arcipelago.
Resumo:
Fino ad un recente passato, le macchine elettriche di tipo trifase costituivano l’unica soluzione in ambito industriale per la realizzazione di azionamenti di grande potenza. Da quando i motori sono gestiti da convertitori elettronici di potenza si è ottenuto un notevole passo in avanti verso l’innovazione tecnologica. Infatti, negli ultimi decenni, le tecnologie sempre più all’avanguardia e l’aumento dell’utilizzo dell’elettronica, sia in campo civile quanto in quello industriale, hanno contribuito a una riduzione dei costi dei relativi componenti; questa situazione ha permesso di utilizzare tecnologie elaborate che in passato avevano costi elevati e quindi risultavano di scarso interesse commerciale. Nel campo delle macchine elettriche tutto questo ha permesso non solo la realizzazione di azionamenti alimentati e controllati tramite inverter, in grado di garantire prestazioni nettamente migliori di quelle ottenute con i precedenti sistemi di controllo, ma anche l’avvento di una nuova tipologia di macchine con un numero di fasi diverso da quello tradizionale trifase, usualmente impiegato nella generazione e distribuzione dell’energia elettrica. Questo fatto ha destato crescente interesse per lo studio di macchine elettriche multifase. Il campo di studio delle macchine multifase è un settore relativamente nuovo ed in grande fermento, ma è già possibile affermare che le suddette macchine sono in grado di fornire prestazioni migliori di quelle trifase. Un motore con un numero di fasi maggiore di tre presenta numerosi vantaggi: 1. la possibilità di poter dividere la potenza su più fasi, riducendo la taglia in corrente degli interruttori statici dell’inverter; 2. la maggiore affidabilità in caso di guasto di una fase; 3. la possibilità di sfruttare le armoniche di campo magnetico al traferro per ottenere migliori prestazioni in termini di coppia elettromagnetica sviluppata (riduzione dell’ampiezza e incremento della frequenza della pulsazione di coppia); 4. l’opportunità di creare azionamenti elettrici multi-motore, collegando più macchine in serie e comandandole con un unico convertitore di potenza; 5. Maggiori e più efficaci possibilità di utilizzo nelle applicazioni Sensorless. Il presente lavoro di tesi, ha come oggetto lo studio e l’implementazione di una innovativa tecnica di controllo di tipo “sensorless”, da applicare in azionamenti ad orientamento di campo per macchine asincrone eptafase. Nel primo capitolo vengono illustrate le caratteristiche e le equazioni rappresentanti il modello della macchina asincrona eptafase. Nel secondo capitolo si mostrano il banco di prova e le caratteristiche dei vari componenti. Nel terzo capitolo sono rappresentate le tecniche di modulazione applicabili per macchine multifase. Nel quarto capitolo vengono illustrati il modello del sistema implementato in ambiente Simulink ed i risultati delle simulazioni eseguite. Nel quinto capitolo viene presentato il Code Composer Studio, il programma necessario al funzionamento del DSP. Nel sesto capitolo, sono presentati e commentati i risultati delle prove sperimentali.
Resumo:
Prima di procedere con il progetto sono state fatte sezioni storiche dell’area, in epoche indicative, per comprendere quelle che sono le invarianti e le caratteristiche di tale tessuto. Da qui si è dedotto lo schema generatore dell’insediamento che parte dall’identificazione degli assi viari (pedonali e carrabili) già presenti nell’area, che fanno diretto riferimento allo schema cardo-decumanico generatore dell’impianto angioino della città. Con il tracciamento si individuano gli isolati base, che con variazioni formali e tipologiche hanno originato gli edifici di progetto. I corpi di fabbrica generatori della planimetria, dialogano e rimangono a stretto contatto con i pochi edifici agibili, per i quali sono previsti consolidamenti e ristrutturazioni, qualora necessari. Inevitabile è stato il confronto con l’orografia, prestando particolare attenzione a non annullare con l’inserimento degli edifici il dislivello presente, ma lasciarlo percepire chiaramente: l’attacco a terra di ogni edificio avviene gradualmente, passando dai due piani fuori terra a monte ai tre, quattro a valle. Ovviamente non tutti gli assi sono stati trattati allo stesso modo, ma conseguentemente alla loro funzione e carattere di utilizzo. Analizzando la struttura viaria dell’intera area, si presentano schematicamente due anelli di circonvallazione del centro urbano: uno più esterno, di più recente costruzione, rappresentato da via XX Settembre, e uno più vecchio, che rimane rasente al centro storico, costituito dal viale Duca Degli Abruzzi, che prosegue in viale Giovanni XXIII e termina nel viadotto Belvedere. Quest’ultimo asse rappresenta sicuramente un importante collegamento cittadino, sia per la vicinanza al centro, sia per le porzioni di città messe in comunicazione; nonostante ciò il viadotto ha subito, all’altezza di viale Nicolò Persichetti, uno smottamento dopo il 6 aprile, ed essendo un elemento di scarso valore architettonico e spaziale, la sua presenza è stata ripensata. Compiendo una deviazione su via XX Settembre al termine di viale Duca Degli Abruzzi, che va a sfruttare la già presente via Fonte Preturo, non si va a rivoluzionante l’odierno assetto, che confluisce comunque, qualche centinaio di metri dopo, in via XX Settembre è si eliminano le connotazioni negative che il viadotto avrebbe sul rinnovato ingresso al centro storico. La vivibilità tende a favorire così collegamento e all’eterogeneità degli spazi più che la separazione fisica e psicologica: il concetto di città fa riferimento alla vita in comune; per favorirla è importante incentivare i luoghi di aggregazione, gli spazi aperti. Dalle testimonianze degli aquilani la vita cittadina vedeva il centro storico come principale luogo d’incontro sociale. Esso era animato dal numeroso “popolo” di studenti, che lo manteneva attivo e vitale. Per questo nelle intenzioni progettuali si pone l’accento su una visione attiva di città con un carattere unitario come sostiene Ungers3. La funzione di collegamento, che crea una struttura di luoghi complementari, può essere costituita dal sistema viario e da quello di piazze (luoghi sociali per eccellenza). Via Fontesecco ha la sua terminazione nell’omonima piazza: questo spazio urbano è sfruttato, nella conformazione attuale, come luogo di passaggio, piuttosto che di sosta, per questo motivo deve essere ricalibrato e messo in relazione ad un sistema più ampio di quello della sola via. In questo sistema di piazze rientra anche la volontà di mettere in relazione le emergenze architettoniche esistenti nell’area e nelle immediate vicinanze, quali la chiesa e convento dell’Addolorata, Palazzo Antonelli e la chiesa di San Domenico (che si attestano tutte su spazi aperti), e la chiesa di San Quinziano su via Buccio di Ranallo. In quest’ottica l’area d’intervento è intesa come appartenente al centro storico, parte del sistema grazie alla struttura di piazze, e allo stesso tempo come zona filtro tra centro e periferia. La struttura di piazze rende l’area complementare alla trama di pieni e vuoti già presente nel tessuto urbano cittadino; la densità pensata nel progetto, vi si accosta con continuità, creando un collegamento con l’esistente; allontanandosi dal centro e avvicinandosi quindi alle più recenti espansioni, il tessuto muta, concedendo più spazio ai vuoti urbani e al verde. Via Fontesecco, il percorso che delimita il lato sud dell’area, oltre ad essere individuata tra due fronti costruiti, è inclusa tra due quinte naturali: il colle dell’Addolorata (con le emergenze già citate) e il colle Belvedere sul quale s’innesta ora il viadotto. Questi due fronti naturali hanno caratteri molto diversi tra loro: il colle dell’Addolorata originariamente occupato da orti, ha un carattere urbano, mentre il secondo si presenta come una porzione di verde incolto e inutilizzato che può essere sfruttato come cerniera di collegamento verticale. Lo stesso declivio naturale del colle d’Addolorata che degrada verso viale Duca Degli Abruzzi, viene trattato nel progetto come una fascia verde di collegamento con il nuovo insediamento universitario. L’idea alla base del progetto dell’edilizia residenziale consiste nel ricostruire insediamenti che appartengano parte della città esistente; si tratta quindi, di una riscoperta del centro urbano e una proposta di maggior densità. Il tessuto esistente è integrato per ottenere isolati ben definiti, in modo da formare un sistema ben inserito nel contesto. Le case popolari su via Fontesecco hanno subito con il sisma notevoli danni, e dovendo essere demolite, hanno fornito l’occasione per ripensare all’assetto del fronte, in modo da integrarlo maggiormente con il tessuto urbano retrostante e antistante. Attualmente la conformazione degli edifici non permette un’integrazione ideale tra i percorsi di risalita pedonale al colle dell’Addolorata e la viabilità. Le scale terminano spesso nella parte retrostante gli edifici, senza sfociare direttamente su via Fontesecco. Si è quindi preferito frammentare il fronte, che rispecchiasse anche l’assetto originario, prima cioè dell’intervento fascista, e che consentisse comunque una percezione prospettica e tipologica unitaria, e un accesso alla grande corte retrostante. Il nuovo carattere di via Fontesecco, risultante dalle sezioni stradali e dalle destinazioni d’uso dei piani terra degli edifici progettuali, è quello di un asse commerciale e di servizio per il quartiere. L’intenzione, cercando di rafforzare l’area di progetto come nuovo possibile ingresso al centro storico, è quella di estendere l’asse commerciale fino a piazza Fontesecco, in modo da rendere tale spazio di aggregazione vitale: “I luoghi sono come monadi, come piccoli microcosmi, mondi autonomi, con tutte le loro caratteristiche, pregi e difetti, inseriti in un macrocosmo urbano più grande, che partendo da questi piccoli mondi compone una metropoli e un paesaggio”.4[...] Arretrando verso l’altura dell’Addolorata è inserita la grande corte del nuovo isolato residenziale, anch’essa con servizi (lavanderie, spazi gioco, palestra) ma con un carattere diverso, legato più agli edifici che si attestano sulla corte, anche per l’assenza di un accesso carrabile diretto; si crea così una gerarchia degli spazi urbani: pubblico sulla via e semi-pubblico nella corte pedonale. La piazza che domina l’intervento (piazza dell’Addolorata) è chiusa da un edificio lineare che funge da “quinta”, il centro civico. Molto flessibile, presenta al suo interno spazi espositivi e un auditorium a diretta disposizione del quartiere. Sempre sulla piazza sono presenti una caffetteria, accessibile anche dal parco, che regge un sistema di scale permettendo di attraversare il dislivello con la “fascia” verde del colle, e la nuova ala dell’Hotel “Duca degli Abruzzi”, ridimensionata rispetto all’originale (in parte distrutto dal terremoto), che si va a collegare in maniera organica all’edificio principale. Il sistema degli edifici pubblici è completo con la ricostruzione del distrutto “Istituto della Dottrina Cristiana”, adiacente alla chiesa di San Quinziano, che va a creare con essa un cortile di cui usufruiscono gli alunni di questa scuola materna ed elementare. Analizzando l’intorno, gran parte dell’abitato è definito da edifici a corte che, all’interno del tessuto compatto storico riescono a sopperire la mancanza di spazi aperti con corti, più o meno private, anche per consentire ai singoli alloggi una giusta illuminazione e areazione. Nel progetto si passa da due edifici a corti semi-private, chiusi in se stessi, a un sistema più grande e complesso che crea un ampio “cortile” urbano, in cui gli edifici che vi si affacciano (case a schiera e edifici in linea) vanno a caratterizzare gli spazi aperti. Vi è in questa differenziazione l’intenzione di favorire l’interazione tra le persone che abitano il luogo, il proposito di realizzare elementi di aggregazione più privati di una piazza pubblica e più pubblici di una corte privata. Le variazioni tipologiche degli alloggi poi, (dalla casa a schiera e i duplex, al monolocale nell’edilizia sociale) comportano un’altrettanta auspicabile mescolanza di utenti, di classi sociali, età e perché no, etnie diverse che permettano una flessibilità nell’utilizzo degli spazi pubblici.
Resumo:
Il progetto di intervento per la ricostruzione dell’Aquila è il frutto del lavoro sul discusso e attuale tema del terremoto del 6 aprile 2009 in Abruzzo, che ha profondamente colpito la città ed il suo territorio. Quest’ultimo è stato l’elemento fondativo da cui partire in fase progettuale, affinchè la memoria possa diventare nuovamente fonte di identità e dove il paesaggio rappresenti un dialogo costante tra passato e presente, dove gli spazi aperti assumano il ruolo di rinnovata struttura generativa. Lo scenario che si prospetta dopo il sisma, mostra come sia forte la necessità di ritornare alla propria città, l’Aquila, attraverso la fruizione di spazi di relazione pubblici quali le piazze, le chiese e gli spazi privati dell’abitazione. L’intervento all’interno del quartiere di San Silvestro in cui si è sviluppato il progetto, rappresenta una realtà molteplice e complessa in cui più elementi interagiscono tra loro. Per questo, il progetto si pone come obiettivo quello di “intrecciare relazioni”, ossia creare legami tra sistemi ed elementi ora disgiunti che, se tra loro connessi, diventano l’occasione per far rivivere la città. La volontà di creare relazioni si è definita attraverso diverse azioni; una di queste è la scelta di intervenire a scala urbana, definendo un nuovo sistema viario che possa svincolare il centro dal percorso congestionato di via Duca degli Abruzzi. L’intervento previsto su macroscala non solo ha l’obbiettivo di tutelare il centro storico dal traffico carrabile, ma privilegia la circolazione pedonale all’interno del quartiere, cercando di restituire una percezione dello spazio a misura d’uomo. Altro aspetto caratterizzante il progetto è la volontà di “ricostruire scene urbane” caratteristiche del centro storico aquilano, consolidando gli spazi di aggregazione già esistenti come piazza san Silvestro e inserendo nuovi spazi di relazione in corrispondenza di porta Branconia, un punto nevralgico del progetto perché congiunge la cinta muraria con il centro storico e con la città all’esterno delle mura. Il progetto prevede che il sistema del verde retrostante sia accessibile attraverso percorsi nel verde che, dal centro, confluiscono sull’asse commerciale di via della Croce Rossa. La definizione della parte più storica del quartiere di San Silvestro avviene attraverso un sistema di nuovi elementi che dialogano con le preesistenze storiche: un complesso di alloggi che si sviluppa nel lotto adiacente la chiesa, secondo la tipologia a schiera, ha un duplice affaccio, su via Duca degli Abruzzi da un lato e su via Sant’Agnese dall’altro; un nuovo museo per la città che si colloca su piazza San Silvestro confrontandosi direttamente con la Chiesa e col palazzo Branconi-Farinosi, rispettandone il ruolo e l’importanza. Nell’area di espansione, limitrofa al già esistente quartiere di San Silvestro, si è cercati di privilegiare la relazione della città col suolo: a tal proposito l’andamento delle curve di livello presenti, dà origine a strade per l’accesso agli alloggi sociali che confluiscono nel verde adiacente le mura della città. L’elemento unificatore di questo nuovo impianto risulta essere dunque il parco pubblico che costeggia le mura, congiungendo piazza S. Silvestro con l’estremità ovest dell’area e con i percorsi pedonali che caratterizzano tutta l’area di progetto trovando la massima espressione in prossimità proprio delle mura storiche. Attraverso queste prime intenzioni progettuali si è cercato di sviluppare un sistema organico e coerente di elementi capaci di dialogare con il contesto circostante e di instaurare nuove relazioni con la città. Se consideriamo le diverse componenti che formano il sistema possiamo evidenziare la presenza di elementi serventi, quali gli spazi aventi funzione pubblica, e di elementi serviti, come le residenze, aventi funzione privata. In particolare, il sistema residenziale, assume uno sviluppo uniforme ed omogeneo all’interno dell’area di intervento articolandosi con differenti connotazioni a seconda del diverso contesto circostante.
Resumo:
Il progetto si sviluppa nell’area dell’ex Eridania di Forlì, un’area molto vasta, adiacente al centro storico e come tema della Tesi abbiamo deciso di studiare un progetto che potesse contenere funzioni pubbliche a disposizione di tutti i cittadini. Ci è sembrato interessante ragionare sull’area in questi termini poiché dagli studi effettuati è risultato che la città di Forlì è priva di un polo culturale compatto che possa costituire un punto di ritrovo per i forlivesi. Nelle nostre intenzioni gli spazi progettati dovranno ospitare attività espositive, concerti, spettacoli all’aperto, rappresentazioni teatrali, conferenze e laboratori artistici che coinvolgano tutte le fasce d’età. Importante per noi era portare all’interno di quest’area dismessa nuove funzioni culturali di cui Forlì è oggi carente. Dall’analisi svolta sulla città è emerso che gli spazi esistenti dedicati ad attività per lo spettacolo non sono sufficienti a soddisfare le esigenze dei cittadini sia a livello quantitativo che di assortimento. Abbiamo perciò deciso di inserire nel progetto auditorium, teatro, teatro all’aperto, laboratori artistici, zone espositive, attività annesse come uffici per l’amministrazione, biglietterie, info point e un grande parco. La prima problematica che abbiamo cercato di risolvere è stata quella dell’attraversamento della ferrovia e, più in particolare, di un collegamento con il centro storico della città e con lo sviluppo di Forlì in generale che l’ha sempre vista come un limite invalicabile. Il problema è stato affrontato ipotizzando la realizzazione di un edificio su via Vittorio Veneto adibito a commercio e terziario dal quale, attraverso un ponte che oltrepassa la ferrovia, si giunge a un edificio, all’interno dell’area, che ospita i servizi di risalita, alcuni uffici e un bar. La scelta è stata quella di non porci ortogonalmente agli edifici affacciati su questa importante arteria ma di legarci all’intero progetto che segue l’orientamento dettato dalle preesistenze. All’interno dell’area spicca per dimensioni il corpo principale dell’ex Eridania che, conserviamo eliminando le superfetazioni e intervenendo per la messa in sicurezza e per permetterne l’adeguata fruibilità. La scelta di riordinare il prospetto Nord di questo edificio nasce dalla volontà di realizzare una grande corte sulla quale si affacciassero tutti gli edifici ad esclusione dei vecchi magazzini che ne risultano racchiusi all’interno e del teatro all’aperto che rimane immerso nel verde. Per definire questa corte abbiamo pensato a un porticato che proseguisse, seguendone l’aspetto, le dimensioni e il ritmo dei pilastri, quello già esistente a lato dell’edificio conservato dell’ex zuccherificio e che fungesse da percorso coperto per raggiungere i diversi laboratori artistici che si innestano su questo. A chiudere il quarto lato della corte sono il teatro e l’auditorium, simmetrici rispetto all’asse del progetto che è dato dalle vasche originariamente usate per il lavaggio delle barbabietole, allineate con l’edificio principale dell’ex zuccherificio. Per rendere la direzione ancora più evidente decidiamo di proseguirla con un tratto d’acqua diretto verso il teatro all’aperto, conclusione della stessa. Gli edifici di progetto sono immersi in un grande parco caratterizzato dalla vegetazione già esistente nell’area, cresciuta durante l’abbandono della stessa. Così facendo manteniamo delle zone che possono definirsi boschive, dove la vegetazione è molto fitta e intricata, e altre invece più libere dagli alberi e quindi utilizzabili per altre funzioni ricreative. Un diverso trattamento è riservato alla zona di parco racchiusa tra i due percorsi rettilinei e simmetrici che collegano il teatro all’aperto alla piazza: qui si è preferito eliminare la vegetazione esistente ricavando un grande prato libero definito da filari di alberi opportunamente disposti per focalizzare l’attenzione sul teatro stesso.
Resumo:
Il presente studio si occupa di indagare lo stato delle popolazioni di alici, Engraulis encrasicolus, e sardine, Sardina pilchardus, presenti nel Mar Adriatico Centrale e Settentrionale attraverso l’utilizzo di metodi di dinamica di popolazione. L’attenzione per queste specie è dovuta alla loro importanza commerciale; sono, infatti, specie “target” della flotta peschereccia italiana, in particolare nell’area adriatica. I metodi di dinamica di popolazione sono uno degli aspetti più importanti delle scienze della pesca. Attraverso lo stock assessment si possono acquisire informazioni sull’abbondanza in mare delle risorse nel tempo e nello spazio, nonché sulla mortalità dovuta all’attività di pesca, che sono di primaria importanza per l’adozione di misure gestionali. I metodi di dinamica di popolazione esaminati e confrontati in questa tesi sono stati due: Virtual Population Analysis (VPA) e Integrated Catch-at-Age Analysis (ICA). Prima, però, è stato necessario esaminare le modalità con cui ottenere i dati di “input”, quali: tassi di crescita delle specie, mortalità naturale, sforzo di pesca, dati di cattura. Infine, è stato possibile ricostruire nel tempo la storia dello stock in questione e il suo stato attuale, dando indicazioni per lo sfruttamento futuro in un’ottica di conservazione dello stock stesso. Attraverso la determinazione della curva di crescita si sono potuti ottenere i parametri di crescita delle specie in esame, necessari per definire i tassi di mortalità naturale. L’abbondanza di questi stock è stata valutata con i programmi Age Length Key (ALK) e Iterative Age Length Key (IALK). Nei programmi di stock assessment utilizzati si è preferito utilizzare la stima di abbondanza calcolata con il primo metodo, in quanto più rappresentativo dello stock in esame. Un parametro di fondamentale importanza e di difficile stima è la mortalità; in particolare, in questo studio ci siamo occupati di determinare la mortalità naturale. Questa è stata determinata utilizzando due programmi: ProdBiom (Abella et al., 1998) e il sistema ideato da Gislason et al. (2008). Nonostante l’approccio conservativo suggerisca l’utilizzo dei valori ricavati da ProdBiom, in quanto più bassi, si è preferito utilizzare i tassi di mortalità naturale ricavati dalla seconda procedura. Questa preferenza è stata determinata dal fatto che il programma ProdBiom consegna indici di mortalità naturale troppo bassi, se confrontati con quelli presentati in letteratura per le specie in esame. Inoltre, benché nessuno dei due programmi sia stato costruito appositamente per le specie pelagiche, è comunque preferibile la metodologia ideata da Gislason et al. (2008), in quanto ottenuta da un esame di 367 pubblicazioni, in alcune delle quali erano presenti dati per queste specie. Per quanto riguarda i dati di cattura utilizzati in questo lavoro per il calcolo della Catch Per Unit Effort (CPUE, cioè le catture per unità di sforzo), si sono utilizzati quelli della marineria di Porto Garibaldi, in quanto questa vanta una lunga serie temporale di dati, dal 1975 ad oggi. Inoltre, in questa marineria si è sempre pescato senza imposizione di quote e con quantitativi elevati. Determinati questi dati è stato possibile applicare i programmi di valutazione degli stock ittici: VPA e ICA. L’ICA risulta essere più attendibile, soprattutto per gli anni recenti, in quanto prevede un periodo nel quale la selettività è mantenuta costante, riducendo i calcoli da fare e, di conseguenza, diminuendo gli errori. In particolare, l’ICA effettua i suoi calcoli considerando che i dati di cattura e gli indici di “tuning” possono contenere degli errori. Nonostante le varie differenze dei programmi e le loro caratteristiche, entrambi concordano sullo stato degli stock in mare. Per quanto riguarda l’alice, lo stock di questa specie nel Mar Adriatico Settentrionale e Centrale, altamente sfruttato in passato, oggi risulta moderatamente sfruttato in quanto il livello di sfruttamento viene ottenuto con un basso livello di sforzo di pesca. Si raccomanda, comunque, di non incrementare lo sforzo di pesca, in modo da non determinare nuove drastiche diminuzioni dello stock con pesanti conseguenze per l’attività di pesca. Le sardine, invece, presentano un trend diverso: dalla metà degli anni ottanta lo stock di Sardina pilchardus ha conosciuto un continuo e progressivo declino, che solo nell’ultimo decennio mostra un’inversione di tendenza. Questo, però, non deve incoraggiare ad aumentare lo pressione di pesca, anzi bisogna cercare di mantenere costante lo sforzo di pesca al livello attuale in modo da permettere il completo ristabilimento dello stock (le catture della flotta italiana sono, infatti, ancora relativamente basse). Questo lavoro, nonostante i vari aspetti da implementare (quali: il campionamento, le metodologie utilizzate, l’introduzione di aspetti non considerati, come ad es. gli scarti,… etc.) e le difficoltà incontrate nel suo svolgimento, ha fornito un contributo di approfondimento sugli spinosi aspetti della definizione del tasso di mortalità naturale, individuando una procedura più adatta per stimare questo parametro. Inoltre, ha presentato l’innovativo aspetto del confronto tra i programmi ICA e VPA, mostrando una buon accordo dei risultati ottenuti. E’ necessario, comunque, continuare ad approfondire questi aspetti per ottenere valutazioni sempre più precise e affidabili, per raggiungere una corretta gestione dell’attività di pesca e ai fini della preservazione degli stock stessi.
Resumo:
La mia tesi dal titolo ”Applicazione della tecnica PSinSAR™ allo studio di fenomeni franosi lenti: casi di studio in Emilia-Romagna” ha avuto come obiettivo quello di mostrare le potenzialità e i limiti della tecnica PSinSAR nel monitoraggio di fenomeni franosi localizzati in Val Marecchia. Ho svolto, nel capitolo due, un’analisi preliminare dell’area di studio andando a evidenziare prima le caratteristiche climatiche, piogge medie annue e le temperature minime e massime, e a seguire sono passato a descrivere l’inquadramento geologico e geomorfologico. L’area della Val Marecchia è, da questo punto di vista, molto particolare poggiando su quella che è definita dagli autori “coltre della Val Marecchia”; essa è un complesso alloctono sovrascorso ai terreni autoctoni della successione Umbro – Romagnola - Marchigiana. La traslazione verso Est della coltre avvenne per "scatti", in funzione delle principali fasi tettoniche appenniniche, separati da momenti di pausa in cui sedimentarono le formazioni più recenti le quali poi si spostarono in modo solidale con la coltre. La coltre, infatti, è costituita da un insieme di formazioni di età diverse e in particolare ritroviamo, partendo da quella più antica l’unità ligure, l’unità subligure e infine l’unità epiligure. La presenza di formazioni più recenti sopra ad altre più antiche rende unica la morfologia della vallata con enormi blocchi rocciosi poggianti su un substrato in genere argilloso come nell’esempio più famoso della rupe di San Leo. Da queste analisi è emersa un’altra caratteristica peculiare della valle cioè la forte tendenza a essere interessata da dissesti di varie tipologie. Gli indici di franosità mostrano che nella zona alta della vallata circa il 50% del territorio è interessato da dissesti, valore che decresce leggermente nella parte media e bassa della valle. Il motivo di tale instabilità è da imputare in parte alla forte erosione che avviene sulle placche epiliguri e in parte alle caratteristiche scadenti del substrato che è per lo più composto di argille e arenarie. Per quanto riguarda le tipologie di frane in Val Marecchia la situazione è molto eterogenea; in particolari le tre tipologie più frequenti sono il colamento lento, lo scivolamento rotazionale/traslativo e le frane di tipo complesso. Nel terzo capitolo ho descritto la tecnica PSinSAR; essa si basa sull’elaborazione di scene riprese da satellite per giungere alla formazione di una rete di punti, i PS, di cui conosciamo i movimenti nel tempo. I Permanent Scatterer (PS) sono dei bersagli radar individuati sulla superficie terrestre dal sensori satellitari caratterizzati per il fatto di possedere un’elevata stabilità nel tempo alla risposta elettromagnetica. I PS nella maggior parte dei casi corrispondono a manufatti presenti sulla superficie quali edifici, monumenti, strade, antenne e tralicci oppure ad elementi naturali come per esempio rocce esposte o accumuli di detrito. Lo spostamento viene calcolato lungo la linea di vista del satellite, per cui il dato in uscita non mostra lo spostamento effettivo del terreno, ma l'allontanamento o l'avvicinamento del punto rispetto al satellite. La misure sono sempre differenziali, ovvero sono riferite spazialmente a un punto noto a terra chiamato reference point, mentre temporalmente alla data di acquisizione della prima immagine. La tecnica PSinSAR proprio per la sua natura è "cieca" rispetto ai movimenti in direzione Nord-Sud. Le scene utilizzate per la creazione dei dataset di PS derivano quasi interamente dai satelliti ERS e ENVISAT. Tuttora sono disponibili anche le scene dei satelliti TerraSAR-X, RADARSAT e Cosmo Skymed. I sensori utilizzati in questo ambito sono i SAR (Synthetic Aperture Radar) che sono sensori attivi, cioè emettono loro stessi l'energia necessaria per investigare la superficie terrestre al contrario dei sensori ottici. Questo permette di poter acquisire scene anche di notte e in condizioni di cielo nuvoloso. La tecnica PSinSAR presenta molti vantaggi rispetto alle tecniche interferometriche tradizionali essa, infatti, è immune agli errori di decorrelamento temporale e spaziale oltre agli errori atmosferici, che portavano ad avere precisioni non inferiori a qualche cm, mentre ora l’errore di misura sulla velocità media di spostamento si attesta in genere sui 2 mm. La precisione che si ha nella georeferenziazione dei punti è in genere di circa 4-7 m lungo la direzione Est e circa 1-2 m in quella Nord. L’evoluzione di PSinSAR, SqueeSAR, permette un numero maggiore di punti poiché oltre ai Permanent Scatterers PS, tramite un apposito algoritmo, calcola anche i Distribuited Scatterer DS. I dataset di dati PS che ho utilizzato nel mio lavoro di tesi (PSinSAR) derivano, come detto in precedenza, sia da scene riprese dal satellite ERS che da ENVISAT nelle due modalità ascendenti e discendenti; nel primo caso si hanno informazioni sui movimenti avvenuti tra il 1992 e il 2000 mentre per l’ENVISAT tra il 2002 e il 2008. La presenza di dati PS nelle due modalità di ripresa sulla stessa zona permette tramite alcuni calcoli di ricavare la direzione effettiva di spostamento. È importante però sottolineare che, a seconda della modalità di ripresa, alcune aree possono risultare in ombra, per questo nell’analisi dei vari casi di studio non sempre sono stati utilizzabili tutti i dataset. Per l'analisi dei vari casi di studio, presentati nel capitolo 4, ho utilizzato diverso materiale cartografico. In particolare mi sono servito delle Carte Tecniche Regionali (CTR) a scala 1:10000 e 1:5000, in formato digitale, come base cartografica. Sempre in formato digitale ho utilizzato anche le carte geologiche e geomorfologiche dell'area della Val Marecchia (fogli 266, 267, 278) oltre, per finire, agli shapefile presi dal database online del Piano stralcio dell’Assetto Idrogeologico PAI. Il software usato per la realizzazione del lavoro di tesi è stato ArcGIS di proprietà di ESRI. Per ogni caso di studio ho per prima cosa effettuato un'analisi dal punto di vista geologico e geomorfologico, in modo da fare un quadro delle formazioni presenti oltre ad eventuali fenomeni franosi mostrati dalle carte. A seguire ho svolto un confronto fra il dato PS, e quindi i valori di spostamento, e la perimetrazione mostrata nel PAI. Per alcuni casi di studio il dato PS ha mostrato movimenti in aree già perimetrate nel PAI come "in dissesto", mentre in altri il dato satellitare ha permesso di venire a conoscenza di fenomeni non conosciuti (come ad esempio nel caso di Monte Gregorio). Per ogni caso di studio ho inoltre scelto alcuni PS caratteristici (solitamente quelli a coerenza maggiore) e ho ricavato la relativa serie storica. In questo modo è stato possibile verificare lo spostamento durante tutti gli anni in cui sono state prese le scene (dal 1992 al 2000 per dati ERS, dal 2002 al 2008 per dati ENVISAT) potendo quindi mettere in luce accelerazioni o assestamenti dei fenomeni nel tempo, oltre a escludere la presenza di trend di spostamento anomali imputabili nella maggior parte dei casi a errori nel dato. L’obiettivo della tesi è stato da una parte di verificare la bontà del dato PS nell’interpretazione dei movimenti dovuti a dissesti franosi e dall’altra di fare un confronto tra il dato di spostamento ricavato dai PS e i vari inventari o carte di piano. Da questo confronto sono emerse informazioni molti interessanti perché è stato possibile avere conferme di movimento su dissesti già conosciuti (Sant’Agata Feltria, San Leo e altri) ma anche di venire a conoscenza di fenomeni non conosciuti (Monte Gregorio). In conclusione è emerso dal mio lavoro che il monitoraggio tramite tecnica PSinSAR necessita di essere integrato con le tecniche tradizionali poiché presenta alcune limitazioni importanti come l’impossibilità di "vedere" movimenti veloci o lungo la direzione Nord-Sud, oltre ad avere dati in aree vegetate o scarsamente abitate. I vantaggi sono però notevoli potendo monitorare con un’unica ripresa vaste porzioni di territorio oltre ad avere serie storiche consistenti, in grado di evidenziare i movimenti avvenuti nel passato. Tale tecnica quindi, secondo il mio parere, può essere utilizzata come supporto alla stesura di cartografia di fenomeni franosi fornendo informazioni aggiuntive rispetto alle varie tecniche tradizionali come il GPS, sondaggi geotecnici e sondaggi inclinometrici.
Resumo:
Il miglioramento dell’ambiente urbano e, in particolare, della qualità di vita dei cittadini, così come lo scriteriato consumo di territorio in favore della barbara cementificazione delle aree non edificate, sono diventate questioni di particolare rilievo nello scenario globale finalizzato al raggiungimento di un nuovo modello di sviluppo delle città. Gli abitanti dei centri urbani, oggi, sono costretti ad affrontare il sovraffollamento e i problemi ad esso connessi: il traffico, la congestione, l’inquinamento e gli effetti che questi fattori generano alla società. L’area oggetto di questa tesi, luogo a forte vocazione turistica, presenta questo tipo di problematiche soprattutto in corrispondenza della stagione estiva mentre, per il resto dell’anno, si trova ad affrontare il problema opposto di riduzione delle attività e dello spopolamento causate dalla stagionalità. L’espansione edilizia, avvenuta con estrema rapidità e durante un periodo caratterizzato da un forte sviluppo economico , non ha seguito gli indirizzi di un Piano che avrebbe se non altro evitato sprechi di territorio e una struttura così caotica. Tradizionalmente l’idea di densità è sempre stata considerata in maniera negativa rispetto alla questione urbana, in quanto simbolo di un uso intensivo e indiscriminato del territorio e causa della scarsa qualità di vita che caratterizza molte città. In realtà il concetto di densità può assumere un significato diverso: legato all’efficienza, alla qualità e alla sostenibilità. Densificare, infatti, secondo opportune linee guida e in relazione agli standard di qualità, significa sfruttare al meglio le risorse esistenti all’interno delle città, utilizzando il territorio senza sprechi e ricucendo le fratture in grado di generare situazioni di degrado ambientale. Un complesso e minuzioso processo di “densificazione” è in grado di apportare molti benefici al cittadino e alla comunità, come la trasformazione degli spazi inutilizzati o dismessi, la riduzione delle distanze e della mobilità veicolare, la limitazione dell’impatto energetico sull’ambiente e, non ultima, la promozione di una nuova immagine urbana connessa a nuove funzionalità e strutture. Densificare è però condizione necessaria ma non sufficiente per il miglioramento dell’ambiente urbano, infatti il termine “densità” non specifica nulla sul risultato qualitativo e quantitativo che si intende ottenere. “Creazione di un ambiente più propizio alla vita ed intenzionalità estetica sono i caratteri stabili dell’architettura; questi aspetti emergono da ogni ricerca positiva ed illuminano la città come creazione umana” . È in questo senso che deve essere letta la “densificazione” proposta da questa tesi per la riqualificazione di Misano Adriatico. Occorrerà riqualificare soprattutto quelle aree marginali del tutto prive dei requisiti urbani al fine di integrarle maggiormente al resto della città. A essa dovrà essere collegata una nuova visione di quelle che saranno le infrastrutture legate alla mobilità ed i servizi necessari alla vita della comunità. Essi non dovranno più essere visti come elementi di semplice collegamento o episodi isolati distribuiti a caso nel territorio, ma dovranno recuperare quell’importanza strategica che li portavano ad essere l’elemento catalizzatore e la struttura portante dell’espansione urbana. La riqualificazione della città sviluppata in questa tesi segue “la strategia dei luoghi complementari” teorizzata da O.M. Ungers secondo cui: “la città dei -luoghi complementari- è composta dal numero più grande possibile di aree diverse, nelle quali viene sviluppato un aspetto urbano particolare tenendo conto del tutto. In un certo senso è un sistema della -città nella città-. Ogni parte ha le sue proprie caratteristiche, senza però essere perfezionata e conclusa. […] Si cerca la molteplicità, la diversità, non l’unitarietà. La contraddizione, la conflittualità sono parte del sistema e rimangono insolute” . Il fine ultimo di questa tesi è quindi quello di proporre un’idea di città del nostro tempo, un prodotto complesso, non identificabile con un unico luogo ma con un insieme di luoghi che si sovrappongono e si integrano in maniera complementare mantenendo le peculiarità intrinseche del territorio a cui appartengono.
Resumo:
L’arteria principale dell’antica Regio VIII si è dimostrata l’elemento cardine per la fondazione delle città in epoca romana. Le città che nascono sulla via Emilia entrano in un rapporto di simbiosi e di dipendenza con la strada antica, tanto che quest’ultima diventa l’asse generatore di tutta la forma urbis. Questo tracciato generatore è rimasto immutato se non per alcune sporadiche eccezioni e si è consolidato, nella sua forma e funzione, andando a creare così un’integrazione perfetta con l’imago urbis. Anche la città di Claterna deve la sua fondazione alla presenza di questo importante segno, tracciato nel 187 a.C.; un segno che nasce da un’astrazione e dal possesso dell’idea di linea retta da parte dei romani, il cui compito è dare ordine allo spazio che consideravano un caos, e come tale doveva essere organizzato in maniera geometrica e razionale. La via Emilia diventa l’asse generatore della città, la quale segue appunto l’orientamento fornito dall’asse stesso che assume il ruolo di decumanus maximus per l’insediamento, e sulla quale si baserà la costruzione della centuriazione claternate. Il tracciato così forte e importante dal punto di vista funzionale assume però in contemporanea un ruolo di divisione della civitas, in quanto va a separare in maniera netta la zona sud da quella nord. Questa situazione è maggiormente percepibile oggi rispetto al passato, vista la situazione di incolto che prevale sull’area. L’area di progetto risulta infatti tagliata dalla strada statale ed è di conseguenza interessata da problematiche di traffico veicolare anche pesante; tale situazione di attraversamento veloce non permette al viaggiatore di cogliere una lettura completa e unitaria di quello che era l’antico insediamento romano. Inoltre la quota di campagna, che racchiude il layer archeologico, è più bassa rispetto alla quota di percorrenza della strada e non essendoci alcun elemento visivo che possa richiamare l’attenzione di chi percorre questo tratto di via Emilia, l’area d’interesse rimane completamente nascosta e inserita nel contesto paesaggistico. Il paesaggio diventa l’unico immediato protagonista in questo frangente di via Emilia; qui è diverso da molte altre situazioni in cui l’abitato si accosta alla strada, o ancora da quando la strada antica, e ciò si verifica nei maggiori centri urbani, viene ad essere inglobata nel reticolo cittadino fatto di strade ed edifici e con esso si va a confondere ed integrare. Infatti nella porzione compresa tra il comune di Osteria Grande e la frazione di Maggio, ci si trova di fronte ad un vero e proprio spaccato della conformazione geomorfologica del territorio che interessa tutta la regione Emilia Romagna: rivolgendosi verso sud, lo sguardo è catturato dalla presenza della catena appenninica, dove si intravede il grande Parco dei Gessi, che si abbassa dolcemente fino a formare le colline. I lievi pendii si vanno a congiungere con la bassa pianura che si scontra con il segno della via Emilia, ma al di là della quale, verso nord, continua come una distesa senza limite fino all’orizzonte, per andare poi a sfumare nel mare Adriatico. Questi due aspetti, la non percepibilità della città romana nascosta nella terra e la forte presenza del paesaggio che si staglia sul cielo, entrano in contrasto proprio sulla base della loro capacità di manifestarsi all’occhio di chi sta percorrendo la via Emilia: la città romana è composta da un disegno di tracce al livello della terra; il paesaggio circostante invece diventa una vera e propria quinta scenica che non ha però oggetti da poter esporre in quanto sono sepolti e non sono ancora stati adeguatamente valorizzati. Tutte le città, da Rimini a Piacenza, che hanno continuato ad esistere, si sono trasformate fortemente prima in epoca medievale e poi rinascimentale tanto che il layer archeologico romano si è quasi completamente cancellato. La situazione di Claterna è completamente diversa. La città romana è stata mano a mano abbandonata alla fine del IV secolo fino a diventare una delle “semirutarum urbium cadavera” che, insieme a Bononia, Mutina, Regium e Brixillum fino a Placentia, Sant’Ambrogio ha descritto nella sua Epistola all’amico Faustino. Ciò mostra molto chiaramente quale fosse la situazione di tali città in età tardo-antica e in che situazione di degrado e abbandono fossero investite. Mentre alcune di queste importanti urbes riuscirono a risollevare le loro sorti, Claterna non fu più interessata dalla presenza di centri abitati, e ciò è dovuto probabilmente al trasferimento degli occupanti in centri e zone più sicure. Di conseguenza non si è verificato qui quello che è successo nei più importanti centri emiliano-romagnoli. Le successive fasi di sviluppo e di ampliamento di città come Bologna e Piacenza sono andate ad attaccare in maniera irrecuperabile il layer archeologico di epoca romana tanto da rendere lacunosa la conoscenza della forma urbis e delle sue più importanti caratteristiche. A Claterna invece lo strato archeologico romano è rimasto congelato nel tempo e non ha subito danni contingenti come nelle città sopra citate, in quanto il suolo appunto non è stato più interessato da fenomeni di inurbamento, di edificazione e di grandi trasformazioni urbane. Ciò ha garantito che i resti archeologici non venissero distrutti e quindi si sono mantenuti e conservati all’interno della terra che li ha protetti nel corso dei secoli dalla mano dell’uomo. Solo in alcune porzioni sono stati rovinati a causa degli strumenti agricoli che hanno lavorato la terra nell’ultimo secolo andando ad asportare del materiale che è stato quindi riportato alla luce. E’ stata proprio questa serie di ritrovamenti superficiali e fortunati a far intuire la presenza di resti archeologici, e che di conseguenza ha portato ad effettuare delle verifiche archeologiche con sondaggi che si sono concluse con esiti positivi e hanno permesso la collocazione di un vincolo archeologico come tutela dell’area in oggetto. L’area di progetto non è quindi stata contaminata dall’opera dell’uomo e ciò ha garantito probabilmente, secondo le indagini degli archeologi che lavorano presso il sito di Claterna, un buono stato di conservazione per gran parte dell’insediamento urbano e non solo di alcune porzioni minori di città o di abitazioni di epoca romana. Tutto questo attribuisce al sito una grande potenzialità visto che i casi di ritrovamenti archeologici così ampi e ben conservati sono molto limitati, quasi unici. Si tratterebbe quindi di riportare alla luce, in una prospettiva futura, un intero impianto urbano di epoca romana in buono stato di conservazione, di restituire un sapere che è rimasto nascosto e intaccato per secoli e di cui non si hanno che altre limitatissime testimonianze.