276 resultados para insegnamento questionari indicazioni nazionali trigonometrialibri di testo
Resumo:
Le intersezioni stradali, sono le aree individuate da tre o più tronchi stradali (archi) che convergono in uno stesso punto, nonchè dai dispositivi e dagli apprestamenti atti a consentire ed agevolare le manovre per il passaggio da un tronco all'altro. Rappresentano punti critici della rete viaria per effetto delle mutue interferenze tra le diverse correnti di traffico durante il loro attraversamento. Si acuiscono pertanto, nella loro "area di influenza", i problemi legati alla sicurezza e quelli relativi alla regolarità ed efficienza della circolazione. Dalla numerosità dei fattori da cui dipende la configurazione di un incrocio (numero e tipo di strade, entità dei flussi, situazioni locali, ecc.) deriva una ancor più vasta gamma di tipologie e di schemi. La rotatoria, come particolare configurazione di intersezione a raso, è lo schema che viene considerato nel presente lavoro di tesi, sia nei suoi caratteri essenziali e generali, sia nel particolare di una intersezione che, nel Comune di Bologna, è stata realizzata in luogo dell'intersezione semaforizzata precedente.
Resumo:
Lo scopo di questo studio è descrivere nel dettaglio la procedura di Valutazione Ambientale Strategica (VAS) relativa ai Piani Energetici Provinciali (PEP) al fine di delinearne un metodo efficace di valutazione, a partire dallo studio del caso della Provincia di Ravenna. In seguito alla mancanza di Linee Guida sulla VAS, si è ritenuta utile un´analisi comparativa tra metodologie e strumenti, e gli obiettivi specifici e generali che andrebbero rispettati in ogni VAS di un PEP. Lo studio si basa su confronti paralleli tra quattro casi di VAS di Piani Energetici Provinciali al fine di elaborare un modello di valutazione delle VAS, semplice e diretto, basato su contenuti teorici e metodologici provenienti da una selezione di studi e documenti nazionali e internazionali, di cui si è tenuto conto e da cui si sono estrapolate le migliori "Buone Pratiche" per la VAS. L´analisi seguente è stata effettuata attraverso matrici qualitative in cui, per ciascuna connessione tra metodologia e "obiettivo VAS" si è espresso un giudizio che cerca di tenere conto, quando possibile, dei criteri e dei principi generali di sostenibilità dettati dalle maggiori autorità e associazioni internazionali e nazionali di valutazione ambientale. Il confronto tra i quattro casi, ha evidenziato dei punti di debolezza nell´applicazione della Direttiva VAS. Questo studio inoltre, ha tra i suoi obiettivi, quello ambizioso di delineare un metodo efficace di valutazione strategica dei piani energetici provinciali, a partire dallo studio del caso della Provincia di Ravenna. Per questi obiettivi, si è deciso di impostare un programma di lavoro basato sui sistemi informativi geografici, che ha permesso di individuare le aree con potenziale di sviluppo energetico della risorsa solare. Nello specifico è stato possibile calcolare quanta “superficie utile”, presente nelle aree industriali e commerciali della Provincia, potrebbe essere sfruttata installandovi pannelli fotovoltaici. Si è riusciti con questa metodologia a fornire una stima più dettagliata delle reali potenzialità della risorsa solare in Provincia di Ravenna, individuando nel dettaglio territoriale le rispettive quote percentuali che potrebbero essere installate, per raggiungere gli obiettivi di sostenibilità del piano. Il percorso iniziato con questa tesi consente di riflettere sulla necessità di approfondire il tema del rapporto tra valutazione ambientale qualitativa di uno strumento di pianificazione come la VAS, e la stima quantitativa sia della sostenibilità che del danno ambientale legato agli impatti negativi che questo strumento dovrebbe rilevare. Gli sviluppi futuri cui la tesi pone le basi sono l'implementazione di strumenti quantitativi di analisi delle potenzialità energetiche e di valutazione degli scenari. Questi strumenti sono necessari a definire i modelli ambientali per il supporto alle decisioni in campo energetico.
Resumo:
Lo studio del processo produttivo del riciclo di materiali provenienti da attività di C&D in un impianto di nuova realizzazione, presentato in questa tesi di laurea,è così articolato: nel primo capitolo si analizza la complicata evoluzione della normativa in materia di rifiuti (non solo da C&D) su scala europea e nazionale accennando i provvedimenti legislativi su scala regionale, con particolare riferimento alla Regione Veneto. Si esamineranno, pertanto, le direttive e le decisioni della Comunità Europea che hanno ispirato, a partire dal 1975, i provvedimenti legislativi nazionali, tra cui vale la pena di ricordare il “Decreto Ronchi”, emanato nel febbraio del 1997, l’attuale D.Lgs. 3/4/2006 n.152, e i Decreti Ministeriali di riferimento per la materia di studio, ovvero il D.M. 5/2/1998, riguardante l’individuazione dei rifiuti per cui è possibile procedere al loro trattamento in regime semplificato e l’ancora poco attuato D.M.8/5/2003 n.203, riferito all’utilizzo di materiale riciclato nelle Pubbliche Amministrazioni. Il secondo capitolo definisce, invece, le caratteristiche principali dei rifiuti da C&D, appartenenti alla categoria dei rifiuti inerti, e delinea le odierne problematiche inerenti a tali materiali. A conferma di queste, nella seconda parte del capitolo, sono presentati alcuni dati che fotografano oggettivamente gli scenari attuali in Europa e in Italia in riferimento alla produzione, al recupero e allo smaltimento di questa categoria di rifiuti. In seguito, il terzo capitolo inizia a definire gli aspetti relativi alla realizzazione di un impianto di studio per il riciclo di rifiuti da C&D. In esso si evidenziano le procedure amministrative, gli adempimenti burocratici e in generale tutti gli aspetti inerenti alla gestione dei rifiuti da C&D per l’esecuzione delle attività di recupero e smaltimento previste dal D.Lgs. n.152/2006, così come modificato dal recentissimo D.Lgs. n.4/2008. Il quarto capitolo definisce i termini per poter considerare i rifiuti da C&D trattati in impianto come MPS. L’attenzione è riposta sulla Direttiva 89/106/CEE, che impone obbligatoriamente, dal 01/06/2004, la marcatura CE per tutti i prodotti da costruzione e, quindi, anche per gli aggregati riciclati. Pertanto, in questo capitolo, vengono definite le prove richieste obbligatoriamente dal D.M 11/4/2007 in accordo con la norma europea UNI EN 13242 recante “Aggregati per materiali non legati e legati con leganti idraulici per l'impiego in opere di ingegneria civile e nella costruzione di strade" ed, in conclusione, viene studiata la Circolare n.5205/2005 che dovrebbe dare attuazione nel settore edile, stradale e ambientale al D.M. n.203/2003. Successivamente, il quinto capitolo delinea le caratteristiche principali degli impianti di trattamento per il recupero dei rifiuti da C&D, delineando le principali differenze tra gli impianti fissi e i mobili ed esaminando le diverse fasi del ciclo produttivo, anche in relazione ad un impianto di studio situato nella provincia di Verona. Infine, il sesto capitolo riassume i risultati delle prove di marcatura CE per gli aggregati riciclati prodotti nell’impianto descritto. Tali prove sono state eseguite presso il Laboratorio di Strade della Facoltà di Ingegneria dell’Università degli Studi di Bologna.
Resumo:
La presente tesi concerne il trattato "Ottica" scritto da Euclide nel III secolo a.C. quando, nell'area del bacino del Mediterraneo, si verificò una rivoluzione scientifica che diede origine alla nascita della scienza moderna. Si colloca nel filone delle ricerche volte a ricostruire la verità storica ed il contenuto scientifico del pensiero dello scienziato ed a meglio illustrare i contributi dati, dalla scienza ellenistica, alla conoscenza del fenomeno visivo. Si sono presi in esame dunque il momento storico e la situazione economica, sociale e scientifica verificatasi nel III secolo a.C., in particolare ad Alessandria d'Egitto, dove l'incontro del pensiero greco con le culture preesistenti portò alla nascita del metodo scientifico moderno; si sono considerati il pensiero filosofico del tempo e le teorie scientifiche sviluppatesi, con particolare riguardo alla matematica ed alla scienza medica, fondata dal medico alessandrino Erofilo. Si è poi preso in esame il contenuto del trattato. L' "Ottica" è il primo trattato di ottica geometrica della storia e la prima teoria scientifica che si occupi della visione. È basato sul metodo ipotetico-deduttivo, su conoscenze di oftalmologia e sulla scienza matematica degli Elementi. È un modello geometrico di un processo fisiologico e riconferma la matematica quale strumento principe per la costruzione del sapere scientifico. Crea modelli utili per altre teorie scientifiche (ad es. l'astronomia) e per le arti figurative ed ha applicazioni tecnologiche (ad es. l'astrolabio e la diottra). È il testo di base della moderna ottica geometrica. Non si pone come una verità assoluta ma come un'ipotesi di lavoro. Si sono esaminati il difficile percorso storico e bibliografico dell'opera caratterizzato da incomprensioni e manomissioni nonché la ricerca filologica volta a ricostruire l'integrità del testo. Si ritenne infatti che la sua validità fosse inficiata da alcuni "errori", in realtà dovuti all'incomprensione dei concetti e del metodo euclidei ed alle successive manomissioni. Emerge come la scienza non abbia avuto un progresso costante, continuo, aprioristico e come sia incerta ed instabile la conservazione nel tempo del sapere scientifico. Appare inoltre evidente come la scienza sia un prodotto della cultura umana e pertanto come la conoscenza della storia sia una condizione fondante per il progresso scientifico.
Resumo:
Questo lavoro di tesi si propone di verificare la validità della nuova specifica tecnica UNI/TS 11300-Parte 3, riguardante i consumi energetici degli edifici nella stagione estiva. Pertanto tale specifica tecnica, ancora in fase d’inchiesta pubblica, è stata applicata ad un caso reale, quale un complesso di edifici ad uso terziario, con il duplice obiettivo di analizzarne lo specifico metodo di calcolo e di comprovarne l’efficacia. Nel corso dello studio, prendendo in esame nella parte introduttiva argomenti quali i consumi in edilizia, gli aspetti normativi e le modalità di produzione del freddo, si è giunti infine a calcolare il fabbisogno di energia primaria per il raffrescamento del complesso di riferimento, e nella parte conclusiva sono state fornite indicazioni su eventuali modifiche da apportare alla normativa per ridurre i consumi.
Resumo:
Il lavoro svolto da Fabrizio Amici ha suscitato immediatamente il mio interesse in primo luogo perché quando si parla di virtualizzazione con vari fornitori e commerciali, questi la indicano come una soluzione che possa coprire a 360 gradi le esigenze di un Datacenter. Questo è vero nella misura in cui il progetto di virtualizzazione e consolidamento dei Server sia svolto sotto certi criteri progettuali. Per esperienza personale non ho trovato in letteratura lavori che potessero fornire indicazioni approfondite sui parametri da considerare per una corretta progettazione di sistemi di virtualizzazione, spesso ci si avvale di vari fornitori che accennano ad eventuali criticità. Un lavoro come quello proposto da Fabrizio va esattamente nella direzione di rispondere a quelle domande che nascono quando si affronta la tematica della virtualizzazione e soprattutto cerca di capire quali siano i limiti intrinseci della virtualizzazione. In particolare nei vari confronti che, con piacere, ho avuto con Fabrizio, il mio suggerimento è stato quello di esasperare il sistema che aveva assemblato, caricando i test sino ad osservarne i limiti. Dai vari test sono emerse sia conferme, sia inaspettati comportamenti del sistema che rendono ancora più chiaro che solo una prova sperimentale può essere il banco di prova di un sistema complesso. L'elemento che colpisce maggiormente analizzando i risultati è il diverso comportamento in funzione delle CPU utilizzate. I risultati indicano chiaramente che le prestazioni sono fortemente influenzate da come si distribuiscono i core nelle macchine virtuali. Dalla lettura dei risultati viene confermato che i sistemi virtualizzati devono essere progettati per non raggiungere il 70-80% della componente più critica (RAM, CPU) ma anche che sono fortemente sensibili alle disponibilità prestazionali dei sistemi al contorno (Rete, SAN/Dischi). L'approccio metodico sperimentale ed i risultati forniscono una serie di elementi che permettono di affrontare la tematica della virtualizzazione in un quadro generale più solido, offrendo fra l'altro spunti di ricerca ulteriori anche in previsione di nuove soluzioni che vari costruttori, sviluppatori e system integrator proporranno nei prossimi anni. Ing. Massimiliano Casali Esperto di Gestione ICT, Pubblica Amministrazione,Repubblica di San Marino
Resumo:
VILLA “CAPELLO - MORA”: PROGETTO DI RESTAURO E RIFUNZIONALIZZAZIONE
Il restauro è da intendere come un intervento diretto sull’opera, e anche come sua eventuale modifica, condotta sempre sotto un rigoroso controllo tecnico-scientifico e storico-critico, se parliamo di conservazione, intendiamo l’operare in un intento di salvaguardia e di prevenzione, da attuare proprio per evitare che si debba poi intervenire con il restauro, che comprende un evento traumatico per il manufatto.
Un seconda parola chiave in questo discorso è la “materia” il restauro interviene sulla materia di un monumento e questa costituisce il tramite dei valori culturali antichi, la sua conservazione e il suo restauro garantisce la trasmissione anche dei significati estetici, storici simbolici del costruito. Ma certamente influisce il tempo sulle cose per cui il progetto di restauro non può astenersi dall’intervenire, in una logica di minimo intervento, di reversibilità, di facile lettura.
Il concetto di nuovo in un opera antica, concetto che a parere personale, pare centrare in pieno il problema. Il nuovo infatti “deve avere carattere di autonomia e di chiara leggibilità: come l’<
Resumo:
“Il museo sta cambiando. In passato, era un luogo di certezze assolute, fonte di definizioni, di valori e di dottrina in materia d'arte, a tutto campo; era il luogo in cui non ci si ponevano interrogativi ma si davano autorevoli risposte.[...]“ 1 Il collezionismo d'arte comincia con il Rinascimento italiano, che sviluppa un particolare senso della storia, un entusiasmo per i prodotti dell'Antichità classica e per tutti i generi dell'arte contemporanea, pensati per la residenza privata, e in realtà, per esse fabbricati: dipinti di soggetto mitologico, quadri di artisti fiamminghi, piccoli bronzi e, al nord arte grafica. Il collezionismo in senso stretto fu agli inizi del secolo connesso solo con le antichità. Verso la fine del Cinquecento, vanno manifestandosi parecchie innovazioni. Per la prima volta compare la parola museo, che era già stata adottata in Alessandria durante il periodo Ellenistico per designare tutto l'ambito degli edifici per la cultura in cui era compresa la biblioteca. Inizialmente tutte le collezioni erano private, ma potevano essere visitate dalle élite sociali. L‟istituzione del museo che noi oggi conosciamo, nasce dall‟ Europa illuminista del XVIII secolo: infatti in questo periodo fu deliberatamente progettato uno spazio architettonico appropriato che desse forma universalmente riconoscibile all‟idea di museo. Poniamo gli esempi del Museo di Villa Albani nel 1746 e il Museo Pio Clementino in Vaticano nel 1775, che per primi si pongono il problema della progettazione architettonica, dell‟allestimento e ordinamento adeguati a un museo aperto al pubblico. Mentre per Villa Albani si trattava pur sempre di una raccolta privata visitabile, il museo voluto dai papi Clemente XIV e Pio VI per le collezioni archeologiche era già pensato come un‟istituzione di interesse pubblico. Gli ultimi tre secoli del secondo millennio hanno visto la crescita dell‟istituzione del museo, diventata esponenziale negli ultimi decenni del XX secolo. I tempi hanno coinciso con la nascita, l‟affermazione rivoluzionaria, il trionfo e il consolidamento della cultura nell‟età della borghesia. 2 “Mentre prima il museo non era che un luogo pieno di oggetti, oggi è diventato un luogo pieno di idee, che vengono suggerite dalle indicazioni e dalle descrizioni accompagnanti gli oggetti esposti, dato che il museo è come un libro aperto che si offre allo studioso e a chi desidera formarsi una coltura.[...]3 1 Karsten Schubert, Museo. Storia di un'idea - dalla Rivoluzione francese ad oggi, il Saggiatore, Milano 2004, p.17. 2 Alessandra Mottola Molfino, Il libro dei musei, Umberto Alemandi & C., Torino 1991, pp. 11-22 3 Daniele Donghi, Manuale dell'architetto Volume II, Unione Tipografico Editrice Torinese, Torino 1935, p. 11. 8 Un museo non è definito solo in base all'importanza e alla qualità delle sue raccolte, ma soprattutto da come vengono recepite da chi le esamina, sia per motivi di studio che per interesse personale. Per questo motivo si deve mettere in grado le diverse categorie di fruitori, di accedere al museo con il minor spreco di tempo possibile e con il maggior profitto. L'effetto che si vuole ottenere deriva sia dal metodo di esposizione degli oggetti, sia da una buona soluzione tecnica relativa alle dimensioni, alla forma, alla distribuzione, riscaldamento e ventilazione dei locali, all'illuminazione degli oggetti e ai mezzi di loro conservazione e sicurezza. Il museo moderno dovrà coniugare al suo interno museografia e museologia. Dove“[...]per museografia si intende l'insieme delle azioni progettuali, scientifiche e tecniche, tendenti alla sistemazione organizzativa del museo (distributiva, impiantistica, tecnica, architettonica, allestitiva, informatica); appartiene in genere all'opera dell'architetto, con la collaborazione di strutturisti, impiantisti e informatici. Al contrario per museologia si intende l'insieme delle azioni di ricerca storica, filologica, di comparazione critica che presiede all'ordinamento dell'esposizione delle opere; generalmente appartiene allo storico dell'arte, allo storico della scienza, all'archeologo, all'antropologo [...].”4 Confrontando progetti museografici e museali dei primi musei con esempi moderni e contemporanei, si intendono ricavare i caratteri fondamentali che permettano di presentare un progetto per museo coerente all'area di studio, e che riesca a rivelare la vera natura degli oggetti che andrà a ospitare attraverso uno studio specifico dei percorsi e degli allestimenti.
Resumo:
Questa si ripropone in prima istanza di analizzare le origini e l’evoluzione del concetto di sostenibilità e successivamente di prendere in considerazione uno dei tanti mezzi che consentono di perseguirla: la gestione della sosta. Per molti anni infatti, a partire dal momento in cui sono iniziate ad emergere le esternalità negative legate al traffico, si è pensato che quello dei parcheggi fosse solo un ulteriore problema. Solo di recente, dalla fine degli anni ’90, fatta eccezione per il caso della Gran Bretagna che ha fatto da capofila già a partire dagli anni ’80, si è iniziato a considerare la sosta come parte della soluzione dei problemi di congestione, inquinamento e di vivibilità delle città. Verrà analizzata perciò nel secondo capitolo l’evoluzione delle politiche della sosta a livello europeo, con particolare attenzione all’operato svolto dall’EPA (European Parking Association) associazione leader nel settore riconosciuta dall’Unione Europea e sostenuta da 18 Paesi membri tra cui anche l’Italia. Il lavoro svolto da quest’associazione, nata nei primi anni ’80, è quello di decidere insieme agli associati delle linee comuni da seguire per migliorare le politiche a livello europeo riguardo la gestione della sosta. Si tratta nella pratica di studi, convegni e analisi degli effetti prodotti da provvedimenti intrapresi nelle varie città che hanno iniziato ad introdurre la regolamentazione della sosta. Sempre nel secondo capitolo saranno quindi presentate le linee guida europee nell’ambito dei parcheggi e si analizzeranno casi di “Best Practices” di alcuni Paesi che hanno introdotto provvedimenti per la gestione della sosta. Nel terzo capitolo invece viene considerata la situazione in Italia parlando in principio di Aipark, l’associazione italiana operatori nel settore dei parcheggi che partecipa alle attività dell’Epa e prendendo in esame in seguito le politiche adottate a livello nazionale e nello specifico in alcune tra le più importanti città italiane. Si vedrà come sia ancora troppo marcata la distanza del nostro Paese dai progressi registrati in altri Paesi dell’UE, con le dovute eccezioni. Per quel che riguarda l’aspetto normativo è significativo il fatto che, nonostante il riconoscimento della forte influenza che le politiche della sosta hanno sulla regolazione del traffico, ci siano ancora molte lacune legislative e che spesso la sosta non compaia tra i soggetti delle leggi in tale settore. La legislazione italiana nell’ambito dei parcheggi verrà analizzata nel quarto capitolo. Successivamente, nei capitoli 5 e 6 si parlerà delle fasi preliminari della redazione del Piano della Sosta di Casalecchio di Reno. Il Piano della Sosta è uno dei Piani Particolareggiati che costituiscono il 2° livello di progettazione del PUT (Piano Urbano del Traffico) e rappresenta uno strumento di pianificazione utile ad analizzare lo stato di fatto del sistema dei parcheggi di una città in modo da coglierne le criticità e fornire eventualmente le soluzioni per ovviare ad esse. Nel quinto capitolo viene effettuato un inquadramento territoriale di Casalecchio e si parlerà delle problematiche della sosta emerse nel PGTU (Piano Generale del Traffico Urbano) che costituisce il progetto preliminare o Piano Quadro del PUT. Le fasi attraverso le quali viene elaborato un Piano della sosta si possono sintetizzare nei seguenti punti: - Studio della normativa nazionale e locale e di esempi significativi di altre realtà nell’ambito della sosta. - Analisi dello stato di fatto in termini di domanda e offerta. - Indagini mediante incontri pubblici, distribuzione di questionari o interviste dirette, per cogliere le esigenze degli utenti che usufruiscono del servizio. - Analisi delle eventuali criticità emerse. - Progettazione del nuovo assetto della sosta. - Campagna di sensibilizzazione per fare “accettare” con più facilità i cambiamenti agli utenti. Nel sesto capitolo di questa tesi, e negli allegati si possono consultare i risultati delle indagini su domanda e offerta condotte da TPS (Transport Planning Service), azienda che svolge attività di pianificazione e progettazione, di fornitura software, oltre che indagini e rilievi nell’ambito dei trasporti. Verranno descritte le modalità di rilievo e verranno presentati i risultati ottenuti dall’elaborazione dei dati raccolti, con qualche accenno alle possibili soluzioni per risolvere le problematiche emerse. La fase di progettazione vera e propria degli interventi non verrà invece trattata in questa sede.
Resumo:
Il presente studio si occupa di indagare lo stato delle popolazioni di alici, Engraulis encrasicolus, e sardine, Sardina pilchardus, presenti nel Mar Adriatico Centrale e Settentrionale attraverso l’utilizzo di metodi di dinamica di popolazione. L’attenzione per queste specie è dovuta alla loro importanza commerciale; sono, infatti, specie “target” della flotta peschereccia italiana, in particolare nell’area adriatica. I metodi di dinamica di popolazione sono uno degli aspetti più importanti delle scienze della pesca. Attraverso lo stock assessment si possono acquisire informazioni sull’abbondanza in mare delle risorse nel tempo e nello spazio, nonché sulla mortalità dovuta all’attività di pesca, che sono di primaria importanza per l’adozione di misure gestionali. I metodi di dinamica di popolazione esaminati e confrontati in questa tesi sono stati due: Virtual Population Analysis (VPA) e Integrated Catch-at-Age Analysis (ICA). Prima, però, è stato necessario esaminare le modalità con cui ottenere i dati di “input”, quali: tassi di crescita delle specie, mortalità naturale, sforzo di pesca, dati di cattura. Infine, è stato possibile ricostruire nel tempo la storia dello stock in questione e il suo stato attuale, dando indicazioni per lo sfruttamento futuro in un’ottica di conservazione dello stock stesso. Attraverso la determinazione della curva di crescita si sono potuti ottenere i parametri di crescita delle specie in esame, necessari per definire i tassi di mortalità naturale. L’abbondanza di questi stock è stata valutata con i programmi Age Length Key (ALK) e Iterative Age Length Key (IALK). Nei programmi di stock assessment utilizzati si è preferito utilizzare la stima di abbondanza calcolata con il primo metodo, in quanto più rappresentativo dello stock in esame. Un parametro di fondamentale importanza e di difficile stima è la mortalità; in particolare, in questo studio ci siamo occupati di determinare la mortalità naturale. Questa è stata determinata utilizzando due programmi: ProdBiom (Abella et al., 1998) e il sistema ideato da Gislason et al. (2008). Nonostante l’approccio conservativo suggerisca l’utilizzo dei valori ricavati da ProdBiom, in quanto più bassi, si è preferito utilizzare i tassi di mortalità naturale ricavati dalla seconda procedura. Questa preferenza è stata determinata dal fatto che il programma ProdBiom consegna indici di mortalità naturale troppo bassi, se confrontati con quelli presentati in letteratura per le specie in esame. Inoltre, benché nessuno dei due programmi sia stato costruito appositamente per le specie pelagiche, è comunque preferibile la metodologia ideata da Gislason et al. (2008), in quanto ottenuta da un esame di 367 pubblicazioni, in alcune delle quali erano presenti dati per queste specie. Per quanto riguarda i dati di cattura utilizzati in questo lavoro per il calcolo della Catch Per Unit Effort (CPUE, cioè le catture per unità di sforzo), si sono utilizzati quelli della marineria di Porto Garibaldi, in quanto questa vanta una lunga serie temporale di dati, dal 1975 ad oggi. Inoltre, in questa marineria si è sempre pescato senza imposizione di quote e con quantitativi elevati. Determinati questi dati è stato possibile applicare i programmi di valutazione degli stock ittici: VPA e ICA. L’ICA risulta essere più attendibile, soprattutto per gli anni recenti, in quanto prevede un periodo nel quale la selettività è mantenuta costante, riducendo i calcoli da fare e, di conseguenza, diminuendo gli errori. In particolare, l’ICA effettua i suoi calcoli considerando che i dati di cattura e gli indici di “tuning” possono contenere degli errori. Nonostante le varie differenze dei programmi e le loro caratteristiche, entrambi concordano sullo stato degli stock in mare. Per quanto riguarda l’alice, lo stock di questa specie nel Mar Adriatico Settentrionale e Centrale, altamente sfruttato in passato, oggi risulta moderatamente sfruttato in quanto il livello di sfruttamento viene ottenuto con un basso livello di sforzo di pesca. Si raccomanda, comunque, di non incrementare lo sforzo di pesca, in modo da non determinare nuove drastiche diminuzioni dello stock con pesanti conseguenze per l’attività di pesca. Le sardine, invece, presentano un trend diverso: dalla metà degli anni ottanta lo stock di Sardina pilchardus ha conosciuto un continuo e progressivo declino, che solo nell’ultimo decennio mostra un’inversione di tendenza. Questo, però, non deve incoraggiare ad aumentare lo pressione di pesca, anzi bisogna cercare di mantenere costante lo sforzo di pesca al livello attuale in modo da permettere il completo ristabilimento dello stock (le catture della flotta italiana sono, infatti, ancora relativamente basse). Questo lavoro, nonostante i vari aspetti da implementare (quali: il campionamento, le metodologie utilizzate, l’introduzione di aspetti non considerati, come ad es. gli scarti,… etc.) e le difficoltà incontrate nel suo svolgimento, ha fornito un contributo di approfondimento sugli spinosi aspetti della definizione del tasso di mortalità naturale, individuando una procedura più adatta per stimare questo parametro. Inoltre, ha presentato l’innovativo aspetto del confronto tra i programmi ICA e VPA, mostrando una buon accordo dei risultati ottenuti. E’ necessario, comunque, continuare ad approfondire questi aspetti per ottenere valutazioni sempre più precise e affidabili, per raggiungere una corretta gestione dell’attività di pesca e ai fini della preservazione degli stock stessi.
Resumo:
La crittografia ha sempre rivestito un ruolo primario nella storia del genere umano, dagli albori ai giorni nostri, e il periodo in cui viviamo non fa certo eccezione. Al giorno d'oggi, molti dei gesti che vengono compiuti anche solo come abitudine (operazioni bancarie, apertura automatica dell'auto, accedere a Facebook, ecc.), celano al loro interno la costante presenza di sofisticati sistemi crittografici. Proprio a causa di questo fatto, è importante che gli algoritmi utilizzati siano in qualche modo certificati come ragionevolmente sicuri e che la ricerca in questo campo proceda costantemente, sia dal punto di vista dei possibili nuovi exploit per forzare gli algoritmi usati, sia introducendo nuovi e sempre più complessi sistemi di sicurezza. In questa tesi viene proposto una possibile implementazione di un particolare tipo di attacco crittoanalitico, introdotto nel 2000 da due ricercatori dell'Università "La Sapienza" di Roma, e conosciuto come "Crittoanalisi Logica". L'algoritmo su cui è incentrato il lavoro è il Data Encryption Standard (DES), ostico standard crittografico caduto in disuso nel 1999 a causa delle dimensioni ridotte della chiave, seppur tuttora sia algebricamente inviolato. Il testo è strutturato nel seguente modo: il primo capitolo è dedicato ad una breve descrizione di DES e della sua storia, introducendo i concetti fondamentali con cui si avrà a che fare per l'intera dissertazione Nel secondo capitolo viene introdotta la Crittoanalisi Logica e viene fornita una definizione della stessa, accennando ai concetti matematici necessari alla comprensione dei capitoli seguenti. Nel capitolo 3 viene presentato il primo dei due software sviluppati per rendere possibile l'attuazione di questo attacco crittoanalitico, una libreria per la rappresentazione e la manipolazione di formule logiche scritta in Java. Il quarto ed ultimo capitolo descrive il programma che, utilizzando la libreria descritta nel capitolo 3, elabora in maniera automatica un insieme di proposizioni logiche semanticamente equivalenti a DES, la cui verifica di soddisfacibilità, effettuata tramite appositi tools (SAT solvers) equivale ad effettuare un attacco di tipo known-plaintext su tale algoritmo.
Resumo:
Il concetto fondante e le motivazioni alla base di questo lavoro di tesi sono costituiti dalla volontà di analizzare a fondo la problematica energetica ed ambientale, focalizzando l‟indagine sul ruolo delle Fonti Energetiche Rinnovabili e contestualizzandola nel contesto “locale” relativo alla Regione Emilia Romagna: questo lavoro di tesi, infatti, è stato sviluppato nell‟ambito di un progetto di collaborazione stipulato tra Università e Regione Emilia Romagna e si è svolto all‟interno dell‟Assessorato alle Attività Produttive della Regione, lavorando con il “Servizio Politiche Energetiche” emiliano-romagnolo. La crisi energetica (e, contestualmente, la crisi ambientale) rappresenta una problematica al centro del dibattito globale da oltre mezzo secolo, affrontata finora in maniera non organica e realmente efficace dalle nazioni e dagli organismi sovranazionali coinvolti in tale dibattito. Tale tematica è divenuta ancora più pregnante (e la ricerca di una “soluzione” al riguardo, ancora più pressante) negli ultimi anni, in seguito alla deflagrazione di una crisi globale –economica e sociale- che ha intaccato i modelli di crescita e sviluppo (anche tecnologico) conosciuti finora, ponendo di fronte agli occhi dell‟umanità la necessità impellente di ridefinire politiche economiche, ambientali e, conseguentemente, energetiche, caratterizzate da una maggiore sostenibilità globale. La continua crescita della popolazione e il progressivo incremento generalizzato (e disomogeneo) degli standard di vita alimentano con ritmi esponenziali la domanda –e la conseguente produzione- di energia, inevitabilmente correlata (proprio a causa dei modelli di sviluppo seguiti finora) ad un drammatico incremento delle emissioni climalteranti, che continuano a nuocere irreversibilmente alla salubrità del nostro fragile ecosistema. Oltre alla problematica ambientale si aggiunge, con impellenza sempre più marcata, quella relativa alla disponibilità delle principali fonti energetiche (quelle fossili), che si profilano in esaurimento entro lassi temporali che potrebbero divenire drammaticamente prossimi: il “rischio reale” connesso alla prosecuzione di politiche energetiche poggiate sullo sfruttamento intensivo di tali fonti non è tanto connesso all‟eventuale esaurimento assoluto delle risorse stesse, quanto ad una loro progressiva riduzione, tale da renderle viepiù costose e sempre meno convenienti economicamente. Uno scenario di questo tipo si tradurrebbe inevitabilmente in una condizione per la quale solamente i Paesi più ricchi potrebbero usufruire di tali risorse, estremamente costose, mentre i Paesi meno evoluti economicamente rischierebbero di trovarsi nell‟impossibilità di approvvigionarsi, andando incontro a condizioni di deficit energetico: uno scenario inquietante, che però non appare così “ipotetico”, se si tiene conto di come –già ora- siano in aumento segnali di allarme e di conflitto, attivati da localizzate insufficienze energetiche. In un quadro globale di questo tipo le strade risolutive finora riconosciute e percorse dal mondo scientifico, politico ed economico sono sostanzialmente due: - L‟implementazione del risparmio energetico, in un‟ottica di drastica riduzione dei consumi globali; - La “conversione” della produzione energetica (attualmente fondata sulle fonti convenzionali, ossia quelle fossili) verso le cosiddette “Fonti Energetiche Alternative”. Questa seconda direttrice di marcia sembra poter essere quella in grado di reindirizzare verso un orizzonte di maggiore sostenibilità l‟attuale sistema energetico globale, e in quest‟ottica assumono quindi enorme importanza strategica le tecnologie alternative e, prime tra tutte, le Fonti Energetiche Rinnovabili (FER). Queste consentirebbero infatti sia di ridurre l‟impatto ambientale connesso alla produzione energetica da fonti convenzionali, che di implementare politiche di autosufficienza energetica per quei Paesi che attualmente, dal punto di vista del bilancio energetico interno, dipendono in misura marcata dall‟importazione di combustibili fossili dall‟estero. La crisi energetica e il conseguente ruolo chiave delle Fonti Energetiche Rinnovabili è quindi il punto di partenza di questa tesi, che ha voluto confrontarsi con tale problematica globale, misurandosi con le azioni e con i provvedimenti intrapresi al riguardo a livello locale, focalizzando l‟attenzione sulla realtà e sugli sviluppi delle Fonti Energetiche Rinnovabili nella Regione Emilia Romagna. Per sviluppare il lavoro si è proceduto definendo prima di tutto un quadro complessivo della situazione, in termini di problematica energetica e di stato attuale delle Fonti Energetiche Rinnovabili, scendendo progressivamente nel dettaglio: partendo da una fotografia a livello mondiale, quindi europeo, successivamente italiano (basandosi sui dati di pubblicazioni italiane ed estere, di enti competenti in materia come Terna, il GSE o l‟Enea per l‟Italia, e l‟IEA, l‟EIA, l‟UE per l‟Europa e il resto del mondo). Nella terza parte della tesi si è scesi al dettaglio di questo stato attuale delle Fonti Energetiche Rinnovabili a livello Regionale (Emiliano-Romagnolo) e Provinciale (le nove Province della Regione): per procedere alla definizione di questo quadro la “tecnica operativa” è consistita in una raccolta dati effettuata in collaborazione con il ”Servizio Politiche Energetiche” della Regione Emilia Romagna, estesa alle 9 Province e ai 348 Comuni del territorio emiliano-romagnolo. La richiesta di dati avanzata è stata relativa agli impianti alimentati da fonte energetica rinnovabile in esercizio e a quelli in fase di valutazione sul territorio afferente all‟Ente considerato. Il passo successivo è consistito nell‟aggregazione di questi dati, nella loro analisi e nella definizione di un quadro organico e coerente, relativo allo stato attuale (Ottobre 2010) delle Fonti Energetiche Rinnovabili sul territorio emiliano-romagnolo, tale da permettere di realizzare un confronto con gli obiettivi definiti per le FER all‟interno dell‟ultimo Piano Energetico Regionale e con lo stato delle FER nelle altre Regioni italiane. Sono stati inoltre realizzati due “Scenari”, relativi all‟evoluzione stimata del parco “rinnovabile” emiliano-romagnolo, definiti al 2012 (“Breve Termine”) e al 2015 (“Medio Termine”). I risultati ottenuti hanno consentito di verificare come, nell‟orizzonte “locale” emiliano-romagnolo, il sistema globale connesso alle Fonti Energetiche Rinnovabili abbia attecchito e si sia sviluppato in misura marcata: gli obiettivi relativi alle FER definiti nel precedente Piano Energetico Regionale sono infatti stati sostanzialmente raggiunti in toto. Dalla definizione degli “Scenari” previsionali è stato possibile stimare l‟evoluzione futura del parco “rinnovabile” emilianoromagnolo, verificando come questo risulti essere in continua crescita e risulti “puntare” su due fonti rinnovabili in maniera particolare: la fonte fotovoltaica e la fonte a biocombustibili. Sempre dall‟analisi degli “Scenari” previsionali è stato possibile stimare l‟evoluzione delle singole tecnologie e dei singoli mercati rinnovabili, verificando limiti allo sviluppo (come nel caso della fonte idroelettrica) o potenziali “espansioni” molto rilevanti (come nel caso della fonte eolica). Il risultato finale di questo lavoro di tesi è consistito nel poter definire dei nuovi obiettivi, relativi alle differenti Fonti Energetiche, da potersi inserire all‟interno del prossimo Piano Energetico Regionale: l‟obiettivo “complessivo” individua –avendo il 2015 come orizzonte temporale- una crescita incrementale delle installazioni alimentate da FER pari a 310 MWe circa. Questo lavoro di tesi è stato ovviamente organizzato in più “Parti”, ciascuna ulteriormente suddivisa in “Capitoli”. Nella “Prima Parte”, costituita dai primi 4 Capitoli, si è proceduto ad introdurre la problematica energetica e il contesto in cui si muovono le decisioni e le politiche (comunitarie, nazionali e sovra-nazionali) destinate a trovare soluzioni e risposte: Il Primo Capitolo, introduttivo, definisce prima di tutto gli “strumenti” e i concetti che verranno successivamente richiamati più volte nel resto della Tesi, partendo dal concetto di “energia”, definito sia “concettualmente” che attraverso le unità di misura utilizzate per quantificarlo. Il passo successivo è stato quello di contestualizzare l‟evoluzione dello sfruttamento di questa “risorsa”, in relazione allo sviluppo delle tecnologie e delle stesse condizioni di vita umane, così da definire un background storico per le considerazioni introdotte nel Capitolo successivo. Il Secondo Capitolo, infatti, introduce la problematica attuale (ma mutuata dal background storico evidenziato in precedenza) della “crisi energetica” e della “crisi ambientale” ad essa correlata, considerandone gli aspetti prima di tutto globali, connessi a considerazioni di natura sociale, demografica e –conseguentemente economica e sociale: all‟interno di questa analisi, vengono citati anche gli scenari previsionali elaborati da numerosi enti di ricerca e istituzioni, coinvolti su più livelli nell‟ottica di riuscire ad individuare una “risposta” alle problematiche sollevate dallo sfruttamento intensivo della risorsa energetica per vie convenzionali. Tale risposta è rappresentata dalle normative sovranazionali, europee e italiane varate nell‟ottica di attuare una “transizione etica” in materia di sviluppo sostenibile, impatto ambientale e sfruttamento energetico: un presupposto imprescindibile per la transizione energetica sostenibile è proprio l‟impegno a livello locale (quindi anche e prima di tutto di istituzioni quali, in Italia, le Regioni, le Province e i Comuni), senza il quale difficilmente si potranno raggiungere traguardi avanzati, che implicano anche un sostanziale cambio di mentalità. Nell‟ottica di approfondire ulteriormente il contesto all‟interno del quale vengono adottate azioni e intrapresi provvedimenti utili a concretizzare risposte a livello italiano –nazionale e locale- il Terzo Capitolo introduce il tema delle “politiche energetiche sostenibili”, partendo dalla definizione dell‟attuale condizione Italiana (in termini di inquinamento atmosferico e di sfruttamento intensivo della risorsa energetica, nonché di scenari previsionali), per definire successivamente le politiche nazionali per le fonti rinnovabili, per il settore dei trasporti, del riscaldamento e del raffreddamento, della pianificazione energetica e della generazione distribuita. Il Capitolo introduce anche il tema degli interventi in ambito di fiscalità energetica (“Certificati Verdi”, “Certificati Bianchi” e il “Conto Energia”). Proprio per definire al meglio i meccanismi di incentivazione, il Quarto Capitolo esplicita (facendo riferimento alla documentazione pubblicata da enti quali GSE, Terna, GRTN) il meccanismo del cosiddetto “mercato elettrico” e degli scambi che vi avvengono, in modo tale da comprendere come i metodi di incentivazione alle fonti alternative che si appoggiano su interventi di fiscalità energetica, riescano ad avere –o meno- presa sul sistema. La “Seconda Parte” (costituita dai Capitoli dal 5° al 13°) è invece dedicata al necessario approfondimento sullo stato delle Fonti Energetiche Rinnovabili (FER): in ogni capitolo è stato infatti approfondita la condizione attuale delle principali FER (fonte a Biocombustibili, Eolica, Geotermica, Idraulica, Solare Fotovoltaica, Solare Termica, Solare Termodinamica). Tale approfondimento è stato condotto in termini di sviluppo della tecnologia, incidenza e contributo della singola FER sui bilanci elettrici (considerando prima il quadro mondiale, quindi quello europeo, per scendere infine al dettaglio italiano). Nella parte finale di ogni capitolo sono state riportate anche le principali criticità riscontrate per ogni fonte presa in considerazione, oltre che gli scenari previsionali stimati considerandone i potenziali sviluppi, in un‟ottica di medio termine e di lungo termine. La “Terza Parte” (comprendente i Capitoli dal 14° al 22°) di questa Tesi raccoglie invece il lavoro svolto e i risultati ottenuti e permette di definire lo stato attuale e gli scenari previsionali (a breve termine e a medio termine) per le Fonti Energetiche Rinnovabili nella Regione Emilia Romagna, con un livello di dettaglio sia Regionale che Provinciale. Il lavoro, come detto, è consistito nella raccolta dati effettuata presso gli enti di “governo territoriale” emiliano-romagnoli (la Regione, le 9 Province e i 348 Comuni) e nella successiva aggregazione, elaborazione e interpretazione di questi stessi dati. I Capitoli dal 15° al 19° definiscono lo stato attuale (all‟Ottobre 2010) e gli scenari previsionali (a breve termine e medio termine) per le differenti FER (rispettivamente, Biocombustibili, Eolica, Fotovoltaica, Geotermica e Idroelettrica), prima a livello Provinciale, quindi a livello Regionale. Nella conclusione di ogni Capitolo è contenuto un confronto con lo stato della FER presa in considerazione relativo agli anni precedenti, oltre che il confronto con gli obiettivi definiti per la tecnologia al 2010 dal precedente Piano Energetico Regionale. Questi Capitoli si chiudono con l‟analisi del trend storico della Fonte Energetica Rinnovabile considerata e con la conseguente individuazione dei potenziali obiettivi al 2012 e al 2015 da inserire nel prossimo Piano Energetico Regionale. E‟ presente anche l‟evoluzione stimata del “mercato” della singola FER presa in considerazione, oltre che della “tipologia tecnologica” sulla quale gli installatori e gli investitori tenderanno ad orientarsi sia nel breve che nel medio termine. I Capitoli 20°, 21° e 22° contengono invece lo stato “riassuntivo” delle Fonti Energetiche Rinnovabili, definite per il panorama emiliano-romagnolo (anche in questo caso, prima a livello Provinciale, successivamente a livello regionale) sotto un‟ottica temporale differente: il Capitolo 20° riassume lo stato attuale del parco “rinnovabile” complessivo emiliano-romagnolo, definendone l‟evoluzione storica e confrontandolo con gli obiettivi fissati al 2010 dal precedente Piano Energetico regionale, permettendo così di verificare –nel complesso- se le stime del 2004 erano state corrette. Il Capitolo 21° definisce l‟evoluzione del parco “rinnovabile” complessivo emiliano-romagnolo al 2012, sia a livello Provinciale che Regionale, definendone in questo modo un trend stimato di crescita e dei conseguenti obiettivi di breve termine, riferiti alle singole FER. Il Capitolo 22° definisce infine l‟evoluzione del parco “rinnovabile” complessivo emiliano-romagnolo al 2015 (ancora una volta, sia a livello Provinciale che Regionale) permettendo così di ricavare un trend stimato di crescita e, soprattutto, gli obiettivi di medio termine -riferiti alle singole FER- da inserire all‟interno del prossimo Piano Energetico Regionale. La conclusione permette di chiudere sinteticamente il lavoro svolto in precedenza, traendo le indicazioni più rilevanti dai dati e dalle considerazioni pregresse: come si evincerà, l‟Emilia Romagna risulta una Regione in cui gli obiettivi rinnovabili (e di “conversione energetica”) sono stati sostanzialmente raggiunti e, in alcuni casi, perfino superati. Il mercato rinnovabile è in crescita e le politiche locali e sovra locali evidenziano una marcata volontà di puntare prevalentemente su settori e tecnologie quali quella della biomassa e quella solare fotovoltaica. Nonostante questo, si evidenzia anche la necessità di lavorare a livello di enti regionali e provinciali, per omogeneizzare ulteriormente la distribuzione energetica “rinnovabile” sul territorio (implementando lo sviluppo di determinate fonti su distretti territoriali al momento non ancora raggiunti da tali mercati) e per provvedere ad una riduzione dei consumi energetici che consenta alle FER di avere una maggiore incidenza sui bilanci energetici ed elettrici, locali e regionali. Si ricorda che la “costruzione” di questa tesi è stata sviluppata parallelamente ad un‟attività di stage presso il settore Politiche energetiche dell‟Assessorato alle Attività Produttive della Regione Emilia – Romagna, che in questa fase sta procedendo alla definizione del nuovo Piano Energetico Regionale, e alla conseguente individuazione d
Resumo:
Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.